_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
43928
من در حال انجام آزمایشی هستم که در آن استحکام ماده ای را که برای جاده ها استفاده می شود اندازه گیری می کنم. در حالت ایده‌آل، من می‌خواهم از یک سطح بزرگ برای اندازه‌گیری استفاده کنم، اما این کار خیلی طولانی است و واقعاً گران است. بنابراین من آن را به یک منطقه که $50cm^2$ و یکی $12cm^2$ است کاهش می دهم. سپس می‌خواهم داده‌هایی را که از هر دو نمونه به دست می‌آورم مقایسه کنم و ببینم چگونه (اگر) تفاوت دارند. برای نمونه کوچک‌تر، مشاهدات کمتری نیز انجام می‌دهم، یعنی حدود 30 مقدار برای 50cm^2$ یک و فقط 3 یا 4 برای $12cm^2$ به دلیل هزینه‌اش دریافت خواهم کرد. من قصد داشتم از توزیع نرمال استفاده کنم، اما از آنجایی که داده های زیادی ندارم، نمی توانم استفاده از توزیع عادی را از طریق قضیه حد مرکزی توجیه کنم. آیا می توانم از یک آزمون ناپارامتریک مانند آزمون علامت استفاده کنم؟ یا، آیا در واقع چیزی شبیه به آزمون رتبه امضا شده Wilcoxon خواهد بود زیرا داده ها جفت شده اند، اینطور نیست؟ چگونه می توانم داده ها را از آنجا مقایسه کنم؟ متشکرم
از کدام روش آماری آنالیز استفاده کنم؟
93933
فرض کنید که من یک مدل رگرسیونی با دو متغیر توضیحی دارم: $Y = b_0 + b_1X_1 + b_2X_2 + \epsilon$ ضریب تعیین $R^2$ مقدار تغییرپذیری در متغیر پاسخ $Y$ را اندازه‌گیری می‌کند که می‌توان آن را توضیح داد. متغیر توضیحی با این حال، چگونه می توانم قدرت توضیحی را که منحصراً قابل انتساب به هر یک از دو متغیر توضیحی است و همچنین قدرت توضیحی مشترک آنها را دریابیم؟ می توانم به روش زیر فکر کنم. $X_1$ را نسبت به $X_2$ متعامد کنید و آن را $X_1^*$ بنامید. در مدل جدید زیر $Y = b_0 + b_1X_1^* + b_2X_2 + \epsilon$ ضریب تعیین $R^2$ را برای $X_1^*$ بدست می‌آورم، که قدرت توضیحی منحصربه‌فرد برای $X_1$ خواهد بود. همین کار را برای X_2$ انجام دهید. آیا این یک رویکرد معقول است؟ اگر بله، چگونه می توانم قدرت توضیحی مشترک را برای X_1$ و $X_2$ بدست بیاورم؟ اگر نه، آیا راه حلی دارید؟
قدرت توضیحی متغیرها در رگرسیون چندگانه
92035
من نمونه ای دارم که با 2500 مقدار داده های تعداد تشکیل شده است. من هیستوگرام و ecdf مربوطه را در R رسم کرده ام. من تست تک نمونه کولموگروف-اسمیرنوف را برای بررسی اینکه آیا توزیع نمایی یا سمی است اجرا کردم، اما نتایج منفی گرفتم. آیا ممکن است که آزمون تک نمونه ای کولموگروف-اسمیرنوف، تست صحیحی برای کار با این داده های شمارش نباشد. بهترین راه برای شناسایی توزیع برای این نوع داده ها چیست؟ ![ecdf و هیستوگرام](http://i.stack.imgur.com/DY1tJ.png)
چگونه یک توزیع منحنی را از روی داده های شمارش حدس بزنیم
99647
من اینجا تازه کارم در ادامه می خواهم در مورد نیاز به حجم نمونه برای آزمون فرضیه سؤالی بپرسم. اگر من نمونه هایی با 2 متغیر غیر همبسته (مثلا x,y) از یک توزیع نرمال دو متغیره (فرض شده) با میانگین و واریانس مجهول ترسیم کنم. من باید CEP را تعیین کنم در غیر این صورت 50٪ از جمعیت در X < x و Y < y قرار می گیرند. چقدر باید حجم نمونه بگیرم؟ **آنچه من به آن فکر کرده ام:** سعی کرده ام آن را به عنوان یک مسئله توزیع دوجمله ای نیز در نظر بگیرم (یا نمونه در شعاع معینی باشد یا نباشد r = sqrt(x^2 +y ^2) و تنظیم احتمال p=0.5 مطابق با جدول برای اطمینان 50% من در حین بررسی برخی ادبیات، حجم نمونه را محاسبه کردم. من اندازه نمونه برای توزیع گاوسی را در حدود 20-30 یافته ام
اندازه نمونه برای توزیع نرمال دو متغیره مورد نیاز است
74051
ترسیم منحنی ROC یک طبقه‌بندی کننده در مقایسه با موارد مستلزم این است که مجموعه داده‌ها ابتدا بر روی امتیاز طبقه‌بندی کننده مرتب شوند. من در موقعیتی هستم که باید خیلی سریع ROC را روی یک مجموعه داده بزرگ محاسبه کنم و مرتب سازی یک گلوگاه است (حتی با استفاده از مرتب سازی سریع در C یا F90). اگر به جای محاسبه ROC با آستانه گذاری در هر مورد در مجموعه داده، به جای آن آستانه هر 100 مورد را محاسبه کنم، زمان اجرای من بر اساس اینکه چگونه می توانم کد را بنویسم، با مرتبه های بزرگی کاهش می یابد. نتیجه یک منحنی ROC با 10000 نقطه به جای 1000000 است. آزمایش های من نشان می دهد که مساحت زیر این دو منحنی تا 5 رقم اعشار یکسان است. من می خواهم از این روش استفاده کنم، اما با کسی برخورد نکردم که سعی کند محاسبه را از این طریق سرعت بخشد. بیشتر روشن شده. در مورد استفاده از تجزیه و تحلیل ROC است که در آن مجموعه داده‌ها نسبتاً کوچک هستند و زمان اجرا مشکلی ندارد، بنابراین من کسی را پیدا نکردم که از این روش یا روش دیگری برای سرعت بخشیدن به محاسبه با نازک کردن نقاط روی منحنی استفاده کند. آیا کسی به مرجع/مطالعه ای برخورد کرده است که این یا روش دیگری را برای تسریع تجزیه و تحلیل ROC استفاده یا ارزیابی کرده باشد؟ اگر چنین است، یا اگر نظر دیگری دارید، لطفا به اشتراک بگذارید.
تخمین ROC/AUC در مجموعه داده های بزرگ؟
78929
من برای تخمین تتا برای تبدیل سینوس هایپربولیک معکوس کمک می خواهم با کد R. این تبدیل برای تبدیل داده های اریب که حاوی مقادیر منفی یا صفر هستند مفید است. چند پست مرتبط وجود دارد که در مورد IHS بحث می‌کند و پیشنهاد می‌کند که یک رویکرد حداکثر احتمال برای تخمین تتا وجود دارد، اما من نمی‌توانم نحوه اعمال آن را بیابم. این پست های مرتبط عبارتند از: * چگونه باید داده های غیر منفی از جمله صفر را تبدیل کنم؟ * تبدیل سینوس هذلولی معکوس: تخمین تتا لطفاً کد مثال زیر را ببینید. من با استفاده از معکوس IHS داده‌های ناهنجاری ایجاد کرده‌ام. اکنون، با توجه به داده های نادرست، و بدون دانش قبلی از تتا، چگونه می توانم بفهمم که تتا باید چیست؟ من از کد R برای انجام این تحلیل بسیار سپاسگزار خواهم بود. # تبدیل IHS و IHS معکوس آن را تعریف کنید <- تابع (x، تتا){ # تبدیل IHS معکوس (1/تتا)*asinh(تتا * x) } Inv.IHS <- تابع(x، تتا){ # تبدیل IHS (1/تتا)*sinh(تتا * x) } set.seed(1) # مقداری داده معمولی تولید می کند x <- rnorm(1000) hist(x, breaks='FD') # آن را با اعمال معکوس تبدیل IHS xt <- Inv.IHS(x, theta=2) hist(xt, breaks='FD') # بله این تغییر شکل داده است. چگونه می توانیم تتا را تخمین بزنیم؟ ![برای انحراف داده ها از معکوس IHS استفاده کنید](http://i.stack.imgur.com/VusX2.png)
چگونه می توانم تتا را برای تبدیل سینوس هذلولی معکوس تخمین بزنم؟
4694
در اینجا نمونه ای از خوشه بندی سلسله مراتبی ژن ها در داده های ریزآرایه با استفاده از **روش ژن جفت وزن دار** در Spotfire آورده شده است. من مطمئن نیستم که چگونه این کار را در `R` انجام دهم. در تابع «hclust»، من روش‌های «وارد»، «تک»، «کامل»، «متوسط»، «mcquitty»، «میانگین» یا «مرکز» را می‌بینم. همچنین، فرض کنید خوشه‌بندی سلسله مراتبی را انجام داده‌ام. و گروه‌هایی از ژن‌ها را با استفاده از روش «cuttree» پیدا کردم به طور جداگانه به روشی شبیه به روش Mfuzz برای نشان دادن خوشه ها می تواند به من کمک کند.
چگونه می توان خوشه بندی سلسله مراتبی جفت وزنی را در R انجام داد؟
77726
اگر می‌خواهم امتیاز پایه یک فراخوان دقت و f-measure یک طبقه‌بندی کننده را یاد بگیرم... که نمونه‌ها را به 2 کلاس طبقه‌بندی می‌کند، کلاس 1 دارای 100 نمونه است، کلاس 2 دارای 200 نمونه است، دقت و دقت پایه 200/(100 + است. 200) = 0.66 درسته؟؟ فراخوان پایه 200/(200+0) = 100 % درست است. اندازه گیری پایه F 2* [(0.66*1)/(1+0.66) ] با تشکر
ارزیابی طبقه‌بندی‌کننده پایه
4691
معلم من می پرسد که آیا می توان به آلفای کرونباخ در هنگام بررسی پایایی داخلی یک مقیاس **ترتیبی** نگاه کرد؟ او فکر می کند، چون شما از میانگین آن استفاده می کنید، امکان پذیر نیست، اما من آن را در تحقیقات قبلی نیز دیده ام. فکر می کنم امکان پذیر است، اما نمی توانم توضیح فنی برای این موضوع بدهم. چه کسی می تواند به من کمک کند؟
قابلیت اطمینان داخلی برای مقیاس ترتیبی
82509
من داده های سری زمانی در مورد صید ماهی از سال 1950 تا 2011 را دارم. من می خواهم یک مدل رگرسیون با ضرایب مختلف پیاده سازی کنم. من می‌دانم که مدل‌های کاکس و غیره از طریق بسته «بقا» در R وجود دارند و اجرا می‌شوند. داده‌های من داده‌های بقا نیستند، فقط چندین متغیر با صید ماهی و سال هستند. آیا راهی برای پیاده سازی چنین مدل هایی در R وجود دارد؟ من هنوز به این موضوع برخورد نکرده‌ام، اما فکر نمی‌کنم بی‌معقول باشد که بخواهیم چنین داده‌هایی را بدون داده‌های بقا مدل‌سازی کنیم. من می خواهم inlandfao را از marinefao مدل کنم. در اینجا داده های من و برخی نمودارها وجود دارد: fishdata <- read.csv(http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv, header=T) require(reshape2) require(ggplot2) theme_set(theme_bw ()) نیازمند (مقیاس) df2 <- data.frame(cbind(year,totalmarinefao, totalinlandfao)) df2 dd <- melt(df2, id.vars = year) dd pp <- ggplot(dd, aes(year, value, colour=variable)) + geom_point() + geom_line(size=1) pp_final <- pp + xlab (سال) + ylab (گرفتن (تن)) + ggtitle(سری زمانی متغیرها (1950-2011)) pp_final pp_final2 <- pp_final + scale_colour_discrete(name = Variable - Catches (FAO), breaks = c(totalmarinefao, totalinlandfao)، labels (دریایی، داخلی)) + scale_shape_discrete(name = متغیر (FAO)، breaks = c(totalmarinefao، totalinlandfao)، labels=c(Marine, Inland)) + scale_x_continuous(breaks=seq(1950,2011,10) ) + scale_y_continuous(labels=comma) pp_final2 pp_3 <- pp_final2 + theme(axis.text.x = element_text(vjust=1, size=16)) + theme(axis.title.x = element_text(size=20)) pp_4 <- pp_3 + theme(axis.text .y = element_text(vjust=0، size=16)) + theme(axis.title.y = element_text(size=20, vjust=0.2)) pp_5 <- pp_4 + theme(plot.title = element_text(lineheight=.8, face=bold, size=20)) pp_5 qplot(marinefao, inlandfao, data=fishdata , main=Scatterplot of the Marine & \n ماهی های داخلی (تن), xlab=Marine Catches, ylab=Inland Catches) + scale_x_continuous(labels = کاما) + scale_y_continuous(labels = کاما) از این نمودارها، یک مدل خطی مناسب نیست. من GAM و غیره را روی این داده ها نصب کرده ام. در صورت نیاز به جزئیات بیشتر اجازه دهید.
ضرایب متغیر زمان
77727
من سعی می کنم فواصل اطمینان را برای احتمالات انتقال بین مجموعه ای از حالت های گسسته در طول زمان محاسبه کنم (شامل چندین مرحله زمانی). در اینجا یک مثال اسباب بازی برای بدست آوردن احتمالات انتقال آورده شده است: # ایجاد یک مجموعه داده اسباب بازی حالات<- c(A, B, C) t1 <- sample(states,30,c(2/3,1/ 6،1/6)، جایگزینی=T) t2 <- نمونه (حالت، 30، c(2/3،1/6،1/6)، جایگزینی=T) t3 <- نمونه (حالت، 30، c(2/3،1/6،1/6)، جایگزینی=T) df.t <- data.frame(t1=t1,t2=t2,t3=t3) transition.matrix. t1 <- table(t1,t2) transition.matrix.t2 <- table(t2,t3) prob.trans.t1 <- t(apply(transition.matrix.t1,1,function(x) x/sum(x))) prob.trans.t2 <- t(apply(transition.matrix.t2,1,function(x) x/sum (x))) هر ردیف _df.t_ یک مشاهده نمونه در 3 دوره زمانی است. _prob.trans.t1_ شامل احتمالات انتقال برای مرحله زمانی t1->t2 است. در واقع، من هیچ دانش قبلی در مورد احتمالات زیربنایی ندارم و فقط یک نمونه تصادفی انتخاب شده دارم. من می خواهم یک فاصله اطمینان 95٪ برای احتمالات انتقال بالا _transition.matrix.t1_، _transition.matrix.t2_ محاسبه کنم.
فواصل اطمینان برای احتمالات انتقال بین حالت های گسسته شناخته شده
55784
من یک متغیر نسبتاً بزرگ دارم (5k متغیر x 120k مورد) که می‌خواهم الگوریتم کاهش ابعاد را روی آن اجرا کنم. من سعی کردم یک تحلیل عاملی ساده روی آن در SPSS انجام دهم، اما (به طور قابل پیش بینی) روی یک دستگاه 3 گیگابایتی شکست خورد. من با کوتاه کردن مجموعه داده‌ها به 2.5k متغیر و 25k مورد، پاسخی دریافت کردم، اما شروع کردم به این که آیا الگوریتمی غیر از Factor Analysis/PCA وجود دارد که بتواند مجموعه داده‌ها را بهتر مدیریت کند. سابقه من در توسعه نرم افزار بسیار قوی تر از سابقه من در آمار است. امیدوارم الگوریتمی وجود داشته باشد که بتواند مجموعه داده های اصلی و بدون نمونه را به راحتی در 3 گیگابایت رم کنترل کند. آیا کسی چنین الگوریتمی را می شناسد؟ اگر این یک سؤال متداول است، مرا ببخشید. من سعی کردم قبل از پست کردن پاسخ را پیدا کنم. **ویرایش**: در حالت ایده آل، من می خواهم یک پیاده سازی موجود در چیزی مانند R یا SPSS را داشته باشم، اما از آنجایی که من یک توسعه دهنده هستم، حتی یک راه حل مبتنی بر نرم افزار (مانند این ویژگی numpy را امتحان کنید) بسیار مفید خواهد بود.
الگوریتم کاهش ابعاد برای مجموعه داده های بزرگ؟
33324
من یک سوال غیر متعارف دارم که از پایان نامه کارشناسی ارشد فعلی من در مورد مدل سازی رگرسیون ناشی می شود. فرض کنید ما یک رابطه (خطی) بین یک متغیر وابسته $y$ و یک متغیر مستقل $x$ قرار داده ایم. اکنون دو نقطه در محور $x$ انتخاب می‌کنیم، یعنی با توجه به صدک‌های $x_{10}$ و $x_{90}$. این دو نقطه برای انتخاب نقاط داده برای دو گروه به منظور انجام مقایسه های زوجی انتخاب می شوند. در اولین اجرای، ما 20 جفت داده حول ارزش‌های $x$-$x_{10}$ و $x_{90}$ را انتخاب می‌کنیم و یک آزمون آماری را اجرا می‌کنیم تا بفهمیم که آیا مقادیر $y$-مقادیر آنها تفاوت قابل‌توجهی دارد یا خیر. در مرحله بعدی، مثلاً 30 نقطه داده در حدود $x_{90}$ را انتخاب می‌کنیم و با $x_{10}$ آزمایش می‌کنیم. در مرحله بعد، 40 نقطه داده در حدود $x_{90}$ و آزمایش در برابر $x_{10}$ و غیره. هدف از این کار تعیین اندازه گروه و در نتیجه پایین‌ترین مقدار x$ مربوطه است که در آن مقایسه قابل توجه است. چگونه با این مشکل برخورد می کنید من به یک روش چند به یک مانند آزمون دانت فکر کردم که در آن چندین گروه در برابر یک کنترل آزمایش می شوند (که در مثال ما می تواند $x_{10}$ باشد). با این حال، این گروه های چندگانه تا حدی شامل موضوعات مشابهی هستند. یا اینکه نوعی طراحی تطبیقی ​​انتخاب درستی است. یا چیزی کاملا متفاوت؟ من برای هر نوع کمکی بسیار خوشحال خواهم شد زیرا من کاملاً در این سؤال گیر کرده ام و نمی دانم چگونه آن را حل کنم. * * * ویرایش: ایده پشت این روش تعیین کمترین مقدار x است که در آن مقایسه زوجی مهم است. فرض کنید اولین و کوچکترین گروه حدود $x_{90}$ در برابر کنترل $x_{10}$ آزمایش شده است و قابل توجه نیست. بنابراین شما نگاهی به گروه بعدی می اندازید که شامل نقاط داده گروه 1 به اضافه 10 عدد اضافی و غیره است. اگر مقایسه زوجی معنی دار باشد، کوچکترین مقدار x گروه مربوطه را به عنوان نوعی نقطه تغییر تعیین می کنیم. چگونه می توان به چنین مشکلی نزدیک شد؟ خیلی ممنون آندرس
مقایسه های زوجی مطابق با برازش رگرسیون
5167
من ماتریس کوواریانس را از یک توزیع Wishart معکوس نمونه برداری می کنم. در حالت یک بعدی، پس از انجام تکرارهای کافی، مقدار مد را برای واریانس (بعد از حذف مقادیر سوختن) می‌گیرم. چگونه می توان همین کار را در یک مورد چند متغیره انجام داد؟
نمونه‌گیری ماتریس کوواریانس با استفاده از نمونه‌گیری گیبس
45804
> **موضوع تکراری:** > احتمال ابتلای همسرم به لوپوس چقدر است؟ یک یا دو روز پیش مردی در math.stackexchenge سوالی در مورد اینکه آیا همسرش احتمالاً با توجه به تشخیص بیماری لوپوس دارد یا نه، پست کرد. ابتدا، http://math.stackexchange.com/questions/256079/what-are-the-chances-my-wife- has-lupus به نظر می رسد می توانم یک اسکرین شات از سوال و پاسخ خود ارسال کنم که من پس از ابراز عدم رضایت OP حذف کردم. با این حال، اسکرین شات ها فضای بسیار زیادی را اشغال می کنند، بنابراین سعی می کنم یک سوال در اینجا مطرح کنم. به احتمال عجیبی که این مرد دوباره به سوال MSE خود نگاه می کند، آیا چیز ارزشمند دیگری می توان به او گفت؟ توجه داشته باشید که بعد از پاسخ من دو پاسخ وجود دارد که بهتر از من توضیح دادم که او اطلاعات کافی نداده است. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-= ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur .com/ePN2r.jpg) =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-= ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/D14gk.jpg) =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-= -=
به این بیچاره چه باید گفت؟
87326
من سعی می کنم منحنی توان توربین بادی را مدل کنم یا به عبارت دیگر با توجه به سرعت باد (X) می خواهم توان تولید شده (Y) را پیش بینی کنم. من می خواهم از داده های تاریخی برای تخمین این مدل استفاده کنم. می توانید اطلاعات بیشتری در مورد منحنی قدرت در اینجا بخوانید: http://www.windpowerwiki.dk/index.php?title=Power_curves. در منحنی توان تغییر مقیاس داده شده در زیر، توان هرگز نمی تواند کمتر از 0 و هرگز بالاتر از 4 باشد، و سرعت باد هرگز نمی تواند زیر 0 باشد. **سوال 1**: از چه نوع مدلی برای پیش بینی Y با X استفاده می کنید ( خط قرمز در طرح LOESS مناسب است)؟ **سوال 2**: آیا در مدل پیشنهادی شما می توان از متغیرهای تاخیری Y استفاده کرد؟ نقاط روی نمودار در طول زمان اندازه گیری می شوند، بنابراین اگر یک نقطه بالاتر از خط قرمز باشد، به احتمال بسیار زیاد اندازه گیری بعدی در زمان نیز بالای خط قرمز است (این به این دلیل است که یک پیش بینی مهم دیگر، فشار هوا، شامل نمی شود. در مدل، بنابراین من فرض می‌کنم که خودهمبستگی مهمی وجود دارد). چگونه می توانم این را در نظر بگیرم؟ متشکرم! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JegJv.jpg)
چه نوع رگرسیون غیر خطی را روی این داده ها استفاده می کنید
41385
من از تحلیل تفکیک خطی استفاده می کنم و می خواهم مفروضات مختلف را در مورد ماتریس کوواریانس مقایسه کنم. می‌خواهم بررسی کنم که اگر از ماتریس کوواریانس متناسب با ماتریس هویت استفاده کنم چه اتفاقی می‌افتد، اگرچه داده‌های من از چنین ماتریس کوواریانسی نمی‌آیند. من نمونه ماتریس کوواریانس زیر را دریافت می کنم: $$ \begin{bmatrix} \sigma_1^2 & b \\\ b & \sigma_2^2 \\\ \end{bmatrix} $$ با این حال، من نمی‌خواهم از این ماتریس استفاده کنم . من می خواهم از چیزی مانند: $$ \begin{bmatrix} \sigma^2 & 0 \\\ 0 & \sigma^2 \\\ \end{bmatrix} $$ استفاده کنم پس چگونه می توانم $\sigma^2$ را تخمین بزنم از ماتریس اول آیا این درست است؟ $$ \sigma^2 = (\sigma_1^2 + \sigma_2^2)/2 $$
استنتاج یک واریانس منفرد از ماتریس کوواریانس
87694
من یک تحلیل رگرسیون خطی را در R اجرا می‌کنم. یک متغیر یک متغیر نتیجه پیوسته (امتیاز2) و دیگری یک متغیر طبقه‌بندی برای گروه درمانی (گروه) است. من همچنین یک متغیر کمکی دارم که اندازه گیری زمان 1 متغیر نتیجه (امتیاز1) است. بنابراین مدل در R به این شکل است: lm(score2~group + score1, data=dataSet) این سوال پیش می‌آید: وقتی من باقیمانده‌ها را رسم می‌کنم، نمودارها شواهدی از غیر خطی بودن را نشان می‌دهند (یک نمودار U شکل). اگر هر دو متغیر من به جای دسته بندی پیوسته بودند، مطمئن هستم که باید غیرخطی بودن را تصحیح کنم (مثلاً با استفاده از Box-Cox). آیا داشتن پیش‌بینی‌کننده طبقه‌ای این را تغییر می‌دهد یا هنوز باید اصلاح کنم؟
تصحیح برای روند غیرخطی که در نمودار باقیمانده مشاهده می‌شود، زمانی که پیش‌بین مقوله‌ای باشد
22040
چندین سوال خوب و مجموعه‌ای از پاسخ‌ها درباره کتاب‌های مقدماتی یا رویکردهای یادگیری R eg در اینجا و اینجا وجود دارد. اما من یک مشکل کمی متفاوت دارم - بهترین راه برای اجرای یک جلسه یک ساعته (یا چندین جلسه از این قبیل) در یک آزمایشگاه کامپیوتر که باعث می شود مردم در R شروع به کار کنند، با رویکرد اصلی آن آشنا شوند و غیره. برنامه فعلی من این است که به طور مؤثر کار کنم. از طریق فصل/های مقدماتی چیزی مانند Verzani's SimpleR و سپس معرفی یک مجموعه داده آشنا، اما آیا رویکرد دیگری وجود دارد که مردم آن را مفید بدانند؟ به عنوان مثال، آیا خوب است که داده های واقعی را فوراً معرفی کنیم یا مسائل را به روشی انتزاعی تر بررسی کنیم؟ آیا باید به طور کامل نحوه استفاده از براکت های مربع را بررسی کنم یا با نمونه هایی از گرافیک شبکه مردم را هیجان زده کنم؟ مخاطبان هدف من با آمار (اگرچه نه متخصص) و کاربران شایسته SPSS آشنا هستند. با زبان های برنامه نویسی فراتر از نوع ماکرو و اسکریپت نویسی که در SPSS و موارد مشابه دریافت می کنید آشنا نیست. هر گونه راهنمایی یا ارجاع به طرح دروس قدردانی خواهد شد. با این حال، من نمی‌خواهم فهرست‌های خوب بسیاری از مطالب آنلاین را که R را معرفی می‌کنند تکرار کنم - دقیقاً به سؤالات آموزشی چهره به چهره اشاره می‌کند.
روش خوبی برای آموزش R در آزمایشگاه کامپیوتر چیست؟
87325
موضوع این است که اداره ملی آمار به طور دائم روش محاسبه متغیرها را در طول دوره کلی تغییر داد. اکنون دو سری زمانی رسمی برای یک متغیر دارم. یکی از آنها دوره 1985 تا 2004 با استفاده از رویکرد روش شناسی قدیمی و دیگری شامل دوره 1995 تا 2011 با استفاده از رویکرد روش شناسی جدید است. این امر مقایسه فوری بین این دو دوره را با مشکل مواجه می‌کند، بنابراین می‌خواهم بدانم آیا کسی از روش‌های آماری به خوبی پشتیبانی می‌کند که: استفاده از داده‌های هر سری در دوره تقاطع زمانی (1995-2004) به عنوان اطلاعات _ پیشینی_ ، به من این امکان را می دهد که 1995-2011 را کالیبره کنم و به دوره 1985-1995 برگردانم (یا مقادیر را نسبت دهم)، بنابراین من می توانم مقایسه کنم که آیا سریال اصلی 1985-1995 مانند سریال های قدیمی 1985-1995 رفتار می کند. ارجاعات مورد استقبال قرار خواهند گرفت. با احترام
تنظیم سری های زمانی برای تغییرات روش شناختی در طول دوره زمانی
22041
من از برنامه stable.exe رایگان جی. نولان برای تطبیق مدل پایدار پارتو-لوی با برخی از داده های درآمد استفاده می کنم. این گزینه 3 برازش نمونه دو متغیره در برنامه است. در فایل متنی دستورالعمل آمده است که پس از انتخاب گزینه 3 و آپلود داده ها (داده = یک فایل متنی حاوی یک ستون اعداد--سطوح درآمد در هر صدک): برخی آمار توصیفی نمایش داده می شود و شما خواهید دید. برای اینکه چه نوع تناسبی را می‌خواهید، گزینه‌ها عبارتند از: تناسب حداکثر احتمال، برازش چندکی مک‌کالوخ، روش مشخصه نمونه کوتروولیس-کوگون-ویلیامز، کاربر. پارامترهای ارائه شده و تناسب معمولی. دستورالعمل‌ها همچنین اشاره می‌کنند که تعدادی چیز دیگر از من خواسته می‌شود، مانند روش جستجو و مرزهای چهار پارامتر. وقتی من این کار را انجام می دهم هیچ کدام از اینها اتفاق نمی افتد. پس از آپلود داده‌هایم، چیزی که دریافت می‌کنم خطی است که تعداد مقادیر خوانده شده از فایل داده را می‌گوید (مثلاً 14 بردار داده خوانده شده)، و سپس خطی که می‌گوید جهت طرح ریزی: 0-360 درجه اولین سوال من است. این است: جهت پرتاب: 0-360 درجه به چه معناست؟ در دستورالعمل ها به این موضوع اشاره نشده است. در مرحله دوم، من یک زاویه، مثلاً 90 درجه وارد می‌کنم و سپس جدولی از «داده‌های طرح‌ریزی» و مقادیر چهار پارامتر (آلفا، بتا، گاما، دلتا) در سه دسته دریافت می‌کنم: پارامترهای S0، پارامترهای S و پارامترهای S*. . آیا اینها مقادیر برازش پارامترها هستند؟ و این سه دسته مختلف به چه معناست؟ چیزهای دیگری وجود دارد که من را گیج می کند، اما من با این شروع می کنم. با تشکر
سوالاتی در مورد برنامه stable.exe نولان
4695
فرض کنید من مشاهدات سری های زمانی از توزیع های گرفته شده از برخی جمعیت را دارم. یعنی، من $X_{t,i}$ را برای $t=1,2,...,T,$ و $i=1,2,...,n$ مشاهده می کنم، جایی که معتقدم که $X_{ t,i}$ دارای pdf $f(\theta_i)$ هستند. (من ایده ای در مورد توزیع $\theta_i$ دارم، اما ممکن است در اینجا مهم نباشد.) من یک نمونه آماری دارم که با توجه به برخی مشاهدات، تخمین خوبی برای $\theta_i$ است. با این حال، این ظن وجود دارد که، در واقع، $\theta_i$ ثابت نیستند، بلکه مشاهدات از $f(\theta_{t,i})$، جایی که $\theta_{t,i}$ هستند می‌آیند. در طول زمان به آرامی تغییر می کند. چگونه می توانم این را با آزمون فرضیه رسمی یا آزمایش کاه چشم آزمایش کنم؟ مقدار داده های موجود در حوزه زمان چندان زیاد نیست (_i.e._ $T$ آنقدر بزرگ نیست)، بنابراین تقسیم بندی دامنه زمانی و محاسبه تخمین نمونه بر روی هر پارتیشن فقط برای تعداد کمی توصیه می شود. مثلاً 5) از پارتیشن ها (زیرا در غیر این صورت خطای استاندارد تخمین خیلی زیاد است). با این حال، تعداد سری ها، $n$، بزرگ است، مثلاً 10000. من متوجه شدم که تعدادی شکاف در این سوال وجود دارد، مثلاً چگونه $\theta_{t,i}$ ممکن است با زمان تغییر کند، خطای استاندارد تخمین‌گر پارامتر، و غیره. قدردانی کرد. برای دقیق بودن، می‌توان X_{t,i}$ را به‌عنوان معمولی با میانگین $\theta$ و انحراف استاندارد $1$ در نظر گرفت، و آمار نمونه میانگین نمونه است.
چگونه ثابت بودن پارامتر را آزمایش کنیم؟
41389
من در حال گذراندن دوره استنباط آماری هستم. من در درک برخی از این اصطلاحات مشکل دارم: 1. آمار کافی: آماری که به پارامتر بستگی ندارد، مثلاً $\Sigma X$ برای توزیع عادی 2. آمار کافی کامل: این را نمی‌دانم. چرا کامل؟ آیا کافی نیست؟ برای چه استفاده می کنیم؟ 3. UMVUE: من می‌دانم که این بهترین برآوردگر بی‌طرفانه است. نتیجه قضیه رائو بلکول است؟ 4. قضیه Rao-Blackwell: ما از این استفاده می کنیم تا نشان دهیم برآوردگر بی طرف دارای کمترین واریانس است، بنابراین بهترین. 5. قابل قبول: برآوردگر $\delta(X)$ دارای ریسک کمتری نسبت به هر برآوردگر است. به نظر می رسد هر دوی آنها بهترین برآوردگر را نشان می دهند. آیا کسی می تواند به من بگوید که آیا آنها را به درستی درک کرده ام؟ یا چه چیزی را از دست داده ام؟ آیا مثالی وجود دارد که کسی بتواند به من اشاره کند، تا بتوانم آن را بهتر درک کنم. امتحانی در پیش دارم خیلی ممنون
کافی، کامل کافی، UMVUE، Rao-Blackwell، قابل قبول. چه ارتباطی بین اینها وجود دارد؟
77728
من سعی می کنم میانگین نسبت دو توزیع شمارش تجربی $f(x)$ و $b(x)$ تعریف شده در محدوده محدود $[-1, 1]$ $$ \left<\frac{f را تخمین بزنم. (x)}{b(x)}\right> $$ $f(x)$ و $b(x)$ در یک آزمایش شمارش با پر کردن هیستوگرام‌های وزن‌نشده که پواسون دارند اندازه‌گیری می‌شوند. عدم قطعیت در هر سطل برای محاسبه ساده لوحانه میانگین، می توانم یک binning برای هیستوگرام ها انتخاب کنم که به اندازه کافی درشت باشد که سطل ها تعداد کافی برای تخمین نسبت و عدم قطعیت آن را داشته باشند (مثلاً بیش از صفر شمارش در $b$) و نسبت در هر bin در $x محاسبه شود. $ و سپس میانگین را در محدوده کامل $x$ در هیستوگرام نسبت به دست آمده به دست آورید. در عین حال، استفاده از باینینگ درشت تر به این معنی است که هنگام استخراج میانگین، وضوح را از دست می دهم. آیا راه‌های ممکن دیگری برای تخمین این میانگین وجود دارد که به من امکان می‌دهد فقط برای اینکه $b$ هرگز 0 نباشد، از rebining اجتناب کنم؟ قدرت محاسباتی مسئله ای نیست، بنابراین رویکردهای تکراری کاملاً خوب هستند.
برآورد میانگین نسبت توزیع های تجربی
87323
من داده های پانل فرکانس پنج ساله شامل سن، CC، خودرو، سن و جنسیت شخص بیمه شده و منطقه جغرافیایی را دارم. من یک رگرسیون پواسون را برای مدل‌سازی فرکانس ادعا در R اجرا کرده‌ام. اکنون می‌خواهم یک اثر ثابت و تصادفی پواسون را آزمایش کنم. چگونه می توانم ادامه دهم؟
اثر ثابت و تصادفی پواسون
100325
من تجزیه و تحلیل عاملی را روی R با استفاده از فکتانال انجام دادم. به دنبال توصیه ای که در این آموزش دیدم، تعداد فاکتورها را به عنوان تعداد مؤلفه های اصلی انتخاب کردم که 90 درصد از تغییرپذیری را در بر می گیرد. من جدول نتایج زیر را دریافت کردم: Factor1 Factor2 Factor3 Factor4 Factor5 Factor6 Factor7 Factor8 Factor9 SS loadings 29.677 9.530 6.340 5.638 4.188 3.636 1.484 0.804 0.600909090.6509. 0.059 0.044 0.038 0.015 0.008 0.007 Var تجمعی 0.309 0.408 0.474 0.533 0.577 0.615 0.630 0.638 0.645 فرضیه کافی است که آزمون فرضیه آمار مربع کای 30148.02 در 3732 درجه آزادی است. p-value 0 است من با یک فاکتور امتحان کردم و مقدار p هم 0 گرفتم... 1. چرا var تجمعی کوچکتر از 9 PC برای یک pca است؟ 2. چگونه می توانم جدول بالا را برای انتخاب تعداد صحیح فاکتورها تفسیر کنم؟ (از آنجایی که مقدار p برای 1 عامل از 9 عامل یکسان است)
تفسیر نتایج یک تحلیل عاملی
78926
می‌خواستم بدانم که آیا کسی می‌تواند شهودی درباره زمانی که اسناد در LDA برای ارائه هیچ مزیتی کوچک است، ارائه دهد. به عنوان مثال، من مقالاتی را دیده ام که در آن افراد از پنجره های متنی 5 کلمه ای به عنوان اسناد استفاده کرده اند که به نظر من چندان منطقی نیست زیرا این مدل فقط کلمات را در نظر می گیرد (بدون ساختار). به جای LDA باید از تعداد کلمات بیشتر استفاده شود.
در چه نقطه ای استفاده از LDA (تخصیص دیریکله نهفته) منطقی نیست؟
43929
من یک ANOVA ترکیبی 2×3 بین سوژه‌ها (زمان گروهی) انجام می‌دهم. من 20 شرکت کننده دارم، 10 نفر برای هر گروه، که هر 3 اقدام را به مرور انجام می دهند. آزمون برابری واریانس لوون برای هر دو زمان 1 و زمان 3 معنادار نیست. متأسفانه، در زمان 2، گروه 1 (M = 2869، SD = 1571) و گروه 2 (M = 6706، 3521 = SD) دارای واریانس قابل توجهی هستند که همگن نیستند (016/0 = p). آیا این خیلی بد است؟ آیا می توانم به نتایج ANOVA اعتماد کنم؟ متشکرم!
واریانس ها مشکل همگنی در ANOVA مخلوط بین آزمودنی ها ندارند، خیلی بد است؟
33327
خواندن صفحه راهنمای mgcv::gam: فاصله‌های اطمینان/معتبر برای هر مقداری که با استفاده از یک مدل مناسب پیش‌بینی می‌شود به آسانی در دسترس است اما من نمی‌توانم راهی برای دریافت آن پیدا کنم. فکر می‌کردم «predict.gam» یک «type=اعتماد» و یک پارامتر «level» داشته باشد، اما اینطور نیست. آیا می توانید در مورد نحوه ایجاد آن به من کمک کنید؟
فاصله اطمینان برای مدل گام
83835
مطمئن نیستم که سوال من معتبر است یا خیر، اما آن را در اینجا مطرح می کنم. یک مجموعه داده دو متغیره $(x_i, y_i)$ $[i=1,...,n]$ را در نظر بگیرید که یک توزیع گاوسی دو متغیره به آن برازش داده شده است. اکنون، یک نقطه داده $z=(x_p, y_p)$ را در نظر بگیرید. مایلم فاصله اقلیدسی $z$ را از میانگین گاوسی دو متغیره $(\mu_1, \mu_2)$ بر حسب $\sigma$ بیان کنم، ماتریس واریانس کوواریانس در اینجا. آیا می توان این کار را انجام داد؟ انگیزه من برای این سوال ناشی از حالت تک متغیره است که در آن فاصله فوق الذکر به راحتی بدست می آید. آیا می توان این کار را برای حالت دو متغیره انجام داد؟ اگر بله، هر گونه کمکی از نظر تئوری یا کد R مفید خواهد بود زیرا من در مورد هر دو بی اطلاع هستم. با تشکر
فاصله از میانگین گاوسی دو متغیره از نظر واریانس
87329
من سعی می کنم پیش بینی کننده های تولید آلودگی شرکت ها از برخی مواد شیمیایی خاص را مطالعه کنم. داده‌هایی که من استفاده می‌کنم دارای 0‌های زیادی هستند (یعنی شرکت اصلاً با آن مواد شیمیایی آلوده نشده است) و سپس با دم راست بلند پیوسته هستند. من دیده ام که دیگران این داده ها را با ثبت متغیر وابسته پس از افزودن 1 مدل می کنند. احساس من این است که این اشتباه است، اما دلیل آن را نمی فهمم. کسی میتونه توضیح بده این رویکرد بسیار ساده‌تر از آن چیزی است که فکر می‌کنم باید انجام دهم - با استفاده از مدل‌های دو قسمتی با تورم صفر برای داده‌های نیمه پیوسته - بنابراین اگر معلوم شود که صرفاً 1 اضافه می‌شود و ثبت‌نام درست است، هیجان‌زده خواهم شد. دوم، من یک فایل Stata ado برای اجرای مدل‌های دو قسمتی با باد صفر برای داده‌های نیمه پیوسته پیدا کرده‌ام. آیا راهی برای گنجاندن افکت های ثابت در این نوع مدل وجود دارد؟
مدل های دو قسمتی با باد صفر برای داده های نیمه پیوسته
45803
من سعی می کنم یک نتیجه باینری را با استفاده از 50 متغیر توضیحی پیوسته پیش بینی کنم (محدوده اکثر متغیرها -∞ تا ∞ است). مجموعه داده من تقریباً 24000 ردیف دارد. وقتی glm را در R اجرا می‌کنم، دریافت می‌کنم: پیام‌های اخطار: 1: glm.fit: الگوریتم همگرا نشد 2: glm.fit: احتمالات برازش عددی 0 یا 1 رخ داده است من پاسخ‌های دیگری را خوانده‌ام که نشان می‌دهند ممکن است جدایی کامل رخ دهد ، اما من مطمئن هستم که در داده های من اینطور نیست (اگرچه ممکن است جداسازی شبه کامل وجود داشته باشد؛ چگونه می توانم آزمایش کنم تا ببینم آیا چنین است؟). اگر برخی از متغیرها را حذف کنم، ممکن است خطای همگرا نشد از بین برود. اما همیشه اینطور نیست. من سعی کردم از همان متغیرها در یک تابع bayesglm استفاده کنم و همان خطاها را دریافت کردم. برای اینکه بفهمید اینجا دقیقا چه خبر است، چه مراحلی را انجام می دهید؟ چگونه متوجه می شوید که کدام متغیرها باعث ایجاد مشکلات می شوند؟
رگرسیون لجستیک در R منجر به پدیده هاک دانر شد. حالا چی؟
99559
اجازه دهید $X_1،\dots،X_n$ i.i.d باشند. نمونه از توزیع یکنواخت در $ (0,1) $. اجازه دهید $\hat F_n$ تابع توزیع تجربی _modified_ آنها باشد که توسط $$ \hat F_n(x)=\frac1{n+2}\left(1+\sum_{i=1}^n1_{\\{X_i\ تعریف شده است. le x\\}}\right) $$ برای هر $x$، که $1_A$ تابع مشخصه رویداد $A$ است. $T_n$ را با $$ تعریف کنید T_n=\int_0^1\left\\{\Phi^{-1}(\hat F_n(u))-u\right\\}du $$ که در آن $\Phi$ است توزیع نرمال استاندارد تجمعی من می خواهم $E(T_n^k)$ را برای $k\ge 1$ محاسبه کنم. برای $k=1$، $E(T_n)$ را می توان به صورت زیر محاسبه کرد: اجازه دهید $X_{(1)}\le \dots\le X_{(n)}\le X_{(n+1)}= 1 دلار آمار سفارش داده شده مشاهده ما باشد. سپس \begin{align} E(T_n)&=\sum_{i=0}^n\int_0^1\left\\{\Phi^{-1}\left(\frac{i+1}{n+ 2}\right)-u\right\\}P\left(X_{(i)}\le u\le X_{(i+1)}\right)du\\\ &=\sum_{i=0}^n\int_0^1\left\\{\Phi^{-1}\left(\frac{i+1}{n+2}\right)-u\right\ \}{n\i}u^i(1-u)^{n-i}du را انتخاب کنید. \end{align} اما چگونه می توانم لحظه دوم $T_n$، یعنی $E(T_n^2)$ را محاسبه کنم؟ آیا کسی می تواند به من کمک کند؟ هر گونه کمکی بسیار قدردانی خواهد شد.
لحظه متغیر تصادفی در فرم انتگرال
5160
من به دنبال یک آموزش خوب در مورد خوشه بندی داده ها در `R` با استفاده از فرآیند dirichlet سلسله مراتبی (HDP) (یکی از روش های اخیر و محبوب بیزی ناپارامتریک) هستم. «DPpackage» (IMHO، جامع‌ترین بسته موجود) در «R» برای تحلیل بیزی ناپارامتریک وجود دارد. اما من نمی‌توانم نمونه‌های ارائه‌شده در «R News» یا کتابچه راهنمای مرجع بسته را به خوبی برای کد HDP درک کنم. هر گونه کمک یا اشاره گر قدردانی می شود. اجرای C++ HDP برای مدل‌سازی موضوع در اینجا موجود است (لطفاً برای کد C++ به پایین نگاه کنید)
تحلیل بیزی ناپارامتریک در R
41383
اول از همه، این یک سایت عالی است و من قبلاً از موضوعاتی که در اینجا به دنبال پاسخ سوالات آماری خود در وب هستم، چیزهای زیادی یاد گرفته ام. با این حال یک مورد دیگر وجود دارد: من درک می کنم که فرض استقلال خطاها در آزمون t به این معنی است که شما نباید قادر به پیش بینی مقدار متغیر نتیجه در هر مشاهده ای از مقادیر موجود در مشاهدات دیگر باشید. 1. این به مشاهدات بدون توجه به عضویت گروه اشاره دارد (مانند گروه 1 و گروه 2 آزمون t)، درست است؟ یعنی نه باید بتوانید متغیر نتیجه را بر اساس مشاهدات دیگر متغیر نتیجه در داخل یک گروه پیش بینی کنید و نه بین گروه ها؟ 2. و آیا آزمون t زوجی به دلیل نقض خاص این فرض ضروری است به این معنا که می توانید مشاهدات یک گروه را از مشاهدات گروه دیگر پیش بینی کنید؟ 3. و در نهایت، پس آزمون t زوجی باید همچنان مستلزم استقلال مشاهدات در 2 گروه باشد، درست است؟ اگر به درستی متوجه شده باشم، اولین پاسخ در تاپیک زیر اساساً فرضیات من را تأیید می کند، اما از آنجایی که کاملاً مطمئن نیستم، فکر کردم به صراحت در مورد آن بپرسم. سوال در مورد فرض استقلال برای آزمون های ANOVA، t-test و آزمون های ناپارامتریک با تشکر و سلامتی هانس
فرض استقلال خطا در آزمون تی زوجی و مستقل
83838
می‌خواهم بدانم رد کردن نقاط داده در تحلیل رگرسیون چه تأثیری دارد. به عنوان مثال، فرض کنید در ابتدا نمونه‌ای از 100 نقطه داده جمع‌آوری شده است (مثلاً همه آنها مشاهدات مفید، به همان اندازه قابل اعتماد هستند، بدون نقاط پرت) اما فرد تصمیم می‌گیرد که یک مدل را تنها در 50 یا 60 نقطه از این نمونه قرار دهد. اجازه دهید همچنین بگوییم که نقاط حذف شده به طور تصادفی انتخاب نمی شوند. من در حال بررسی موردی هستم که در آن پارامترهای توزیع نرمال $\Phi$, $\sigma$ و $\mu$ با استفاده از رگرسیون خطی ساده تخمین زده می‌شوند: $$ X=\sigma \Phi^{-1}(p (X)) + \mu $$ نقاطی که به طور سیستماتیک در این مثال نادیده گرفته می شوند، نقاطی هستند که احتمال $p(X)$ 0 یا 1 دارند، زیرا توزیع نرمال استاندارد همگرا نمی شود. وجود دارد. از خواندن گرین (1991)، متوجه شدم که رد کردن نقاط داده، قدرت تحلیل را کاهش می دهد. 1/ اولاً، در زمینه تحلیل رگرسیون، من 100٪ مطمئن نیستم که این به چه معناست (احتمال خطای نوع دوم را افزایش می دهد؟ در چه؟). 2/ به غیر از این، رد کردن نقاط داده چه پیامد دیگری دارد؟ رفر. گرین، S.B. (1991). برای انجام تحلیل رگرسیون به چند موضوع نیاز است؟ تحقیقات رفتاری چند متغیره، 26(3)، 499-510.
تأثیر حذف نقاط داده در رگرسیون
55785
من در حال کار بر روی یک مشکل در فضای تبلیغات آنلاین هستم. من سعی می کنم مصرف کنندگانی مشابه مجموعه مصرف کنندگانی که در گذشته یک محصول را خریداری کرده اند (تبدیل شده اند) شناسایی کنم. اگر بتوانم کاربران «مشابه» را شناسایی کنم، می‌توانم پیام‌های هدفمند را با هدف تبدیل آنها به مشتریان پولی به آنها ارائه دهم. من به این مسئله به عنوان یک مشکل مدل سازی پیش بینی نزدیک شده ام. من از KNN و رگرسیون لجستیک برای تعیین عوامل اصلی تأثیرگذار بر متغیر هدف («مبدل بودن») استفاده کرده‌ام. من احساس می‌کنم که دارم به این موضوع اشتباه می‌کنم، زیرا در مجموعه «غیر تبدیل‌کننده» من مجموعه‌ای از افراد را دارم که از هر نظر کاملاً شبیه «تبدیل‌کنندگان» هستند. بنابراین، اگر من یک مدل کامل بسازم، برای تشخیص «غیر مبدل» که باید «مبدل» باشد، مفید نخواهد بود. هدف نهایی من شناسایی غیر مبدل هایی است که رفتاری مشابه با مبدل ها دارند. آیا هدف من از این مدل باید پیش‌بینی مبدل‌ها با دقت بالا باشد، و استدلال کنم که کاربران طبقه‌بندی شده به عنوان مبدل‌هایی که در واقع مبدل نیستند، در مجموعه مصرف‌کنندگانی قرار می‌گیرند که من باید هدف قرار دهم؟ آیا کسی می تواند کمک کند که من را در مسیر درست هدایت کند؟
یافتن کاربران مشابه
43922
روش صحیح ترکیب منابع مختلف تنوع چیست؟ به عنوان مثال، اگر بدانیم که در شرایط عادی، یک ماشین قطعاتی با قطرهای توزیع شده نرمال با مقداری $\mu$ و $\sigma$ تولید می کند و اندازه گیری این قطر نویز توزیع شده عادی خود را با $\sigma_{ دارد. meas}$. سپس از $n$ قطعات نمونه برداری می کنیم و هر کدام را دقیقا یک بار اندازه می گیریم. با این فرض که ماشین آلات خوب کار می کنند، میانگین و انحراف معیار اندازه گیری ها چقدر خواهد بود؟ من در حال حل تکلیف هستم. من این تکلیف را به نقطه ای که فکر می کنم نقطه محوری آن است، برداشته ام، که می توانم از آن خارج شوم.
روش مناسب برای مقابله با چندین منبع تنوع
92180
من در تلاش برای درک اشتقاق خطای پیش‌بینی مورد انتظار در پایین (ESL)، به‌ویژه در مشتق 2.11 و 2.12 (شرطی کردن، گام به سوی حداقل نقطه‌ای) هستم. هر گونه اشاره گر یا پیوندی بسیار قدردانی می شود![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rD05O.png)
خطای پیش بینی مورد انتظار - اشتقاق
86922
اگر $X$ از یک توزیع یکنواخت گسسته، {1،2،.....،N} گرفته شود، چرا MLE N=X است؟ من می توانم یک استدلال شهودی ارائه دهم که از آنجایی که شما فقط یک مشاهده را مشاهده می کنید، این بزرگترین مقدار و در نتیجه حداکثر است. اما آیا یک مشتق ریاضی خوب از طریق argmax یا هر چیزی شبیه آن وجود دارد؟ با تشکر
چرا MLE N توزیع یکنواخت گسسته همان مقداری است که انتخاب می کنید؟
78920
می‌پرسیدم: آیا کسی می‌تواند من را به مقاله‌ها (ترجیحا) یا کتاب‌های درسی راهنمایی کند که توضیحات قوی درباره پیشینه ریاضی پشت ANOVA ارائه می‌دهند؟
توضیحات ریاضی پشت ANOVA
41654
من یک پناهنده از SPSS هستم و در حال یادگیری مجدد نحوه انجام همه کارها در R هستم. بیشتر اوقات سرگرم کننده است، زیرا R برای بسیاری از چیزها عالی است اما به مشکلی برخورد کرده ام که به نظر نمی رسد پیدا کنم. راه حلی برای؛ هر گونه کمک قدردانی می شود. من می خواهم ANOVA اندازه گیری های مکرر را با کنتراست اجرا کنم. من می‌دانم که مدل‌های ترکیبی خطی عموماً راه بهتری هستند، اما من در جامعه‌ای کار می‌کنم که در آن تازه شروع شده است و دانش‌آموزانم وقتی با تکنیک‌های قدیمی‌تر مواجه می‌شوند باید بفهمند که چه می‌خوانند. SPSS تضاد در اندازه گیری های مکرر را آسان می کند، اما R کارهای عجیبی انجام می دهد که من نمی فهمم. در اینجا یک نمونه وجود دارد: df.wide = data.frame (Subj = 1:8، Day1 = c(6,5,5,6,7,4,4,5), Day2 = c(5,5,6,5 ,3,2,4,7), Day3 = c(2,4,3,4,3,1,1,2)) ضمیمه (df.wide) ## تضاد به عنوان آزمون t خطی = -روز1 + 0*Day2 + Day3 Day1vs23 = -2*Day1 + Day2 + Day3 t.test(خطی) t.test(Day1vs23) ## اندازه‌گیری‌های مکرر با کتابخانه داده‌های با فرمت طولانی (reshape2) df.long = melt (df.wide , id.vars=Subj, variable.name=Trial, value.name=DV) کنتراست ها(df.long$Trial) = contr.poly(3) df.long$Subj = factor(df.long$Subj) Anv = aov(DV ~ آزمایشی + خطا (Subj/Trial)، داده=df.long) خلاصه (Anv، split=list(Trial=list(Linear=1، Quad=2))) آزمون های t نشان می دهد t-مقادیر 7.51 برای خطی و 1.27 برای درجه دوم است، اما این با خروجی «aov()» مطابقت ندارد، که مقادیر F 25.28 و 2.51 را ارائه می‌کند و البته مقادیر p بسیار متفاوتی را ارائه می‌کند. تضادهای SPSS در اندازه‌گیری‌های مکرر، مقادیر t و مقادیر F را به دست می‌دهد که با هم مطابقت دارند. به نظر می رسد که R عبارت خطا را مانند SPSS برای کنتراست ها تقسیم نمی کند، و هر دو کنتراست در برابر 14 d.f آزمایش می شوند. عبارت خطا، به همین دلیل با آزمون t مطابقت ندارد. این به نظر من اشتباه است. بنابراین، من در R چه اشتباهی انجام می دهم و چگونه آن را برطرف کنم؟
کنتراست در اندازه گیری های مکرر ANOVA در R
95112
من در حال مطالعه تجزیه و تحلیل مؤلفه‌های اصلی بودم و از خود می‌پرسیدم چگونه تجزیه ارزش ویژه ماتریس همبستگی واریانس احتمالی گرفته شده را به حداکثر می‌رساند؟ آیا کسی می تواند به یک برهان رجوع کند یا یک دلیل ساده شهودی ارائه دهد؟ با تشکر
چرا تجزیه ارزش ویژه یک ماتریس همبستگی واریانس ممکن را به حداکثر می رساند؟
78921
آدم آماری بزرگی نیست، اما من در برنامه نویسی و استک اورفلو مکرر دست و پا می زنم و به این فکر می کنم که اینجا مکان خوبی برای تبدیل شدن است. این چیزی است که من به دنبال آن هستم. من یک سری مواد غذایی دارم. هر کدام تعدادی پارامتر مختلف دارند (کلمه درست است؟ مطمئن نیستم) مانند کالری، گرم چربی، میلی گرم سدیم و غیره. برخی واحدهای متفاوتی دارند. مایلم بتوانم این اقلام را از نظر شباهت در ترکیب مواد مغذی با یک ماده غذایی دیگر رتبه بندی کنم. رویکرد ساده لوحانه من ایجاد یک امتیاز شباهت برای هر آیتم به عنوان مجموع درصد تفاوت هر پارامتر و سپس مرتب کردن آن بردار بود. سپس ایده ای داشتم که برای هر پارامتر پارامتر را از نظر درصد اختلاف رتبه بندی کنم و یک ماتریس رتبه ایجاد کنم. اما، پس از آن جوهر ذهنم تمام شد و نمی‌توانستم به این فکر کنم که با ماتریس رتبه چه کار کنم - محصولات رتبه‌بندی ایجاد کنم؟ مبالغ؟ من نمی دانم. باز هم، پس‌زمینه آماری زیادی در ذهن من وجود ندارد. اگر کسی بتواند روشی را پیشنهاد کند که من باید به آن توجه کنم، واقعاً از آن متشکرم.
مقایسه دو مورد با پارامترهای مختلف واحدهای مختلف
70844
من یک مجموعه داده با 20000 موضوع تالار گفتمان، بسیاری از آنها فقط یک یا دو پست، برخی تا 400 پست دارم. من 5000 نفر دارم که در این تاپیک ها شرکت کردند. من می‌خواهم قدرت رابطه بین دو نفر را بر اساس تعداد رشته‌هایی که برای صادرات به Gephi و خوشه‌بندی شرکت کرده‌اند محاسبه کنم تا ببینم آیا می‌توانم گروه‌های واضحی پیدا کنم - آیا الگوریتم‌هایی از قبل برای انجام این کار وجود دارد؟ من تابع خودم را در R هک کردم، که به طول رشته نگاه می کند (رشته کوچکتر به معنای اتصال قوی تر به سایر شرکت کنندگان است - رشته های خیلی بزرگ حذف می شوند)، تعداد دفعات ارسال (دو نفر که هر کدام دو بار در یک موضوع پست می کنند قوی تر هستند. مرتبط) و غیره. به نوعی کار می کند، اما مطمئن هستم که دارم چرخ را دوباره اختراع می کنم، باید الگوریتم ها/رویکردهای موجود و غیره وجود داشته باشد؟ (من از R استفاده می کنم، اما حتی یک الگوریتم کلی هم مورد استقبال قرار می گیرد).
چگونه می توان وزن لبه های بین افراد را بر اساس مشارکت مشترک در همان گروه ها پیدا کرد؟ (SNA)
85788
من در حال ساخت یک مدل با استفاده از SPSS با 80 درصد از داده هایم هستم. من می توانم یک منحنی ROC را هم برای مجموعه آموزشی و هم برای مجموعه آزمایشی به طور جداگانه ترسیم کنم. من نمی توانم راهی برای رسم هر دو روی یک نمودار پیدا کنم. از آنجایی که هم حساسیت و هم حساسیت بین 0 و 1 متفاوت است، به نظر می‌رسد این کار امکان‌پذیر باشد. سوال من این است: آیا مقایسه مستقیم هر دو منحنی منطقی است، به عبارت دیگر، آیا از نظر آماری معتبر است؟
آیا ترسیم نتایج قطار و آزمایش بر روی یک نمودار ROC مشترک منطقی است؟
40383
من در تلاش برای تجزیه و تحلیل داده های از قبل موجود هستم (با استفاده از SPSS). من یک گروه از شرکت کنندگان، 4 معیار پیامد کمی و غیر پارامتریک دارم، و به دنبال این هستم که ببینم آیا تغییری در نتایج پس از مداخله وجود دارد یا خیر. من هم نتایج کیفی دارم، اما هنوز نگران آنها نیستم! من می‌دانم که آزمون‌های t (و معادل‌های ناپارامتریک) می‌توانند برای مقایسه چند گروه استفاده شوند (یعنی اگر من یک گروه کنترل هم داشته باشم)، اما نمی‌دانم با گروه من از شرکت‌کنندگان چه کنم. هر گونه کمک بسیار قدردانی!
کدام آزمایش برای تجزیه و تحلیل قبل و بعد از درمان در یک گروه واحد استفاده شود
78922
من دانشجوی کارشناسی ارشد هستم و به کمک شما نیاز دارم. من روی یک گروه از موش‌ها آزمایش انجام دادم، گروه به مدت 8 روز آزمایش شدند، این مرحله اول است. از همان گروه نیز مجدداً آزمایش شد اما این بار مرحله آزمایش 7 روز بود. من سعی کردم با استفاده از اندازه گیری های مکرر ANOVA آنالیز خود را انجام دهم اما با روزها مشکل داشتم. می خواهم تفاوت 2 تست را بدانم اما تعداد روزها یکسان نیست. من نمی دانم چگونه با آن رفتار کنم. اگر راهی برای انجام آنالیز با استفاده از اندازه گیری های مکرر ANOVA وجود دارد. متشکرم. سعی کردم از آنووا با اندازه گیری مکرر در اثر موضوعی استفاده کنم فاکتور اول من تست خواهد بود>>> با 2 سطح (آزمون 1 و 2) فاکتور دوم روز با سطح ?? مشکل اینجاست! اگر من 8 بنویسم یک روز اضافی در آزمون 2 وجود دارد و تجزیه و تحلیل نمی تواند انجام شود! لطفا کمکم کنید. متشکرم.
اندازه گیری های مکرر ANOVA
85784
یک انبار دارای 4 بخش از حیوانات است. در هر بخش 4 بز وجود دارد. به هر بز یکی از چهار نوع غذا داده می شود. یکی از کلیه های هر بز به طور تصادفی انتخاب می شود تا پس از 3 روز از نظر سطح کربوهیدرات مورد بررسی قرار گیرد. برای اندازه گیری سطح، کلیه بزها به سه قسمت تقسیم می شود و از سه روش اندازه گیری استفاده می شود. من می‌دانم که دو روش اعمال می‌شود: $\text{Food}$ (4 سطح ثابت) و $\text{تکنیک اندازه‌گیری}$ (3 سطح ثابت). من چند چیز را تعجب می کنم: * آیا کلیه ها عوامل هستند؟ * اگر چنین است، آیا آنها تودرتو هستند یا ثابت؟ فکر اصلی من این است که آنها ثابت هستند ... ما برای هر حیوان یک کلیه چپ و راست داریم. برخی از همکلاسی های من استدلال می کنند که کلیه ها تودرتو هستند زیرا هر کلیه برای هر بزی متفاوت است. من این منطق را درک نمی کنم، زیرا هر واحد آزمایشی متفاوت است (حتی اگر همگن باشند، باز هم متفاوت هستند). بنابراین، من فکر می کنم: 1. $\text{Kidney}$ یک عامل متقاطع با 2 سطح تصادفی است. 2. $\frac 1 3$ از $\text{Kidney}$ یک واحد آزمایشی تقسیم‌بندی است، یعنی فاکتوری که با $\text{Kidney}$ تلاقی می‌کند و دارای 3 سطح ثابت است. همکلاسی های من: 1. $\text{کلیه}$ (2 سطح) با بز لانه شده است. 2. $\frac 1 3$ از $\text{Kidney}$ تو در تو است، با $\text{Kidney}$ (3 سطح). نظر شما چیست؟
متقاطع در مقابل عوامل تو در تو و ثابت در مقابل عوامل تصادفی
41386
من در یک مطالعه کیفی سه موضوع دارم. در حال مقایسه ویژگی های نوشته آنها قبل و بعد از درمان هستم. من هیچ ایده ای در مورد نرمال بودن توزیع ندارم زیرا آنها به طور هدفمند انتخاب شده اند. من تعداد همه چیز (مانند جملات پیچیده، جملات صحیح و ...) را شمردم و اکنون می خواهم هر مورد را در موضوعات قبل و بعد از درمان با هم مقایسه کنم. وقتی به اعداد نگاه می کنید، تفاوت بسیار زیاد است (مثلاً حدود 800 قبل از درمان اما بیش از 2000 بعد از درمان). نتایج آزمون T مقدار p 0.017 را نشان داد در حالی که wilcoxon 0.109 را نشان داد. بنابراین آزمون t تفاوت معنی داری را نشان داد در حالی که ویلکاکسون تفاوت معنی داری نداشت. حال سوال من این است که با توجه به حجم نمونه کوچک (فقط سه) و عدم اطمینان از نرمال بودن توزیع، آیا آزمون t روش صحیحی است؟ من chi Square را هم اجرا کرده ام و تفاوت معنی داری نشان داده است.
استفاده از آزمون Student یا Wilcoxon بر روی نمونه کوچک بدون اطلاعات در مورد نرمال بودن توزیع
70032
داده هایی که من تجزیه و تحلیل می کنم از حدود 2000 حیوان جمع آوری و اندازه گیری شده است. برای هر حیوان، تعدادی مقادیر _گسسته_، مانند گونه، جنسیت، رنگ و غیره، و همچنین برخی از مقادیر_پیوسته مانند سن، اندازه، وزن، و برخی مقادیر دارویی مانند سطح برخی از مواد شیمیایی خاص در خون را دارم. من می خواهم یک مدل آماری بسازم که بتواند برخی از مقادیر گمشده را پیش بینی کند. به عنوان مثال، اگر داده‌های یک حیوان اضافی مقدار «وزن» را نداشته باشد، می‌خواهم مدل آن را بر اساس سایر داده‌های موجود پیش‌بینی کند. با توجه به پیشینه توسعه نرم افزار، من فرض می کنم که **شبکه های عصبی ** یکی از راه حل های ممکن برای این مشکل است. اما باید دیگران باشند. **اسم این نوع مشکل چیست؟ چه روش های آماری برای آن استفاده می شود؟**
چه روش های آماری برای مشکلات داده های از دست رفته مناسب هستند؟
40384
من به دنبال راهی برای تولید اعداد تصادفی هستم که _به نظر می رسد_ توزیع یکنواخت هستند -- و هر آزمایشی آنها را یکنواخت نشان می دهد -- به جز اینکه **بهتر از داده های یکنواخت واقعی توزیع شده اند**. مشکلی که من با تصادفی های یکنواخت واقعی دارم این است که آنها گهگاه خوشه می شوند. این اثر در حجم نمونه پایین قوی تر است. تقریباً می‌گویم: وقتی دو تصادف یکنواخت در U[0;1] ترسیم می‌کنم، احتمال اینکه آنها در محدوده 0.1 قرار بگیرند حدود 10٪ و در محدوده 0.01 1٪ است. بنابراین من به دنبال یک راه خوب برای تولید اعداد تصادفی هستم که **یکنواخت تر از تصادفی های یکنواخت توزیع شده اند**. از مثال موردی استفاده کنید: بگویید من در حال انجام یک بازی کامپیوتری هستم و می‌خواهم گنج را به‌طور تصادفی روی نقشه قرار دهم (به هیچ چیز دیگری اهمیت نمی‌دهم). من نمی خواهم گنج همه در یک مکان باشد، باید در سراسر نقشه باشد. با تصادف‌های یکنواخت، اگر مثلاً 10 شی را قرار دهم، شانس آنقدر کم نیست که 5 یا بیشتر به هم نزدیک باشند. این ممکن است به یک بازیکن برتری نسبت به دیگری بدهد. به مین روب فکر کنید، شانس (هرچند کم، در صورت وجود مین کافی) این است که واقعا خوش شانس باشید و با یک کلیک برنده شوید. یک رویکرد بسیار ساده لوحانه برای مشکل من این است که داده ها را به یک شبکه تقسیم کنم. تا زمانی که تعداد به اندازه کافی بزرگ باشد (و دارای فاکتورهایی باشد)، می توان از این طریق یکنواختی اضافی را اعمال کرد. بنابراین به جای ترسیم 12 متغیر تصادفی از U[0;1]، می توانم 6 را از U[0;.5] و 6 را از U[0.5;1]، یا 4 را از U[0;1/3] + 4 ترسیم کنم. از U[1/3;2/3] + 4 از U[2/3; 1]. آیا راه بهتری برای ایجاد این یکنواختی اضافی در لباس وجود دارد؟ احتمالا فقط برای تصادفی دسته ای کار می کند (هنگام ترسیم تصادفی منفرد، بدیهی است که باید کل محدوده را در نظر بگیرم). به طور خاص، من می توانم بعد از آن دوباره رکوردها را به هم بزنم (بنابراین چهار مورد اول از یک سوم اول نیست). در مورد انجام آن به صورت تدریجی چطور؟ پس اولی روی U[0;1] است، سپس دو تا از هر نیمه، یکی از هر سوم، یکی از هر چهارم؟ آیا این مورد بررسی شده است و چقدر خوب است؟ ممکن است باید مراقب باشم که از مولدهای مختلف برای x و y استفاده کنم تا به هم مرتبط نشوند (xy اول همیشه در نیمه پایینی، دومی در نیمه چپ و یک سوم پایین، سومی در یک سوم وسط و یک سوم بالایی قرار دارد. .. بنابراین حداقل مقداری جایگشت تصادفی نیز مورد نیاز است و در دراز مدت، به عنوان یک گره جانبی، آیا یک آزمایش شناخته شده وجود دارد که آیا مقداری توزیع به طور مساوی وجود دارد یا خیر آیا واقعاً یکنواخت است و می توان از آن برای تست کردن استفاده کرد؟ K-S-Test: اگر بزرگترین انحراف زیر یک آستانه مورد انتظار معین باشد، داده ها بیش از حد یکنواخت توزیع شده اند؟
اعداد تصادفی یکنواخت جعلی: توزیع یکنواخت‌تر از داده‌های یکنواخت واقعی است
40385
من می خواهم آزمایش کنم که چه رگرسیونی با داده های من مطابقت دارد. متغیر وابسته من یک تعداد است و صفرهای زیادی دارد. و من به کمک نیاز دارم تا تعیین کنم از چه مدل و خانواده ای استفاده کنم (poisson یا quasipoisson یا رگرسیون poisson با باد صفر)، و چگونه مفروضات را آزمایش کنم. 1. رگرسیون پواسون: تا جایی که من متوجه شدم، فرض قوی این است که متغیر وابسته میانگین = واریانس. چگونه این را تست می کنید؟ چقدر باید به هم نزدیک باشند؟ آیا میانگین و واریانس غیرشرطی یا شرطی برای این مورد استفاده می شود؟ اگر این فرض ثابت نشد چه کار کنم؟ 2. من خواندم که اگر واریانس بیشتر از میانگین باشد، ما دارای پراکندگی بیش از حد هستیم، و یک راه بالقوه برای مقابله با این شامل متغیرهای مستقل بیشتر یا خانواده = شبه پواسون است. آیا این توزیع الزامات یا مفروضات دیگری دارد؟ از چه آزمایشی استفاده کنم تا ببینم آیا (1) یا (2) مناسب تر است - به سادگی anova(m1,m2)؟ 3. همچنین خواندم که توزیع دوجمله ای منفی می تواند زمانی که پراکندگی بیش از حد ظاهر می شود استفاده شود. چگونه این کار را در R انجام دهم؟ تفاوت شبه پواسون چیست؟ 4. رگرسیون پواسون با باد صفر: من خواندم که با استفاده از تست vuong بررسی می‌کند که چه مدل‌هایی مناسب‌تر هستند. `> vuong (model.poisson, model.zero.poisson)` درست است؟ رگرسیون با تورم صفر چه مفروضاتی دارد؟ 5. گروه مشاوره آماری، خدمات فناوری دانشگاهی UCLA، بخشی در مورد رگرسیون پواسون با باد صفر دارد، و مدل صفر تورم (a) را در برابر مدل استاندارد پواسون (b) آزمایش می کند: `> m.a <- zeroinfl(count ~ child + camper | افراد، داده = zinb)` `> m.b <- glm(تعداد ~ کودک + اردوگاه، خانواده = سم، data = zinb)` `> vuong(m.a, m.b)` من متوجه نمی شوم که «| بخشی از افراد از اولین مدل انجام می دهد، و چرا می توانید این مدل ها را با هم مقایسه کنید. من انتظار داشتم که رگرسیون یکسان باشد و فقط از یک خانواده متفاوت استفاده کنم.
مفروضات رگرسیون پواسون و نحوه آزمایش آنها در R
83782
من مقایسه بین 4 طبقه‌بندی‌کننده را انجام می‌دهم: یک SVM خطی، یک طبقه‌بندی جنگل تصادفی، یک گاوسی چند متغیره و یک شبکه عصبی، برای مجموعه داده‌ای با 50 ویژگی و 10000 مثال، مشاهدات متعلق به 2 کلاس هستند. بهترین راه برای مقایسه آنها چیست؟ یعنی باید از F-score، Precision/Recall یا شاید logloss استفاده کنم تا ببینم کدام یک در زیر مجموعه تست بهتر عمل می کند؟
مقایسه طبقه بندی کننده های متعدد بر روی یک مجموعه داده واحد
8236
من مجموعه داده ای از رویدادهایی دارم که در همان دوره زمانی اتفاق افتاده است. هر رویداد دارای یک نوع (چند نوع مختلف است، کمتر از ده وجود دارد) و یک مکان دارد که به عنوان یک نقطه دو بعدی نشان داده می شود. می‌خواهم بررسی کنم که آیا بین انواع رویدادها یا بین نوع و مکان ارتباطی وجود دارد یا خیر. به عنوان مثال، ممکن است رویدادهای نوع A معمولاً در جایی که رویدادهای نوع B رخ می دهند رخ ندهد. یا شاید در برخی مناطق، بیشتر رویدادهایی از نوع C وجود دارد. از چه نوع ابزارهایی می توانم برای انجام این کار استفاده کنم؟ از آنجایی که در تحلیل آماری مبتدی هستم، اولین ایده من استفاده از نوعی PCA (تجزیه و تحلیل مؤلفه اصلی) در این مجموعه داده بود تا ببینم آیا هر نوع رویداد مؤلفه خاص خود را دارد یا شاید برخی از آنها یکسان هستند (یعنی همبستگی دارند)؟ باید اشاره کنم که مجموعه داده من از مرتبه 500000 امتیاز $(x, y, type)$ است، بنابراین رسیدگی به امور را کمی سخت تر می کند. ویرایش: همانطور که در پاسخ های زیر و نظرات اشاره شد، راه حل این است که این را به عنوان یک فرآیند نقطه مشخص مدل کنید، و سپس از R برای انجام تمام کارهای سنگین استفاده کنید، همانطور که در گزارش کارگاه به تفصیل توضیح داده شده است: http:/ /www.csiro.edu.au/resources/Spatial-Point-Patterns-in-R.html
چگونه می توان روابط بین انواع مختلف رویدادها (تعریف شده توسط مکان 2 بعدی آنها) را پیدا کرد؟
8232
من سعی می کنم کاربرد توزیع $\chi^2$ را بفهمم. به عبارت دیگر، در چه شرایطی رخ می دهد و چگونه در آن موقعیت ها مفید است. من تعریف ویکی پدیا $\chi^2$ را خواندم. آیا کسی می تواند توزیع $\chi^2$ را مثال بزند تا بتوانم آن را بهتر درک کنم؟
نمونه ای از توزیع خی دو چیست؟
40381
واقعاً می توانم با کمک کسی که تخصص آماری بیشتری نسبت به من دارم انجام دهم. من برخی از داده‌های مربوط به نظرسنجی مشتری را در امتداد طیفی از معیارها دارم که در مقیاس‌های مختلفی ادغام شده‌اند. شرکت کنندگان شرکت و رقیبش را در تمامی معیارها رتبه بندی کردند. من داده‌های خام را با مربع کردن آن‌ها برای کاهش انحراف و کشیدگی تبدیل کردم. اکنون می‌خواهم تفاوت‌های بین اقدامات شرکت و رقیبش را با استفاده از دلتا تحلیل کنم. من از دلتاها از متغیرهای تبدیل شده استفاده کردم، اما چون در امتیازهای دلتا چولگی دارم، آیا داده ها را دوباره تبدیل می کنم یا باید تفاوت را روی نمرات خام و تبدیل نشده می گرفتم و سپس دلتاها را برای کاهش چولگی و کشیدگی تغییر می دادم؟ همچنین، با توجه به اینکه من دلتاهای منفی و مثبت دارم، آیا می توانید روش مناسبی برای تبدیل داده ها توصیه کنید؟ پیشاپیش از هر کمکی که می توانید بکنید متشکرم.
تبدیل داده های مقیاس
33325
من اکنون بر روی مجموعه ای از داده های سری زمانی کار می کنم و می خواهم نوسانات سری را کمیت کنم. من رویکردی را در نظر گرفته‌ام که ابتدا آن را به عنوان یک مدل رگرسیون خودکار مانند ARCH مدل‌سازی می‌کند و مجموع باقیمانده‌های مجذور بین مدل و داده‌های واقعی را محاسبه می‌کند. آیا معنایی دارد؟
کمیت نوسان در داده های سری زمانی
83837
من سعی می کنم اثر درمان را بعد از مدتی بر روی گروهی از افراد که برای درمان انتخاب شده اند اندازه گیری کنم، زیرا آنها بالاترین رتبه (1200 نفر برتر) را در طی یک دوره منفرد نشان می دهند که شروع آزمایش است، امید به درمان است. که آنها در آینده رتبه های پایین تری نسبت به آنها خواهند داشت. (توجه: من آزمایش را طراحی نکردم.) هیچ کنترلی از این انتخاب کنار گذاشته نشد، و این اساساً یک مطالعه مشاهده‌ای بود تا یک آزمایش تصادفی برای همه مقاصد. تنها کاندیداها برای کنترل آن دسته از آزمودنی‌هایی هستند که در آن دوره در بین 1200 نفر برتر نبودند، به این معنی که همه آزمودنی‌های دیگر در دوره‌های زمانی قبلی که هیچ آزمایشی در آن‌ها انجام نشده بود. با این حال، بدیهی است که چند عامل مخدوش کننده وجود دارد: * از آنجا که آنها بر اساس رتبه برتر انتخاب شده اند، اثرات رگرسیون به میانگین وجود دارد که باید در نظر گرفته شود. * هر روندی در متریک مورد علاقه ممکن است روندی داشته باشد که تطبیق مقادیر خام را مشکل ساز کند. برنامه اولیه اقدام به شرح زیر بود: * کلیه آزمودنی های دارای رتبه مشابه از دوره های زمانی قبلی (که آزمودنی نیز هستند) کاندیدای کنترل هستند. این یک نیاز حداقلی برای مقابله با اثرات رگرسیون است. * هر روندی در متریک باید پیدا شود و سری باید از روند حذف شود، یعنی به جای داده های خام، با باقی مانده ها کار کرد. فقط از داده های دوره های قبل از شروع آزمایش استفاده کنید. * آزمودنی‌های آزمایش را با داوطلبان کنترل مطابقت دهید، بر اساس شباهت در برخی از نقاط انتخابی که مربوط به دوره «پیش» درمان است، به عنوان مثال. t-9، t-6، t-3، t0، با استفاده از کولیس مثلاً 0.25 SD. این امر برای اثبات شباهت کافی آنها قبل از شروع درمان است. * از تست Wilcoxon برای مقایسه آزمودنی‌های درمان با میانگین‌های همسان کنترل شده برای هر آزمودنی در برخی تغییرات دوره «پس از»، به عنوان مثال، استفاده کنید. تغییر از t0 به t+6. مشکلاتی که من با آن مواجه هستم این است که روند، اولاً یک روند خطی ساده نیست. من همچنین در مورد اینکه چه داده‌هایی باید در تعیین روند من گنجانده شوند دچار ضرر هستم. همچنین، از آنجایی که انتظار می‌رود گروه درمانی تأثیری بر روند پس از مداخله داشته باشد، و از آنجایی که نمونه‌های کمی از افراد با رتبه مشابه در آن بازه زمانی وجود دارد، تعیین اینکه آیا روند انتخاب شده به خوبی حفظ می‌شود و پیش‌بینی می‌شود، دشوار است. . در سرنخ این واقعیت که همه چیز درست نیست این است که من پروتکل را فقط با استفاده از داده های قدیمی و یک گروه آزمایش ساختگی آزمایش کردم. این آزمایش باید به چیزی منجر شود که تفاوت قابل توجهی با صفر ندارد، اما من نتایجی دریافت می کنم که تفاوت قابل توجهی دارند. این همه نتایج واقعی من را مورد تردید قرار می دهد. همچنین ممکن است حفره هایی در پروتکلی که توضیح دادم وجود داشته باشد که نیاز به بهبود دارند. من ممکن است همه چیز را اشتباه پیش ببرم و دارم فکر می کنم که این طور است، غیرممکن است که با این روش برخورد کنم. آیا کسی پیشنهادی در مورد نحوه بهتر رسیدگی به این مشکل دارد؟ من آماده تغییر نحوه انجام هر کاری در اینجا هستم، حتی رویکردهای کاملاً متفاوت برای مشکل. در پایان روز من به یک روش آماری قابل دفاع برای گفتن اینکه یک اثر درمانی وجود دارد یا نیست و روشی برای صحبت در مورد بزرگی آن نیاز دارم. ** به طور خلاصه: من یک مجموعه داده طولی دارم که یک متریک روند نامنظم را ردیابی می کند. در نقطه ای از مسیر، تعدادی از افراد به عنوان رهبران فعلی در معیار انتخاب شدند و مورد درمان قرار گرفتند. سپس داده های بیشتری برای مدت زمان بیشتری از همه افراد جمع آوری شد. چگونه می توانم حضور و میزان هر اثر درمانی را به بهترین وجه تعیین کنم (فاصله اطمینان 90-95٪ با مقدار p در حالت ایده آل).** FWIW، من تجزیه و تحلیل را در R انجام می دهم، اگر کسی می خواهد روش ها یا بسته های مفیدی را پیشنهاد دهد. از مشاوره عمومی نیز استقبال می شود.
اندازه‌گیری اثر درمان بر روی افراد دارای رتبه برتر که در نقطه‌ای از زمان از داده‌های طولی انتخاب شده‌اند
15530
من هیچ تجربه ای در زمینه پیش بینی ندارم، بنابراین آیا کسی می تواند یک مثال گام به گام یا پیوندی به مقادیر مثال واقعی با برنامه روش پیش بینی ARMA به من بدهد؟
نمونه ای از استفاده از روش پیش بینی ARMA
33326
مدل های معادلات ساختاری گاهی اوقات به دلیل یک ماتریس کوواریانس نمونه منفرد نمی توانند برازش شوند. اکنون برخی از نویسندگان پیشنهاد می‌کنند که یک ریدینگ ملایم روی مورب اعمال شود که کمک می‌کند (این کار برای مثال در Mplus انجام می‌شود). 1. ریدینگ دقیقا چگونه کار می کند؟ و 2. اگر نرم افزار SEM ترجیحی شما از ridging پشتیبانی نمی کند، چگونه می توانید آن را با دست انجام دهید؟
اصلاح ماتریس کوواریانس منفرد (SEM)
30677
یک آزمایش 10 بار در پیکربندی a اجرا شد و A شکست، 10 بار در پیکربندی b با شکست B، 10 بار ... (در هر 9 پیکربندی مختلف) وجود داشت. من یک لیست از 9 عدد دارم که تعداد خرابی ها را برای هر پیکربندی (از 10 عدد) نشان می دهد. 4 4 4 3 3 2 0 2 10 من گمان می‌کنم که پیکربندی تفاوتی ندارد و تعداد خرابی‌ها ممکن است یک توزیع دوجمله‌ای داشته باشند (وسوسه‌انگیز است که آن 10 را به‌عنوان پرت طبقه‌بندی کنیم و آن را حذف کنیم). وارد کردن لیست مقادیر بالا به تابع prop.test R، همراه با احتمالات یک توزیع دوجمله ای با p=0.3556 (میانگین تعداد شکست/10) هشداری را ایجاد می کند که تقریب Chi-squared ممکن است نادرست باشد. جای تعجب نیست که حجم نمونه کوچک باشد. یک قطعه qq نیز از مشکلات اندازه نمونه مشابه رنج می برد. آیا معادل آزمون دقیق فیشر برای آزمایش اینکه آیا ممکن است دنباله ای از مقادیر از یک توزیع دوجمله ای گرفته شود وجود دارد؟ یک آزمایش مرتبط اما متفاوت یک دنباله شمارش شکست را تولید کرد (بدون موارد پرت در اینجا :-): 10 8 7 10 9 9 10 8 7
آزمایش اگر دنباله کوتاهی از مقادیر کوچک از توزیع دوجمله ای گرفته شده باشد
87328
من یک مجموعه داده بسیار کوچک در مورد فراوانی زنبورهای منفرد دارم که در تجزیه و تحلیل آن مشکل دارم. این داده‌های شمارش است، و تقریباً همه شمارش‌ها در یک درمان با اکثر صفرها در درمان دیگر هستند. همچنین چند مقدار بسیار بالا وجود دارد (هر کدام یک در دو تا از شش سایت)، بنابراین توزیع شمارش دنباله بسیار طولانی دارد. من در R کار می کنم. من از دو بسته مختلف استفاده کرده ام: lme4 و glmmADMB. مدل‌های ترکیبی پواسون برازش نداشتند: مدل‌ها زمانی که جلوه‌های تصادفی برازش نمی‌شدند (مدل glm) بسیار پراکنده بودند و وقتی جلوه‌های تصادفی برازش می‌شدند (مدل گلمر) پراکنده نشدند. من نمی فهمم چرا این است. طراحی آزمایشی به اثرات تصادفی تو در تو نیاز دارد، بنابراین من باید آنها را درج کنم. توزیع خطای لگ نرمال پواسون تناسب را بهبود نمی بخشد. من توزیع خطای دوجمله ای منفی را با استفاده از glmer.nb امتحان کردم و نتوانستم آن را به تناسب برسانم - به حد تکرار رسیده است، حتی زمانی که تحمل را با استفاده از glmerControl تغییر دادم (tolPwrss=1e-3). از آنجایی که بسیاری از صفرها به این دلیل است که من زنبورها را به سادگی ندیدم (آنها اغلب چیزهای سیاه و ریز هستند)، سپس یک مدل با باد صفر را امتحان کردم. ZIP خوب جا نیفتاد. ZINB بهترین مدل مناسب تا کنون بوده است، اما من هنوز از تناسب مدل چندان راضی نیستم. درمورد اینکه در مرحله بعد چه چیزی را امتحان کنم دچار ابهام هستم. من یک مدل مانع را امتحان کردم اما نتوانستم یک توزیع کوتاه شده را با نتایج غیر صفر تطبیق دهم - فکر می کنم زیرا تعداد زیادی از صفرها در درمان کنترل هستند (پیام خطا این بود Error in model.frame.default(formula = s.bee ~ tmt + lu + : طول های متغیر متفاوت است (برای «درمان» یافت می شود)» علاوه بر این، من فکر می کنم که تعاملی که من درج کرده ام در حال انجام کاری است برای داده‌های من عجیب است، زیرا ضرایب به‌طور غیرواقعی کوچک هستند – اگرچه مدل‌هایی که دربرگیرنده تعامل هستند، بهترین حالت را داشتند که با استفاده از AICctab در بسته‌بندی bbmle، مقداری اسکریپت R را اضافه کردم که تقریباً مجموعه داده‌های من را بازتولید می‌کند =تاریخ جولیان، df=تاریخ جولیان (به عنوان فاکتور)، d.sq=df مربع (تعداد زنبورها افزایش می‌یابد سپس در کل کاهش می‌یابد. تابستان)، st=site، s.bee=تعداد زنبورها، tmt=درمان، lu=نوع کاربری، hab=درصد زیستگاه نیمه طبیعی در مناظر اطراف، ba=منطقه مرزی مزارع گرد من می توانم یک مدل مناسب (توزیع خطای جایگزین، انواع مختلف مدل و غیره) به دست بیاورم، بسیار سپاسگزار خواهد بود! متشکرم. d <- c(80، 80، 121، 121، 180، 180، 86، 86، 116، 116، 144، 144، 74، 74، 143، 143، 163، 163، 71، 71، 86، 71، ، 162, 162, 185, 185, 83, 83, 111, 111, 133, 133, 175, 175, 85, 85, 112, 112,137, 137, 168, 168, 168,18 95، 127، 127، 156، 156، 175، 175، 91، 91، 119، 119،120، 120، 148، 148، 56، 56) df <- as.factor(d) d.sq <- as.factor(d) d.sq < <- فاکتور(rep(c(A, B, C، D، E، F)، c(6،12،18،10،14،6))) s.bee <- c(1,0,0,0,0,0,0,0,1,0,0,0,1,0,0,0,4,0,0,0,0,1,1,0, 0,0,0,1,0,0,0,0,1, 0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,3,0,0,0,0,5,0,0,2,0, 50,0,10,0,4,0,47,3) tmt <- factor(c(AF، C، C، AF، AF، C، AF، C، AF، C، C AF، AF، C، AF، C، AF، C، AF، C، «C»، «AF»، «AF»، «C»، «AF»، «C»، «C»، «AF»، «AF»، «C»، «AF»، «C»، «AF» C، AF، C، AF، C، AF، C، «C»، «AF»، «AF»، «C»، «AF»، «C»، «AF»، «C»، «AF»، «C»، «C»، «AF»، «C» AF، C، AF، AF، C، AF، C، AF، C، AF، C، AF، C)) lu <- factor(rep(c(p، a، p، a، p)، c(6,12,28,14,6))) hab <- rep(c(13,14,13,14,3,4,3,4,3,4,3,4,3,4,15 ,35,37,35,37,35,37,35,37,0,2,1,2,1,2,1)، c(1,2,2,1,1,1,1,2,2,1,1,1,1,1,18,1,1,1,2,2,1,1,1,14, 1،1،1،1،1،1)) ba <- c(480,6520,6520,480,480,6520,855,1603,855,1603,1603,855,855,12526,855,5100,855,5100,2670,7679,767 2670,7679,2670,7679,7679,2670,2670,7679,2670,7679,2670,7679,2670,7679,1595,3000,1595,3000,3000,30595,3000,30501 ,3000,4860,5460,4860,5460,5460,4860,5460,4860,5460,4860,4840,5460,4840,5460,3000,1410,3000,3000,1410-1410,3000,4860,4860,4860,4860,4840,5460,3000,1410,3000,1410, data.frame(st,df,d.sq,tmt,lu,hab,ba,s.bee) with(data, جدول(s.bee, tmt) ) # در زیر خلاصه‌ای از مدل‌های آزمایش شده بسیار خلاصه شده است: library( MASS) library(lme4) library(glmmADMB) library(coefplot2) ### ### POISSON MIXED MODEL m1 <- glmer(s.bee ~ tmt + lu + hab + (1|st/df)، family=poisson) خلاصه (m1) resdev<-sum(resid(m1)^2) mdf<-length(fixef(m1)) rdf<-nrow(data)-mdf resdev/rdf # 0.2439303 # underdispersed. ؟؟؟ ### ### مدل ترکیبی دوجمله ای منفی m2 <- glmer.nb(s.bee ~ tmt + lu + hab + d.sq + (1|st/df)) به # حد تکرار رسیده است. نمیشه یه مدل کار کرد ### ### POISSON MIXED ZERO-FLATED MODEL fit_zipoiss <- glmmadmb(s.bee~tmt + lu + hab + ba + d.sq + tmt:lu + (1|st/df), data=data, zeroInflation = TRUE, family=poisson) # باید متغیرهای زیادی برای جا دادن # داشته باشد به هر حال پواسون تناسب خوبی نیست
در یافتن مدل مناسب مناسب برای داده های شمارش با اثرات مختلط - ZINB یا چیز دیگری مشکل دارید؟
30679
**زمینه:** من داده هایی در مورد پرسشنامه ای دارم که از آیتم های واقعی طبقه بندی شده است. برخی از آنها باینری هستند و برخی دیگر بیش از دو دسته دارند. به عنوان مثال: 1. آیا می توانید نقاشی انجام دهید (بله- 1 امتیاز، خیر- 0 امتیاز) 2. آیا صلاحیت نقاشی دارید (نه - 0 امتیاز؛ لیسانس - 1 امتیاز؛ فوق لیسانس - 2 امتیاز) 3. آیا نقاش وجود دارد (ها) در خانواده شما (بله- 1 امتیاز، خیر- 0 امتیاز) و غیره. پرسشنامه همچنین شامل موارد مشروط است. به عنوان مثال، اگر کسی نه را برای سوال 1 انتخاب کند، از سوال 2 صرف نظر می کند و به سوال 3 می رود. ### سوال **آیا می توانم از آلفای کرونباخ در نظرسنجی که حاوی آیتم های واقعی طبقه بندی شده است استفاده کنم؟** سوالاتی را فرض می کنم مانند اینها را نمی توان با آلفای کرونباخ اندازه گیری کرد. به نظر نمی رسد کسی را پیدا کنم که از آلفای کرونباخ برای چنین پرسشنامه ای استفاده کند.
آیا استفاده از آلفای کرونباخ برای سنجش پایایی پرسشنامه متشکل از گویه های طبقه ای و شرطی قابل قبول است؟
76444
این یک سوال بسیار اساسی است. چرا از توزیع مربع کای استفاده می کنیم؟ منظور از این توزیع چیست؟ چرا از این توزیع برای ایجاد فاصله اطمینان برای واریانس استفاده می شود؟ هر جایی که برای توضیح در گوگل جستجو می‌کنم، این واقعیت را نشان می‌دهد، توضیح می‌دهد که چه زمانی باید از چی استفاده کرد، اما توضیح نمی‌دهد که چرا باید از چی استفاده کرد، و چرا به نظر می‌رسد. با تشکر فراوان از هر کسی که می تواند من را به سمت مسیر درست راهنمایی کند - واقعاً درک می کند که چرا من از چی استفاده می کنم هنگامی که یک فاصله اطمینان برای واریانس ایجاد می کنم.
چرا هنگام ایجاد فاصله اطمینان برای واریانس از مربع کای استفاده می شود؟
70847
من می‌دانم که در تئوری لم نیمن-پیرسون قوی‌ترین آزمون را برای یک سطح تجویز شده ارائه می‌دهد، زمانی که یک فرضیه صفر ساده در برابر یک جایگزین ساده داریم. با این حال، وقتی سعی می‌کنم آن را در شرایط زیر اعمال کنم، مشکل این است که تقسیم بر صفر می‌گیرم، بنابراین دوبار گیر می‌کنم: (1) نمی‌دانم اصلاً لم در این مورد صدق می‌کند یا خیر. من می گویم بله، زیرا چنین محدودیتی در بیانیه وجود ندارد. (2) هنوز نمی توانم ببینم چگونه آزمون را فرموله کنم، یعنی چگونه ناحیه رد را تعریف کنم. وضعیت من اینجاست: _ما n بار از توزیع یکنواخت روی $(0,\theta)$ می گیریم._ $H_0$: $\theta=\theta_0$ $H_a$: $\theta=\theta_a$ _باید پیدا کنیم قدرتمندترین تست در سطح $\alpha$. (فرض کنید که همچنین مشخص است که $\theta_a <\theta_0$)_ اگر به طور مستقیم لم را اعمال کنم، می بینم که برای یک نمونه معین می توانم دریافت کنم که مخرج یا هر دو احتمال به طور همزمان صفر می شود. هر ایده ای؟
تقسیم بر صفر در لم نیمن-پیرسون
41656
کیسه های مخلوط بتن با برچسب حاوی 100 پوند دارای میانگین وزن جمعیت 100 پوند و انحراف استاندارد جمعیت 2.551 پوند هستند. احتمال اینکه میانگین وزن یک نمونه تصادفی 50 کیسه ای کمتر از 95 پوند باشد چقدر است؟ در حل این مشکل، سعی کردم از فرمول $z = \dfrac {\bar x - \mu} {\frac {\sigma} {\sqrt n}}$ استفاده کنم، اما در نهایت به $z = \dfrac {95 رسیدم. - 100} {\frac {2.551} {\sqrt 50}} = -13.859$. به نظر می رسد که این یک نمره z مسخره بزرگ است، آیا ممکن است درست باشد؟ یا من چیزی را از دست داده ام؟
آزمون فرضیه با مقدار z بسیار بالا
83781
سلب مسئولیت: اگر به نظر شما این سؤال بسیار شبیه به سؤال دیگری است، خوشحالم که ادغام شده است. با این حال، در هیچ جای دیگری پاسخ رضایت‌بخشی پیدا نکردم (و هنوز «شهرت» نظر دادن یا رأی مثبت را ندارم)، بنابراین فکر کردم بهتر است خودم یک سؤال جدید بپرسم. سوال من اینه برای هر 12 آزمودنی انسانی، من یک ضریب همبستگی (Spearman's rho) بین 6 سطح از یک متغیر مستقل X و مشاهدات مربوط به متغیر وابسته Y را محاسبه کرده ام. (توجه: سطوح X در بین آزمودنی ها برابر نیست. فرض صفر این است که در جامعه عمومی این همبستگی برابر با صفر است. من این فرضیه را به دو صورت آزمایش کرده ام: 1. استفاده از آزمون t تک نمونه ای بر روی ضرایب همبستگی به دست آمده از 12 آزمودنی من. 2. با متمرکز کردن سطوح من از X و مشاهدات Y به گونه ای که برای هر شرکت کننده، میانگین (X) = 0 و میانگین (Y) = 0، و سپس محاسبه همبستگی بر روی داده های کل (72 سطح X و 72 مشاهده از Y). اکنون، از خواندن کار با ضرایب همبستگی (اینجا و جاهای دیگر) شروع به شک کردم که آیا رویکرد اول معتبر است یا خیر. به ویژه، من معادله زیر را در چندین مکان مشاهده کرده‌ام که (ظاهراً) به عنوان یک آزمون t برای میانگین ضرایب همبستگی ارائه شده است: $$t = \frac{r}{SE_{r}} = \frac{\sqrt{ n-2}}{\sqrt{1-r^{2}}}$$ که در آن $r$ میانگین ضریب همبستگی خواهد بود (و فرض کنیم این را با استفاده از تبدیل فیشر بر روی ضرایب هر موضوع ابتدا) و $n$ تعداد مشاهدات. از نظر شهودی، این به نظر من اشتباه است، زیرا هیچ معیاری از تغییرپذیری بین موضوع را شامل نمی شود. به عبارت دیگر، اگر من 3 ضریب همبستگی داشتم، آمار t یکسانی را می‌گرفتم چه [0.1، 0.5، 0.9] یا [0.45 0.5 0.55] یا هر محدوده‌ای از مقادیر با میانگین یکسان (و $n=3 $) بنابراین، من گمان می کنم که معادله بالا در واقع هنگام آزمایش معنی داری میانگین ضرایب همبستگی اعمال نمی شود، اما زمانی که آزمایش اهمیت یک ضریب همبستگی منفرد بر اساس مشاهدات $n$ از 2 متغیر. آیا کسی در اینجا می تواند این شهود را تأیید کند یا توضیح دهد که چرا اشتباه است؟ همچنین، اگر این فرمول در مورد من صدق نمی کند، آیا کسی روش صحیح را می داند؟ یا شاید تست شماره 2 خود من قبلا معتبر است؟ هر گونه کمکی بسیار قدردانی می‌شود (از جمله اشاره‌هایی به پاسخ‌های قبلی که ممکن است از قلم انداخته باشم یا اشتباه تعبیر کرده باشم).
معنی دار بودن میانگین ضریب همبستگی
115085
ابزار یا کتابخانه مناسب برای ترسیم قیمت ملک بر روی نقشه چیست؟ فرض کنید من فهرستی از لیست املاک و مستغلات دارم که شامل قیمت و مختصات (طول و عرض جغرافیایی) است. ** به روز شده ** من می دانم که این می تواند بسیار بحث برانگیز باشد. بنابراین در اینجا برخی از پس زمینه است. من میلیون ها داده املاک و مستغلات دارم که شامل قیمت و هماهنگی است. و در برنامه نویسی جاوا و پایتون مهارت دارم. اما من واقعاً سابقه ای در مورد تجسم داده ها ندارم. اساساً من می خواهم داده ها را برای کاربران تجسم کنم تا آنها بتوانند توزیع قیمت را در محله خود درک کنند. خوب است اگر یک کتابخانه (برای وب، به عنوان مثال HTML5/CSS/Javascript) برای انجام تجسم وجود داشته باشد.
ابزار یا کتابخانه برای تجسم قیمت املاک و مستغلات بر روی نقشه چیست؟
7639
من 4301 خط داده از پروژه علمی خود دارم. من باید تجزیه و تحلیل آماری غیرمتعارف را برای نتایج خود انجام دهم زیرا آنها 4 بعدی هستند. من سه متغیر مستقل دارم. با اکسل می‌توانم تحلیل‌های زیادی انجام دهم، حتی رگرسیون خطی چند متغیره، اما چیزی که به آن نیاز دارم یک قدم به جلو است: رگرسیون غیرخطی چند متغیره. من R دارم. آیا راهی وجود دارد که بتوانم آن را با R انجام دهم؟ همچنین آیا راهی برای تولید نمودارهای سه بعدی متعدد با برش هایی از داده ها به صورت خودکار وجود دارد؟ ویرایش: من بدون شانس جستجو کردم. آیا هیچ راهی برای انجام خودکار رگرسیون غیرخطی چند متغیره وجود دارد؟
انجام تجزیه و تحلیل آماری و ترسیم نمودار با داده های بزرگ؟
100581
معیارهای تأثیر در مطالعات اپیدمیولوژیک بر آلودگی هوا معمولاً به عنوان خطر نسبی (RR) ارائه می شود. رویه‌های ارزیابی ریسک کلاسیک (مانند US-EPA) در عوض به یک ضریب خطر واحد استنشاقی (IUR) نیاز دارند که در غلظت مواجهه ضرب می‌شود تا یک تخمین خطر اضافی به دست آید. آیا امکان تبدیل RR به IUR برای استفاده در ارزیابی ریسک وجود دارد؟ هر گونه دستورالعمل / انتشار؟
چگونه خطرات نسبی اپیدمیولوژیک (RR) را به عامل خطر واحد استنشاقی سرطان زا (IUR) تبدیل کنیم؟
7630
من توزیع های احتمال را با استفاده از الگوریتم Affinity Propagation خوشه بندی می کنم و قصد دارم از واگرایی جنسن-شانون به عنوان متریک فاصله استفاده کنم. آیا استفاده از خود JSD به عنوان فاصله یا JSD مربع صحیح است؟ چرا؟ چه تفاوت هایی از انتخاب یکی یا دیگری حاصل می شود؟
خوشه بندی: آیا باید از واگرایی جنسن-شانون استفاده کنم یا مربع آن؟
70843
من برای یک جمعیت در دو دوره اندازه گیری مختلف یک صورت و مخرج دارم. امتیاز درصد برای هر دوره زمانی نشان‌دهنده درصد جمعیتی است که خدمات مشخصی را دریافت کرده‌اند (به عنوان مثال، درصد اعضای جمعیتی که ماموگرافی انجام داده‌اند). اعضای جمعیت بین دو دوره اندازه گیری تغییر می کنند، با حذف برخی از اعضا و پیوستن اعضای جدید بین دو دوره اندازه گیری. بهترین آزمون تغییر معنی دار آماری بین دو نمره چیست؟
بهترین آزمون تغییر بین نمرات کل برای دو دوره نمونه گیری
70845
$W_t$ یک فرآیند ثابت دقیق است و $X_t=g(W_{t-1},W_{t-2},...,W_{t-q})$ که در آن $g$ یک تابع قابل اندازه گیری است. ثابت کنید که فرآیند X_t$ کاملاً ثابت است. نکته: برای اثبات اینکه یک فرآیند $X_t$ کاملا ثابت است، باید ثابت کنیم که: $P(X_1 \leq C_1,X_2\leq C_2,...,X_n\leq C_n)= P(X_{1+h} \leq C_1,X_{2+h}\leq C_2,...,X_{n+h}\leq C_n)$ برای هر $C_1، C_2،..C_n$ و هر $h$
چگونه ثابت کنیم که این فرآیند ثابت است
40382
چه اتفاقی می افتد زمانی که شما ایده ای از توزیع پارامترها ندارید؟ از چه رویکردی استفاده کنیم؟ در بیشتر مواقع هدف ما این است که اگر متغیر خاصی تأثیری بر حضور یا عدم حضور گونه خاصی داشته باشد و متغیر با توجه به اهمیت متغیر پذیرفته می شود یا خیر، کمتر مورد توجه قرار گیرد. این بدان معناست که اغلب اوقات ما به توزیع مورد انتظاری که یک پارامتر باید داشته باشد فکر نمی کنیم. آیا درست است که فرض کنیم همه پارامترها از یک توزیع نرمال پیروی می کنند، در حالی که تنها چیزی که می دانم این است که b1،b2،b3 و b4 باید بین 2- و 2 تغییر کند و b0 می تواند بین -5 و 5 تغییر کند؟ مدل { # N مشاهدات برای (i در 1:N) { گونه[i] ~ dbern(p[i]) logit(p[i]) <- b0 + b1*var1[i] + b2*var2[i] + b3*var3[i] + b4*var4[i] } # Priors b0 ~ dnorm(0,10) b1 ~ dnorm(0,10) b2 ~ dnorm(0,10) b3 ~ dnorm(0,10) b4 ~ dnorm(0,10) }
Winbugs و سایر MCMC ها بدون اطلاعات برای توزیع قبلی
85782
من داده ها را به صورت روزانه خوشه بندی می کنم و می خواهم سازگاری روش خوشه بندی را اندازه گیری کنم. فرض کنید خوشه های زیر به روش A منجر می شوند: در روز 1: {a,b,c} {d,f} {g} در روز 2: {a,b,c} {d,f} {g} در روز 3 : {a,b,c} {d,f} {g} با روش B: در روز 1: {a,b,c} {d,f} {g} در روز 2: {a,b} {c ,d,f} {g} در روز 3: {a,b} {c,d} {f} {g} با روش C: در روز 1: {a,b,c} {d,f} {g} در روز 2: {a} {b} {c,g} {f} در روز 3: {a,g,d} {b} {c} {e,f} مقدار متغیرها ثابت می ماند، اما اندازه و تعداد خوشه متفاوت است. بدیهی است که گروه بندی در نمونه های اخیر کمتر از نمونه اول سازگار است. در حالت ایده‌آل، من می‌خواهم معیاری داشته باشم که مقدار 1.0 را به یک روش کاملاً سازگار و 0.0 را که در آن خوشه‌بندی تصادفی به نظر می‌رسد اختصاص می‌دهد. من در تلاش برای یافتن ادبیات و نکاتی در مورد چگونگی دستیابی به این هستم. چگونه می توان آن را انجام داد؟ ### پیشینه در مورد من، خوشه ها بر روی ماتریس های همبستگی ابزارهای مالی هستند.
نحوه اندازه گیری ثبات نتایج خوشه بندی
7638
### زمینه: من با یک مدل لجستیک ترتیبی کار می کنم و سعی می کنم نتایج را تفسیر/ارائه کنم. این مدل دارای دو پیش‌بینی‌کننده پیوسته علایق، و ترکیبی از کنترل‌های مستمر و طبقه‌ای است. من امیدوار بودم که نمودار احتمال پیش بینی شده برای نتیجه برتر (پذیرفته شدن در یک مدرسه) را در سطوح مختلف IV های مورد علاقه ام ترسیم کنم. من از تابع ()r's predict برای ایجاد احتمالات پیش بینی شده استفاده می کنم. برای IV های مورد علاقه خود، طیفی از مقادیر معقول را انتخاب کردم (یعنی میانگین +- 1 SD). برای پیش‌بینی‌کننده‌های پیوسته، می‌توانم از مقادیر پایه معقول (معمولاً 0) استفاده کنم، زیرا آنها میانگین محور یا استاندارد هستند. من سعی می کنم چگونگی نزدیک شدن به پیش بینی کننده های طبقه بندی را کار کنم. من گزینه های خود را با وصل کردن مقادیر مختلف بررسی کرده ام و در بیشتر موارد نتیجه فقط یک تغییر کوچک در منحنی خروجی است. با این حال، برای یک متغیر، تفاوت ها بسیار زیاد است، بنابراین من باید راهی برای ارائه نتایجی پیدا کنم که برای سطوح مختلف آن متغیر کلی باشد. شاید یک مثال به روشن شدن کمک کند. در این دو نمودار، دو IV مورد نظر بر روی محور x و به صورت 3 خط رسم شده اند. هر نمودار خروجی را نشان می‌دهد که یک سطح از کنترل طبقه‌ای مشکل‌ساز من، مدرسه پذیرش (که در مجموع 4 سطح دارد) را نشان می‌دهد![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5rIXW.png) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gu1X8.png) اگر کنجکاو هستید، دیگر نمودارها و نحو R در اینجا ### سوال: * چگونه باید مدل را در تمام سطوح متغیرهای طبقه بندی در یک نمودار نشان دهم؟ ### افکار اولیه: * مقادیر پیش بینی شده را در هر سطح از مدرسه پذیرش با نوعی میانگین وزنی جمع آوری کنید. * این پست پیشنهاد می کند از نسبت موارد هر نوع به عنوان ورودی برای هر متغیر استفاده کنید. همانطور که در مورد، اگر 32٪ از موارد من از مدرسه 1 باشد، من از 0.32*B-school1 در فرمول پیش بینی استفاده می کنم. من نمی دانم چگونه این کار را در R انجام دهم، زیرا آن متغیرها فاکتورهایی هستند، اما اگر رویکرد مناسبی باشد، مطمئن هستم که می توانم آن را کشف کنم. با عرض پوزش از پرحرفی و تشکر پیشاپیش برای هر گونه کمک.
محاسبه مقادیر پیش بینی شده از پیش بینی کننده های طبقه بندی شده در رگرسیون لجستیک
85783
آیا کسی می تواند توضیح دهد که چرا (اگر اصلا) استفاده از اعداد فازی برای نمایش عدم قطعیت ها در پارامترهای مدل به جای توزیع احتمال، ایده بدی است. سعی می کنم انگیزه پشت سوالم را توضیح دهم. یک مدل تصمیم گیری را فرض کنید که در آن پارامترها به صورت pds ارائه می شوند. اطلاعات برای پشتیبانی از تصمیم با اجرای یک شبیه‌سازی MC برای ارزیابی که مدل را در هر مرحله ارزیابی می‌کند، محاسبه می‌شود و نتیجه، البته، یک توزیع احتمال است. از pdf حاصل، می توان مقدار مورد انتظار، ریسک و سایر معیارهای آماری را محاسبه کرد. آیا می توان به سادگی از اعداد فازی به جای pds استفاده کرد و به جای MC از محاسبات فازی استفاده کرد؟
دلایل عدم استفاده از اعداد فازی به جای pds برای نشان دادن عدم قطعیت
7631
فرض کنید متغیر تصادفی $X_1$ داریم که به صورت $U[0,1]$ و $X_2$ توزیع شده به صورت $U[0,X_1]$، که $U[a,b]$ به معنای توزیع یکنواخت در بازه $[a است. ,b]$. من توانستم pdf مشترک $(X_1,X_2)$ و pdf حاشیه ای $X_1$ را محاسبه کنم. $$ p(x_1,x_2) = \frac{1}{x_1}, \text{ for }\quad 0\le x_1\le 1, \quad 0\le x_2 \le x_1, $$ $$ p(x_1 )= 1, \text{ for } \quad 0\le x_1\le 1.$$ اما هنگام محاسبه pdf حاشیه ای $X_2$ I من با مشکل محدودیت مواجه هستم برآیند انتگرال تا حاشیه $X_2$ $\log(X_1)$ است و محدودیت ها از 0 تا 1 است. از آنجایی که $\log(X_1)$ برای $X_1=0$ تعریف نشده است، من با مشکل مواجه هستم. . آیا من در جایی اشتباه می کنم؟ با تشکر
مشکل محاسبه توزیع مشترک و حاشیه ای دو توزیع یکنواخت
30671
برنامه را بنویسید آزمون بیزی فرضیه رگرسیون خطی در R یا باگ های win: h (θi)= µi βi~exp-family به جز توزیع نرمال H0: µi=α+β1x1+ β2x2 H1: µi=α+β1x1 (B.F12 = (m( x|μ_2))/(m(x|μ_1)) )=؟؟؟
آزمون بیزی فرضیه رگرسیون خطی
76441
من رویدادهای X و Y را در دو سویه (A و B) از گونه‌های مشابه اندازه‌گیری کرده‌ام. پس از محاسبه مقادیر این X و Y، آنها را با مقادیر نوع وحشی (X و Y) مقایسه کردم تا تغییر برابری را محاسبه کنم. من این تغییرات تاشو X و Y را در A و B ترسیم کردم و منحنی با LOESS برازش شد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0Ntfb.png) اکنون برای رویداد X (نقشه بالا) LOESS تقریباً به خط مستقیم است، اما برای رویداد Y (نقشه پایین)، مقادیر کوچکتر است. (اندازه کروموزوم کمتر از 600 کیلوبایت) به نظر می رسد افزایش یافته است. سوال من این است که فقط با نشان دادن این نمودار می توانم ادعا کنم که کروموزوم های کوچکتر رویداد-Y بیشتری نسبت به کروموزوم های بزرگتر دارند (اندازه کروموزوم > 600 کیلوبایت) یا برای گفتن این موضوع باید آزمایش های آماری انجام دهم؟ اگر بله چه تست هایی را پیشنهاد می کنید؟ با عرض پوزش من در مورد آمار پیشرفته ضعیف هستم. امیدوارم مشکلم را به وضوح بیان کرده باشم.
تفسیر از نمودار لس
67159
من تازه وارد این انجمن هستم بنابراین اینجا می رود. من یک سوال تکلیفی دارم که به کمک نیاز دارم. یک دانشمند آزمایش هایی را برای تعیین رابطه بین غلظت فسفر (P) در آب و غلظت فسفر در آب پس از افزودن 200 گرم ماسه به آب انجام داده است. ایده این است که مقداری از فسفر در ماسه جذب می شود و ما می خواهیم بدانیم چه مقدار. در بخشی از این آزمایش، دانشمند تقریباً 6000 واحد فسفر را به یک کوزه آب اضافه کرد، فسفر را مخلوط کرد تا کاملاً حل شود و سپس تمام این آب را در 3 کوزه کوچکتر ریخت تا به مقدار مساوی آب وجود داشته باشد. در هر کوزه این باعث شد که هر کوزه حاوی حدود 2000 واحد فسفر باشد. سپس اندازه گیری های اولیه بر روی مقدار فسفر در هر کوزه انجام شد. سپس به هر کوزه شن اضافه شده، مخلوط شده و مقدار فسفر موجود در آب در هر کوزه مجدداً ثبت شد. بنابراین برای هر یک از 3 کوزه، یک قرائت اولیه وجود دارد که مقدار فسفر آب را قبل از اضافه کردن ماسه نشان می دهد و یک قرائت نهایی مقدار فسفر موجود در آب را پس از اضافه کردن ماسه نشان می دهد. من باید یک CI 95% برای مقدار فسفر جذب شده در ماسه پیدا کنم. من ارقام را از مثال وارد نکرده ام، اما نمی دانم که آیا این یک آزمون t زوجی است یا نه. من فکر می‌کنم اینطور است که هر کوزه خط پایه خودش است، اما من فقط با آزمون‌های t زوجی آشنا هستم که در آن‌ها آزمایش می‌کنیم که آیا تفاوت صفر است. هر گونه کمکی قدردانی خواهد شد.
آزمون t زوجی یا t مستقل
88922
در Stata 12، من از logit برای مدل کردن فرآیندی استفاده می کنم که موفق یا شکست خورده است و به هفت کارگر نیاز دارد. من مجموعه بزرگتری از کارگران بالقوه دارم و از آدمک‌ها استفاده می‌کنم تا مشخص کنم کدام هفت نفر روی این فرآیند کار می‌کنند که منجر به موفقیت یا شکست می‌شود. بنابراین ضرایب تاثیری را که هر کارگر منفرد بر احتمال موفقیت می‌گذارد را گزارش می‌کند. با این حال، (دوباره) این فرآیند **نیازمند** هفت کارگر است. همه مشاهدات نشان می دهد که دقیقاً هفت نفر از 30 آدمک کارگر فعال شده اند. در واقعیت، تصور اضافه یا حذف یک کارگر منطقی نیست - اگر تنها شش کارگر در آن حضور داشته باشند، این روند اساساً متفاوت خواهد بود. نتایج من هنوز هم می‌تواند تأثیرات نسبی را بین کارگران نشان دهد، اما من نگران مشکل مفهومی داشتن تنها شش کارگر هستم. من علاقه مند به مقایسه تأثیر هر کارگر نسبت به کارگر «متوسط» یا «معیار» هستم، اما مطمئن نیستم که چگونه این کار را انجام دهم.
زمانی که باید از تعداد معینی از آدمک استفاده شود، با Dummies وارد شوید
83780
من یک پیش بینی کننده جدید بر اساس شبکه های عصبی برای یک مشکل خاص در بیوانفورماتیک ایجاد کرده ام. این پیش بینی چندین ویژگی را به عنوان ورودی می گیرد و یک مقدار هدف بولی را برمی گرداند. علاوه بر این، من مجموعه داده خود را از طریق سایر پیش بینی کننده های قبلا منتشر شده (که هیچ کدام بر اساس شبکه های عصبی نیستند) اجرا کرده ام. از تمام این نتایج، من 9 جدول احتمالی (یک جدول برای هر پیش‌بینی‌کننده) بر اساس مقدار هدف و پاسخ پیش‌بینی‌کننده مانند جدول زیر ایجاد کرده‌ام. هدف | 0 1 | ----------------| پیش بینی 0 | 123 10 | 1 | 5 171 | ---------------- آیا راهی برای مقایسه این جداول آماری به گونه ای وجود دارد که بتوانم بیان کنم که پیش بینی من بهتر یا بدتر از هر یک از پیش بینی کننده های دیگر است که توسط یک شاخص قابل توجه پشتیبانی می شود. مقدار p توجه داشته باشید که من جدول نتایج را برای همه موارد (Ei) در مجموعه داده‌ام برای همه پیش‌بینی‌کننده‌ها (Pj) دارم، مانند: P1 P2 P3 P4 P5 P6 P7 P8 P9 E1 0 0 1 0 1 0 0 1 1 E2 0 1 1 0 0 0 0 1 1 E3 0 1 0 0 0 0 0 0 0
نحوه مقایسه دو پیش بینی کننده مختلف
70250
من می خواهم قبل از استفاده از برخی از آنها به عنوان پیش بینی کننده در یک رگرسیون لجستیک، ارتباط بین متغیرهای طبقه بندی را بررسی کنم. به طور معمول من به سادگی از chi-square استفاده می کنم، با این حال حدود 15 متغیر دارم. بهترین راه برای آزمایش ارتباط بین جفت‌های هر 15 متغیر چیست؟
ارزیابی ارتباط بین بسیاری از جفت‌های متغیر طبقه‌بندی
41655
همه ما با مطالعات مشاهده‌ای آشنا هستیم که تلاش می‌کنند با گنجاندن هر عامل مخدوش‌کننده بالقوه در یک مدل رگرسیون چندگانه، یک ارتباط علی بین یک پیش‌بینی‌کننده غیرتصادفی X و یک پیامد ایجاد کنند. بنابراین، با «کنترل کردن» همه عوامل مخدوش‌کننده، ما تأثیر پیش‌بینی‌کننده علاقه را جدا می‌کنیم. من در حال ایجاد ناراحتی فزاینده ای با این ایده هستم، که عمدتاً بر اساس اظهارات غیرمستقیم توسط اساتید مختلف کلاس های آمارم است. آنها به چند دسته اصلی تقسیم می شوند: **1\. شما فقط می‌توانید متغیرهای کمکی را که فکر می‌کنید و اندازه‌گیری می‌کنید کنترل کنید.** این واضح است، اما نمی‌دانم که آیا واقعاً مخرب‌ترین و غیرقابل‌غلبه‌ترین است. **2\. این رویکرد منجر به اشتباهات زشتی در گذشته شده است.** برای مثال، پتیتی و فریدمن (2005) در مورد اینکه چگونه مطالعات مشاهده ای تنظیم شده از نظر آماری چندین دهه به نتایج نادرست فاجعه باری در مورد تأثیر درمان جایگزینی هورمون بر خطر بیماری قلبی رسیده است، بحث می کنند. RCTهای بعدی اثرات تقریباً متضادی پیدا کردند. **3\. رابطه پیش‌بینی‌کننده-نتیجه زمانی که شما متغیرهای کمکی را کنترل می‌کنید، می‌تواند رفتار عجیبی داشته باشد.** یو-کانگ تو، گانل و گیلتورپ (2008) برخی از تظاهرات مختلف، از جمله پارادوکس لرد، پارادوکس سیمپسون، و متغیرهای سرکوبگر را مورد بحث قرار می‌دهند. **4\. برای یک مدل واحد (رگرسیون چندگانه) تنظیم کافی برای متغیرهای کمکی و هم‌زمان رابطه پیش‌بینی‌کننده-نتیجه دشوار است. من مطمئن نیستم که واقعا آن را درک کنم. **5\. مدل ANCOVA مستلزم مستقل بودن متغیر کمکی و پیش‌بینی‌کننده مورد علاقه است.** البته، ما دقیقاً برای عوامل مخدوش کننده تنظیم می‌کنیم، زیرا با پیش‌بینی‌کننده علاقه همبستگی دارند، بنابراین، به نظر می‌رسد که مدل در موارد دقیقی که ما آن را بیشتر از همه می خواهیم استدلال این است که تنظیم فقط برای کاهش نویز در کارآزمایی‌های تصادفی مناسب است. Miller & Chapman، 2001 یک بررسی عالی ارائه می دهند. بنابراین سؤالات من این است: 1. این مشکلات و مشکلات دیگری که ممکن است من از آنها ندانم چقدر جدی هستند؟ 2. وقتی مطالعه ای را می بینم که همه چیز را کنترل می کند چقدر باید ترس داشته باشم؟ (امیدوارم این سوال خیلی به حوزه بحث وارد نشود و با خوشحالی از هر پیشنهادی برای بهبود آن دعوت کنید.) _EDIT_: بعد از یافتن یک مرجع جدید، نکته 5 را اضافه کردم.
واقعاً رگرسیون چندگانه چقدر می تواند متغیرهای کمکی را کنترل کند؟
88928
از مقاله اصلی نقشه های ویژه لاپلاس، منیفولد جدید را با توجه به ماتریس های لاپلاسی و درجه $L$ و $D$ می یابیم: $\arg\min_Ytr(Y^TLY)$ مشروط به ${Y^ TDY=I}$. با توجه به محدودیت ${Y^TDY=I}$: > برای مشکل جاسازی یک بعدی، محدودیت از فروپاشی بر روی یک نقطه جلوگیری می کند. برای مشکل جاسازی $m$-dimensional، محدودیت ارائه شده در بالا از فرو افتادن در فضای فرعی با ابعاد کمتر از $m-1$ ($m$ >) جلوگیری می‌کند، اگر مانند حالت تک بعدی، متعامد بودن به ثابت را نیاز داشته باشیم. > بردار). با استفاده از تابع لاگرانژ، هدف فوق به صورت زیر فرموله می شود: $\arg\min_YC(Y)=\arg\min_Y{tr(Y^TLY)+\lambda(I-Y^TDY)}$ شرایط اصلی KKT که راه حل ها را تعریف می کنند: شرط 1: $\frac{\delta C(Y)}{\delta Y}=0:\quad LY=\lambda DY$ شرط 2: $\frac{\delta C(Y)}{\delta\lambda}=0:\quad Y^TDY=I$ > روش‌های استاندارد نشان می‌دهند که راه‌حل توسط ماتریس > بردارهای ویژه مربوط به کمترین مقادیر ویژه ارائه می‌شود. مشکل تعمیم یافته > مقدار ویژه $Ly=\lambda Dy$. با این حال، محدودیت تحمیلی ${Y^TDY=I}$ لزوماً توسط بردارهای ویژه مربوط به کوچکترین مقادیر ویژه غیر صفر مثبت $Ly=\lambda Dy$ برآورده نخواهد شد، به خصوص از شرایط 2 ($Y^TDY=) I$) مطابق متن نادیده گرفته می شود. **چرا شرط KKT دوم در محاسبه راه حل نادیده گرفته می شود؟**
چرا نقشه های ویژه لاپلاسین شرط دوم KKT را در محاسبه راه حل نادیده می گیرند؟
83789
**به روز رسانی**: من پاسخی را در زیر پست کردم که در آن تلاش های فعلی ام برای نزدیک شدن به این مشکل را توضیح می دهد. من با یک مشکل همیشگی در شناسایی اجزای اصلی مهم روبرو هستم. این سوال چندین بار در اینجا مورد بحث قرار گرفته است (یک، دو و یک رشته بسیار تاثیرگذار سه)، و توصیه معمول این است که از یکی به اصطلاح تحلیل موازی استفاده کنید (به نظر من یک نام بسیار گمراه کننده است؛ در اصل مونت کارلو است. تخمین طیف ارزش ویژه تحت تهی) یا رویکردهای لاپلاس/BIC از Minka، 2000، انتخاب خودکار ابعاد برای PCA. جدای از آن، من از روش‌هایی برای انجام اعتبارسنجی متقاطع بر روی نقاط داده آگاه هستم (نگاه کنید به Bro et al., 2008, Cross-validation of components models) به علاوه البته یک رویکرد قدیمی خوب برای خیره شدن به طیف مقادیر ویژه وجود دارد. تلاش برای یافتن یک آرنج. همه این روش‌ها فرض می‌کنند که شما یک مجموعه از نقاط داده دارید، بگذارید بگوییم $N$ امتیاز از $\mathbb{R}^D$، و هیچ چیز غیر از آن. با این حال، در مورد من، هر نقطه به طور متوسط ​​​​$M$ امتیاز است، که اندازه گیری های تکراری با همان مقدار است. این باعث می‌شود فکر کنم که با استفاده از داده‌هایی که به میانگین‌ها می‌روند، می‌توانم به نوعی استنباط کنم که کدام مؤلفه‌های PCA مهم هستند. شاید با برخی از روش های اعتبارسنجی متقابل یا بوت استرپینگ. سوال من این است: چگونه؟ **به روز رسانی **. پس از بحث در نظرات، باید منظورم از مهم را روشن کنم. برای این من چند نماد معرفی می کنم. $N$ امتیاز $\bar{\mathbf{x}}_i \in \mathbb{R}^D$ وجود دارد، و هر نقطه میانگینی است بیش از $M$ اندازه‌گیری‌های مکرر $\bar{\mathbf{x}} _i=\frac{1}{M}\sum_{j=1}^M \mathbf{x}_i^{(j)}$. هر اندازه گیری یک مشاهده پر سر و صدا از موقعیت واقعی نقطه مربوطه است، یعنی $\mathbf{x}_i^{(j)}=\mathbf{a}_i + \mathbf{\xi}_i^{(j)} $ (توجه داشته باشید که $\xi$ نیز یک بردار $D$-بعدی است، اما من نمی‌توانم حروف یونانی را در اینجا پررنگ کنم). من به اجزای اصلی $\\{\mathbf{a}_i\\}$ علاقه مند هستم، اما فقط می توانم PCA را روی $\\{\bar{\mathbf{x}}_i\\}$ و کوچک انجام دهم قطعات می توانند به طور کامل توسط نویز مخدوش شوند. هرچه نویز بیشتر باشد، اجزای اصلی $\\{\mathbf{a}_i\\}$ کمتری قادر به بازیابی خواهند بود. چالش این است که فقط آن رایانه های شخصی پیشرو را انتخاب کنید که _قطعاً از $\\{\mathbf{a}_i\\}$ آمده اند. در پاسخ زیر، دو رویکردی را که در حال حاضر استفاده می‌کنم، توضیح می‌دهم. من از هیچکدام راضی نیستم
انتخاب تعداد اجزای PCA زمانی که چندین نمونه برای هر نقطه داده در دسترس باشد
100583
با توجه به $l$: مقیاس طول مشخصه، و $r$ فاصله هر نقطه است. آیا می توانید برخی از توابع همبستگی محبوب را پیشنهاد کنید که دوره ای هستند و با $l$ و $r$ مشخص می شوند؟
توابع همبستگی همسانگرد
30673
من به دنبال اصطلاحات آماری مناسب برای توصیف مشکل زیر هستم. من می‌خواهم یک دستگاه الکترونیکی را مشخص کنم که پاسخ خطی دارد $Y = \beta_0 + \beta_1 X + \epsilon$ که در آن $\epsilon \sim N(0,\sigma^2_{ro})$ یک اصطلاح به دلیل نویز خواندن دستگاه برای تعیین $\beta_0، \beta_1، \sigma^2_{ro}$ من یک سری پاسخ $\\{X_i,Y_i\\}$ را اندازه‌گیری می‌کنم و جعبه ابزار استاندارد رگرسیون خطی را اعمال می‌کنم. اما من نمی دانم X_i$ دقیقا چیست، زیرا من از منبعی استفاده می کنم که تحت تأثیر نویز شات است. یعنی می دانم که اگر شماره گیری منبع را روی مقدار مشخصی تنظیم کنم $J_i$، سپس $X_i \sim N(\mu, \mu)$ (گاوسی با میانگین $\mu$ و واریانس $\mu$) . به نظر می رسد یک مدل خطاهای در متغیرهای رگرسیون خطی (http://en.wikipedia.org/wiki/Errors-in-variables_models)، در حالی که برای مشخص کردن دستگاه من در کل محدوده ورودی آن نیست. ، در طول اندازه گیری ها باید مقدار $J_i$ را تغییر دهم و اکنون واریانس $X_i$ ثابت نیست، اما بستگی به $X_i$ دارد. (از طریق J_i)، اگرچه به دلیل نویز شات اگر $X_i=X_j$ این بدان معنا نیست که واریانس $X_i$ با واریانس $X_j$ یکسان است. این مدل چه نام دارد و آیا مقالاتی وجود دارد که بتوانم متوجه شوم چنین مشکلی وجود دارد؟ یا اینکه من به شیوه ای اشتباه فرمول بندی می کنم؟
رگرسیون خطی با نویز شات
7637
فرض کنید یک تاس 4 طرفه را 25 بار می اندازم تا جمع نهایی بین 25 و 100 به دست آید. چگونه توزیع احتمال را برای هر جمع بین 25 و 100 محاسبه کردم؟ متشکرم
توزیع چند جمله ای برای تاس 4 جانبی
88926
من در حال انجام پروژه ای در مورد تشخیص موضوع و ردیابی در متن هستم. من باید یک خط پایه انجام دهم تا بتوانم نتایج موجود را با نتایج خود مقایسه کنم. من برخی از مقالات را خواندم که در آنها از مجموعه داده هایی استفاده می شود که به دلایل مختلف به راحتی به دست نمی آیند. به عنوان مثال: 1. آنها از نوعی API برای دریافت متن از یک وب سایت در یک زمان خاص استفاده می کنند. 2. آنها از مجموعه داده های سال ها پیش استفاده می کنند و در هیچ کجا یافت نمی شوند. 3. آنها از مجموعه داده ای استفاده می کنند که صدها یا حتی هزاران دلار از آن می خواهند. البته، برای اینکه ببینم آیا بازآفرینی من از خط پایه آنها موفقیت آمیز بوده است، دقیقاً به همان مجموعه داده نیاز دارم تا بتوانم مجموعه خود را با نتایج آنها مقایسه کنم. می‌خواستم بدونم آیا کسی می‌تواند به من یک مقاله تحقیقاتی اشاره کند (بیشتر حتی بهتر است) که در آن از مجموعه داده‌ای استفاده کند که **رایگان** و **هنوز در دسترس** برای دانلود است. و جایی که از آن با طبقه‌بندی‌کننده‌های مختلف (Naive Bayes، kNN، SVM، Decision Trees، و غیره) استفاده می‌کنند که نتایج مربوطه خود را نشان می‌دهد.
مجموعه داده ها و مقالات برای خط پایه
86495
من نمی دانم که آیا این به اینجا تعلق دارد یا در StackExchange، این یک سوال مختلط اما احتمالاً بسیار ساده است. چگونه می توانم به طور معمول یک تست نسبت احتمال را گزارش کنم؟ من دوست دارم یک مرجع خوب در پاسخ شما وجود داشته باشد، من جستجو کردم اما نتوانستم پاسخ خوبی پیدا کنم. > glmm0 <- glmer(yngel ~ (1|nest), data, family=poisson(link=log)) > glmm <- glmer(yngel ~ age.level + (1|nest) + 0, data, family =poisson(link=log)) > anova(glmm0، glmm) داده ها: مدل های داده: glmm0: yngel ~ (1 | nest) glmm: yngel ~ age.level + (1 | nest) + 0 Df AIC BIC logLik انحراف Chisq Chi Df Pr(>Chisq) glmm0 2 682.33 689.38 -339.16 678.33 glmm 3 672.38 - 636.37 636.37. 11.959 1 0.000544 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 بهترین حدس من تا کنون این است: من از تست نسبت احتمال برای مقایسه مدل با اثر ثابت با مدل بدون آن استفاده کردم . مدل شامل اثر ثابت (سطح سن) برازش بهتری داشت ($\chi^2(df=?)=11.96$، $p=0.00054$). و من واقعاً نمی توانم بفهمم که چند df باید از آن گزارش کنم. 2 برای یک مدل و 3 برای مدل دیگر و 1 بین آنها وجود دارد. از کمک شما متشکرم.
گزارش از آزمون نسبت احتمال
44862
بگویید یک تیم بسکتبال برنده یک بازی است. بدیهی است که در مقطعی در آینده، تیم بسکتبال در یک بازی شکست خواهد خورد. بنابراین، پس از هر بازی که تیم بسکتبال برنده می شود، تیم به باخت بعدی خود نزدیک تر می شود. آیا ابزارهای آماری وجود دارد که بتواند به پیش بینی یا توضیح این نوع موقعیت ها کمک کند؟ مثال دیگر می تواند بازار سهام باشد، که می تواند پس از هر روز یا با بالاتر یا پایین تر بسته شود. اگر امروز بازار سهام با بالاتری بسته شود، در نهایت یک روز با کاهش قیمت بسته خواهد شد. آن روز نزدیک تر می شد. آیا ابزار یا آزمون های آماری وجود دارد که بتواند به مدل سازی یا پیش بینی این نوع رویدادها کمک کند؟ مثلاً 4 روز متوالی بورس بسته شده است، پس احتمال اینکه فردا تعطیل شود چقدر است؟ برای درک بهتر آنچه که می خواهم توضیح دهم. مثلاً می‌گوییم نتایج 5 بازی گذشته (بازی 5 جدیدترین) یک تیم بسکتبال عبارتند از: > بازی 1: برد > > بازی 2: برد > > بازی 3: برد > > بازی 4: برد > > بازی 5 : شکست بنابراین از بازی 1 تا بازی 4، پس از هر برد، باخت بعدی تیم نزدیک تر می شود. آیا ابزارهای آماری برای این نوع موقعیت ها وجود دارد؟
آیا تعاریف رسمی یا تئوری های آماری در مورد این نوع رویدادها وجود دارد؟
73938
من دو متغیر دارم که نشان دهنده دو معیار عملکرد هستند. من مجموعه محدودی از عناصر را با توجه به این دو متغیر رتبه‌بندی کردم. بنابراین، من باید رتبه بندی کنم. فرض کنید رتبه‌ها به ترتیب نزولی انجام می‌شوند (بالاترین اندازه بالاترین مقدار در فرآیند تصمیم‌گیری هر عنصر). به عنوان مثال، یک مجموعه مرتب شده $\Omega$ از عناصر $10$ بر اساس دو معیار A و B. R#A = [5 3 1 9 2 10 6 7 4 8]; R#B = [9 7 4 8 5 6 1 3 2 10]; فرض کنید که اکنون R#A و R#B را کوتاه می‌کنم تا 5 عنصر برتر را انتخاب کنم: R#A_5 = [5 3 1 9 2]; R#B_5 = [9 7 4 8 5]; به نظر شما هنوز هم می توان ضریب همبستگی اسپیرمن را با این دو مرتبه جزئی بدست آورد؟ من می دانم که 1) ما در مرحله دوم Spearman هستیم زیرا قبلاً با رتبه ها سروکار داریم. 2) حجم نمونه بسیار کم است اما فقط برای توضیح است.
Spearman's Rho - از متغیرهای رتبه بندی شده جزئی
44867
من اخیراً به طور تصادفی با اشاره ای به bootstrap دوگانه / سه گانه یا bootstrap تکراری برخورد کرده ام. همانطور که متوجه شدم، هر نمونه بوت استرپ دوباره بوت استرپ می شود. نکته چیست؟ چگونه استفاده می شود؟
بوت استرپ تکراری چیست؟ چگونه استفاده می شود؟
70848
من اغلب با اصطلاح راه حل شکل بسته برخورد کرده ام. راه حل بسته به چه معناست؟ چگونه می توان تعیین کرد که آیا یک راه حل نزدیک برای یک مشکل وجود دارد؟ با جستجوی آنلاین، اطلاعاتی پیدا کردم، اما هیچ چیز در زمینه توسعه یک مدل / راه حل آماری یا احتمالی وجود نداشت. من رگرسیون را به خوبی درک می کنم، بنابراین اگر کسی بتواند مفهوم را با اشاره به رگرسیون یا برازش مدل توضیح دهد، مصرف آن آسان خواهد بود. :)
راه حل به شکل بسته به چه معناست؟
8239
من به تازگی، از طریق این پاسخ، یک منبع ویدیویی خوب برای به اشتراک گذاشتن با دانش آموزان در دوره های آمار مقدماتی کشف کرده ام. سخنرانی ها که توسط آکادمی خان تهیه شده اند، نسبتاً آموزشی و به خوبی نشان داده شده اند. نویسنده ویدیوها را پیدا نکردم. آیا مجموعه دیگری از دوره های ویدیویی وجود دارد که بتوانم آن را به دانش آموزانم که دانشمندان علوم اجتماعی هستند توصیه کنم که دوره مقدماتی آمار را می گذرانند؟ مجموعه فوق مستقل از نرم افزار و رایگان برای تماشا است، دو شرط که من باید آن را حفظ کنم.
دوره های ویدیویی آمار مقدماتی برای دانشمندان علوم اجتماعی
86142
من اغلب با مجموعه داده‌هایی سر و کار دارم که بر اساس یک طبقه‌بندی باینری مبتنی بر مقدار تمایز پالس-شکل-توزیع (PSD) هستند. این بر اساس یک تناسب 2 بعدی از مقدار PSD در مقابل دامنه داده ها است، یک نمودار معمولی در زیر نشان داده شده است![psd](http://i.stack.imgur.com/sTRyw.png) برازش هایی که مشاهده می کنید میانگین و +/- 1 سیگما برای دو باند، که در آن میانگین و سیگما با تقسیم توزیع 2d در امتداد محور x و انجام یک دو تعیین می شود. گاوسی در امتداد هر برش قرار می گیرد. این در اکثر موارد کار می کند، اما گاهی اوقات منازعات می توانند زیاد به اطراف باز شوند و در انتهای پایینی دقت کمتری دارند. کاری که من می خواهم انجام دهم این است که به نحوی میانگین گاوسیان را به یک فرم عملکردی پارامتر کنم. به دلایل مبتنی بر فیزیک زیربنایی داده‌ها، می‌توان فرض کرد که میانگین توزیع پایین ثابت است و میانگین توزیع بالا یک منحنی کاهشی یکنواخت است (مدل کردن یک مکعب احتمالاً ساده‌ترین است). انتگرال دو توزیع نسبت به یکدیگر مهم نیست و همچنین توزیع مقادیر در امتداد محور x مهم نیست. این برای هر مجموعه داده تغییر می کند و مهم نیست. آنچه مورد نیاز است فقط تناسب هایی است که در بالا می بینید. به نظر می رسد که دو گزینه وجود دارد که هر دوی آنها به سختی در مورد نحوه اجرای آنها فکر می کنم: * به انجام برش برش 1 بعدی ادامه دهید، اما مقادیر ابزار را به گونه ای محدود کنید که از یک فرم عملکردی پیروی کنند * Fit یک توزیع دوبعدی به طور مستقیم، اما مطمئن نیستید که چگونه با مقدار bin و توزیع دامنه مهم نیست. آیا نام خاصی، کلاس الگوریتم‌ها یا بازنویسی مسئله وجود دارد که بتواند به من در مسیر پیاده‌سازی نوعی تناسب 1.5 بعدی کمک کند؟
برازش توزیع 2 بعدی پارامتری شده
86499
ظاهراً $T^{-3/2} \sum\limits_{t=1}^T{y_{t-1}}u_t$ طبق قانون به $0.5\ ​​برابر T^{-1/2}\sigma^2 همگرا می‌شود (X-1)$، که در آن $X$ یک متغیر تصادفی $\chi^2(1)$ است. $u_t$ نویز سفید است و $y_t$ یک فرآیند **AR(1)** است، یعنی $y_t=y_{t-1}+u_t$ با $u_t\sim iid N(0,\sigma^2 ) دلار. من می خواهم ثابت کنم که عبارت فوق نیز **به احتمال صفر** همگرا می شود. اکنون به نظر می رسد که واریانس این عبارت به ترتیب $1/T$ است. من این را با ذکر این نکته کسر می کنم که واریانس یک متغیر $\chi^2$ محدود است و ما چیزی محدود داریم که بر $\sqrt{T}$ تقسیم می شود. این نشان می دهد که واریانس کل عبارت به صفر همگرا می شود. اگر اشتباه نکنم، این بدان معناست که عبارت فوق به احتمال زیاد به میانگین خود همگرا می شود (؟) اکنون کمی مطمئن نیستم که چگونه می توان میانگین این عبارت مجانبی را بدست آورد. برای اثبات 0.5$\ برابر T^{-1/2}\sigma^2 (X-1)$ با احتمال همگرا به صفر، می توانم به سادگی انتظار این عبارت را با فرض اینکه انتظار یک $\chi^2( n) متغیر $ $n$ است؟ آنوقت 0.5$\ برابر T^{-1/2}\sigma^2 (1-1)=0$ خواهد بود. بنابراین ما 0.5$\ برابر T^{-1/2}\sigma^2 (X-1)\rightarrow_p0$ داریم؟ آیا این به اندازه کافی سختگیرانه است؟
ثابت کنید که این عبارت به احتمال زیاد به صفر همگرا می شود