_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
6754
من در آمار مبتدی هستم و می خواهم یادگیری ماشینی را یاد بگیرم :). بنابراین، من برخی از داده های نمونه را برای تمرین جمع آوری کرده ام. اما، مشکل این است که من می خواهم یک ویژگی (یا ویژگی) ایجاد کنم که برای هر موجودیت رایج است. اما این ویژگی برای موجودیت X در Y متر و Z ثانیه و برای موجودیت W در M متر و L ثانیه مشاهده و اندازه‌گیری می‌شود و مشاهدات زیادی مانند آنچه قبلا توضیح داده شد وجود دارد. برای ایجاد یک ویژگی مشترک برای همه موجودیت ها، کدام الگوریتم را باید اعمال کنم؟ BTW، من از WEKA استفاده می کنم.
برای مقایسه مجموعه های مختلف داده ها چه باید بکنم؟
6758
من با استفاده از بسته dynlm مدلی را با چندین متغیر مستقل برازش کرده‌ام که یکی از آنها تاخیر متغیر وابسته است. با فرض اینکه من برای متغیرهای مستقل خود پیش بینی های 1 گام جلوتری داشته باشم، چگونه می توانم پیش بینی های 1 گام جلوتر را برای متغیرهای وابسته خود دریافت کنم؟ در اینجا یک مثال وجود دارد: library(dynlm) y<-arima.sim(model=list(ar=c(.9)),n=10) #Create AR(1) متغیر وابسته A<-rnorm(10) #Create متغیرهای مستقل B<-rnorm(10) C<-rnorm(10) y<-y+.5*A+.2*B-.3*C #افزودن رابطه به متغیرهای مستقل data=cbind(y,A,B,C) #مدل مدل خطی برازش<-dynlm(y~A+B+C+L(y,1),data=data) #پیش‌بینی A< -c(A,rnorm(1)) #فرض کنید ما قبلاً پیش‌بینی‌های 1 مرحله‌ای برای A,B,C B<-c(B,rnorm(1) داریم) C<-c(C,rnorm(1)) y=window(y,end=end(y)+c(1,0),extend=TRUE) newdata<-cbind(y,A,B,C) پیش بینی (model,newdata) و در اینجا یک مثال با استفاده از بسته dyn است که کار می کند. library(dyn) #مدل مدل خطی مناسب<-dyn$lm(y~A+B+C+lag(y,-1),data=data) #پیش‌بینی بسته‌های dyn را پیش‌بینی کرد(model,newdata) که کار می‌کند:
پیش بینی های 1 گام جلوتر با بسته dynlm R
100234
می‌خواهم ببینم آیا این داده‌های دیگری که دارم پیش‌بینی می‌کند که اولین رویداد رخ خواهد داد یا خیر. به عبارت دیگر، من یک فیلد داده با رکورد گوزها، با ستون‌هایی برای روز، ماه، سال دارم و سپس یک فیلد داده دیگر با رکورد وعده‌های غذایی، با ستون‌هایی برای تاریخ ماه و سال و همچنین ستونی برای خواه خورنده لوبیا خوار باشد. چگونه این را تجزیه و تحلیل کنم؟ اگر این داده‌ها در قالب سری زمانی آسان، با تاریخ‌ها در محور x و تعداد فرت‌ها در محور y باشند، آسان‌تر خواهد بود، اما داده‌ها فقط زمانی که گوز رخ می‌دهد، ثبت می‌کنند، نه زمانی که گوز رخ نمی‌دهد. با تشکر
من داده هایی دارم که شامل رکوردی از هر رویداد و زمان آن است
87920
من مدل خطی مخلوط را با استفاده از lme4 انجام می دهم. با توجه به Winter (2013، http://www.bodowinter.com/tutorial/bw_LME_tutorial2.pdf)، از آنجایی که نسخه جدید R به دلیل عدم نتیجه گیری درجه آزادی، مقادیر p را ارائه نمی دهد، P-مقدارهای مدل های مختلط می توانند از مقایسه مدل حاصل شود. از مثال های صفحه 12، او پیشنهاد ساخت مدل تهی را داد: politeness.null=lmer (فرکانس ~ جنسیت + (1|موضوع) + (1|سناریو)، داده = ادب، REML=FALSE) سپس افکت ثابت را اضافه کنید. که ما به آن علاقه مندیم: ادب.null=lmer (فرکانس ~ نگرش + جنسیت + (1|موضوع) + (1|سناریو)، داده = ادب، REML=FALSE) و سپس مقادیر p نگرش را می توان از anova (politeness.null،politeness.model) ارائه داد، اما، در مورد من، من تعامل 3 طرفه دارم: رنگ. *سکس*غذا، و وقتی مدل را اجرا می کنم، 17 لایه جلوه ثابت دارم، مانند سفید (در مقایسه با قرمز)، آبی (در مقایسه با قرمز)، white:male (در مقایسه با ماده) و غیره. سپس سوال من این است که چگونه می توانم مقادیر p را برای همه این اثرات ثابت دریافت کنم؟ مطمئن نیستم که اولاً باید جلوه های ثابتی داشته باشم که به آنها علاقه ای ندارم: lmer1=lmer (مدت ~ عمل + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) سپس اضافه کنید: lmer1=lmer (مدت ~ عمل + رنگ + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) سپس اضافه کنید: lmer1=lmer (مدت ~ عمل + رنگ + جنس + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) یا lmer1=lmer (مدت ~ عمل + رنگ*جنس + ( 1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) یا lmer1=lmer (مدت ~ عمل + جنسیت + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) کسی می‌تواند در این مورد به من کمک کند؟ یا راه دیگری برای بدست آوردن مقادیر p آسانتر از مقایسه مدل وجود دارد؟
چگونه با مقایسه مدل، مقدار p را برای اثرات ثابت بدست آوریم؟
35276
مجموعه داده من کوچک است (120 نمونه)، با این حال تعداد ویژگی های بزرگ از (1000-200000) متفاوت است. اگرچه من در حال انجام انتخاب ویژگی برای انتخاب زیرمجموعه ای از ویژگی ها هستم، اما ممکن است هنوز بیش از حد مناسب باشد. اولین سوال من این است که SVM چگونه با اضافه کردن برازش کنار می‌آید. ثانیا، با مطالعه بیشتر در مورد overfitting در صورت طبقه بندی، به این نتیجه رسیدم که حتی مجموعه داده هایی با تعداد کمی از ویژگی ها نیز می توانند بیش از حد برازش کنند. اگر ویژگی‌های مرتبط با برچسب کلاس را نداشته باشیم، به هر حال بیش‌برازش صورت می‌گیرد. بنابراین من اکنون می‌پرسم اگر نتوانیم ویژگی‌های مناسب برای برچسب کلاس را پیدا کنیم، طبقه‌بندی خودکار چه فایده‌ای دارد. در صورت طبقه‌بندی اسناد، این به معنای ایجاد یک اصطلاحنامه از کلمات مرتبط با برچسب‌ها است که بسیار زمان‌بر است. حدس می‌زنم آنچه می‌خواهم بگویم این است که بدون دستچین کردن ویژگی‌های مناسب، ساخت یک مدل تعمیم‌یافته بسیار دشوار است؟ همچنین، اگر نتایج تجربی نشان ندهد که نتایج کم/بدون برازش زیاد هستند، بی‌معنی می‌شود. آیا راهی برای اندازه گیری آن وجود دارد؟
SVM، بیش از حد، نفرین ابعاد
6753
... به جای مثلا هیستوگرام های مساوی پهنای محبوب. سوال اضافی: یک قانون خوب/محکم برای محاسبه تعداد سطل‌ها برای هیستوگرام‌های فرکانس برابر چیست (مانند قانون Freedmann-Diaconis- برای عرض مساوی).
زمان استفاده از هیستوگرام با فرکانس برابر
86285
من متوجه شدم که یکی از set.seed() در R برای تولید اعداد شبه تصادفی استفاده می کند. همچنین می‌دانم که استفاده از همان عدد، مانند set.seed(123) تضمین می‌کند که می‌توانید نتایج را بازتولید کنید. اما چیزی که من متوجه نمی شوم این است که خود ارزش ها به چه معنا هستند. من با چندین تابع بازی می کنم و برخی از set.seed(1) یا set.seed(300) یا set.seed(12345) استفاده می کنند. این عدد به چه معناست (در صورت وجود) - و چه زمانی باید از عدد دیگری استفاده کنم. به عنوان مثال، در کتابی که من از طریق آن کار می‌کنم، از set.seed(12345) هنگام ایجاد مجموعه آموزشی برای درخت‌های تصمیم استفاده می‌کنند. سپس در فصلی دیگر، از set.seed(300) برای ایجاد یک جنگل تصادفی استفاده می کنند. فقط شماره نگیرید با تشکر
عدد تصادفی-Set.seed(N) در R
72519
اول از همه، اگر سوال خیلی گسترده یا اشتباه است، عذرخواهی می کنم، اما نیاز به مراجع دارم و نمی دانم از چه کسی می توانم بپرسم. اگر علاقه مند هستید، سوال از مدلی است که من ساخته ام، می توانید برخی از جزئیات را اینجا و اینجا ببینید. در این مدل من دارم: $$f(\mathbb{x}|T,\mu)=\frac{h(\mathbb{x})e^{-\frac{E(\mathbb{x})}{ kT}+\mu N(x)}}{\mathcal{Z}(T,\mu)}$$ در آنجا، پارامترهای من $\mu$ و $T$ هستند، و $\mathbb{x}=(x_1,\dots,x_M)$ که در آن $x_i\in\\{0,1\\}$ و من محدودیت $\forall i\in\\{1,\dots را داریم، M-D+1\\}$ $$\sum_{j=0}^{D-1} x_{i+j} \leq 1$$ این است، $h(\mathbb{x})=0$ اگر آن شرط برقرار نیست. من این ناراحتی کوچک از دانستن $\mathcal{Z}(T,\mu)$ را دارم، بنابراین از روش MCMC (Metropolis-Hastings) برای تخمین زدن این تابع استفاده کردم. با این حال من با دو مشکل روبرو هستم. * اولین مورد مربوط به شبیه سازی و مدل است و من در حال حل آن هستم (بیش از حد به شرایط اولیه بستگی دارد). * دوم اینکه این پارامترها کاملاً شناخته شده نیستند و من نمی دانم چگونه می توانم آنها را تخمین بزنم. من در مورد استنتاج بیزی مطالعه کرده ام و کمی تئوری تخمین را می دانم اما متخصص نیستم (علاوه بر این نمی دانم که آیا ندانستن تابع پارتیشن می تواند بر نتیجه تأثیر بگذارد). اگر هر یک از شما بتواند سرنخی در قالب کتابی به من بدهد که بتوانم آن را بخوانم، تا ابد سپاسگزار خواهم بود. از کمک شما بسیار سپاسگزارم. به لطف نظر کاردینال، متوجه شدم که یک چیز را توضیح ندادم. احتمالاً همه چیز را پیچیده‌تر می‌کند، اما به اینجا می‌رسد: ایده این است که $E$ در هر آزمایش شناخته شده است، در واقع $E(\mathbf{x}) = \mathbf{E}\cdot\mathbf{x}$. با این حال، $\mathbf{E}$ همیشه یکسان نیست، نشان دهنده یک پتانسیل خارجی برای برخی از ذرات است. نکته خوب این است که $T$، که دما را محاسبه می کند، هرگز هر چه $\mathbf{E}$ باشد تغییر نمی کند، بنابراین فکر کردم که می توانم راهی برای تخمین آن پیدا کنم، با توجه به این واقعیت که من یک آزمایش تجربی دارم. توزیع $x_{i}$ (بنابراین، یک احتمال که یک ذره در موقعیت $i$ قرار دارد) با توجه به $\mathbf{E}$ معین. بنابراین، به نوعی، چیزی که من دارم $$f(\mathbf{x}|T,\mu , \mathbf{E})$$ است، اما من همیشه $\mathbf{E}$ را می دانم و می دانم (می توانم من این را می گویم؟) که $T,\mu$ مستقل از $\mathbf{E}$ هستند. متاسفم که قبلاً به اندازه کافی شفاف نبودم. کم کم دارم به این فکر می کنم که هیچ چیز منطقی نیست...
تخمین و برازش پارامترهای خانواده نمایی، مراجع
92766
من در حال خواندن این مقاله خوب بودم و سعی کردم این راهنمای گام به گام را در پایتون پیاده سازی کنم و سپس نتایج را با استفاده از تابع Python از کتابخانه matplotlib مقایسه کردم: `matplotlib.mlab.PCA()`. با این حال، متوجه شدم که نتایج متفاوت است. اکنون، کمی نگران هستم که آیا در جایی در پیاده‌سازی خود اشتباه کرده‌ام، یا اگر تابع PCA() رویکرد کمی متفاوت داشته باشد. دریافت بازخورد در مورد این پیش نویس بسیار خوب است: مشاهده نوت بوک iPython با تشکر!
نتیجه اجرای گام به گام PCA با «matplotlib.mlab.PCA()» متفاوت است، اگر کسی بتواند در یافتن منبع به من کمک کند خوب است.
6759
Coulmn1 Column 2 A 1 A 1 A 2 B 4 B 1 B 1 C 2 C 2 من می خواهم موارد تکراری را بر اساس هر دو ستون حذف کنم تا خروجی نهایی من A 1 A 2 B 4 B 1 C 2 باشد. برای من مهم نیست پیشاپیش متشکرم
حذف ردیف های تکراری از فریم داده R
69304
داشتم عکس نوشته R پکیج «کمومتریکس» (لینک) را می خواندم. نویسنده در پاراگراف دوم (درست زیر معادله اول) صفحه 12 می نویسد: > OD (فاصله متعامد) در فضای اصلی به صورت > فاصله متعامد یک جسم تا زیر فضای PCA یا به عبارت دیگر، محاسبه می شود. فاصله بین جسم و طرح ریزی متعامد آن در زیر فضای PCA >. آیا کسی می تواند توضیح دهد که چگونه فاصله متعامد دقیقاً محاسبه می شود (در صورت امکان، برخی از کدهای R به عنوان یک مثال گویا بسیار قدردانی می شود!)
چگونه فاصله متعامد محاسبه می شود؟
43835
یک متغیر طبیعی تصادفی با میانگین و std ناشناخته وجود دارد. من می خواهم میانگین را با نمونه گیری تخمین بزنم. بعد از چندین نمونه، تخمینی دارم که با گرفتن نمونه های بیشتر می توانم آن را دقیق تر کنم، البته هر نمونه اضافی هزینه دارد. چگونه می‌توانم از نمونه‌هایی که در حال حاضر دارم، تأثیر روی یک نمونه اضافی را بر دقت برآوردم از میانگین تخمین بزنم؟
آیا ارزش برداشتن نمونه دیگری را دارد؟
92768
من در حال بررسی بسته mvoutlier و مقایسه آن با معیارهای نفوذ متعارف مانند فاصله کوک، اهرم، DFFITS و غیره هستم. طبق تجربه شما در کدام شرایط یکی بهتر از دیگری است؟
mvoutlier در مقابل معیارهای تأثیر
85387
من سعی می کنم درک شهودی بهتری از انحراف معیار به دست بیاورم. از آن‌چه من می‌دانم، نشان‌دهنده میانگین تفاوت‌های مجموعه‌ای از مشاهدات در یک مجموعه داده از میانگین آن مجموعه داده است. اما در واقع با میانگین تفاوت ها برابر نیست زیرا به مشاهدات دورتر از میانگین وزن بیشتری می دهد. بگویید من جمعیت مقادیر زیر را دارم - $\\{1، 3، 5، 7، 9\\}$ میانگین $5$ است. اگر اندازه‌گیری اسپرد را بر اساس مقدار مطلق بگیرم، $$\frac{\sum_{i = 1}^5|x_i - \mu|}{5} = 2.4$$ دریافت می‌کنم. انحراف استاندارد $$\sqrt{\frac{\sum_{i = 1}^5(x_i - \mu)^2}{5}} = 2.83$$ دریافت می‌کنم. نتیجه با استفاده از انحراف استاندارد این است بزرگتر، همانطور که انتظار می رود، به دلیل وزن اضافی که به مقادیر دورتر از میانگین می دهد. اما اگر فقط به من گفته شود که با جمعیتی با میانگین 5 دلار و انحراف معیار 2.83 دلار سروکار دارم، چگونه می توانم استنباط کنم که جمعیت از مقادیری شبیه به $\\{1، 3، 5 تشکیل شده است، 7، 9 \\} دلار؟ فقط به نظر می رسد که رقم 2.83 دلار بسیار دلخواه است ... من نمی دانم که شما چگونه باید آن را تفسیر کنید. آیا $2.83$ به این معنی است که مقادیر بسیار گسترده شده‌اند یا همه آنها به شدت در اطراف میانگین قرار گرفته‌اند... وقتی با بیانیه‌ای مواجه می‌شوید که با جمعیتی با میانگین 5 دلار و انحراف معیار 2.83 دلار سروکار دارید، آیا این به شما در مورد جمعیت می گوید؟
شهود پشت انحراف معیار
43833
من در اکسل کار می کنم و می خواهم سطح قیمت نسبی را در 4 بازار محاسبه کنم. من روش خوبی می دانم که می توانم از آن استفاده کنم وقتی فقط به 2 بازار ایالات متحده آمریکا نگاه می کنم آدامس حباب 4 6 آب نبات چوبی 3 شکلات تخته ای 7 8 در مثال بالا با 2 بازار به این نتیجه می رسم که سطح قیمت (6/4+7/) است. 8)/2 = 11875 در بریتانیا بیشتر از ایالات متحده است. ما می توانیم این را به صورت USA = 1 UK = 1,1875 بیان کنیم، اما وقتی چهار بازار داریم و قیمت همه اقلام در همه بازارها را نداریم، چگونه این را محاسبه کنم؟ ایالات متحده آمریکا انگلستان فرانسه آلمان آدامس حباب 4 6 8 آب نبات چوبی 3 5 4 شکلات تخته ای 7 8 10 برای محاسبه سطوح قیمت در مثال بالا به کمک شما نیاز دارم. من می خواهم در صورت امکان محاسبات را در اکسل انجام دهم.
سطوح قیمت نسبی را در 4 بازار محاسبه کنید؟
66001
اگر انحراف معیار یک سری زمانی اقتصادی تقریباً متناسب با سطح آن باشد، یعنی انحراف معیار به خوبی به عنوان درصدی از سطح سری بیان شود، در این صورت انحراف معیار لگاریتم طبیعی سری تقریباً ثابت است. ممکن است به من بگویید چرا؟ متشکرم
سوالات مربوط به انحراف معیار یک سری زمانی
32722
من سعی کرده ام الگوریتمی را آموزش دهم تا پیش بینی کند که آیا یک حساب بسته می شود یا نه با استفاده از هزاران نقطه داده و بسیاری از ویژگی ها. من از داده‌های یک ماه قبل از بسته شدن حساب استفاده می‌کنم، اما مشکل این است که حساب‌ها برای مدت زمان متفاوتی وجود داشته‌اند. بنابراین، در حالی که برای یک حساب من ممکن است فقط داده های عملکرد تا 1 سال داشته باشم، برای حساب دیگر ممکن است 1 ماه، 3 ماه، 1 سال، 3 سال، 5 سال و حتی 10 سال داشته باشم. 94 ویژگی وجود داشت اما من آن را به 19 کاهش دادم تا شروع به بازی کردن با آن کنم. من به دنبال کمکی هستم که چگونه می توانم الگوریتمی بسازم که مقادیر مختلف داده را برای هر حساب ترکیب کند. من به استفاده از یک شبکه عصبی فکر می کردم زیرا همیشه به آنها علاقه مند بوده ام، اما آماده هر پیشنهادی هستم. بنابراین، اساساً، من ارزش های گمشده زیادی در ویژگی های خود دارم. اگر من به سادگی مشاهدات با مقادیر زیادی از دست رفته را حذف کنم، مجموعه داده های من برای مفید بودن بسیار کوچک می شود. آیا روش استانداردی برای رسیدگی به این نوع مشکل داده های از دست رفته یا الگوریتم یا مدل خاصی وجود دارد که به خوبی آن را مدیریت کند؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/y1VVj.jpg)
مدل های پیش بینی با تعداد زیادی مقادیر گمشده در ویژگی ها
32725
فرض کنید ما یک ماتریس $\mathbf{A}=\begin{bmatrix}a_{11} & a_{12}\\\ a_{21} & a_{22} \end{bmatrix}$ داریم و کوواریانس واریانس آن را می‌دانیم ماتریس \left(4\times4\right)$. سپس چگونه می توان ماتریس کوواریانس واریانس $\mathbf{A}^{-1}$ را بدست آورد؟ من بسیار قدردان کمک شما هستم. با تشکر
ماتریس کوواریانس واریانس برای معکوس یک ماتریس
101181
(x-posted to Statalist) من دو نمونه (احتمالا) مستقل دارم که از یک جمعیت تحت دو نظرسنجی مختلف با فاصله چند سال از همدیگر انجام شده است. می‌خواهم بررسی کنم که آیا فرکانس‌های یک شاخص خاص بین نمونه‌ها مطابقت دارند یا خیر. من انتظار ندارم که این نسبت ها در طول زمان تغییر زیادی کند (البته نمی توانم آن را رد کنم). این نشانگر از دسته‌های متعددی استفاده می‌کند که متقابلاً منحصر به فرد هستند و ترتیبی نیستند، به عنوان مثال: رنگ ماشین شما چیست؟ 1. قرمز 2. سبز 3. مشکی 4. آبی و غیره. من می‌خواهم بررسی کنم که نظرسنجی A اساساً همان نسبت‌های قرمز/سبز/آبی را که نظرسنجی B انجام داده است را ثبت کرده است. من _فکر می کنم_ باید برای این کار از فیلد مجذور کای استفاده کنم ('csgof'، در Stata). به جز اینکه من دو نمونه را مقایسه می کنم، نه نمونه را در مقابل جامعه. کسی میدونه از چه تست آماری دیگری باید استفاده کنم؟ من کمی گیر کرده‌ام، و فقط به این فکر می‌کنم: استفاده از «svy: tab» (در Stata) در هر دو و فقط مقایسه فواصل اطمینان. اما من احساس می‌کنم که این یک روش خام برای انجام کارها است. خیلی ممنون الف
مقایسه نسبت ها در دو نمونه
43832
من علاقه مند به استنتاج آماری برای مدل رگرسیون دمینگ هستم: $$ x_i=x^*_i + \epsilon_i$$ $$ y_i = (\alpha+\beta x^*_i) + \epsilon'_i$$ که در آن $x ^*_i$ها اعداد ثابت غیر تصادفی هستند، $\epsilon_i \sim {\cal N}(0,\sigma_x^2)$، $\epsilon'_i \sim {\cal N}(0,\sigma_y^2)$، و همه متغیرهای $\epsilon_i، \epsilon'_i$ متقابلاً مستقل هستند. من به ویژه بر روی فرض $\sigma_x=\sigma_y$ تمرکز می‌کنم. اسلایدهای گراهام دان نشان می‌دهند که چگونه می‌توان با رگرسیون دمینگ با رویکرد حداقل مربعات دو مرحله‌ای برخورد کرد، وقتی که $x^*_i$ تصادفی باشد (این مدل گاهی اوقات به عنوان مدل فراساختاری در ادبیات نامیده می‌شود). می‌خواهم بدانم وقتی x^*_i$‌های $x^*_i$ غیرتصادفی هستند چگونه به طور مشابه رفتار کنم و آیا می‌توان این رویکرد را با بسته R sem جان فاکس انجام داد.
رویکرد حداقل مربعات دو مرحله ای به رگرسیون دمینگ
43837
به گروهی از افراد 21 تا 35 ساله فکر کنید. سپس می توانیم تعداد افراد را با توجه به جنسیت و گروه های سنی 21-25، 26-30 و 31-35 به دو صورت (حداقل) نشان دهیم: **نوع A** ![توضیح تصویر را اینجا وارد کنید](http:/ /i.stack.imgur.com/gLjAX.jpg) **نوع B** ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/nWum5.jpg) آنچه من در مورد آن کنجکاو هستم این است که ** چه نام هایی برای اشاره به انواع مختلف ساختارهای جدول استفاده می شود**؟ ارتباط عملی این است که اکسل می تواند از نوع A به عنوان منبع برای جداول محوری استفاده کند اما از نوع B استفاده نمی کند. اغلب جداول بزرگ از نوع B برای آمار ارائه می شود و من می خواهم در گوگل جستجو کنم که چگونه جداول نوع B را به جداول نوع A تبدیل کنیم. ؟ * * * **اصطلاحات (خلاصه شده از پاسخ ها)**: 1. نوع A: * **R** : 'قالب داده طولانی' * '(ذوب شده) زبانه متقاطع * **اکسل**: 'مسطح(تند) جدول داده‌ها 2. نوع B: * **R**: «فرمت داده گسترده» * (سنتی) زبانه متقاطع عبارت جستجو برای جدول Excel/Pivot عبارت است از «چگونه یک جدول متقاطع را صاف کنیم». * * *
اصطلاحات دو نمایش جدولی مختلف از داده های انباشته
95015
پرسشگر بار اول است، پس لطفا ملایم باشید :) من دو توزیع داده از یک شبیه سازی دارم. از چشم، یکی به نظر می رسد که ممکن است دووجهی باشد، یکی نه. من آنها را در زیر کپی می کنم ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Kl6fa.png) **A: مقدار پارامتر 1 :** با چشم احتمالاً bi / multi modal ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/nF8Fc.png) **B: مقدار پارامتر 2 :** توسط چشم یک حالته من فکر کردم از Hartigans استفاده کنم تست شیب برای تست H1:نه یک حالته در مقابل H0:یک مدال. مشکل این است که آمار آزمون نشان می‌دهد که من فرضیه صفر تک‌وجهی بودن را برای توزیع‌های _both_ با مقادیر بسیار کمتر از آستانه 0.05 پیشنهادی رد می‌کنم. در واقع، آمار آزمون برای توزیعی که بیشتر یک‌وجهی به نظر می‌رسد، کمتر از توزیعی است که بالقوه چند وجهی به نظر می‌رسد (فاصله A: D = 0.00814؛ فاصله B: D = 0.00340) من فکر می‌کنم چیزی که می‌بینم این است اثر N نسبتاً بزرگ (N=5000)، بنابراین حجم نمونه قدرت آماری را به آزمون می‌دهد. اما بررسی هیستوگرام ها نشان می دهد که این معتبر نیست. آیا راهی برای رسمی کردن بحث در مورد معتبر بودن رد فرضیه صفر بر اساس این آزمون وجود دارد؟ من چند پست در اینجا خوانده ام (تست برای توزیع دووجهی و جستجوی پیشنهادی @whuber). من همچنین این را در جای دیگری یافتم، اما پاسخ کمی عمومی است - اساساً می‌گویم که با N بزرگ احتمالاً تعداد زیادی از آزمایش‌ها قابل توجه است، که من قبلاً گمان می‌کنم در اینجا چنین است. من متوجه هستم که برخی مکانیسم‌های علّی برای پیامدهای مودال واحد/غیر واحد می‌تواند به بحث کمک کند، اما می‌خواهم آزمون‌های آماری را نیز درک کنم. در مورد 1) آیا من آمار آزمون را به درستی تفسیر می‌کنم (یعنی D <0.05 شواهد برای رد تک‌وجهی بودن) راهنمایی می‌کنم؟ 2) آیا راهی برای تعیین اینکه آیا N بزرگ قدرت آماری نامناسبی به آزمون می دهد وجود دارد؟
آیا استفاده از آزمون شیب هارتیگانز برای رد فرضیه صفر تک وجهی با N بزرگ معتبر است؟
43831
اگرچه داشتن یک برآوردگر بی طرفانه از واریانس خوب است، اما ما واقعاً برای درک رابطه بین متغیر مستقل و متغیر وابسته خود به آن نیاز نداریم. چرا؟ فکر می کنم به نوعی متوجه شدم، اما او یک پاسخ مشخص می خواهد و من را انتخاب می کند ...
آیا به برآوردگر بی طرفانه واریانس نیاز داریم؟
32721
من می خواهم تفاوت خطای پیش بینی بین سال 1 و 2 را بررسی کنم. آمار توصیفی نشان می دهد که میانگین خطای پیش بینی در سال 2 بیشتر است اما میانه کمتر است. در چه شرایطی این اتفاق می افتاد؟ همچنین، وقتی این را در رگرسیون زیر بعد از کنترل عوامل دیگر آزمایش می‌کنم، $\beta_1$ منفی و معنی‌دار است، به این معنی که خطای پیش‌بینی در سال 2 به طور قابل توجهی کمتر از سال 1 است. اما این نتیجه با نتیجه آمار توصیفی مغایر است. . چگونه آن را تفسیر کنم؟ در چه شرایطی جهت رگرسیون کاملاً مخالف جهت آزمون t خواهد بود؟ $Error = \alpha + \beta_1Year + \text{متغیرهای کنترل}$ که در آن: $Year$ یک متغیر ساختگی است (سال 2 $1$ و سال 1 $0$ است).
آزمون t دو نمونه در مقابل رگرسیون
101183
> > با کمک دور شکم و دور عضله دوسر می خواهیم > چربی بدن را پیشگویی کنیم. برای انجام این کار، داده‌های 252 مرد را جمع‌آوری کردیم (40 داده اول در زیر نشان داده شده است). ابتدا رگرسیون خطی مدل > چربی بدن / شکم، سپس رگرسیون دروغی مدل چربی بدن / دو سر و > سپس رگرسیون چندگانه چربی بدن مدل / (شکم + عضله دوسر) را انجام دهید. > نتایج را مقایسه و تفسیر کنید! در زیر بخشی از داده ها آورده شده است تا تصور کنید که داده ها چگونه هستند. با R دو رگرسیون خطی ساده و یک رگرسیون چندگانه را انجام دادم و آن را ترسیم کردم (به زیر مراجعه کنید). **مدل 1** _(چربی بدن/شکم)_ برای مدل خطی من دو ضریب تخمینی $$ \hat{\theta}_1\approx-35.197,~~~\hat{\theta}_2\approx0 را دریافت کردم. 585. $$ با این کار من خطی را به داده هایی که در تصویر اول می بینید رسم کردم. **مدل 2** _(چربی بدن/ عضله دوسر)_ در اینجا، من دو ضریب تخمینی $$ \hat{\theta}_1\approx-21.882،~~~\hat{\theta}_2\approx1.265 را دریافت کردم. $$ دوباره خط را رسم کردم (تصویر دوم زیر). **مدل 3** _(چربی بدن/ (شکم + عضله دوسر)_ اینجا باید سه ضریب تعیین می شد، من $$ \hat{\theta}_1\approx -30.684،~~~\hat{\theta گرفتم }_2\تقریبا 0.645،~~~\hat{\theta}_3\حدود -0.311. $$ اکنون وظیفه مقایسه و تفسیر است. اما صادقانه بگویم، من برای خواندن چیزی در این ... یا تفسیر چیزی مشکل دارم. شاید بتوانید در مقایسه و تفسیر به من کمک کنید؟ از این همه چه می توان دید؟ * * * ![data](http://i.stack.imgur.com/SQyUv.png) ![گرافیک و رگرسیون](http://i.stack.imgur.com/9SwLZ.png) **ویرایش ** ارزش $R^2$ مدل اول $R^2=0.6621$ است. $R^2$-value مدل دوم $R^2=0.2431$ است. $R^2$-value مدل سوم $R^2=0.6699$ است. بنابراین بین شکم و چربی بدن یک ارتباط خطی نسبتاً خوبی وجود دارد، اما ارتباط خطی بین عضلات دوسر بازو و چربی بدن نسبتاً کوچک به نظر می رسد. شکم و بیسئوس را کنار هم قرار دهید، ارتباط خطی بهتری وجود دارد که به نظر واضح است، زیرا چربی بدن به عوامل بسیار زیادی بستگی دارد (مانند غذا، حرکت، ژن، ...) و هر چه عوامل بیشتری را در نظر بگیرید، بهتر است. اتصال است.
چربی بدن، شکم و عضله دوسر: چگونه این داده ها را تفسیر کنیم؟
43830
من یک تابع تشخیص خطی با 250 متغیر ورودی بیش از 4000 رکورد داده را تخمین می زنم. آیا باید انتخاب ویژگی را در نظر بگیرم، آیا بیش از حد مناسب مدل هستم؟ چگونه بفهمم که چه زمانی باید انتخاب ویژگی در نظر گرفته شود؟ من از یک مدل تحلیل متمایز برنامه‌نویسی خطی استفاده می‌کنم که توسط Stam و Ragsdale پیشنهاد شده است
برازش بیش از حد یک تابع تشخیص خطی خطی
38547
من یک مدل Y= X+e دارم و به چگالی X نیاز دارم. بسته deamer چگالی X را جدا می کند، اما اگر از قانون سیمپسون برای ادغام این چگالی استفاده کنم، مقادیر بالای 1 را دریافت می کنم. مثال زیر به من می دهد. چگالی که انتگرال آن 1.173454 است: کتابخانه (deamer) # کتابخانه deconvolution (بولستاد) # قانون سیمپسون # The Yهایی که دارم inv-Weibull توزیع می شوند و خطاها inv-normal توزیع می شوند. # از آنجایی که دکانولوشن آن ها زمان زیادی می برد، من از runif در مثال خود # برای ساده کردن مشکل استفاده کردم. خطوط بدون کامنت زیر همان چیزی است که من دوست دارم از هم جدا کنم: #library(actuar) # for rinvweibull #y <- rinvweibull(30000, shape=5.53861156, scale=488)/1000 #y <- y[y<1.5] #e < - 1/rnorm(30000، mean=0.0023853421، sd=0.0004784688)/1000 #e <- e[e<1.5] #decon <- deamerSE(y، error=e، from=-0.1، to=0.3) y <- runif(1000، min = 0.8، حداکثر = 1.2) e <- runif(1000، حداقل = 0.1, max=0.5) decon <- deamerSE(y, error=e, from=0.4, to=1) plot(decon) # خط زیر انتگرال چگالی (با قانون سیمپسون) را به من می دهد. انتگرال (decon$supp, decon $f)$value من مطمئن نیستم که آیا این فقط یک خطای تخمینی است یا اینکه باید مقیاس چگالی را کاهش دهم تا چگالی یکپارچه 1 است: # کاهش مقیاس yValsScaled <- decon$f/area plot(decon$supp, yValsScaled, type=l) (areaScaled <- sintegral(decon$supp, yValsScaled)$value) نظر شما چیست؟ btw: اگر از یک بازه بزرگتر با آرگومان های _from_ و _to_ در تابع _deamerSE_ استفاده کنید، چگالی یکپارچه حتی بیشتر خواهد شد (به دلیل تناوب چگالی). معمولاً فکر می‌کردم که با deamerSE چگالی به دست می‌آورم که انتگرال (از -inf تا inf) تقریباً 1 است. بنابراین فکر می‌کردم که ادغام چگالی با استفاده از فاصله کوچک‌تر (مثلاً با _from=0.4_ و _to=1_ در تابع deamerSE ) باید چگالی به من بدهد که انتگرال آن کمتر از 1 باشد. اما همانطور که می بینید اینطور نیست. بنابراین من نسبتاً گیج هستم.
آیا خروجی دکانولوشن دیمر چگالی نیست؟
101187
من می دانم که قبلاً در این مورد بحث شده است، اما آن بحث ها واقعاً به سؤالات من پاسخ نداد. من می‌دانم تست ADF چگونه کار می‌کند، اما در تفسیر خروجی سه گزینه با استفاده از تابع «ur.df» در R (بسته: «urca») مشکل دارم. آیا کسی می تواند مرا از طریق تفاسیر راهنمایی کند؟ به طور خاص تر، «tau1»، «tau2»، «phi1»، «phi2» و «phi3» چیست؟ summary(ur.df(tcm.ts, type=none,selectlags=BIC)) summary(ur.df(tcm.ts, type=drift,selectlags=BIC)) summary(ur. df(tcm.ts، type=trend,selectlags=BIC)) > summary(ur.df(tcm.ts, type=none,selectlags=BIC)) ############################################## # دیکی افزوده -تست ریشه واحد تست کاملتر #################################################################### #### تست رگرسیون هیچ تماسی: lm(فرمول = z.diff ~ z.lag.1 - 1 + z.diff.lag) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -95.199 -23.380 -6.608 26.885 86.560 ضرایب: برآورد ضرایب. خطای t مقدار Pr(>|t|) z.lag.1 0.04398 0.01205 3.650 0.00183 ** z.diff.lag -0.03722 0.24417 -0.152 0.88053 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 45 در 18 درجه آزادی چندگانه R-squared: 0.7091، تنظیم شده R-squared: 0.6768 F- آمار: 21.94 در 2 و 18 DF، p-value: 1.492e-05 مقدار test-statistic: 3.6495 مقادیر بحرانی برای آمار تست: 1pct 5pct 10pct tau1 -2.66 -1.95 -1.6 > summary(ur.df(tcm.ts, type=drift,selectlags BIC)) ############################################## # دیکی افزوده -تست ریشه واحد تست کاملتر #################################################################### #### تست رگرسیون drift Call: lm(فرمول = z.diff ~ z.lag.1 + 1 + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -69.366 -24.625 -3.018 34.165 82.227 ضرایب: برآورد ضرایب. خطای t مقدار Pr(>|t|) (فاصله) -75.21181 45.89715 -1.639 0.1196 z.lag.1 0.09756 0.03467 2.814 0.0119 * z.diff.lag 0.205 -0.69 -0.203 0.4343 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 43.03 در 17 درجه آزادی چندگانه R-squared: 0.3596، R-squared تنظیم شده: 0.283 آمار: 4.773 در 2 و 17 مقدار P type=trend,selectlags=BIC)) ###################################################### ########## # تست ریشه واحد تست دیکی-فولر تقویت شده # ############################################# روند رگرسیون آزمون تماس: lm(فرمول = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -86.46 -14.84 5.56 20.87 70.29 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 91.4039 92.1407 0.992 0.3360 z.lag.1 -0.1127 0.1082 -1.042 0.3129 tt 13.0810 6.40318 6.40318. z.diff.lag -0.1287 0.2369 -0.543 0.5946 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 39.54 در 16 درجه آزادی چندگانه R-squared: 0.4911، R-squared تنظیم شده: 0.3957 آمار: 5.148 در 3 و 16 DF، p-value: 0.01109 مقدار آزمون آماری است: -1.042 8.1902 6.7579 مقادیر بحرانی برای آمار آزمون: 1pct 5pct 10pct tau3 -4.38 -3.60 -3.24 phi2 8.231 5.671 5.671 5.91
تفسیر دیکی-فولر تقویت شده در R
72511
من واقعا می توانم از برخی کمک های هدایت شده استفاده کنم! من در درک پیاده سازی MCMC از نظر مدل سازی یک مجموعه داده با مشکل مواجه هستم. من روی ایجاد پارامترها از منحنی‌های نور ستاره‌ای کار می‌کنم، و از من خواسته شد تا به پیاده‌سازی الگوریتم MCMC بپردازم. یک چاک بزرگ روی کد در پایتون نوشته شده است، بنابراین من سعی کرده ام از چکش emcee برای ایجاد تناسب پارامترها استفاده کنم. اما با مرور کد، نحوه کار روش کلیک نمی شود. من مجموعه ای از داده ها (زمان در مقابل شار) از دو ستاره دارم که به دور یکدیگر می چرخند به طوری که از دید ما، آنها را گرفت. شیب هایی در منحنی نور وجود دارد که این امر را نشان می دهد. تمام تلاش من این است که پارامترهای سیستم را به ویژگی های این شیب ها بستگی داشته باشد. در پیاده سازی emcee، چند تابع وجود دارد که من آنها را درک می کنم: تابع خلفی که، به اعتقاد من، به سادگی یک مجموعه داده با توجه به مجموعه پارامترها تولید می کند. سپس یک تابع قبلی وجود دارد که، من فرض می‌کنم، تابعی است که مجموعه‌ای از پارامترهای قبلی داده شده است. به نوعی الگوریتم انتخاب می کند که آیا پرش به مجموعه پارامترهای عقبی انجام شود یا خیر؟ من حدس می زنم که استفاده از تابع درستنمایی این است؟ برای توضیح اینکه آیا باید پرش کرد یا نه؟ من عذرخواهی می کنم، من در مورد نحوه اجرای این مورد در مجموعه ای از داده های تعریف شده کاملاً گیج هستم.
مشکل در اجرای MCMC
24449
اخیراً من یک داده طولی جهانی از چندین کشور دریافت کردم، و هر شهرستان دارای یک متغیر نتیجه و دو پیش بینی کننده از سال 1995 تا 2008 است. من متوجه شدم که یکی از پیش بینی کننده ها همیشه در هر کشور در سال های 1995، 1997، 1999 و 2001 وجود ندارد زیرا آن متغیر است. قبل از سال 2001 هر دو سال یکبار جمع‌آوری شد تجزیه و تحلیل موردی کامل است زیرا اطلاعات مفید زیادی در آن چهار سال از دست می رود. همچنین، بدیهی است که بر برازش عملکرد هموارسازی زمان تأثیر می‌گذارد. من خیلی متعجبم که آیا این وضعیت برای استفاده از روش انتساب چندگانه برای تولید داده مناسب است یا خیر. همانطور که می‌دانم، این مورد یک مکانیسم تصادفی نیست، بنابراین انتساب چندگانه ممکن است راه مناسبی برای رسیدگی به پرونده من نباشد. من در اینجا به دنبال مشاوره ای هستم تا راه حلی برای مقابله با آن داده های از دست رفته پیدا کنم. هر گونه پیشنهاد قدردانی می شود.
چگونه می توان داده ها را بدون از دست دادن به طور تصادفی نسبت داد؟
5077
من سعی می‌کنم الگوریتم MCMC را اجرا و اجرا کنم، اما در درک نحوه انجام آن با کمی مشکل مواجه هستم. ایده کلی به شرح زیر است: > برای ایجاد یک پرش پیشنهادی در MH، ما: > > * یک جهت $d$ را از یک توزیع روی سطح واحد ایجاد می کنیم > کره $\mathcal{O}$ > * یک جهت ایجاد می کنیم. فاصله امضا شده $\lambda$ در امتداد فضای محدود. > با این حال، من نمی دانم که چگونه باید این را در R (یا هر زبان دیگری) پیاده سازی کنم. آیا کسی قطعه کدی دارد که من را در مسیر درست راهنمایی کند؟ BTW، من به کتابخانه ای که این روش را انجام می دهد علاقه چندانی ندارم، می خواهم خودم آن را کدنویسی کنم. با تشکر فراوان.
MCMC را بزنید و اجرا کنید
32727
من یک رگرسیون ساده با یک متغیر پاسخ پیوسته و یک متغیر توضیحی طبقه بندی (با 2 سطح) اجرا کردم. من در حال حاضر بررسی می کنم که آیا مدل با مفروضات رگرسیون مطابقت دارد. من طرح زیر را ایجاد کردم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7s0f8.png) من می دانم که باید بررسی کنم که باقیمانده ها به طور معمول توزیع شده اند. آیا باید توزیع باقیمانده ها را در هر یک از 2 سطح متغیر توضیحی بررسی کنم؟ یا باید توزیع همه باقیمانده ها را به طور همزمان بررسی کنم؟
نرمال بودن باقیمانده ها در یک مدل رگرسیون با IV مقوله ای
97440
سلام، من به دنبال یک رابط مبتنی بر وب پیچیده از R بودم که بتوان از آن برای چند برنامه تحلیلی استفاده کرد؟ هر پیشنهادی لطفا..rweb بسیار ساده است
پیشنهاد رابط وب R
38548
من با گزارش آزمایشگاهم مشکل دارم. من یک پرسشنامه دارم که شامل پاسخ های لیکرت (1-7) و همچنین سؤالاتی است که فقط به پاسخ بله یا خیر نیاز دارند. می‌خواهم ببینم آیا بین نمرات بالاتر در مقیاس لیکرت و پاسخ‌های به پاسخ‌های دودویی به سؤالات دیگر همبستگی وجود دارد یا خیر. به طور خاص - پاسخ لیکرت در مورد سطوح اضطراب است. پاسخ دودویی (بله/خیر) در مورد پیامدهای منفی ناشی از مصرف الکل است. من می خواهم فقط یک مورد لیکرت ترتیبی را با تمام پاسخ های پیامد منفی اجرا کنم تا ببینم آیا رابطه ای وجود دارد یا خیر. کسی میتونه کمکم کنه؟ * * * خیلی ممنون از نظرات سریع. قطعاً به من اطمینان می دهد که می توان از اسپیرمن Rho استفاده کرد، اما مشکل اصلی من این واقعیت است که من متغیرهای باینری و ترتیبی را با هم در یک ماتریس همبستگی مخلوط می کنم. من یک متغیر ترتیبی دارم (اضطراب - 1-7 در مقیاس لیکرت) که با 13 دوگانگی (0 یا 1 نشان دهنده بله یا خیر) به پاسخ ها (آیا تا به حال به دلیل مصرف الکل خود در بیمارستان بستری شده اید؟) تلاقی داده شده است. پاسخ های آماری معنی داری دریافت می کنم. (<0.05 و <.01، اما ضرایب همبستگی در بهترین حالت ناچیز است (یعنی o.2). بستری شدن در بیمارستان DV و سطح اضطراب IV من فقط فکر می کنم که من در اینجا کار اشتباهی انجام می دهم من مدام فکر می کنم که فقط می خواند که چیزی در آن کادر (ترتیبی) وجود دارد، اما مقدار آن را تشخیص نمی دهد (یعنی 1-7). واقعیت این تفاوت را بشناسید و آن را حساب کنید.
چگونه همبستگی بین داده های ترتیبی و باینری را در SPSS برآورد می کنید؟
43836
فرض کنید من تعدادی متغیر دارم. هر کدام به عنوان گاوسی یا تصادفی یکنواخت با پارامترهای شناخته شده شناخته می شوند و با احتمال مشخصی رخ می دهند. من همچنین جدولی از همبستگی ها (یا کوواریانس ها اگر آسان تر است) برای هر یک دارم. اگر این پارامترها از هر نوع توزیعی بیایند عالی است، اما اگر نه، یکنواخت و گاوسی برای علایق من خوب است. بنابراین، یک مورد مشکل معمولی A گاوسی با میانگین a1 و واریانس a2 خواهد بود. B با حداکثر b1 و حداقل b2 یکنواخت است. C گاوسی با میانگین c1 و واریانس c2 است. سپس من جدولی از همبستگی های A با B، A با C و B با C دارم. چگونه می توانم الگوریتمی بنویسم تا نمونه ای از بردارهای تصادفی (A,B,C) تولید کنم که ویژگی های بالا را برآورده کند. باز هم، بسیار عالی خواهد بود اگر متغیرها بتوانند از هر نوع توزیعی بیایند، اما من حداقل به گاوسی، فقط یکنواخت یا مخلوطی از متغیرهای گاوسی و یکنواخت بسنده می کنم. خوب است که رویکردی داشته باشیم که به راحتی افزایش یابد. من به جای استفاده از بسته های از پیش تعریف شده، می خواهم این را خودم پیاده کنم. بنابراین، من به جزئیات الگوریتمی علاقه مند هستم.
ایجاد جمعیتی از افراد با ویژگی های تصادفی شناخته شده گاوسی و یکنواخت
5078
با عرض پوزش برای یک سوال احتمالا نادان. من یک مدل جلوه‌های ترکیبی را با استفاده از تابع lmer از بسته lme4 برازش داده‌ام، و اثر ثابت اصلی (فاکتوری با سه سطح) در مدل با توجه به اجرای pvals.fnc (از بسته languageR) معنی‌دار بود. برای نشان دادن اثر به شیوه ای جذاب، می خواهم سه نوار را با شرایط پایه (قطع شامل سطح اثر 1)، شرایط تجربی 1 (قطع + سطح اثر 2) ترسیم کنم. شرایط تجربی 2 (قطع + اثر سطح 3)، و فواصل اطمینان مربوط به این شرایط. با این حال، چگونه این کار را انجام دهم؟ تابع plotLMER.fnc این کار را انجام می‌داد، اما برای من کار نمی‌کند (lme4_0.999375-32؛ languageR_1.0). مدل: mylmer <\- lmer(نتیجه ~ (1|موضوع) + (1|مورد) + فاکتور، داده) بنابراین من خروجی MCMC به شکل: $ ثابت برآورد MCMCmean HPD95 پایین تر HPD95pMCMC Pr(>|t|) دارم. (رهگیری) 0.4728 0.4718 0.2250 0.7368 0.0010 0.0008 Factor2 -0.0420 -0.0420 -0.1732 0.0931 0.5414 0.5710 Factor3 -0.1643 -0.1631 -0.3153 -0.0158 -0.011 ایده من بود شرایط را از این داده ها به سادگی با استفاده از قطع به عنوان شرط پایه، و ساخت شرایط تجربی با افزودن اثر هر سطح عامل به قطع. CI جدید (برق + اثر ترکیبی) با تبدیل بازه HPD به یک انحراف استاندارد ساخته می شود و سپس از جذر مجذور انحرافات استاندارد استفاده می کند (مانند اینجا). آیا این رویکرد مناسب است؟ اگر این کار را انجام دهم، CI ها نسبتاً بزرگ می شوند و اثر دیگر قابل توجه به نظر نمی رسد (در تضاد با خروجی pvals.fnc). آیا راه بهتری وجود دارد (مثال کد عالی خواهد بود)؟ اگر نه، آیا «کمترین بدترین» راه حلی وجود دارد که بتواند خوانندگانی را که به شدت درخواست نمودار نوار استاندارد با CI را دارند، راضی کند؟ مشکلات پشت سرم که خیلی نادان هستم که نمی توانم به درستی آن ها را فرموله کنم: CI برابر با HPD نیست. تبدیل CI به SD نامناسب است، زیرا CI ممکن است نامتقارن باشد. مشکلات تعیین CI اصلاً در مدل های ترکیبی (مانند اینجا).
فواصل اطمینان برای شرایط آزمایش شده با یک مدل اثرات مختلط
79060
بهترین راه برای توضیح با 2 متغیر ($Z_1$ و $Z_2$) بسته به متغیرهای یکسان ($X$ و $Y$) و پارامترهای $\theta$ اما با مدل‌های متفاوت ($f$ و $) چیست؟ g$)؟ به عنوان مثال: $Z_1 = f(X,Y,\theta) $ و $Z_2 = g(X,Y,\theta)$. من تخمینی از $\hat{X}$، $\hat{Y}$ و $\hat{\theta}$، و دو مدل مکانیکی $f(.)$ و $g(.)$ دارم. من دو رگرسیون را همزمان می خواهم. من از یک تابع GLM، GLMM و «nls()» در «R» استفاده کردم که برای تخمین $\hat{\theta}$ برای $Z_1$ و $Z_2$ یکبار کار می‌کند. آیا مدل بیزی تنها راه است؟ کجا می توانم جستجو کنم؟
اتصالات متقاطع با پارامترهای یکسان اما مدل های متفاوت
85385
حذف ویژگی بازگشتی (RFE) یک استراتژی انتخاب ویژگی است. در دو سطح تودرتو از اعتبارسنجی متقابل انجام می شود. ابتدا سعی می‌کند مجموعه آموزشی را به N fold تقسیم کند. RFE یک برابر را برای آزمایش تعمیم کنار می گذارد و سپس خود را با داده های باقی مانده آموزش می دهد. در مورد من فقط دو کلاس دارم و می خواهم RFE انجام دهم. مشکل اینجاست که از آنجایی که فقط دو کلاس وجود دارد، الگوریتم نمی تواند یکی را کنار بگذارد و سپس خود را با چین های باقیمانده تمرین کند (فقط یک فولد باقی می ماند و آموزش در کلاس تک معقول نیست.) بسیار سپاسگزار خواهم بود اگر شما می توانید به من بگویید که چه کاری می توانم در اینجا انجام دهم.
حذف ویژگی بازگشتی تنها با دو کلاس
43834
**سوال** یک محقق $n$ دانشجوی کالج را مورد نظرسنجی قرار می دهد و شمارش تعداد حامیان، مخالفت و عدم تصمیم گیری در مورد سیاست فدرال اخیراً معرفی شده را شمارش می کند. اجازه دهید $X_1, X_2, X_3$ این تعداد را نشان دهند، او $X = (X_1, X_2, X_3)$ را به عنوان $X \sim \mathsf{چندجمله‌ای}(n,p)$ مدل می‌کند. من می‌خواهم MLE محدود $\mathbf p = (p_1, p_2, p_3)$ را برای یک فرضیه صفر پیدا کنم که نسبت‌های واقعی حامیان و مخالفان در کل دانشکده برابر است. فرمول ریاضی من از این null این بود که این MLE بردار $\bf p$ خواهد بود که تابع احتمال را بیش از $\Delta_3^0 \subsetneq \Delta_3$ که $\Delta_3$ سیمپلکس 3 بعدی همه بردارهای احتمال است را به حداکثر می‌رساند. یعنی بردارهایی که به صورت مولفه 1 جمع می شوند. سپس $\Delta_3^0$ شامل تمام $p$ به شکل $\mathbf p = (a, a, 1 - 2a), a\in(0,1)$ باشد. _توجه_ متوجه شدم که این یک سوال ساده برای چنین انتزاعات ریاضی است، من به سادگی سعی کرده ام از نماد معلمم پیروی کنم. **کار من** وقتی به این موضوع پرداختم و سعی کردم تابع درستنمایی را بنویسم، $L_{x, H_0} = \text{const دریافت کردم. }\times a^{x_1}\cdot a^{x_2}\cdot (1 - 2a)^{x_3}$$ که باید در $\hat a = {x_1 + x_2 \over x_1 + x_2 + x_3}$ حداکثر شود . با این حال، هنگامی که من واقعاً برای داده های تعداد $(X_1، X_2، X_3) = (140، 165، 195)$ محاسبه کردم، $a = 0.61$ دریافت کردم، که به من یک احتمال منفی در بردار احتمال من می دهد که باعث نمی شود حس برای هر کمکی متشکرم
تخمین ML نسبت چندجمله ای با محدودیت ها
5079
من داده‌هایی دارم که واحدهای مسکونی برای افراد دارای ناتوانی یادگیری را توصیف می‌کند، متغیرهایی مانند زیبا بودن وسایل، سطح علائم روان‌پزشکی در واحد، میزان خوشحالی کارکنان و مواردی از این دست. می‌خواهم بررسی کنم که آیا ما چیزهای درستی را اندازه‌گیری می‌کنیم - مثلاً. آیا واحدهایی که کارکنان شادتر دارند، فضای بهتری دارند، آیا واحدهایی با مبلمان زیبا کارکنان شادی دارند، چنین چیزهایی. مشکل این است که من فقط برای 8 واحد داده دارم (میانگین در هر واحد، به عنوان مثال 10 پرسنل در مورد میزان خوشحالی خود پاسخ می دهند، این میانگین برای واحد است) بنابراین نمی توانم واقعاً از رگرسیون خطی استفاده کنم تا ببینم آیا این موارد که اندازه گیری کرده ایم روی هم تاثیر می گذارند. من برای همه داده ها چند نمودار پراکنده ترسیم کرده ام و در کل می توانم بگویم که به نظر می رسد یک رابطه خطی به روشی که من انتظار دارم وجود دارد. اما همانطور که می گویم با 8 واحد واقعاً هیچ آماری تولید نمی شود. من این ایده روشن را داشتم که هر واحد را در بین همه متغیرها مرتب کنم و سپس ترتیب رتبه ها را به نحوی با هم مقایسه کنم. اگر چیزهای درستی را اندازه گیری می کنیم، رتبه ها باید مشابه باشند، مانند این: واحد 1 (رتبه در همه متغیرها): 1،1،1،1،1،1،1،1،1 واحد 2: 2،2، 2،2،2،2،2،2،2 و غیره، در حالی که اگر اشتباه می کنم، و متغیرها برای یکدیگر مهم نیستند، این را دریافت خواهم کرد: واحد 1: 1،2،3،4،5،6،7،8 واحد 2: 8،7،6،5،4،3،2،1 واحد 3: 4،5،6،7،8،1،2، 3 و غیره. این چیزی است که من دریافت می کنم: Unit1 7 5 5.0 5 3 4 5 3 Unit2 6 2 4.0 6 5 3 2 5 Unit3 3 7 7.5 1 4 1 1 1 Unit4 4 4 3.0 7 6 7 7 8 Unit5 5 3 1.0 4 2 5 6 7 Unit6 2 6 6.0 8 8 8 8 6 Unit7 1 8 7.5 3 4 2 2 بجز ستون اول خیلی خوب به نظر می رسد. نظری در این مورد دارید؟ آیا آمار مناسبی است که من در مورد آن نشنیده ام؟ یا آیا کاری وجود دارد که بتوانم با این نتایج به طور منطقی قوی انجام دهم؟ با عرض پوزش برای طولانی شدن سوال، پیشاپیش بسیار متشکرم!
ترتیب رتبه بندی اعضای جمعیت را در بین متغیرهای مختلف مقایسه کنید
15044
ابتدا چند مقدمه: بگذارید A مجموعه‌ای از عناصر نامرتب باشد و A' و A'' زیرمجموعه‌های A باشند، که در آن |A'| = |A''| = k با توجه به اینکه با نزدیک شدن k به |A|، به ازای هر x در A' احتمال یافتن x در A' افزایش می یابد. یعنی با نزدیک شدن k به |A|, |A' ∩ A''| رویکردهای |A|. در مورد موضوع مورد بحث: فرض کنید دو نمودار متفاوت G1 و G2 داریم که هر کدام دارای n رأس با برچسب 1 تا n و هر کدام دارای مجموعه ای از یال های غیر تصادفی هستند.* فرض کنید B مجموعه ای از رئوس G1 باشد. C مجموعه رئوس G2 باشد. ترتیب B و C بر اساس درجه راس. فرض کنید B' و C' به ترتیب زیرمجموعه های B و C باشند، جایی که |B'| = |C'| = k، و در جایی که عناصر زیرمجموعه از ابرمجموعه های مربوطه خود از چپ به راست گرفته می شوند (نمونه زیر را ببینید)، به طوری که با نزدیک شدن k به n، B' و C' تمایل دارند که شامل رئوس با درجه کمتر و کمتر شوند. در اینجا یک مثال کلی از فرآیند انتخاب زیر مجموعه آمده است: B = {1،4،2،5،3} C = {4،2،3،1،5} k = 1 -> B' = {1}، C' = {4} k = 2 -> B' = {1،4}، C' = {4،2} k = 3 -> B' = {1،4،2}، C' = {4،2، 3} k = 4 -> B' = {1،4،2،5}، C' = {4،2،3،1} k = n -> B' = {1،4،2،5،3}، C' = {4،2، 3،1،5} اگر بخواهم k در مقابل |B' ∩ C'| رسم کنم، شکل منحنی هم به اثر افزایش k، همانطور که در مقدمه من توضیح داده شد، قابل انتساب خواهد بود، بلکه همچنین، و به ویژه، به اثر از سفارش دادن در این مورد، ترتیب بر اساس درجه. چگونه می توانم اهمیت این سفارش را تعیین کنم؟ *منظورم از یال های غیر تصادفی این است که اتصال نمودارهای مربوطه توسط عامل دیگری تعیین می شود. در مورد دنیای واقعی من، این نمودارها نشان دهنده اتصال مغز در فواصل زمانی مختلف است. گره های متصل نشان دهنده فعالیت بسیار مرتبط بین نورون ها هستند.
تعیین اهمیت یک سفارش مجموعه
5070
اگر یک سکه بارگذاری شده داشته باشیم که 75% سر، 25% دم بازی می کند، بهترین راه برای شرط بندی بر روی نتیجه هر یک از آزمایشات $n$ چیست؟ چگونه می توانیم احتمال برنده شدن خود را به حداکثر برسانیم؟ آیا می توان برای سکه ای که $n:(100-n)$ بارگذاری شده است تعمیم داد؟
به حداکثر رساندن احتمال برنده شدن در سکه بارگذاری شده
66021
فرض کنید من برخی از داده‌های مورد-شاهدی کمی را جمع‌آوری می‌کنم. اولین چیزی که به ذهن من می رسد استفاده از آزمون t است تا ببینم آیا این دو گروه با هم تفاوت دارند یا خیر. فرض کنید داده‌های بیشتری جمع‌آوری شده است، اما فقط کمی متفاوت است (آزمایشی متفاوت آن را جمع‌آوری کرد، یا ماشینی که داده‌ها را جمع‌آوری می‌کند دارای تغییراتی یا هر چیز دیگری است). گزینه های من برای تجزیه و تحلیل این داده ها چیست؟ اولین چیزی که به ذهن من خطور می کند رگرسیون یا ANOVA است (با استفاده از متغیرهای نشانگر) همانطور که در نظر زیر اشاره می شود: $E[Y] = \beta_0 + \beta_1*CASE + \beta_2*BATCH$ که در آن $BATCH$ نشان دهنده کدام است دسته ای داده ها جمع آوری شد (یا کدام آزمایشگر، یا ماشین و غیره). آیا راه های بهتری برای انجام این تحلیل وجود دارد؟ می دانم که این یک سؤال کاملاً باز است، اما فقط می خواستم ببینم چه چیز دیگری در دسترس است.
نحوه تجزیه و تحلیل داده های جمع آوری شده به روش های مختلف
109612
برای یک مجموعه نمونه داده شده $S$ با $N$ نمونه های جداگانه $x_i$، من به راحتی می توانم فاصله متوسط ​​از حداکثر را با انجام کاری شبیه به این بیابم: $\sigma_{max_N}:=\sqrt{\frac{1} {N}\sum\limits_{i=1}^N {\left(x_i - \max{\left(S\right)}\right)}^2}$ تلاش برای انجام این کار برای اندازه های نمونه بزرگتر و بزرگتر، من (غیرقابل تعجب) در نهایت با مقادیر حدی متفاوت با توزیع های مختلف مواجه می شوم. به عنوان مثال، برای توزیع یکنواخت در یک بازه واحد، مقداری در حدود 0.577 با ارقام بعد از آن به شدت متفاوت است. یک توزیع نرمال با همان میانگین $\left(\frac{1}{2}\right)$ و واریانس $\left(\frac{1}{12}\right)$ چیزی در حدود 1.5 به من می دهد، هرچند که دقیقا ارزش خیلی بیشتر تغییر می کند. برای توزیع نمایی با پارامتر $\lambda=2\sqrt{3}$، من در نهایت به 4.5 می رسم. آیا راهی برای بدست آوردن مقدار مورد انتظار $\sigma_{max_N} \to \sigma_{max}$ برای یک توزیع معین به عنوان اندازه نمونه $N \to \infty$ وجود دارد؟ لزوماً نباید تحلیلی باشد.
یافتن میانگین فاصله مورد انتظار از حداکثر توزیع داده شده
100251
من یک مجموعه داده از الگوهای ارتباطی بین عوامل چت دارم. هر نماینده می تواند چندین پروفایل یا هویت داشته باشد. من علاقه مند به ایجاد راهی برای بررسی شباهت بین پروفایل های مختلف هستم. مشکل این است که هیچ نشانگر واقعی وجود ندارد که آیا دو پروفایل متعلق به یک عامل هستند یا خیر. مجموعه ویژگی ها فراوانی پیام ها را در ساعات روز، روزهای هفته، ماه ها و سال ها توصیف می کند. هدف یادگیری ویژگی‌های مهمی است که نمایه‌های مشابهی را نشان می‌دهد که متعلق به یک نماینده است. رویکرد پیشنهادی: در نظر گرفتن هر آیتم داده به عنوان الگوی ارتباطی یک نماینده در طول یک سال. به این ترتیب، مجموعه داده ها دارای اقلام داده های زیادی است که نشان دهنده الگوهای ارتباطی یک عامل در سال های مختلف است. ما خوشه بندی را با تعدادی خوشه برابر با تعداد عامل ها اعمال می کنیم - نه پروفایل ها. در حالت ایده‌آل، اگر الگوریتم خوشه‌بندی نقاط داده‌ای را که به یک عامل در یک خوشه تعلق دارند، خوشه‌بندی کند، مدل ویژگی‌هایی داریم که می‌توانیم از آن برای شناسایی پروفایل‌های همان عامل استفاده کنیم. البته این پیشنهاد فرض می‌کند که عامل در پروفایل‌های مختلف الگوی یکسانی داشته باشد، که انتظار نمی‌رود چنین باشد. اما در میان مجموعه داده‌های همه عامل‌ها، این روش ممکن است پیش‌بینی درستی با سطح مشخصی از دقت ارائه دهد. آیا این رویکرد منطقی به نظر می رسد؟ آیا راه بهتری برای مقابله با این موضوع وجود دارد؟ متشکرم
خوشه‌بندی الگوهای ارتباطی برای شناسایی هویت‌های چندگانه
70113
من یک مجموعه داده با حدود 5000 ستون و حدود 135000 ردیف دریافت کردم - همه فیلدها حاوی داده های بولی (باینری) هستند. من به دنبال طبقه بندی هر یک از این ستون ها در یکی از 50 گروه بر اساس شباهت هستم. آیا کسی می تواند به من در جهت درست راهنمایی کند که از کجا شروع کنم؟ آیا الگوریتم سبک k-mean برای من مناسب است؟ آیا کتابخانه ای در «R» وجود دارد که بتوانم به راحتی به آن دسترسی داشته باشم؟ توجه: داده ها کاملاً نامتقارن هستند زیرا حدود 95٪ مقادیر 0، 5٪ 1 هستند.
مجموعه داده های بولی بزرگ را خوشه کنید
85381
هنگام استفاده از فاکتورها در یک مدل خطی، می‌خواهم اثر «میانگین» را به‌عنوان پایه (برق)، به جای سطح 1 همه عوامل بازیابی کنم. آیا این امکان پذیر است؟ برگه <- data.frame(gl(2,5),rnorm(10)+as.numeric(gl(2,5))) colnames(tab) <- c('pred','dat') mylm <- ضرایب lm(dat~pred,data=tab)(mylm) چیزی شبیه (Intercept) pred2 0.5879712 را برمی گرداند ضرایب 1.8542153 به طور متوسط ​​1 برای هر دو intercept و pred2 است. من ترجیح می‌دهم intercept = 1.5، pred1 = -0.5 و pred2 = +0.5 را داشته باشم. 1 8 1 1 9 1 1 1 10 1 1 attr(assign) [1] 0 1 attr(contrasts) attr(contrasts)$pred [1] contr.treatment من ماتریسی مانند این را می خواهم (Intercept) pred1 pred2 1 1 1 0 2 1 1 0 3 1 1 0 4 1 1 0 5 1 1 0 6 1 0 1 7 1 0 1 8 1 0 1 9 1 0 1 10 1 0 1 آیا این منطقی است؟ اگر نه، چرا؟ آیا دستوری برای تولید چنین ماتریس طراحی وجود دارد؟ من به دنبال راهی برای انجام این کار بدون موفقیت بودم ...
از یک خط مبنا شامل همه مشاهدات در lm() استفاده کنید
85654
ما پنج لیتر موش داریم که هر کدام شامل چهار موش است. پنج بستر به طور تصادفی از بین جمعیت بستر انتخاب شدند. محققان علاقه مند به مقایسه محتوای جیوه ماهی های هضم شده توسط موش ها و همچنین عملکرد کلی تکنیک های اندازه گیری در شناسایی حجم جیوه هستند. در هر یک از پنج بستر، به چهار موش یک گونه ماهی اختصاص داده شد (4 نوع ماهی وجود دارد). بنابراین، چه موش در هر گونه، به طور تصادفی اختصاص داده شده است. پس از یک ماه، یک انتخاب تصادفی از کلیه موش (به طور تصادفی چپ یا راست) انتخاب شد و کلیه به سه بخش تقسیم شد. هر بخش محتوای جیوه را با استفاده از یکی از 3 تکنیک اندازه گیری اندازه گیری کرد. تکنیک مورد استفاده به صورت تصادفی به ea اختصاص داده شد. 1/3 کلیه. برداشت من: من معتقدم که این یک طرح بلوک کامل با طرح تقسیم است. Block: Litter سوال من در اینجا، اگر ما به طور تصادفی بسترها را از یک جمعیت انتخاب کنیم... آیا واقعاً یک بلوک است یا یک CRD؟ من فقط فکر می کنم که CRD است اگر یک درمان در این مرحله اعمال شود.. اما اینطور نیست. درمان در سطح واحد آزمایشی بعدی روی موش‌ها اعمال می‌شود. موش صحرایی: واحد آزمایشی برای گونه‌های ماهی (تمام پلات اتحادیه اروپا) کلیه: فاکتور تصادفی (2 سطح) 1/3 کلیه: واحد آزمایشی برای تکنیک اندازه‌گیری (تقسیم-نقطه اتحادیه اروپا) بنابراین، بستر = بلوک، موش صحرایی = اتحادیه اروپا برای ماهی (موش) همچنین یک عامل تودرتو در داخل بستر است، کلیه یک عامل تصادفی موش است (نه تودرتو، به سادگی چپ یا راست)، و 1/3 از کلیه = EU برای اندازه گیری (Split-Plot) و همچنین عاملی با 3 سطح ثابت است، [B] نه [/B] تو در تو در کلیه (به سادگی 1، 2 یا 3 قطعه). افکار؟
طراحی آزمایش - بلوک تصادفی یا کاملا تصادفی
38542
من آمار خیلی کمی می دانم، پس اگر سوال بدی مطرح شده است، مرا ببخشید. فرض کنید من $n$ نمونه $x_1,\dotsc,x_n$ دارم که از توزیع $f$ گرفته شده است (مثلاً $n\تقریباً 100$). $1\leq k \leq n$ را برطرف کنید (در عمل $k \ll n$، مثلاً $k\حدود 5$). مجموعه $$ X = \\{\lVert (x_{i_1}, x_{i_2}, \dotsc, x_{i_k}) را در نظر بگیرید \rVert \quad \vert \quad 1\leq i_j \leq n \text{ ( متمایز)}\\}، $$ که $\lVert \cdot\rVert$ مقداری $L^p$-norm است. آیا می توانم در مورد توزیع اعضای $X$ چیزی بگویم (البته از نظر $n$، $k$، $f$ و $p$)؟
توزیع هنجارهای بردارهایی که اجزای آنها توزیع مشخصی دارند؟
84029
من داده هایی را در شبکه ای از مقادیر $f(x,y)$ جمع آوری کرده ام. من این فرضیه را دارم که داده‌ها «به‌طور افزودنی قابل تفکیک» هستند، یعنی $$ f(x,y) = h_1(x) + h_2(y) + g(x,y) $$ که در آن $g(x,y)$ کوچک است و فقط نویز را در اندازه گیری های من نشان می دهد. آیا راهی برای تست این موضوع وجود دارد؟ اگر وضوح نمونه‌گیری نامتناهی داشتم، می‌توانستم $$ \frac{\partial^2 f(x,y) }{\partial{x}\partial{y}} = \frac{\partial^2 h_1(x)} را اندازه‌گیری کنم. {\partial{x}\partial{y}} + \frac{\partial^2 h_2(y) }{\partial{x}\partial{y}} + \frac{\partial^2 g(x,y) }{\partial{x}\partial{y}} = g_{xy}(x,y) $$ سپس می‌توانم مقدار آستانه $\epsilon را آزمایش کنم $, $|g_{xy}(x,y)| > \epsilon$. با این حال، داده های من واقعی است، با نویز و نمونه های محدود. از چه آزمون آماری می توانم برای بررسی تفکیک پذیری افزودنی استفاده کنم؟
تعیین اینکه آیا یک تابع افزودنی است یا خیر
5387
در مدل لاجیت، آیا روش هوشمندتری برای تعیین اثر یک متغیر ترتیبی مستقل از استفاده از متغیرهای ساختگی برای هر سطح وجود دارد؟
لاجیت با متغیرهای مستقل ترتیبی
38541
من از توابع این پیوند برای ایجاد منحنی ROC برای مدل رگرسیون لجستیک استفاده کردم. از آنجایی که شی تولید شده توسط `glmer` در بسته `lme4` یک شی S4 است (تا آنجا که من می دانم) و تابع از پیوند نمی تواند آن را مدیریت کند. من نمی دانم که آیا عملکردهای مشابهی برای ایجاد منحنی ROC برای مدل رگرسیون لجستیک چند سطحی در R وجود دارد.
ایجاد منحنی ROC برای مدل رگرسیون لجستیک چند سطحی در R
70117
امیدوارم سوال من برای این جامعه خیلی اساسی نباشد. من نمی توانم بفهمم که چگونه خروجی مدل مختلط خطی خود را تفسیر کنم، به خصوص اثرات متقابل. من تجزیه و تحلیل خود را در R با استفاده از lme از بسته nlme انجام می دهم. مدل من شامل 3 IV فاکتوریل (exp.type [2 سطح - میدان در مقابل آزمایشگاه]، org.type [3 سطح - اتوتروف، هتروتروف، مختلط]، سیستم [2 سطح - دریا در مقابل آب شیرین]) و 2 IV عددی است. (حتی، مدت). > lme1 = lme(reist ~ even + exp.type + even:exp.type + org.type + > even:org.type + system + duration, random =~1|نویسندگان.سال، داده = داده) ![خروجی از مدل خطی] (http://i.stack.imgur.com/ZhcZK.jpg) سوال من این است: چگونه اثرات متقابل را تفسیر کنم؟ چگونه می توانم شیب رگرسیون های خطی را برای هر سطح از IV هایی که برهمکنش های قابل توجهی دارند بدست بیاورم؟
تفسیر اثرات متقابل در مدل های مختلط خطی با IV های عددی و فاکتوریل
85652
**بیان مسئله** مجموعه ای از نکات داده شده است. می‌خواهیم آن نقاط را در دو کلاس مجزا با برچسب‌های $\\{0,1\\}$ طبقه‌بندی کنیم. ما تعدادهای طبقه بندی کننده را بر اساس کلاس $1 می شماریم. فرض کنید چند طبقه‌بندی کننده با ویژگی‌های زیر در دست داریم * برای برخی طبقه‌بندی‌کننده‌ها، تصمیم طبقه‌بندی به آستانه‌هایی بستگی دارد که ممکن است آن‌ها را تغییر دهیم و منحنی Precision/Recall یا RoC را رسم کنیم. برای برخی دیگر، تصمیم به هیچ آستانه‌ای بستگی ندارد. بلکه در یک تست دارایی. یعنی بررسی می کنیم که آیا نقطه $x_i$ خاصیت خاصی دارد یا خیر و بر اساس آن طبقه بندی می کنیم. برای اهداف تصویری، می‌توان چنین آزمایشی را تصور کرد که مثلاً x_i$$ فرد است یا خیر، و همه نقاط داده فرد را در یک کلاس طبقه‌بندی کرد. طبقه بندی اشتباه Label-$0$ امتیاز به عنوان Label-$1$ امتیاز (خطاهایی که بر دقت تأثیر می گذارد)، نسبت به طبقه بندی اشتباه Label-$1$ امتیاز به عنوان Label-$0$ امتیاز (خطاهایی که بر فراخوانی تأثیر می گذارد). به بیان ساده، می‌خواهیم مجموعه $1$ طبقه‌بندی‌شده حاوی چند نقطه پرت باشد (Label-$0$ امتیاز) و می‌توانیم تا حدی اندازه مجموعه $1$ بازیابی شده را قربانی کنیم. **سوال** از کدام معیارها می توانم برای ارزیابی عملکرد هر طبقه بندی کننده استفاده کنم و طبقه بندی کننده $c_i$ یا جفت طبقه بندی/آستانه $(c_i,T_i)$ را انتخاب کنم که به بهترین نحو مشکل را حل می کند. فرض کنید یک مجموعه داده با برچسب های شناخته شده داریم که طبقه بندی کننده ها را بر روی آن ارزیابی می کنیم.
ارزیابی طبقه‌بندی‌کننده باینری زمانی که دقت مهم‌تر از یادآوری است
95172
من تعجب می کنم که چگونه برنامه های آماری تصمیم می گیرند فاصله اطمینان را تغییر دهند؟ (منظورم فواصل اطمینان برای میانگین یا برای تفاوت میانگین است). چگونه آنها در مورد میزان این (بدون هیچ گونه چکمه) تصمیم می گیرند؟ من می دانم که آنها این کار را بر اساس چولگی توزیع نمونه انجام می دهند (در تست های دو دنباله)، اما از هرگونه جزئیات در مورد آن قدردانی می کنم.
چگونه می توان چولگی فاصله اطمینان نامتقارن حول میانگین یا اختلاف میانگین را تعیین و محاسبه کرد؟
44204
اخیراً با Tableau روبرو شدم و سعی کردم داده ها را از پایگاه داده و فایل csv تجسم کنم. رابط کاربری کاربر را قادر می سازد تا داده های زمانی و مکانی را تجسم کند و در یک لحظه نمودار ایجاد کند. چنین ابزاری واقعاً مفید است زیرا امکان مشاهده داده ها به صورت گرافیکی بدون نوشتن کد را فراهم می کند. از آنجایی که منابع داده زیادی وجود دارد که من باید داده ها را از آنها بازیابی و تجسم کنم، داشتن ابزاری که قادر به تولید نمودارها با کشیدن ستون ها روی محورها و همچنین تغییر تصویرسازی با کشیدن نام ستون ها باشد، بسیار مفید خواهد بود. آیا کسی نرم افزار رایگان یا متن باز از این نوع می شناسد؟
آیا کسی نرم افزار منبع باز خوب برای تجسم داده ها از پایگاه داده می شناسد؟
41523
من به دنبال راهی برای تطبیق یک مدل ترکیبی لجستیک و/یا پروبیت ترتیبی هستم که شامل شیب‌های تصادفی باشد. تنها بسته‌ای برای R که من می‌توانم پیدا کنم که در مدل‌های مختلط ترتیبی به هیچ وجه به افکت‌های تصادفی اجازه می‌دهد، بسته‌های **ordinal** و **ordinal2** هستند، اما تنها برازش مدل‌های رهگیری تصادفی در حال حاضر در آن بسته‌ها پیاده‌سازی شده است.
آیا بسته‌هایی برای برازش مدل‌های ترکیبی لجستیک / پروبیت ترتیبی با شیب‌های تصادفی در R وجود دارد؟
33543
اجازه دهید $Y_1، Y_2،Y_3$ متغیرهای تصادفی نامرتبط با واریانس مشترک $\sigma^2>0$ باشند، به گونه‌ای که $$ \begin{aligned} E[Y_1]&=\beta_1+\beta_2، \\\ E[Y_2] &=2\beta_1 \\\ E[Y_3]&=\beta_1-\beta_2 \end{تراز شده} $$ کجا $\beta_1$ و $\beta_2$ پارامترهای ناشناخته هستند. مجموع باقیمانده (خطا) مربع ها را در مدل خطی بالا بیابید. من به این ترتیب ادامه می‌دهم: توجه داشته باشید که: $$ \begin{aligned} E[Y_1-\beta_1-\beta_2]&=0، \\\ V[Y_1-\beta_1-\beta_2]&=\sigma^2، \\\ E[Y_2-2\beta_1]&=0، \\\ V[Y_2-2\beta_1]&=\sigma^2، \\\ E[Y_3-\beta_1+\beta_2]&=0، \\\ V[Y_3-\beta_1+\beta_2]&=\sigma^2 \end{aligned} $$ بنابراین مجموع باقیمانده (خطا) مربع های زیر مدل خطی: $$ \sum{e_i^2}=(Y_1-\beta_1-\beta_2)^2+(Y_2-2\beta_1)^2+(Y_3-\beta_1+\beta_2)^2 $$ آیا به روش درستی پیش میروم؟ لطفاً یکی توضیح دهد که منظور از مدل خطی در اینجا چیست؟
جمع باقیمانده مربع ها را پیدا کنید
44202
آیا کسی می تواند به من بگوید که نوع توزیع چگونه با احتمال پوشش تجربی مرتبط است؟ (به نظر می رسد برای برخی از توزیع ها قضیه حد مرکزی راحت تر برآورده شود)
احتمالات پوشش تجربی فواصل اطمینان
33098
من در حال حاضر یک مدل رگرسیون چندگانه را با استفاده از داده های ورودی اجرا می کنم و چند سوال دارم. **پس زمینه:** با استفاده از SPSS 18. به نظر می رسد داده های من MAR هستند. حذف فهرستی موارد تنها 92 مورد را برای من باقی می گذارد، انتساب چندگانه 153 مورد را برای تجزیه و تحلیل باقی می گذارد. همه مفروضات برآورده شدند - یک log متغیر تبدیل شد. 9 IV's 5 - 5 طبقه بندی، 3 مقیاس، 1 فاصله. مقیاس DV. با استفاده از روش enter رگرسیون چندگانه استاندارد. * DV من تفاوت نمرات بین معیار نمره پیش و پس از آن است، هر دوی این متغیرها تعدادی از موارد را ندارند - آیا باید مقادیر گمشده را برای هر یک از آنها در نظر بگیرم و سپس تفاوت بین آنها را محاسبه کنم DV (چگونه می توانم این کار را انجام دهم)، یا می توانم فقط داده ها را برای DV خود در نظر بگیرم؟ مناسب ترین رویکرد کدام است؟ * آیا باید بر روی داده‌های تبدیل‌شده یا منحنی داده‌های تبدیل‌نشده اجرا کنم؟ * آیا باید همه متغیرها را حتی اگر داده‌ای گم نشده‌اند، وارد فرآیند انباشتگی کنم یا فقط باید برای متغیرهایی که بیش از 10 درصد موارد را از دست داده‌اند، داده‌ها را وارد کنم؟ من رگرسیون را روی موارد حذف شده به صورت فهرستی و حساب IV خود برای واریانس بسیار کمی در DV خود اجرا کرده ام، متعاقباً رگرسیون را روی یک فایل کامل پس از انتساب چندگانه اجرا کردم - نتایج بسیار مشابه هستند، زیرا 9 IV من هنوز فقط حدود 12 درصد از واریانس را در DV من پیش بینی کنید، با این حال، اکنون یکی از IV's من نشان می دهد که سهم قابل توجهی دارد (این اتفاق برای یک متغیر log تبدیل شده باشد)... * اگر بین نتایج من تفاوت کمی وجود دارد - یعنی IV من dv را ضعیف پیش بینی می کند، باید داده های اصلی را گزارش کنم یا داده های کامل را گزارش کنم؟
سوالات انتساب چندگانه برای رگرسیون چندگانه در SPSS
44200
من کمی احمقانه احساس می‌کنم، اما روی چیزی که فکر می‌کردم تحلیل آسانی است گیر کرده‌ام. مدتی است که این نوع داده ها را نداشتم، بنابراین کمی زنگ زده هستم. گوگل را امتحان کردم، اما چون من انگلیسی زبان مادری نیستم، کاملا مطمئن نیستم که از اصطلاحات درست استفاده می کنم. شرکت کنندگان در مطالعه من به 24 سؤال پاسخ دادند که در آن آنها به سادگی مجبور بودند بین گزینه A و گزینه B یکی را انتخاب کنند. سؤالات همه یکسان هستند به این معنا که H0 این است که آنها 50٪/50٪ پاسخ خواهند داد. 12 برابر A و 12 بار B. چگونه تجمیع و تجزیه و تحلیل کنم؟ 1. آیا من داده ها را در درصد A (یا B، برای آن موضوع) برای هر نفر جمع می کنم و سپس یک آزمون t تک نمونه ای را در مقابل 50٪ اجرا می کنم؟ 2. آیا من در تعداد A (دوباره، یا B البته) جمع می‌کنم و سپس به نحوی یک Chi-square انجام می‌دهم؟ <\- اینجاست که مبهم می شود!
چگونه سوالات تکراری انتخاب A/B را تجزیه و تحلیل کنیم؟
41888
فرض بر این است که یک پارامتر مورد علاقه از توزیع نمایی با نرخ $\lambda$ پیروی می کند. دو فرضیه قبلی رقیب شکل می‌گیرند به‌طوری که پیشین اول با $\text{Ga}(\alpha, \beta)$ و پیشین دوم با $\text{Ga}(\alpha+1, \beta) داده می‌شود. $. علاوه بر این، داده‌ها بر روی پارامتر جمع‌آوری می‌شوند به طوری که $x_{1}، x_{2}، \dots، x_{n}$ مشاهدات $n$ از داده‌های ثبت‌شده را نشان می‌دهند. فردی که مسئول تشکیل این پیشین ها است درجه ای از باور را پیشنهاد می کند که $p(\lambda \sim \text{Ga}(\alpha, \beta)) = 0.75$ و $p(\lambda \sim \text{Ga} (\alpha+1، \beta)) = 0.25$. از موارد فوق: * یک عامل بیز برای دو توزیع قبلی چگونه تشکیل می شود؟ آیا با محاسبه نسبت بین دو توزیع قبلی می توان به این امر دست یافت؟ یعنی $$\text{Bayes} ضریب = \frac{p(x) \sim \text{Ga}(\alpha, \beta)}{p(x) \sim \text{Ga}(\alpha+1, \beta)} = \frac{\frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha-1}e^{-\beta x}}{\frac{\beta^{\alpha+1}}{\Gamma(\alpha+1)}x^{\alpha}e^{-\beta x}}$$ اگر چنین است، با توجه به اینکه وجود دارد مشاهدات چندگانه هستند ($x_{i}$)، چگونه باید هر مشاهده در توزیع درج شود تا یک توزیع ترکیبی ارائه شود (آیا مجموع $p(x) \sim \text{Ga}(\alpha, \beta ) دلار به طوری که $\sum_{i=1}^{n} p(x) \sim \text{Ga}(\alpha، \beta)$)؟ در این صورت ضریب بیز توسط: $$\frac{\sum_{i=1}^{n} p(x_{i}) \sim \text{Ga}(\alpha, \beta)}{\ داده می‌شود sum_{i=1}^{n} p(x_{i}) \sim \text{Ga}(\alpha+1, \beta)}$$ * چگونه می توان تخمینی از داده های مشاهده شده را با مدل ترکیب کرد احتمالات برای دستیابی به نسبت پسینی از احتمالات مدل؟ آیا با بدست آوردن حاصلضرب توزیع های قبلی و احتمالی می توان به این امر دست یافت؟ $$p(\lambda|{\bf x}) = p(x|\lambda)p(\lambda)$$ اگر چنین است، با فرض اینکه فقط مجموعه‌ای از مشاهدات وجود داشته باشد و هیچ احتمال پیشنهادی وجود نداشته باشد، چگونه می‌توان احتمال صحیح را تعیین کرد. مصمم؟ این یک سؤال الگوی کلی تکلیف است، برخلاف یک تمرین خاص، بنابراین پارامتر و مقادیر داده خاصی وجود ندارد.
آزمون فرضیه بیزی و عوامل بیز
70116
من $k$ اقشار مستقل دارم، با جمعیت $n_1،\dots،n_k$، و میانگین را در هر طبقه $\bar{x_1}، \dots \bar{x_k}$ برآورد کرده‌ام و خطاهای استاندارد $se_1 را بدست آورده‌ام. ,\dots,se_k$ (با استفاده از دستور میانگین STATA). من به تخمین‌گر میانگین وزنی و خطای استاندارد آن علاقه‌مندم که از وزن‌های $w_1،\dots،w_k$ با $\sum_i w_i=W$ استفاده کند. برای محاسبه میانگین وزنی، من به سادگی استفاده می‌کنم: $$\bar{x}_w=\frac{1}{W}\sum_{i=1}^k w_i \bar{x_i}$$ سپس، می‌خواهم تخمین بزنم خطای استاندارد میانگین وزنی با استفاده از خطاهای استاندارد (تخمینی) هر لایه، وزن و $n_1،\dots،n_k$. تصور می‌کنم می‌توانم از این واقعیت استفاده کنم که $V(\alpha x + \beta y)=\alpha^2V(x)+\beta^2 V(y)$ و از تخمین‌گر مورد نظر نسخه پشتیبان تهیه کنم: $$se( \bar{x}_w) = \frac{1}{W}\sqrt{\sum_{i=1}^k w_i^2 se_i^2}$$ درست می‌گویم؟ من در مورد فرمول های مختلف استفاده شده توسط STATA کمی سردرگم هستم و از کمک شما قدردانی می کنم.
میانگین گیری در بین اقشار مستقل: فاصله اطمینان
112414
در حین مطالعه trimmed متوجه شدم که اگر تعدادی متغیر تصادفی $X_1، X_2، ..، X_n$ را با مرتب کردن و برش دادن آنها داشته باشم، متغیرها دیگر مستقل نیستند. با این حال گفته می‌شود که «با بازنویسی میانگین برش‌شده به‌عنوان میانگین متغیرهای مستقل» می‌توان از تخمین استاندارد واریانس دوباره استفاده کرد. این بازنویسی می دانم که Winsorizing مقادیر را پیشنهاد می کند. پیرایش شامل حذف صدک معینی از مقادیر از نمونه است. نمونه Winsorized نمونه ای است که دارای مقادیر کمتر از یک صدک معین سانسور شده است و به یک صدک بالا نیز سانسور شده است. واضح است که میانگین بریده شده با میانگین Winsorized یکی نیست. اما چگونه می توان به طور رسمی نتیجه گرفت که متغیرهای پس از Winsorizing متغیرها مستقل هستند؟ [ویرایش بعدی] این سوال در حین مطالعه کتاب مبانی روش های آماری مدرن، بهبود قابل ملاحظه قدرت و دقت، ویرایش دوم - رند آر ویلکاکس مطرح می شود. نقل قول های زیر از صفحات: 149-151 است. > [یادداشت من: به عنوان مقدمه یک $X_1,X_2,..,X_n$ i.i.d داریم. استاندارد > متغیرهای نرمال، آنها کوتاه شده و میانگین بریده شده با $20\%$ ساخته می شود. در نتیجه، روشی که ما برای تعیین عبارتی برای واریانس > میانگین نمونه استفاده کردیم، میانگین متغیرهای وابسته است. (در واقع، یک مشکل دیگر وجود دارد: واریانس متغیرهای مرتب شده > برابر با $\sigma^2$ نیستند. > > یک پیشرفت نظری عمده در طول دهه 1960 استخراج یک تکنیک ریاضی بود که منجر به روشی مناسب و کاربردی برای > تخمین واریانس میانگین بریده شده نمونه روش شامل > بازنویسی میانگین برش یافته به عنوان میانگین مستقل است متغیرها به طوری که > استراتژی مورد استفاده برای تعیین واریانس میانگین نمونه می تواند دوباره > به کار گرفته شود > واریانس و با تخمین به پایان می رسد] $$ VAR(\bar{X_t}) = > \frac{s^2_w}{(1-2\gamma)^2n}$$ [توجه من: جایی که $X_t$ متغیرهای بریده شده است، > $s^2_w$ میانگین نمونه Windsorized است، $\gamma$ مقدار بریده شده است ($0.2$ > در این مورد)، $n$ تعداد مقادیر نمونه]
چرا متغیرهای تصادفی Winsorized مستقل هستند؟
70115
آزمون ویلیامز یک آزمون مقایسه چندگانه است. سوال من این است که وقتی آمار آزمون ویلیامز را با مقادیر بحرانی جدول بندی شده مقایسه می کنیم، باید به دنبال کدام درجه آزادی باشم. در مثال SAS، یک ماده در هفت سطح ($k=6$) در طرح بلوک تصادفی هشت بلوک آزمایش شده است و میانگین مربع با (7 - 1) (8 - 1) = 42 درجه آزادی است. با توجه به درک من از درجه آزادی، آیا نباید $7\times8-7$ باشد زیرا $s$ استفاده شده در آمار آزمون به عنوان تخمین $\sigma$ واریانس ادغام شده است؟ به طور رسمی تر، فرضیه صفر این است: $$ H_0: \mu_0=\mu_1=...=\mu_k $$ جایگزین این است: $$ H_1: \mu_0\leq\mu_1\leq...\leq\mu_k $ $ با حداقل یک نابرابری شدید. MLE درمان یعنی $\mu_i$ با میانگین نمونه $\bar{x}_i$ و تعداد مشاهدات در نمونه $n_i$ با فرمول $$ \mu_i^*=\max_{l بدست می‌آید. \leq u\leq i}\min_{i\leq v \leq k}\sum_{j=u}^{v}n_j \bar{x}_j/\sum_{j=u}^{v}n_j $$ آمار آزمون این است: $$ T_i=\frac{\mu_i^*-\bar{x}_0}{\sqrt{s ^2/n_i+s^2/n_0}}$$ که در آن، $s$ یک تخمین بی طرفانه از $\sigma$ است، انحراف استاندارد درون گروهی که مستقل از $\bar است. X_i$. فرضیه صفر رد می شود و این واقعیت که سطح دوز $i$-th حداقل دوز موثر است نتیجه می گیرد اگر $$T_j> t_{j,\alpha}, \mbox{for all } j \geq i$$ where , $t_{j,\alpha}$ صدک بالای $\alpha$th توزیع $T_j$ با درجه آزادی $\nu$ است. سوال من این است که چگونه $\nu$ را محاسبه کنیم؟ و چرا؟ من فکر کردم $\nu$ باید $\sum n_i -(k+1)$ باشد، اما نتایج شبیه‌سازی من بیشتر با روش SAS استفاده از $n_0\times k$ مطابقت دارد، جایی که همه $n_i$ برابر هستند. نکته دیگر، برای همه $j$ها، باید از همان درجه آزادی استفاده کنم، زیرا $s$ را بر اساس همه نمونه‌ها محاسبه کردم، نه پس از حذف نمونه‌های سطح دوز بالا. درست میگم؟
نحوه محاسبه درجه آزادی برای آزمون ویلیامز
115248
اگر واریانس مجموعه داده آزمایشی کمتر از مجموعه داده قطار باشد، آیا ارزش تقسیم داده ها را دارد؟ از آنجایی که می دانیم مجموعه داده های ما همیشه محدود خواهد بود، آیا انتخاب مدل ها در شرایط فوق منصفانه است؟ با تشکر
آیا مجموعه داده‌های قطار و آزمایش باید واریانس مشابهی داشته باشند؟
5382
من یک پسر جدید اینجا هستم. امیدوارم این سوال را در انجمن درست مطرح کنم. ## مشکل: ما داده های گروهی از افراد (P1، P2، P3) را داریم. آنها تخصص خود را (1-10، جایی که تعداد بالاتر بهتر است) در لیستی از اجزاء (G1، G2، G3) رتبه بندی می کنند. P1 P2 P3 -------------- G1 | 8 4 7 G2 | 7 3 7 G3 | 9 6 5 همچنین، ما در مورد کارهای انجام شده توسط هر فرد در هر جزء، داده هایی داریم. مثال: برای P1، W WD ---------- G1 | 0 0 G2 | 2 0 G3 | 8 2 که در آن W کل کار اختصاص داده شده به کاربر P1 است و WD کار واقعی انجام شده است. W >= WD >= 0. ما داده های مشابهی برای کاربران P2 و P3 داریم. **نکته قابل توجه:** ممکن است کاربر بدون توجه به کار انجام شده در یک جزء، دارای سطحی از تخصص باشد. مثال: P1 خود را 8/10 رتبه بندی کرده است، حتی اگر هیچ وظیفه ای در مؤلفه G1 به او داده نشده باشد (W = 0). P1 همچنین خود را 7/10 برای G2 قرار داده است، حتی اگر هیچ کاری را در آن جزء تمام نکرده باشد (WD = 0). حال می‌خواهیم رتبه‌بندی مؤثر همه کاربران را نسبت به گروه کاربران، نه خود رتبه‌بندی، با توجه به داده‌های کاری و رتبه‌بندی خود محاسبه کنیم. آیا کسی می تواند مکانیسمی برای رسیدن به این هدف پیشنهاد کند؟ پیشاپیش بسیار متشکرم
عادی سازی رتبه بندی در گروهی از افراد [پیدا کردن اثربخشی]
33091
من به احتمال انتخاب یک برنامه مبتنی بر متغیرهای پیوسته $X_1$، $X_2$، $X_3$، و غیره نگاه می‌کنم. وقتی نمونه را به افرادی تقسیم می‌کنم که شرکت کرده‌اند و شرکت نکرده‌اند و یک T- آزمون من متوجه شدم که میانگین تمام $X$ها برای کسانی که شرکت نمی کنند به طور قابل توجهی با میانگین برای کسانی که شرکت نمی کنند متفاوت است. با این حال، وقتی به یک ماتریس همبستگی برای $X$ و انتخاب کردن من ضرایب همبستگی بسیار پایینی پیدا کردم -- بین $.04 $ و $.13. اما آزمون های t من در سطح اطمینان +95% قابل توجه است. چگونه این دو نتیجه را مربع کنم؟
ضریب همبستگی با آزمون t مغایرت دارد
33545
دایره ای به شعاع $R$ و دنباله ای از نقاط درون آن وجود دارد. من یک PDF را تخمین می زنم که در ناحیه ابتدایی در فاصله $D$ از مرکز دایره با استفاده از تحقق $N$ امتیاز $X_0$, $X_1$, $\dots$, $X_{N تخمین بزنم. -1}$. بنابراین بازه $[0, R]$ را به $n$ bins $b_i=[r_i,r_{i+1}]$ تقسیم می‌کنم و $N_i$ را به‌عنوان تعداد نقاط $D$ ظاهر شده در هر سطل پیدا می‌کنم و تقسیم می‌کنم. آن را در ناحیه حلقه هر سطل $S=\pi\left(r_{i+1}^2-r_{i}^2\right)$ قرار دهید. (به دلایلی ممکن است bin ها طول های متفاوتی داشته باشند $r_{i+1}-r_{i}$.) من می خواهم نوارهای خطا را برای مقادیر هیستوگرام $N_i/S$ پیدا کنم، یا بهتر بگویم تابعی که توسط جدولی از مقادیر $(r_i+r_{i+1})/2\longrightarrow N_i/S$ به عنوان تخمین‌گر PDF با ضریب $N$. آنها معمولاً از چیزی مانند خطای استاندارد پواسون به عنوان $\sigma=1/\sqrt{n}$ استفاده می کنند، بنابراین من از $\sigma_i=(1/\sqrt{N_i})/S$ یا $\sigma_i استفاده می کنم. = 1/\sqrt{N_i/S}$؟ یا فرمول صحیح تری برای یافتن فاصله اطمینان وجود دارد؟ همچنین، اگر هیستوگرام را به مختصات لگاریتمی $\log((r_i+r_{i+1})/2)\longrightarrow \log (N_i/S)$ تبدیل کنم چگونه باید فاصله اطمینان را محاسبه کنم؟
فاصله اطمینان تخمینگر تابع چگالی احتمال هیستوگرام
85657
من از بسته neuralnet در R استفاده می کنم. مثال در http://gekkoquant.com/2012/05/26/neural-networks-with-r-simple-example عملکرد خوبی دارد. اما وقتی موارد زیر را امتحان می کنم، برای داده های آموزشی متوجه می شوم، خروجی ها همیشه یکسان هستند و خطای آموزشی بسیار زیاد است. همچنین متوجه می‌شوم که اگر بعد ورودی را 1 تنظیم کنید، sum (خروجی) = جمع (ورودی) است. این خیلی عجیب است. من GOOGLE 'شبکه عصبی همیشه یک خروجی'، چندین صفحه در مورد یک مشکل وجود دارد، اما پاسخی وجود ندارد. من همچنین الگوریتم BP را در متلب کدنویسی کردم و متوجه شدم که این وضعیت نیز وجود دارد. این کد در کد R و MATLAB R است: install.packages('neuralnet') library(neuralnet) install.packages('mvtnorm') library(mvtnorm) #به دنبال ایجاد یک شبکه عصبی برای انجام توضیحات روت کردن #Type ?neuralnet برای اطلاعات بیشتر در مورد کتابخانه عصبی شبکه #تولید 50 بردار ورودی تصادفی که ابعاد هر کدام 10 است. #و آنها را به عنوان یک بعد قاب داده ذخیره کنید<-10 داده <- rmvnorm(n=50, mean=seq(1:dimension), sigma=diag(dimension), method=chol) ورودی آموزش <- as.data.frame (داده) #خروجی برابر با هنجار نیمه اول خروجی آموزشی برداری است <- اعمال (ورودی آموزش[,1:(بعد/2)]^2,1,جمع) #ستون داده ها را به یک داده آموزشی متغیر پیوند می دهد <- cbind(خروجی آموزش، ورودی آموزش) #نام ستون ها به عنوان خروجی، X1، . ..، نام‌های X10 (داده‌های آموزشی) <- c('Output',paste(rep('X',dimension),seq(1:dimension),sep='')) #ترن شبکه عصبی #آستانه یک مقدار عددی است که آستانه را برای #مشتقات جزئی از تابع خطا به عنوان معیار توقف model1.form.text <- paste(Output ~, paste(colnames(trainingdata)[-1],collapse= + ),collapse= ) model1.form <- as.formula( model1.form. text ) net.sqrt <- neuralnet(model1.form, trainingdata, hidden=c(4), threshold=1e-2) #Output of شبکه برای هر ورودی همیشه یکسان است #من چندین نوع لایه پنهان مانند c(4,2), c(5,4,3,1) و غیره را امتحان کردم، وضعیت همیشه اتفاق می افتد print(net.sqrt$net .نتیجه) print(net.sqrt) #نقشه شبکه عصبی طرح (net.sqrt) کد متلب (نوشته شده بر اساس http://www.amlbook.com/slides/iTunesU_Lecture10_May_03.pdf برای تعریف w، دلتا، s و x) %%این کد تلاش می‌کند تا عملکرد یک شبکه عصبی را درک کند %% تابع فعال‌سازی به صورت tanh تنظیم شده است. dactivate مشتق tanh activate=@(s) (exp(s)-exp(-s))./(exp(s)+exp(-s)); dactivate=@(s) 1.-activate(s).^2; %%n: تعداد مشاهدات. بعد: بعد ورودی ها. %%سه لایه، هر کدام با نورون های 7،3،1 n=50. بعد=5; لایه=[7 3 1]'; X=randn(n، بعد); y=جمع (X,2).^2; %% 1s را به آخرین ستون به عنوان بایاس اضافه کنید X=[X,ones(size(X,1),1)]; %%w: وزن هر لایه w1=1e-5*rand(dimension+1,layer(1)); w2=1e-5*rand(layer(1)+1,layer(2)); w3=1e-5*rand(layer(2)+1,layer(3)); %%wlast وزن آخرین تبدیل است، به طوری که خروجی ini_slast=[ini_x3, ones(size(ini_x3,1),1)]*ini_wlast; wlast=1e-5*rand(2,1);%% [w0 w1]'; %% تکرار الگوریتم رو به عقب، نرخ یادگیری را 1e-3 تنظیم کنید. استفاده از یادگیری دسته ای lrate=1e-3; برای i=1:1000 %%تنظیم مقادیر اولیه ini_w1=w1; ini_w2=w2; ini_w3=w3; ini_wlast=wlast; %%s_i=X*w_i، بایاس قبلاً به X اضافه شده است و w_i ini_s1=X*ini_w1; ini_x1=activate(ini_s1); ini_s2=[ini_x1, ones(size(ini_x1,1),1)]*ini_w2; ini_x2=activate(ini_s2); ini_s3=[ini_x2, ones(size(ini_x2,1),1)]*ini_w3; ini_x3=activate(ini_s3); ini_slast=[ini_x3, ones(size(ini_x3,1),1)]*ini_wlast; %%calculate delta delta3=2*(ini_slast-y) *ini_wlast(1) .*dactivate(ini_s3); delta2=bsxfun(@times,dactivate(ini_s2), delta3*ini_w3(1:end-1,:)'); delta1=bsxfun(@times,dactivate(ini_s1), delta2*ini_w2(1:end-1,:)'); %% محاسبه گرادیان gw gwlast=2*(ini_slast-y)'*[ini_x3, ones(size(ini_x3,1),1)]/n ; gw3=delta3'*[ini_x2, ones(size(ini_x2,1),1)]/n; %%size(x2)=[1,?] gw2=delta2'*[ini_x1, ones(size(ini_x1,1),1)]/n; gw1=delta1'*X/n; %%+2*lambda*ini_w1'; %% وزن ها را به روز کنید w1=ini_w1-lrate*gw1'; w2=ini_w2-lrate*gw2'; w3=ini_w3-lrate*gw3'; wlast=ini_wlast-lrate*gwlast'; %% مکث؛ display(norm(y-ini_slast)); نمایش پایان ([y ini_slast]); sum (([y ini_slast]))
شبکه های عصبی همیشه خروجی یکسانی دارند
93719
فقط می‌خواستم با توجه به یک مطالعه موردی گذشته‌نگر بررسی کنم، آیا داده‌های مختلفی برای مجموعه‌ای از بیماران در متغیرهای مختلف جمع‌آوری می‌شود، آیا می‌توان این را با آزمون‌های آمار استنباطی تفسیر کرد؟ حتی اگر هیچ محاسبه توانی برای تعیین حجم نمونه مورد نیاز قبل از شروع مطالعه وجود نداشته باشد، یعنی فقط از بیمارانی که با یک آسیب شناسی خاص در دسترس بودند استفاده شود؟ با تشکر فراوان برای هر فکری.
آیا می توان آمار استنباطی را در یک مطالعه موردی گذشته نگر انجام داد؟
41524
من با ارزیابی دو طبقه بندی متن روبرو هستم. من یک ** مجموعه داده آموزشی بزرگ** (فقط برای استفاده در آموزش)، **و یک مجموعه تست کوچک مجزا** (فقط برای آزمایش استفاده) دارم، **هر دو متعادل هستند**. کدام یک از روش های زیر باید مناسب تر باشد و چرا؟ 1) ارزیابی مستمر تکراری طبقه‌بندی شده (نمونه‌گیری فرعی مکرر): k بار بدون تکرار از مجموعه داده‌های آموزشی نمونه بگیرید، هر نمونه متعادل است. برای هر نمونه، طبقه‌بندی‌کننده با نمونه آموزش داده می‌شود و دقت با مجموعه داده آزمایشی کامل آزمایش می‌شود. نتایج متوسط ​​هستند. 2) اعتبار سنجی متقاطع طبقه بندی شده: مجموعه داده آموزشی کامل را به k برش با اندازه مساوی تقسیم کنید، هر برش متعادل باشد. برای هر برش، طبقه‌بندی‌کننده با برش آموزش داده می‌شود و دقت با مجموعه داده آزمایشی کامل آزمایش می‌شود. نتایج متوسط ​​هستند. 3) راه‌اندازی طبقه‌ای: K بار با تکرار از مجموعه داده‌های آموزشی بزرگ نمونه‌گیری کنید و هر نمونه متعادل باشد. برای هر نمونه، طبقه‌بندی‌کننده با نمونه آموزش داده می‌شود و دقت با مجموعه داده آزمایشی کامل آزمایش می‌شود. نتایج متوسط ​​هستند.
روش ارزشیابی هنگام استفاده از یک مجموعه آموزشی بزرگ و یک مجموعه تست کوچک
33549
من سعی می کنم بفهمم که چگونه POD (احتمال تشخیص) و FAR (نسبت هشدار نادرست) در این مقاله محاسبه می شود. در صفحه 234 آنها به طور معمول تعریف شده اند و ساختار داده درختی در صفحه 239 مقادیر POD و FAR را برای یک مثال ساده نشان می دهد، اما من نمی توانم بفهمم آنها چگونه به این مقادیر رسیده اند. $$ POD = \frac{TP}{(TP+FN)} \\\ FAR = \frac{FP}{(TP+FP)} $$برای این مثال، اجازه دهید: * TP = گردباد وجود دارد (+ برچسب در سریال) و کلمه ای در سریال وجود دارد * FP = هیچ گردبادی وجود ندارد و کلمه ای در سریال وجود دارد * TN = هیچ گردبادی وجود ندارد و کلمه در سریال وجود ندارد * FN = گردباد وجود دارد و کلمه ای در سریال وجود ندارد سپس برای اولین کلمه (aa)، می فهمم که: TP = 2; FN=0; FP=2; بنابراین POD=1 و FAR= 0.5 که در مقاله است، اما برای کلمه دوم (ab): TP= 2; FN=0; FP=1; بنابراین POD=1 که در کاغذ است، اما آیا به جای 1/4 در کاغذ، نباید FAR= 0.333 باشد؟ و برای کلمه سوم (ac): TP= 1; FN=1; FP=1; بنابراین POD=1/2، که در کاغذ است، اما آیا نباید به جای 1/4 در کاغذ، FAR= 1/2 باشد؟ من نمی فهمم مشکل FAR من چیست، و اگر POD من درست است، همانطور که به نظر می رسد.
احتمال تشخیص و نسبت هشدار نادرست در یک مثال ساده اشتباه است، نمی دانم چرا
36113
یک نسخه بسیار ساده از قضیه محدود مرکزی به صورت زیر $$ \sqrt{n}\bigg(\bigg(\frac{1}{n}\sum_{i=1}^n X_i\bigg) - \mu\bigg) \ \xrightarrow{d}\ \mathcal{N}(0,\;\sigma^2) $$ که Lindeberg–Lévy CLT است. من نمی فهمم چرا یک $\sqrt{n}$ در سمت چپ وجود دارد. و لیاپانوف CLT می‌گوید $$ \frac{1}{s_n} \sum_{i=1}^{n} (X_i - \mu_i) \ \xrightarrow{d}\ \mathcal{N}(0,\;1) $$ اما چرا $\sqrt{s_n}$ نه؟ آیا کسی می‌تواند به من بگوید این عوامل، مانند $\sqrt{n}$ و $\frac{1}{s_n}$ چیست؟ چگونه آنها را در قضیه بدست آوریم؟
$\sqrt{n}$ در قضیه حد مرکزی (CLT) از کجا می آید؟
41882
من یک سوال در مورد توزیع پسین دیریکله دارم. با توجه به یک تابع درستنمایی چند جمله ای، مشخص است که پسین $Dir({\alpha_i + N_i})$ است، که $N_i$ تعداد دفعاتی است که مشاهده $i^{th}$ را دیده ایم. اگر شروع به کاهش $\alpha$s برای یک داده ثابت $D$ کنیم، چه اتفاقی می‌افتد؟ از شکل پسین به نظر می رسد که بعد از مدتی $\alpha$s به هیچ وجه روی پسین اثر نمی گذارد. اما آیا درست نیست که بگوییم وقتی $\alpha$s را بسیار کوچک می کنیم، جرم احتمال به گوشه های سیمپلکس حرکت می کند و قسمت خلفی باید به میزان بیشتری تحت تأثیر قرار گیرد؟ کدام عبارت صحیح است؟
دیریکله خلفی
85778
امیدوارم ساده لوحی من در این سوال آشکار نشود: آیا جنگل های تصادفی بیزی هستند؟
آیا جنگل های تصادفی بیزی هستند؟
5073
من یک چارچوب داده دارم که ستون اول آن نام یک آیتم و ستون دوم فراوانی آن آیتم در مجموعه داده است. names freq 1 گوجه فرنگی 7 2 سیب زمینی 4 3 کلم 5 4 sukuma-wiki 8 5 terere 20 من می خواهم یک ستون نواری انباشته داشته باشم که نسبت هر ورودی را در نمودار نشان دهد. وقتی با بیش از شصت ورودی ارائه می شود، چگونه رنگ آمیزی نوار انباشته شده را مدیریت می کنید؟ ساده ترین راه برای انجام این کار چیست؟
طرح نوار انباشته
41525
من به دنبال مجموعه داده ای هستم که برای مقایسه رگرسیون لجستیک هسته (KLR) و رگرسیون لجستیک معمولی به راحتی قابل دسترسی باشد. تمام کاغذهایی که من با استفاده از KLR پیدا کردم از مجموعه داده های مصنوعی استفاده می کنند. من بیشتر به مجموعه های داده با متغیرهای پیوسته علاقه دارم، بنابراین می توانم هسته نمایی مربعی را اعمال کنم. مجموعه داده ها با یک هدف باینری و متغیرهای پیش بینی فضایی نیز جالب خواهد بود.
مجموعه داده رایگان برای مقایسه رگرسیون لجستیک هسته و رگرسیون لجستیک منظم
41528
من یک مدل رگرسیون لجستیک با یک متغیر پاسخ دوگانه و پیش‌بینی‌کننده‌هایی دارم که از $1 تا $10$ و از $0$ تا $18$ کدگذاری شده‌اند. وقتی مدل را مناسب کردم، این نتایج را دریافت می کنم: Intercept 2.467 (p=2e-16) Predictor#1 -0.181 (p=1.76e-07) Predictor#2 -0.098 (p=3.34e-14) Null deviance 2252.3 on 1741 DF Residual dev. 2113.1 در 1739 DF (1276 مورد به دلیل گم شدن حذف شد) — AIC: 2119.1 و Nagelkerke $R^2$ 0.10$. $R^2$ و Deviance مدل را بسیار بد نشان می‌دهند، اما وقتی مقادیر پیش‌بینی‌شده را محاسبه می‌کنم، زمانی که هر دو پیش‌بینی‌کننده $1$ باشند، احتمال $24.8\%$ و زمانی که پیش‌بینی‌کننده‌ها $89.9\%$ هستند را دریافت می‌کنم. در حداکثر مقادیر خود (به ترتیب 10 دلار و 18 دلار) هستند. چگونه می توانم چنین معیارهای بدی از خوبی تناسب داشته باشم، و در عین حال، چنین تفاوت بزرگی (معناداری آماری، $p<0.01$) در مقادیر پیش بینی شده بدست بیاورم؟
رگرسیون لجستیک: تفاوت بزرگ در مقادیر پیش بینی شده و برازش بسیار معنی دار، اما ضعیف
96079
اجازه دهید $(X_1،Y_1)، . . . , (X_n,Y_n)$ یک نمونه تصادفی از توزیع گسسته با تابع جرم احتمال مشترک باشد $$ f_{X,Y} (x,y) = \frac{\theta}4 , \space (x,y) = (0,0)\space یا \space(1,1)$$ $$ = \frac{2 - \theta}4, \space \space (x,y) = (0,1)\space یا \space(1,0),$$ با $0 \le \theta \le 2$. برآوردگر حداکثر احتمال $\theta$ را پیدا کنید.
برآوردگر حداکثر احتمال $\theta$ را پیدا کنید
36116
من از یک راهنمای اندازه گیری پیروی می کنم که تکنیکی را برای بهبود برآورد واریانس کل با استخراج مولفه های واریانس فردی و انجام مجموع مربعات مشخص می کند. من آمارگیر نیستم، بنابراین به دنبال کسی هستم که روش تعریف شده توسط راهنما را تأیید کند. این به بهترین شکل با یک مثال توضیح داده می‌شود: ما محصولی را می‌فروشیم که باید الزامات عملکرد خاصی را برآورده کند و از دو قطعه مجزا تشکیل شده است که ممکن است به طور بالقوه خارج از کنترل ما تعویض شوند. به این ترتیب، ما نمی توانیم هر ترکیب ممکن را آزمایش کنیم. برای نشان دادن اینکه محصول الزامات را برآورده می‌کند، مطالعه‌ای را انجام می‌دهیم که عملکرد جفت‌ها را در یک ماتریس با دو اندازه‌گیری در هر جفت برای گرفتن خطای اندازه‌گیری نمونه‌برداری می‌کند. در اینجا یک مجموعه داده برای این وجود دارد: ![Data matrix](http://i.stack.imgur.com/doQwC.png) دستورالعمل بیان می کند که واریانس نمونه واریانس کل را کمتر از حد تخمین می زند و راه حل استخراج فرد است. اجزای واریانس و سپس آنها را جداگانه ترکیب کنید. محاسبات، _همانطور که در راهنما تجویز شده است، در زیر آمده است: ![محاسبات در گروه ها](http://i.stack.imgur.com/12zZq.png) ![محاسبات کل](http://i.stack .imgur.com/EM8YK.png) بیشتر این تکنیک واقعاً برای من منطقی است. من ارزش استفاده از مؤلفه ها را به طور جداگانه برای محاسبه اندازه های مختلف نمونه می بینم، اما چند جنبه از این نیز وجود دارد که کاملاً درک نمی کنم. به طور خاص: 1. محاسبه واریانس اندازه گیری (معادل 3) فقط در نظر گرفتن میانگین واریانس در هر جفت است. آیا این روش مناسبی برای استخراج واریانس اندازه گیری است؟ 2. چرا واریانس های مؤلفه (معادل 4 و 5) واریانس در میانگین اندازه گیری را کم می کنند؟ این امر به ویژه در مواردی که واریانس مؤلفه کمتر از واریانس تفریق شده در میانگین اندازه گیری باشد مشکل ساز است (مانند معادله 5). آیا در این موارد باید آن مولفه را صفر کنیم؟ 3. در محاسبه واریانس کل میانگین (معادل 7)، آیا مقسوم علیه $S^2_{meas}$ نباید در واقع pq باشد، نه pqr؟ به غیر از این راهنمایی، من نتوانستم نمونه دیگری پیدا کنم که از این روش دقیق استفاده کند. تنظیم داده ها مانند یک ANOVA متقاطع دو طرفه به نظر می رسد اما تجزیه و تحلیل متفاوت است. برای مرجع، این راهنما به کتاب Poduri S.R.S Rau، Variance Components Estimation: Mixed Models, Methodology, and Applications [Chapman & Hall, 1997, pp 12-38] به عنوان منبع این تکنیک اشاره می کند. اگر کسی بتواند این تکنیک را تأیید کند و به من در درک سؤالاتی که مطرح کردم کمک کند، خوشحال می شوم. از کمک شما متشکرم PS: بابت استفاده از تصاویر به جای فرمول متاسفم - من قبلاً تصاویر را برای تابلوی دیگری ایجاد کرده بودم که این سوال بدون پاسخ مانده است.
بهبود دقت واریانس کل از طریق مولفه های واریانس؟
41529
من در حال حاضر در دوره _An Introduction to Operations Management_ در Coursera.org شرکت می کنم. در مقطعی از دوره، استاد شروع به پرداختن به تغییرات در زمان عملیات کرد. اندازه‌گیری که او استفاده می‌کند _ضریب تغییرات_ است، نسبت بین انحراف معیار و میانگین: $c_v = \frac{\sigma}{\mu}$ چرا باید از این اندازه‌گیری استفاده شود؟ مزایا و معایب کار با _CV_ در کنار کار با مثلاً انحراف معیار چیست؟ شهود پشت این اندازه گیری چیست؟
شهود و استفاده از ضریب تغییرات
33096
اگر بخواهم از rho اسپیرمن به‌عنوان معیار همبستگی استفاده کنم، آیا داده‌هایی که با آن‌ها کار می‌کنم باید به طور معمول توزیع/همسان باشند؟ همچنین، اگر من داده ها را در برابر زمان ترسیم کنم، آیا داده ها باید مستقل از زمان باشند؟
مفروضات آزمون rho اسپیرمن برای همبستگی
108860
من یک سری زمانی «الف» و دیگری «ب» دارم. من می خواهم رخدادهای B را در A پیدا کنم. به طور معمول، A بسیار بزرگتر است (قدر: میلیون ها امتیاز) از B (قدر: صدها نقطه) * من لزوماً تطبیق دقیق را نمی خواهم (بدیهی است، زیرا مقادیری که ما معامله می کنیم اعداد واقعی هستند، نه مثلاً، متن) اگرچه مقادیر ترجیحا نزدیک هستند. * روندها/شکل‌ها مهم‌تر از تطبیق زمان دقیق هستند (یعنی به نوعی تاب‌آوری زمان پویا می‌تواند مفید باشد) * با توجه به دو نکته اول، چه اتفاقی می‌افتد اگر به مقادیر مطلق و فقط به شکل اهمیتی نداشته باشم (شاید چه اتفاقی می‌افتد) گرفتن گزارشی از مقادیر؟) * اگر بخواهم تعداد امتیازها را از میلیون ها به میلیاردها تغییر دهم، چه اتفاقی می افتد؟ چگونه سیستم را مقیاس بندی کنیم؟ چگونه یک سری زمانی را نمایه کنم؟ (شاید به نحوی از Mahout، Lucene استفاده کنید؟) آنچه داخل پرانتز است، نتایج تحقیقات کوتاه من است، لزوما درست نیست. در مجموع، چه نوع رویکردی را باید در پیش بگیرم؟ پیشنهادات/نکات کلی شما چیست؟ من می‌خواهم یک سیستم توسعه دهم، بنابراین از هرگونه مثال/پیشنهاد عملی حتی بیشتر استقبال می‌شود. با تشکر
جستجوی سری های زمانی در سری زمانی دیگر
38540
من همیشه برای به دست آوردن جوهر واقعی هویت در اقتصاد سنجی تلاش می کنم. من می دانم که می گوییم یک پارامتر (مثلا $\hat{\theta}$) را می توان شناسایی کرد در صورتی که با نگاه کردن به توزیع (مشترک) آن بتوانیم مقدار پارامتر را استنتاج کنیم. در یک حالت ساده $y=b_1X+u$، جایی که $E[u]=0,E[u|x]=0$، می‌توانیم بیان کنیم که $b_1$ شناسایی می‌شود اگر بدانیم که واریانس آن $Var(\ کلاه{b})> 0 دلار. اما اگر $E[u|X]=a$ که در آن $a$ یک پارامتر ناشناخته باشد چه؟ آیا $a$ و $b_1$ قابل شناسایی هستند؟ اگر مدل را به $Y=b_0+b_1X+b_2XD=u$ گسترش دهم که در آن $D\in\\{0,1\\}$ و $E[u|X,D]=0$، نشان می‌دهد که $ b_1,b_2,b_3$ شناسایی شده اند، آیا باید دوباره بیان کنم که واریانس هر سه پارامتر بزرگتر از صفر است؟ من از همه کمک هایی که برای پاک کردن ذهنم در مورد شناسایی کمک می کنند قدردانی می کنم.
مشکل شناسایی پارامترها
89921
من یک سوال دارم که در آن یک داستان کوتاه به من داده شده است: > یک محقق می خواهد تأثیر داروی تجویز شده برای > سرماخوردگی را بر زمان واکنش ارزیابی کند. داده‌ها نشان‌دهنده زمان واکنش (بر حسب ثانیه) روی یک محرک یک ساعت پس از تجویز هر یک از چهار برند انتخابی تصادفی این نوع دارو برای 5 نفر است. سپس از من می‌خواهند: _مدل مناسب بدهم_ بعد از گذراندن مدتی برای جستجوی معنای این موضوع، بیشتر در مورد انتخاب آزمون مناسب نتیجه می‌گیرم. آنچه من در مورد انتخاب فکر می کنم این است: * تجزیه و تحلیل واریانس * تحلیل کوواریانس * تحلیل رگرسیون آیا می توان اینها را مدل در نظر گرفت یا یک مدل به عنوان چیز دیگری (از نظر آماری) تعریف می شود؟
انتخاب مدل مناسب - این عبارت به چه معناست؟
71799
بیماران به صورت تصادفی در دو گروه (کنترل و مداخله) قرار گرفتند. هر بیمار در 3 نقطه زمانی ارزیابی می شود. اولین نقطه قبل از مداخله گرفته می شود، بنابراین میانگین پاسخ در هر دو گروه مداخله و کنترل باید یکسان باشد. ایده این است که برای شیب های مختلف در دو گروه آزمایش شود. من می‌توانم این کار را با اندازه‌گیری مکرر آنووا، آزمایش برای تعامل گروه x انجام دهم. من نمی‌دانم که آیا یک آزمایش قوی‌تر شامل محدود کردن اثرات میانگین برای زمان 1 برابر است، اما مطمئن نیستم که چگونه این را تنظیم کنم (چه در R یا SPSS). $$y_{gkti}=\mu+\alpha_g+\tau_{gt}+\eta_{k}+\epsilon_{gkti}$$ منوط به $\tau_{11}=\tau_{21}$ جایی که $\alpha $ جلوه های گروهی برای گروه های 1 و 2 هستند و $\tau$ اثرات زمان و $\eta$ اثرات بیمار هستند. هر ایده ای؟
یک عامل در جایی که اولین نقطه زمانی یک کنترل است، اقدامات تکراری را انجام می دهد
41889
من اصطلاحات را فراموش می‌کنم، اما این زمانی اتفاق می‌افتد که مثلاً $Y$ در لیستی از متغیرها پسرفت می‌کنید، و گمان می‌کنید که $Y$ روی $x_3$ تأثیر می‌گذارد، علاوه بر اینکه $x_3$ روی $Y.$ تأثیر می‌گذارد. فراموش می‌کنم. چگونه به این نام می گویند، و چگونه با آن برخورد کنیم - چیزی در امتداد خطوط اضافه کردن یک متغیر اضافی؟ با تشکر
چگونه یک رگرسیون و تأثیرگذار بر یک پسرفت را حساب کنیم؟
76229
بگویید من $n$ رویدادهای احتمالی دارم که منجر به $m$ اثرات قابل مشاهده می شود. فرضیه استنتاج بیزی این است که رویدادها متقابلاً انحصاری و به طور مشترک جامع هستند. آیا هنوز هم می توانم از استنتاج بیزی (در نهایت اصلاح شده) زمانی که بیش از یک رویداد در برخی از مشاهدات رخ می دهد، استفاده کنم؟ مثال واقعی: $n$ اجزای احتمالی معیوب روی یک برد با $m$ نقاط تست روی برد که می‌تواند منجر به در محدوده یا خارج از محدوده شود، و من نمی‌توانم پیشینی رد کنم که دو جزء همزمان معیوب هستند. زمان
استنتاج بیزی قابل انطباق با رویدادهای غیر انحصاری متقابل؟
89928
من درک می کنم که پایایی و روایی در هنگام ساخت یک پرسشنامه کلیدی است. لطفاً اگر روش‌های زیر برای تهیه پرسشنامه مناسب است، راهنمایی کنید: 1. پس از ایجاد همه موارد در پرسشنامه، قصد دارم سؤال را با نمونه‌ای از 25 شرکت‌کننده آزمایش کنم. در مرحله بعد، من دوباره همان پرسشنامه را با همان گروه نمونه، در زمان دیگری آزمایش خواهم کرد. برای بررسی سازگاری های داخلی، یک تحلیل رگرسیونی برای یافتن مقدار آلفای کرونباخ یا رو انجام می دهم. لطفا راهنمایی کنید.
مراحل تهیه پرسشنامه
109551
من در حال محاسبه توابع مشخصه و MGF بودم و به این فکر می کردم که آیا همیشه می توانیم تابع مشخصه را به سادگی با جایگزینی $it$ به جای $t$ در معادله حاصل بدست آوریم. برای مثال، MGF معمولی $ \exp{(\mu t + \frac{\sigma^2 t^2}{2})} $ است، اما اگر $it$ را جایگزین آن کنیم، $ \exp{(\mu) دریافت می‌کنیم. it - \frac{\sigma^2 t^2}{2})} $ که تابع مشخصه است. اگر MGF در همسایگی 0 وجود داشته باشد همیشه می توانیم این کار را انجام دهیم؟
تابع مشخصه را از MGF دریافت کنید؟
7141
فرض کنید من $n$ مشاهدات $X_1,X_2,\ldots,X_n$ را به طور مستقل از توزیعی رسم کنم که در آن $X_i \sim \mathcal{N}(\mu_i,\sigma^2)$ است، جایی که میانگین فرض می شود Lipschitz باشد. : $\ چپ| \mu_i - \mu_{i+1}\right| \le \gamma،$ با $\gamma$ شناخته شده است. من می خواهم فرضیه صفر را آزمایش کنم: $$H_0: \mu_n = 0$$ در برابر جایگزین محلی $H_1: \mu_n > 0$. چند سوال: 1. آیا این یک مشکل شناخته شده است؟ اگر چنین است، برای چه عباراتی باید در گوگل جستجو کنم؟ 2. راه معقولی برای انجام این تست چیست؟ من می توانم تصور کنم که ممکن است راهی برای انجام این کار با کاهش وزن مشاهدات کمتر اخیر وجود داشته باشد - شاید نوآوری ها را در اصطلاح نویز قرار دهیم، سپس از آزمون t وزنی استفاده کنیم؟ مشکل آن رویکرد این است که تغییر در میانگین ممکن است قطعی باشد، بنابراین من باید مشکل را به عنوان یک مشکل حداقلی مطرح کنم. شاید رویکرد دیگر نادیده گرفتن عدم ایستایی و استفاده از آزمون t منظم بر روی برخی از زیرمجموعه‌های مشاهدات $X_j,X_{j+1},\ldots,X_n$ باشد که $n-j$ توسط تابعی از $ انتخاب شده است. \gamma، \sigma$ (احتمالا نسبت آنها؟) و بپذیرید که آزمون نرخ اسمی نوع I را حفظ نخواهد کرد. چه ایده های بهتری وجود دارد؟ **ویرایش**: با توجه به نظرات عالی تاکنون، من معتقدم این سوال را می توان به صورت زیر فرموله کرد: اجازه دهید $V$ مجموعه محدب در $\mathbb{R}^n$ باشد که توسط: $$ V = \left تعریف شده است. \\{\mathbf{x} | x_n = 0, x_{i-1} \le x_i + \گاما, x_{i-1} \ge x_i - \گاما, i = 2,\ldots,n \right\\} $$ مشاهده بردار $X = f + \sigma\epsilon$، که در آن عناصر $\epsilon$ به طور مستقل از یک گاوسی استاندارد ترسیم می‌شوند، فرضیه صفر را آزمایش کنید: $$H_0: f \in V$$ از این نظر، شبیه مقاله Baraud _et است. al._ که توسط @Robin Girard ذکر شده است، به جز مقاله Baraud روشی برای موردی ارائه می دهد که $V$ یک زیرفضای خطی از $\mathbb{R}^n$ است، _نه_ یک polytope محدب. بر اساس این فرمول، به نظر می رسد که، در زیر صفر، فاصله مجذور از $X$ تا $f$ باید به صورت Chi-squared تا ضریب مقیاس بندی $\sigma^2$ توزیع شود. سپس فاصله از $X$ تا $V$ نباید بیشتر از آن باشد. سپس آزمون پیشنهادی یافتن پیش‌بینی $X$ روی $V$ و آزمایش فاصله از $X$ تا آن پیش‌بینی بر اساس کران مجذور کای است. من تصور می کنم این تست قدرت نسبتا کمی خواهد داشت. شاید کوتاه کردن مشاهده به یک زیر مجموعه نهایی از $X_i$ قدرت بالاتری داشته باشد...
تست مکان تحت یک غیر ایستایی محدود؟
71797
من با محاسبه اهمیت یک اثر ثابت در آزمایش طراحی تودرتو ساده مشکل دارم. فرض کنید یک مجموعه داده ساده داریم: تک کلاس مقدار ind_mean replicate 1 A -0.37651119 -1.23495005 1 1 A -0.37651119 1.24107015 2 1 A -0.37651119 -0.411376 -0.411376 -1.09239410 4 2 A 0.01519211 0.15858308 1 2 A 0.01519211 0.69513257 2 2 A 0.01519211 0.05390850 3015 3015 A -0.84685576 4 3 A -0.19937009 0.49203770 1 3 A -0.19937009 0.06218100 2 3 A -0.19937009 -1.12546250 - 3193 A. -0.22623652 4 4 A 0.62853718 1.63792462 1 4 A 0.62853718 1.26212834 2 4 A 0.62853718 -0.52029892 3625 3624 A 0.13439466 4 5 B 2.38620939 2.67706019 1 5 B 2.38620939 1.71849546 2 5 B 2.38620939 2.31713740 3 385 B 2.83214451 4 6 B 0.91834030 -0.13221319 1 6 B 0.91834030 2.41841628 2 6 B 0.91834030 0.25367270 3916 B 0.25367270 3916 1.13348538 4 7 B 2.12694664 2.22003887 1 7 B 2.12694664 1.31492118 2 7 B 2.12694664 2.53495794 3146 B 2.53495794 3126 2.43786856 4 8 B 1.52867659 0.65959322 1 8 B 1.52867659 1.23188018 2 8 B 1.52867659 1.58976691 3526 B 1.58976692 3528 B 2.63346604 4 حالا اگر مدل lme را با این داده ها تطبیق دهم، > summary(lme(value ~ class, .~1|individual, data = d)) را دریافت می کنم... اثرات تصادفی: فرمول: . ~ 1 | individual (Intercept) Residual StdDev: 0.3643563 0.8430941 اثرات ثابت: مقدار ~ class Value Std.Error DF t-value p-value (Intercept) 0.016962 0.2785935 24 0.06019523 class. 0.3939908 6 4.373405 0.0047 ... به نظر می رسد همه چیز خوب است. با این حال، اگر مدل را در ستون «ind_mean» قرار دهم که به جای مقادیر اصلی، میانگین‌های هر فرد را دارد، دقیقاً همان تخمین‌های پارامتر ثابت، آمار و مقادیر p را دریافت می‌کنم. > summary(lme(ind_mean ~ class, .~1|individual, data = d)) ... اثرات تصادفی: فرمول: . ~ 1 | individual (Intercept) Residual StdDev: 0.5571871 1.854137e-16 اثرات ثابت: ind_mean ~ class Value Std.Error DF t-value p-value (Intercept) 0.016962 0.2785935 60920240. 1.723081 0.3939908 6 4.373405 0.0047 ... در واقع این p-value با p-value آزمون t معمولی مطابقت دارد، جایی که من مقایسه را بر روی میانگین افراد انجام می دهم. این البته منطقی است، زیرا مشاهدات اضافی در این مورد **هیچ اطلاعاتی را اضافه نمی کنند. با این حال، در مورد مدل اصلی، مشاهدات اضافی ** انجام ** اطلاعات اضافه می کند. در واقع، داده ها بدون هیچ گونه تأثیر فردی تولید شده اند، بنابراین آمار صحیح خواهد بود. > summary(lm(value ~ class, data = d)) ... Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.01696 0.22597 0.075 0.941 classB 1.72308 0.31957 5.392 7.7e-06 *** ... شهود آماری من نشان می دهد که اولین مدل p-value باید از مدل p-value در اینجا باشد. مدل سوم و دوم دقیقا نه همانند مدل دوم آیا شهود من اشتباه است؟ آیا من از روش به روش اشتباه استفاده می کنم؟ آیا روش هایی وجود دارد که به من مقادیر p مناسب تری بدهد؟
چرا P-value اثر ثابت در یک مدل ترکیبی به طور غیر مستقیم عمل می کند؟
41526
من می خواهم چند فرضیه ساده از فرم ارائه شده توسط T-Tests و ANOVA را امتحان کنم. با این حال، داده های من به طور معمول توزیع نمی شود (از توزیع پارتو پیروی می کند). درک من این است که T-Tests این فرض را ایجاد می کند که داده ها به طور معمول توزیع شده اند و بنابراین من نمی توانم از آنها استفاده کنم - آیا این درست است؟ آیا کار دیگری هست که بتوانم انجام دهم؟ **ویرایش** در اینجا اطلاعات بیشتری در مورد مشکل من وجود دارد. من سعی می کنم برخی از تجزیه و تحلیل های کیفی را روی نقص های نرم افزار انجام دهم و در دانستن اینکه از کجا شروع کنم با مشکل مواجه هستم. یک سوال اساسی که می خواهم به آن پاسخ دهم این است: > آیا نرم افزار تولید شده در بخش X دارای نقص بیشتری نسبت به بخش Y است؟ به عنوان پیشینه، تغییرات نرم‌افزار را به‌عنوان «وصله‌ها» گروه‌بندی می‌کنیم، در این صورت این سؤال به این صورت می‌شود که آیا پچ متوسط ​​از بخش X دارای نقص‌های بیشتری نسبت به بخش > Y است؟ در اینجا یک هیستوگرام از اشکالات / پچ، N = 3700 وجود دارد. ایراداتی که جواب خوبی برای آنها ندارم. انتخاب بدیهی برای یکی از دانش محدود من، مقایسه میانگین نقایص در هر گروه است، اما همانطور که دیگران اشاره کردند این بهترین انتخاب نیست. معیاری که توسط Procrastinator ($P(X<Y)$) پیوند داده شده است، به نظر می‌رسد که شهود من را به خوبی جذب می‌کند.
آزمون فرضیه برای توزیع های پارتو
96214
طبق الگوریتم $K$-means، 1. به طور تصادفی یک گروه یا خوشه به هر نقطه اختصاص دهید. # مرحله اولیه 2. مرکزهای تمام گروه های $K$ را محاسبه کنید. 3. با اندازه گیری فاصله تا مرکز، هر نقطه را به نزدیک ترین گروه ها اختصاص دهید. 4. روی 2 تا 3 تکرار کنید تا همگرایی. فکر می کنم درک من در مورد این الگوریتم درست است، اگر نه، لطفاً من را اصلاح کنید. مشکل من اینجاست. من یک مجموعه داده دارم، و می‌خواهم خوشه‌های $3$ را با استفاده از $K$-means پیدا کنم، و حالا فرض کنید بعد از مرحله اولیه (مرحله 1)، به نظر می‌رسد: 1112 33233، و خوشه-2 به طور تصادفی انتخاب شده است. یک تراژدی، زیرا مرکز خوشه-2 در وسط خوشه-1 و خوشه-3 قرار دارد و بعد از مرحله-2 و مرحله-3، همه نقاط (فقط دو 2) به خوشه-1 و خوشه-3 تخصیص داده می شوند و خوشه-2 خالی می ماند. برای واقعی؟ من 3 خوشه می خواهم، اما در نهایت به 2 می رسم؟ فقط به دلیل وضعیت اولیه نامناسب؟ با این چیکار کنم؟
K-means کمتر از گروه های K پیدا می کند
7146
سلام من داده های باد را برای تخمین انرژی از یک توربین بادی تجزیه و تحلیل می کنم. من 10 سال داده های باد را گرفتم و یک نمودار هیستوگرام ترسیم کردم. مرحله دوم من برازش توزیع Weibull به داده ها بود. من از R با بسته lmom برای محاسبه شکل و مقیاس Weibul استفاده کردم. این کدی است که استفاده کردم: >library(lmom) wind.moments<-samlmu(as.numeric(pp$WS)) moments<-pelwei(wind .moments) x.wei<-rweibull(n=length(pp$WS)، shape=moments[delta]، scale=moments[beta]) hist(as.numeric(pp$WS), freq=FALSE) lines(density(x.wei)، col=red، lwd=4) به نظر می رسد کمی تاخیر وجود دارد بین داده ها و تابع چگالی؛ می توانید در این مورد به من کمک کنید؟ یک سوال دیگر این است که می توانید در محاسبه انرژی سالانه از تابع چگالی به من کمک کنید؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/AqVij.png) متشکرم
تجزیه و تحلیل داده های باد با R
18746
من در حال جمع آوری داده های زیادی از نورون ها هستم و هر نورون را جداگانه تجزیه و تحلیل خواهم کرد. آیا انتخاب بهترین از بین چندین مدل بر اساس AICc _برای هر نورون_ و سپس استفاده از مقادیر p ANOVA از بهترین مدل معتبر است؟ یا باید AICc را فقط روی داده های اولیه اجرا کنم و سپس از بهترین مدل برای تجزیه و تحلیل هر نورون استفاده کنم؟ تصور من این بود که انتخاب مدل در مرحله طراحی آزمایشی اولیه فقط از نظر آماری معتبر است، اما اکنون در یافتن این موضوع که به صراحت بیان شده است با مشکل مواجه هستم. مراجع بسیار قدردانی می شود.
آیا می توان از معیار AICc (معیار اصلاح شده اطلاعات Akaike) برای تجزیه و تحلیل پس از آن استفاده کرد؟
89929
من از یک طرح 2X3X4 استفاده می کنم که دارای iv های زیر است: نمرات اضطراب اجتماعی (دو گروه اساساً نمرات بالا و پایین) 3 احساس و 4 جهت نگاه. من باید آزمایش کنم که آیا گروه ها اساساً متفاوت هستند یا نه (قبل از اینکه آنوای مختلط خود را انجام دهم). من فکر کردم که می توانم این کار را از طریق یک آزمون t مستقل انجام دهم. همانطور که سعی کردم یکی را انجام دهم، تفاوت بین هر شرایط را به صورت جداگانه آزمایش کرده است. چگونه می توانم آنها را برای تفاوت آزمایش کنم، آیا این موضوع به نحوه ارائه داده ها در بیننده داده مربوط می شود؟ یا روش دیگری برای انجام آن است؟
تقسیم‌بندی داده‌ها - نحوه آزمایش تفاوت (آزمون t مستقل بالقوه) SPSS
101353
من به دنبال منابعی در مورد مدل خطرات متناسب کاکس با متغیرهای کمکی متغیر هستم. من در تجزیه و تحلیل بقا تازه کار هستم، بنابراین به دنبال چیزی هستم که بیش از حد ریاضی نباشد. همچنین از هرگونه اطلاعاتی در مورد پیاده سازی نرم افزاری که می تواند با این مشکل مقابله کند قدردانی می کنم.
رگرسیون کاکس با متغیرهای کمکی متغیر زمان
41881
من در درک آمار کامل کافی مشکل دارم؟ اجازه دهید $T=\Sigma x_i$ یک آمار کافی باشد. اگر $E[g(T)]=0$ با احتمال 1، برای تابعی از $g$، آنگاه یک آمار کاملاً کافی است. اما این به چه معناست؟ من نمونه هایی از یونیفرم و برنولی را دیده ام (صفحه 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf)، اما شهودی نیست، با دیدن ادغام بیشتر گیج شدم. آیا کسی می تواند به روشی ساده و شهودی توضیح دهد؟
آمار کامل و کافی چیست؟