_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
6754 | من در آمار مبتدی هستم و می خواهم یادگیری ماشینی را یاد بگیرم :). بنابراین، من برخی از داده های نمونه را برای تمرین جمع آوری کرده ام. اما، مشکل این است که من می خواهم یک ویژگی (یا ویژگی) ایجاد کنم که برای هر موجودیت رایج است. اما این ویژگی برای موجودیت X در Y متر و Z ثانیه و برای موجودیت W در M متر و L ثانیه مشاهده و اندازهگیری میشود و مشاهدات زیادی مانند آنچه قبلا توضیح داده شد وجود دارد. برای ایجاد یک ویژگی مشترک برای همه موجودیت ها، کدام الگوریتم را باید اعمال کنم؟ BTW، من از WEKA استفاده می کنم. | برای مقایسه مجموعه های مختلف داده ها چه باید بکنم؟ |
6758 | من با استفاده از بسته dynlm مدلی را با چندین متغیر مستقل برازش کردهام که یکی از آنها تاخیر متغیر وابسته است. با فرض اینکه من برای متغیرهای مستقل خود پیش بینی های 1 گام جلوتری داشته باشم، چگونه می توانم پیش بینی های 1 گام جلوتر را برای متغیرهای وابسته خود دریافت کنم؟ در اینجا یک مثال وجود دارد: library(dynlm) y<-arima.sim(model=list(ar=c(.9)),n=10) #Create AR(1) متغیر وابسته A<-rnorm(10) #Create متغیرهای مستقل B<-rnorm(10) C<-rnorm(10) y<-y+.5*A+.2*B-.3*C #افزودن رابطه به متغیرهای مستقل data=cbind(y,A,B,C) #مدل مدل خطی برازش<-dynlm(y~A+B+C+L(y,1),data=data) #پیشبینی A< -c(A,rnorm(1)) #فرض کنید ما قبلاً پیشبینیهای 1 مرحلهای برای A,B,C B<-c(B,rnorm(1) داریم) C<-c(C,rnorm(1)) y=window(y,end=end(y)+c(1,0),extend=TRUE) newdata<-cbind(y,A,B,C) پیش بینی (model,newdata) و در اینجا یک مثال با استفاده از بسته dyn است که کار می کند. library(dyn) #مدل مدل خطی مناسب<-dyn$lm(y~A+B+C+lag(y,-1),data=data) #پیشبینی بستههای dyn را پیشبینی کرد(model,newdata) که کار میکند: | پیش بینی های 1 گام جلوتر با بسته dynlm R |
100234 | میخواهم ببینم آیا این دادههای دیگری که دارم پیشبینی میکند که اولین رویداد رخ خواهد داد یا خیر. به عبارت دیگر، من یک فیلد داده با رکورد گوزها، با ستونهایی برای روز، ماه، سال دارم و سپس یک فیلد داده دیگر با رکورد وعدههای غذایی، با ستونهایی برای تاریخ ماه و سال و همچنین ستونی برای خواه خورنده لوبیا خوار باشد. چگونه این را تجزیه و تحلیل کنم؟ اگر این دادهها در قالب سری زمانی آسان، با تاریخها در محور x و تعداد فرتها در محور y باشند، آسانتر خواهد بود، اما دادهها فقط زمانی که گوز رخ میدهد، ثبت میکنند، نه زمانی که گوز رخ نمیدهد. با تشکر | من داده هایی دارم که شامل رکوردی از هر رویداد و زمان آن است |
87920 | من مدل خطی مخلوط را با استفاده از lme4 انجام می دهم. با توجه به Winter (2013، http://www.bodowinter.com/tutorial/bw_LME_tutorial2.pdf)، از آنجایی که نسخه جدید R به دلیل عدم نتیجه گیری درجه آزادی، مقادیر p را ارائه نمی دهد، P-مقدارهای مدل های مختلط می توانند از مقایسه مدل حاصل شود. از مثال های صفحه 12، او پیشنهاد ساخت مدل تهی را داد: politeness.null=lmer (فرکانس ~ جنسیت + (1|موضوع) + (1|سناریو)، داده = ادب، REML=FALSE) سپس افکت ثابت را اضافه کنید. که ما به آن علاقه مندیم: ادب.null=lmer (فرکانس ~ نگرش + جنسیت + (1|موضوع) + (1|سناریو)، داده = ادب، REML=FALSE) و سپس مقادیر p نگرش را می توان از anova (politeness.null،politeness.model) ارائه داد، اما، در مورد من، من تعامل 3 طرفه دارم: رنگ. *سکس*غذا، و وقتی مدل را اجرا می کنم، 17 لایه جلوه ثابت دارم، مانند سفید (در مقایسه با قرمز)، آبی (در مقایسه با قرمز)، white:male (در مقایسه با ماده) و غیره. سپس سوال من این است که چگونه می توانم مقادیر p را برای همه این اثرات ثابت دریافت کنم؟ مطمئن نیستم که اولاً باید جلوه های ثابتی داشته باشم که به آنها علاقه ای ندارم: lmer1=lmer (مدت ~ عمل + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) سپس اضافه کنید: lmer1=lmer (مدت ~ عمل + رنگ + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) سپس اضافه کنید: lmer1=lmer (مدت ~ عمل + رنگ + جنس + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) یا lmer1=lmer (مدت ~ عمل + رنگ*جنس + ( 1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) یا lmer1=lmer (مدت ~ عمل + جنسیت + (1|موضوع) + (1|تکرار)، data=data.frame، REML=FALSE) کسی میتواند در این مورد به من کمک کند؟ یا راه دیگری برای بدست آوردن مقادیر p آسانتر از مقایسه مدل وجود دارد؟ | چگونه با مقایسه مدل، مقدار p را برای اثرات ثابت بدست آوریم؟ |
35276 | مجموعه داده من کوچک است (120 نمونه)، با این حال تعداد ویژگی های بزرگ از (1000-200000) متفاوت است. اگرچه من در حال انجام انتخاب ویژگی برای انتخاب زیرمجموعه ای از ویژگی ها هستم، اما ممکن است هنوز بیش از حد مناسب باشد. اولین سوال من این است که SVM چگونه با اضافه کردن برازش کنار میآید. ثانیا، با مطالعه بیشتر در مورد overfitting در صورت طبقه بندی، به این نتیجه رسیدم که حتی مجموعه داده هایی با تعداد کمی از ویژگی ها نیز می توانند بیش از حد برازش کنند. اگر ویژگیهای مرتبط با برچسب کلاس را نداشته باشیم، به هر حال بیشبرازش صورت میگیرد. بنابراین من اکنون میپرسم اگر نتوانیم ویژگیهای مناسب برای برچسب کلاس را پیدا کنیم، طبقهبندی خودکار چه فایدهای دارد. در صورت طبقهبندی اسناد، این به معنای ایجاد یک اصطلاحنامه از کلمات مرتبط با برچسبها است که بسیار زمانبر است. حدس میزنم آنچه میخواهم بگویم این است که بدون دستچین کردن ویژگیهای مناسب، ساخت یک مدل تعمیمیافته بسیار دشوار است؟ همچنین، اگر نتایج تجربی نشان ندهد که نتایج کم/بدون برازش زیاد هستند، بیمعنی میشود. آیا راهی برای اندازه گیری آن وجود دارد؟ | SVM، بیش از حد، نفرین ابعاد |
6753 | ... به جای مثلا هیستوگرام های مساوی پهنای محبوب. سوال اضافی: یک قانون خوب/محکم برای محاسبه تعداد سطلها برای هیستوگرامهای فرکانس برابر چیست (مانند قانون Freedmann-Diaconis- برای عرض مساوی). | زمان استفاده از هیستوگرام با فرکانس برابر |
86285 | من متوجه شدم که یکی از set.seed() در R برای تولید اعداد شبه تصادفی استفاده می کند. همچنین میدانم که استفاده از همان عدد، مانند set.seed(123) تضمین میکند که میتوانید نتایج را بازتولید کنید. اما چیزی که من متوجه نمی شوم این است که خود ارزش ها به چه معنا هستند. من با چندین تابع بازی می کنم و برخی از set.seed(1) یا set.seed(300) یا set.seed(12345) استفاده می کنند. این عدد به چه معناست (در صورت وجود) - و چه زمانی باید از عدد دیگری استفاده کنم. به عنوان مثال، در کتابی که من از طریق آن کار میکنم، از set.seed(12345) هنگام ایجاد مجموعه آموزشی برای درختهای تصمیم استفاده میکنند. سپس در فصلی دیگر، از set.seed(300) برای ایجاد یک جنگل تصادفی استفاده می کنند. فقط شماره نگیرید با تشکر | عدد تصادفی-Set.seed(N) در R |
72519 | اول از همه، اگر سوال خیلی گسترده یا اشتباه است، عذرخواهی می کنم، اما نیاز به مراجع دارم و نمی دانم از چه کسی می توانم بپرسم. اگر علاقه مند هستید، سوال از مدلی است که من ساخته ام، می توانید برخی از جزئیات را اینجا و اینجا ببینید. در این مدل من دارم: $$f(\mathbb{x}|T,\mu)=\frac{h(\mathbb{x})e^{-\frac{E(\mathbb{x})}{ kT}+\mu N(x)}}{\mathcal{Z}(T,\mu)}$$ در آنجا، پارامترهای من $\mu$ و $T$ هستند، و $\mathbb{x}=(x_1,\dots,x_M)$ که در آن $x_i\in\\{0,1\\}$ و من محدودیت $\forall i\in\\{1,\dots را داریم، M-D+1\\}$ $$\sum_{j=0}^{D-1} x_{i+j} \leq 1$$ این است، $h(\mathbb{x})=0$ اگر آن شرط برقرار نیست. من این ناراحتی کوچک از دانستن $\mathcal{Z}(T,\mu)$ را دارم، بنابراین از روش MCMC (Metropolis-Hastings) برای تخمین زدن این تابع استفاده کردم. با این حال من با دو مشکل روبرو هستم. * اولین مورد مربوط به شبیه سازی و مدل است و من در حال حل آن هستم (بیش از حد به شرایط اولیه بستگی دارد). * دوم اینکه این پارامترها کاملاً شناخته شده نیستند و من نمی دانم چگونه می توانم آنها را تخمین بزنم. من در مورد استنتاج بیزی مطالعه کرده ام و کمی تئوری تخمین را می دانم اما متخصص نیستم (علاوه بر این نمی دانم که آیا ندانستن تابع پارتیشن می تواند بر نتیجه تأثیر بگذارد). اگر هر یک از شما بتواند سرنخی در قالب کتابی به من بدهد که بتوانم آن را بخوانم، تا ابد سپاسگزار خواهم بود. از کمک شما بسیار سپاسگزارم. به لطف نظر کاردینال، متوجه شدم که یک چیز را توضیح ندادم. احتمالاً همه چیز را پیچیدهتر میکند، اما به اینجا میرسد: ایده این است که $E$ در هر آزمایش شناخته شده است، در واقع $E(\mathbf{x}) = \mathbf{E}\cdot\mathbf{x}$. با این حال، $\mathbf{E}$ همیشه یکسان نیست، نشان دهنده یک پتانسیل خارجی برای برخی از ذرات است. نکته خوب این است که $T$، که دما را محاسبه می کند، هرگز هر چه $\mathbf{E}$ باشد تغییر نمی کند، بنابراین فکر کردم که می توانم راهی برای تخمین آن پیدا کنم، با توجه به این واقعیت که من یک آزمایش تجربی دارم. توزیع $x_{i}$ (بنابراین، یک احتمال که یک ذره در موقعیت $i$ قرار دارد) با توجه به $\mathbf{E}$ معین. بنابراین، به نوعی، چیزی که من دارم $$f(\mathbf{x}|T,\mu , \mathbf{E})$$ است، اما من همیشه $\mathbf{E}$ را می دانم و می دانم (می توانم من این را می گویم؟) که $T,\mu$ مستقل از $\mathbf{E}$ هستند. متاسفم که قبلاً به اندازه کافی شفاف نبودم. کم کم دارم به این فکر می کنم که هیچ چیز منطقی نیست... | تخمین و برازش پارامترهای خانواده نمایی، مراجع |
92766 | من در حال خواندن این مقاله خوب بودم و سعی کردم این راهنمای گام به گام را در پایتون پیاده سازی کنم و سپس نتایج را با استفاده از تابع Python از کتابخانه matplotlib مقایسه کردم: `matplotlib.mlab.PCA()`. با این حال، متوجه شدم که نتایج متفاوت است. اکنون، کمی نگران هستم که آیا در جایی در پیادهسازی خود اشتباه کردهام، یا اگر تابع PCA() رویکرد کمی متفاوت داشته باشد. دریافت بازخورد در مورد این پیش نویس بسیار خوب است: مشاهده نوت بوک iPython با تشکر! | نتیجه اجرای گام به گام PCA با «matplotlib.mlab.PCA()» متفاوت است، اگر کسی بتواند در یافتن منبع به من کمک کند خوب است. |
6759 | Coulmn1 Column 2 A 1 A 1 A 2 B 4 B 1 B 1 C 2 C 2 من می خواهم موارد تکراری را بر اساس هر دو ستون حذف کنم تا خروجی نهایی من A 1 A 2 B 4 B 1 C 2 باشد. برای من مهم نیست پیشاپیش متشکرم | حذف ردیف های تکراری از فریم داده R |
69304 | داشتم عکس نوشته R پکیج «کمومتریکس» (لینک) را می خواندم. نویسنده در پاراگراف دوم (درست زیر معادله اول) صفحه 12 می نویسد: > OD (فاصله متعامد) در فضای اصلی به صورت > فاصله متعامد یک جسم تا زیر فضای PCA یا به عبارت دیگر، محاسبه می شود. فاصله بین جسم و طرح ریزی متعامد آن در زیر فضای PCA >. آیا کسی می تواند توضیح دهد که چگونه فاصله متعامد دقیقاً محاسبه می شود (در صورت امکان، برخی از کدهای R به عنوان یک مثال گویا بسیار قدردانی می شود!) | چگونه فاصله متعامد محاسبه می شود؟ |
43835 | یک متغیر طبیعی تصادفی با میانگین و std ناشناخته وجود دارد. من می خواهم میانگین را با نمونه گیری تخمین بزنم. بعد از چندین نمونه، تخمینی دارم که با گرفتن نمونه های بیشتر می توانم آن را دقیق تر کنم، البته هر نمونه اضافی هزینه دارد. چگونه میتوانم از نمونههایی که در حال حاضر دارم، تأثیر روی یک نمونه اضافی را بر دقت برآوردم از میانگین تخمین بزنم؟ | آیا ارزش برداشتن نمونه دیگری را دارد؟ |
92768 | من در حال بررسی بسته mvoutlier و مقایسه آن با معیارهای نفوذ متعارف مانند فاصله کوک، اهرم، DFFITS و غیره هستم. طبق تجربه شما در کدام شرایط یکی بهتر از دیگری است؟ | mvoutlier در مقابل معیارهای تأثیر |
85387 | من سعی می کنم درک شهودی بهتری از انحراف معیار به دست بیاورم. از آنچه من میدانم، نشاندهنده میانگین تفاوتهای مجموعهای از مشاهدات در یک مجموعه داده از میانگین آن مجموعه داده است. اما در واقع با میانگین تفاوت ها برابر نیست زیرا به مشاهدات دورتر از میانگین وزن بیشتری می دهد. بگویید من جمعیت مقادیر زیر را دارم - $\\{1، 3، 5، 7، 9\\}$ میانگین $5$ است. اگر اندازهگیری اسپرد را بر اساس مقدار مطلق بگیرم، $$\frac{\sum_{i = 1}^5|x_i - \mu|}{5} = 2.4$$ دریافت میکنم. انحراف استاندارد $$\sqrt{\frac{\sum_{i = 1}^5(x_i - \mu)^2}{5}} = 2.83$$ دریافت میکنم. نتیجه با استفاده از انحراف استاندارد این است بزرگتر، همانطور که انتظار می رود، به دلیل وزن اضافی که به مقادیر دورتر از میانگین می دهد. اما اگر فقط به من گفته شود که با جمعیتی با میانگین 5 دلار و انحراف معیار 2.83 دلار سروکار دارم، چگونه می توانم استنباط کنم که جمعیت از مقادیری شبیه به $\\{1، 3، 5 تشکیل شده است، 7، 9 \\} دلار؟ فقط به نظر می رسد که رقم 2.83 دلار بسیار دلخواه است ... من نمی دانم که شما چگونه باید آن را تفسیر کنید. آیا $2.83$ به این معنی است که مقادیر بسیار گسترده شدهاند یا همه آنها به شدت در اطراف میانگین قرار گرفتهاند... وقتی با بیانیهای مواجه میشوید که با جمعیتی با میانگین 5 دلار و انحراف معیار 2.83 دلار سروکار دارید، آیا این به شما در مورد جمعیت می گوید؟ | شهود پشت انحراف معیار |
43833 | من در اکسل کار می کنم و می خواهم سطح قیمت نسبی را در 4 بازار محاسبه کنم. من روش خوبی می دانم که می توانم از آن استفاده کنم وقتی فقط به 2 بازار ایالات متحده آمریکا نگاه می کنم آدامس حباب 4 6 آب نبات چوبی 3 شکلات تخته ای 7 8 در مثال بالا با 2 بازار به این نتیجه می رسم که سطح قیمت (6/4+7/) است. 8)/2 = 11875 در بریتانیا بیشتر از ایالات متحده است. ما می توانیم این را به صورت USA = 1 UK = 1,1875 بیان کنیم، اما وقتی چهار بازار داریم و قیمت همه اقلام در همه بازارها را نداریم، چگونه این را محاسبه کنم؟ ایالات متحده آمریکا انگلستان فرانسه آلمان آدامس حباب 4 6 8 آب نبات چوبی 3 5 4 شکلات تخته ای 7 8 10 برای محاسبه سطوح قیمت در مثال بالا به کمک شما نیاز دارم. من می خواهم در صورت امکان محاسبات را در اکسل انجام دهم. | سطوح قیمت نسبی را در 4 بازار محاسبه کنید؟ |
66001 | اگر انحراف معیار یک سری زمانی اقتصادی تقریباً متناسب با سطح آن باشد، یعنی انحراف معیار به خوبی به عنوان درصدی از سطح سری بیان شود، در این صورت انحراف معیار لگاریتم طبیعی سری تقریباً ثابت است. ممکن است به من بگویید چرا؟ متشکرم | سوالات مربوط به انحراف معیار یک سری زمانی |
32722 | من سعی کرده ام الگوریتمی را آموزش دهم تا پیش بینی کند که آیا یک حساب بسته می شود یا نه با استفاده از هزاران نقطه داده و بسیاری از ویژگی ها. من از دادههای یک ماه قبل از بسته شدن حساب استفاده میکنم، اما مشکل این است که حسابها برای مدت زمان متفاوتی وجود داشتهاند. بنابراین، در حالی که برای یک حساب من ممکن است فقط داده های عملکرد تا 1 سال داشته باشم، برای حساب دیگر ممکن است 1 ماه، 3 ماه، 1 سال، 3 سال، 5 سال و حتی 10 سال داشته باشم. 94 ویژگی وجود داشت اما من آن را به 19 کاهش دادم تا شروع به بازی کردن با آن کنم. من به دنبال کمکی هستم که چگونه می توانم الگوریتمی بسازم که مقادیر مختلف داده را برای هر حساب ترکیب کند. من به استفاده از یک شبکه عصبی فکر می کردم زیرا همیشه به آنها علاقه مند بوده ام، اما آماده هر پیشنهادی هستم. بنابراین، اساساً، من ارزش های گمشده زیادی در ویژگی های خود دارم. اگر من به سادگی مشاهدات با مقادیر زیادی از دست رفته را حذف کنم، مجموعه داده های من برای مفید بودن بسیار کوچک می شود. آیا روش استانداردی برای رسیدگی به این نوع مشکل داده های از دست رفته یا الگوریتم یا مدل خاصی وجود دارد که به خوبی آن را مدیریت کند؟  | مدل های پیش بینی با تعداد زیادی مقادیر گمشده در ویژگی ها |
32725 | فرض کنید ما یک ماتریس $\mathbf{A}=\begin{bmatrix}a_{11} & a_{12}\\\ a_{21} & a_{22} \end{bmatrix}$ داریم و کوواریانس واریانس آن را میدانیم ماتریس \left(4\times4\right)$. سپس چگونه می توان ماتریس کوواریانس واریانس $\mathbf{A}^{-1}$ را بدست آورد؟ من بسیار قدردان کمک شما هستم. با تشکر | ماتریس کوواریانس واریانس برای معکوس یک ماتریس |
101181 | (x-posted to Statalist) من دو نمونه (احتمالا) مستقل دارم که از یک جمعیت تحت دو نظرسنجی مختلف با فاصله چند سال از همدیگر انجام شده است. میخواهم بررسی کنم که آیا فرکانسهای یک شاخص خاص بین نمونهها مطابقت دارند یا خیر. من انتظار ندارم که این نسبت ها در طول زمان تغییر زیادی کند (البته نمی توانم آن را رد کنم). این نشانگر از دستههای متعددی استفاده میکند که متقابلاً منحصر به فرد هستند و ترتیبی نیستند، به عنوان مثال: رنگ ماشین شما چیست؟ 1. قرمز 2. سبز 3. مشکی 4. آبی و غیره. من میخواهم بررسی کنم که نظرسنجی A اساساً همان نسبتهای قرمز/سبز/آبی را که نظرسنجی B انجام داده است را ثبت کرده است. من _فکر می کنم_ باید برای این کار از فیلد مجذور کای استفاده کنم ('csgof'، در Stata). به جز اینکه من دو نمونه را مقایسه می کنم، نه نمونه را در مقابل جامعه. کسی میدونه از چه تست آماری دیگری باید استفاده کنم؟ من کمی گیر کردهام، و فقط به این فکر میکنم: استفاده از «svy: tab» (در Stata) در هر دو و فقط مقایسه فواصل اطمینان. اما من احساس میکنم که این یک روش خام برای انجام کارها است. خیلی ممنون الف | مقایسه نسبت ها در دو نمونه |
43832 | من علاقه مند به استنتاج آماری برای مدل رگرسیون دمینگ هستم: $$ x_i=x^*_i + \epsilon_i$$ $$ y_i = (\alpha+\beta x^*_i) + \epsilon'_i$$ که در آن $x ^*_i$ها اعداد ثابت غیر تصادفی هستند، $\epsilon_i \sim {\cal N}(0,\sigma_x^2)$، $\epsilon'_i \sim {\cal N}(0,\sigma_y^2)$، و همه متغیرهای $\epsilon_i، \epsilon'_i$ متقابلاً مستقل هستند. من به ویژه بر روی فرض $\sigma_x=\sigma_y$ تمرکز میکنم. اسلایدهای گراهام دان نشان میدهند که چگونه میتوان با رگرسیون دمینگ با رویکرد حداقل مربعات دو مرحلهای برخورد کرد، وقتی که $x^*_i$ تصادفی باشد (این مدل گاهی اوقات به عنوان مدل فراساختاری در ادبیات نامیده میشود). میخواهم بدانم وقتی x^*_i$های $x^*_i$ غیرتصادفی هستند چگونه به طور مشابه رفتار کنم و آیا میتوان این رویکرد را با بسته R sem جان فاکس انجام داد. | رویکرد حداقل مربعات دو مرحله ای به رگرسیون دمینگ |
43837 | به گروهی از افراد 21 تا 35 ساله فکر کنید. سپس می توانیم تعداد افراد را با توجه به جنسیت و گروه های سنی 21-25، 26-30 و 31-35 به دو صورت (حداقل) نشان دهیم: **نوع A**  **نوع B**  آنچه من در مورد آن کنجکاو هستم این است که ** چه نام هایی برای اشاره به انواع مختلف ساختارهای جدول استفاده می شود**؟ ارتباط عملی این است که اکسل می تواند از نوع A به عنوان منبع برای جداول محوری استفاده کند اما از نوع B استفاده نمی کند. اغلب جداول بزرگ از نوع B برای آمار ارائه می شود و من می خواهم در گوگل جستجو کنم که چگونه جداول نوع B را به جداول نوع A تبدیل کنیم. ؟ * * * **اصطلاحات (خلاصه شده از پاسخ ها)**: 1. نوع A: * **R** : 'قالب داده طولانی' * '(ذوب شده) زبانه متقاطع * **اکسل**: 'مسطح(تند) جدول دادهها 2. نوع B: * **R**: «فرمت داده گسترده» * (سنتی) زبانه متقاطع عبارت جستجو برای جدول Excel/Pivot عبارت است از «چگونه یک جدول متقاطع را صاف کنیم». * * * | اصطلاحات دو نمایش جدولی مختلف از داده های انباشته |
95015 | پرسشگر بار اول است، پس لطفا ملایم باشید :) من دو توزیع داده از یک شبیه سازی دارم. از چشم، یکی به نظر می رسد که ممکن است دووجهی باشد، یکی نه. من آنها را در زیر کپی می کنم  **A: مقدار پارامتر 1 :** با چشم احتمالاً bi / multi modal  **B: مقدار پارامتر 2 :** توسط چشم یک حالته من فکر کردم از Hartigans استفاده کنم تست شیب برای تست H1:نه یک حالته در مقابل H0:یک مدال. مشکل این است که آمار آزمون نشان میدهد که من فرضیه صفر تکوجهی بودن را برای توزیعهای _both_ با مقادیر بسیار کمتر از آستانه 0.05 پیشنهادی رد میکنم. در واقع، آمار آزمون برای توزیعی که بیشتر یکوجهی به نظر میرسد، کمتر از توزیعی است که بالقوه چند وجهی به نظر میرسد (فاصله A: D = 0.00814؛ فاصله B: D = 0.00340) من فکر میکنم چیزی که میبینم این است اثر N نسبتاً بزرگ (N=5000)، بنابراین حجم نمونه قدرت آماری را به آزمون میدهد. اما بررسی هیستوگرام ها نشان می دهد که این معتبر نیست. آیا راهی برای رسمی کردن بحث در مورد معتبر بودن رد فرضیه صفر بر اساس این آزمون وجود دارد؟ من چند پست در اینجا خوانده ام (تست برای توزیع دووجهی و جستجوی پیشنهادی @whuber). من همچنین این را در جای دیگری یافتم، اما پاسخ کمی عمومی است - اساساً میگویم که با N بزرگ احتمالاً تعداد زیادی از آزمایشها قابل توجه است، که من قبلاً گمان میکنم در اینجا چنین است. من متوجه هستم که برخی مکانیسمهای علّی برای پیامدهای مودال واحد/غیر واحد میتواند به بحث کمک کند، اما میخواهم آزمونهای آماری را نیز درک کنم. در مورد 1) آیا من آمار آزمون را به درستی تفسیر میکنم (یعنی D <0.05 شواهد برای رد تکوجهی بودن) راهنمایی میکنم؟ 2) آیا راهی برای تعیین اینکه آیا N بزرگ قدرت آماری نامناسبی به آزمون می دهد وجود دارد؟ | آیا استفاده از آزمون شیب هارتیگانز برای رد فرضیه صفر تک وجهی با N بزرگ معتبر است؟ |
43831 | اگرچه داشتن یک برآوردگر بی طرفانه از واریانس خوب است، اما ما واقعاً برای درک رابطه بین متغیر مستقل و متغیر وابسته خود به آن نیاز نداریم. چرا؟ فکر می کنم به نوعی متوجه شدم، اما او یک پاسخ مشخص می خواهد و من را انتخاب می کند ... | آیا به برآوردگر بی طرفانه واریانس نیاز داریم؟ |
32721 | من می خواهم تفاوت خطای پیش بینی بین سال 1 و 2 را بررسی کنم. آمار توصیفی نشان می دهد که میانگین خطای پیش بینی در سال 2 بیشتر است اما میانه کمتر است. در چه شرایطی این اتفاق می افتاد؟ همچنین، وقتی این را در رگرسیون زیر بعد از کنترل عوامل دیگر آزمایش میکنم، $\beta_1$ منفی و معنیدار است، به این معنی که خطای پیشبینی در سال 2 به طور قابل توجهی کمتر از سال 1 است. اما این نتیجه با نتیجه آمار توصیفی مغایر است. . چگونه آن را تفسیر کنم؟ در چه شرایطی جهت رگرسیون کاملاً مخالف جهت آزمون t خواهد بود؟ $Error = \alpha + \beta_1Year + \text{متغیرهای کنترل}$ که در آن: $Year$ یک متغیر ساختگی است (سال 2 $1$ و سال 1 $0$ است). | آزمون t دو نمونه در مقابل رگرسیون |
101183 | > > با کمک دور شکم و دور عضله دوسر می خواهیم > چربی بدن را پیشگویی کنیم. برای انجام این کار، دادههای 252 مرد را جمعآوری کردیم (40 داده اول در زیر نشان داده شده است). ابتدا رگرسیون خطی مدل > چربی بدن / شکم، سپس رگرسیون دروغی مدل چربی بدن / دو سر و > سپس رگرسیون چندگانه چربی بدن مدل / (شکم + عضله دوسر) را انجام دهید. > نتایج را مقایسه و تفسیر کنید! در زیر بخشی از داده ها آورده شده است تا تصور کنید که داده ها چگونه هستند. با R دو رگرسیون خطی ساده و یک رگرسیون چندگانه را انجام دادم و آن را ترسیم کردم (به زیر مراجعه کنید). **مدل 1** _(چربی بدن/شکم)_ برای مدل خطی من دو ضریب تخمینی $$ \hat{\theta}_1\approx-35.197,~~~\hat{\theta}_2\approx0 را دریافت کردم. 585. $$ با این کار من خطی را به داده هایی که در تصویر اول می بینید رسم کردم. **مدل 2** _(چربی بدن/ عضله دوسر)_ در اینجا، من دو ضریب تخمینی $$ \hat{\theta}_1\approx-21.882،~~~\hat{\theta}_2\approx1.265 را دریافت کردم. $$ دوباره خط را رسم کردم (تصویر دوم زیر). **مدل 3** _(چربی بدن/ (شکم + عضله دوسر)_ اینجا باید سه ضریب تعیین می شد، من $$ \hat{\theta}_1\approx -30.684،~~~\hat{\theta گرفتم }_2\تقریبا 0.645،~~~\hat{\theta}_3\حدود -0.311. $$ اکنون وظیفه مقایسه و تفسیر است. اما صادقانه بگویم، من برای خواندن چیزی در این ... یا تفسیر چیزی مشکل دارم. شاید بتوانید در مقایسه و تفسیر به من کمک کنید؟ از این همه چه می توان دید؟ * * *   **ویرایش ** ارزش $R^2$ مدل اول $R^2=0.6621$ است. $R^2$-value مدل دوم $R^2=0.2431$ است. $R^2$-value مدل سوم $R^2=0.6699$ است. بنابراین بین شکم و چربی بدن یک ارتباط خطی نسبتاً خوبی وجود دارد، اما ارتباط خطی بین عضلات دوسر بازو و چربی بدن نسبتاً کوچک به نظر می رسد. شکم و بیسئوس را کنار هم قرار دهید، ارتباط خطی بهتری وجود دارد که به نظر واضح است، زیرا چربی بدن به عوامل بسیار زیادی بستگی دارد (مانند غذا، حرکت، ژن، ...) و هر چه عوامل بیشتری را در نظر بگیرید، بهتر است. اتصال است. | چربی بدن، شکم و عضله دوسر: چگونه این داده ها را تفسیر کنیم؟ |
43830 | من یک تابع تشخیص خطی با 250 متغیر ورودی بیش از 4000 رکورد داده را تخمین می زنم. آیا باید انتخاب ویژگی را در نظر بگیرم، آیا بیش از حد مناسب مدل هستم؟ چگونه بفهمم که چه زمانی باید انتخاب ویژگی در نظر گرفته شود؟ من از یک مدل تحلیل متمایز برنامهنویسی خطی استفاده میکنم که توسط Stam و Ragsdale پیشنهاد شده است | برازش بیش از حد یک تابع تشخیص خطی خطی |
38547 | من یک مدل Y= X+e دارم و به چگالی X نیاز دارم. بسته deamer چگالی X را جدا می کند، اما اگر از قانون سیمپسون برای ادغام این چگالی استفاده کنم، مقادیر بالای 1 را دریافت می کنم. مثال زیر به من می دهد. چگالی که انتگرال آن 1.173454 است: کتابخانه (deamer) # کتابخانه deconvolution (بولستاد) # قانون سیمپسون # The Yهایی که دارم inv-Weibull توزیع می شوند و خطاها inv-normal توزیع می شوند. # از آنجایی که دکانولوشن آن ها زمان زیادی می برد، من از runif در مثال خود # برای ساده کردن مشکل استفاده کردم. خطوط بدون کامنت زیر همان چیزی است که من دوست دارم از هم جدا کنم: #library(actuar) # for rinvweibull #y <- rinvweibull(30000, shape=5.53861156, scale=488)/1000 #y <- y[y<1.5] #e < - 1/rnorm(30000، mean=0.0023853421، sd=0.0004784688)/1000 #e <- e[e<1.5] #decon <- deamerSE(y، error=e، from=-0.1، to=0.3) y <- runif(1000، min = 0.8، حداکثر = 1.2) e <- runif(1000، حداقل = 0.1, max=0.5) decon <- deamerSE(y, error=e, from=0.4, to=1) plot(decon) # خط زیر انتگرال چگالی (با قانون سیمپسون) را به من می دهد. انتگرال (decon$supp, decon $f)$value من مطمئن نیستم که آیا این فقط یک خطای تخمینی است یا اینکه باید مقیاس چگالی را کاهش دهم تا چگالی یکپارچه 1 است: # کاهش مقیاس yValsScaled <- decon$f/area plot(decon$supp, yValsScaled, type=l) (areaScaled <- sintegral(decon$supp, yValsScaled)$value) نظر شما چیست؟ btw: اگر از یک بازه بزرگتر با آرگومان های _from_ و _to_ در تابع _deamerSE_ استفاده کنید، چگالی یکپارچه حتی بیشتر خواهد شد (به دلیل تناوب چگالی). معمولاً فکر میکردم که با deamerSE چگالی به دست میآورم که انتگرال (از -inf تا inf) تقریباً 1 است. بنابراین فکر میکردم که ادغام چگالی با استفاده از فاصله کوچکتر (مثلاً با _from=0.4_ و _to=1_ در تابع deamerSE ) باید چگالی به من بدهد که انتگرال آن کمتر از 1 باشد. اما همانطور که می بینید اینطور نیست. بنابراین من نسبتاً گیج هستم. | آیا خروجی دکانولوشن دیمر چگالی نیست؟ |
101187 | من می دانم که قبلاً در این مورد بحث شده است، اما آن بحث ها واقعاً به سؤالات من پاسخ نداد. من میدانم تست ADF چگونه کار میکند، اما در تفسیر خروجی سه گزینه با استفاده از تابع «ur.df» در R (بسته: «urca») مشکل دارم. آیا کسی می تواند مرا از طریق تفاسیر راهنمایی کند؟ به طور خاص تر، «tau1»، «tau2»، «phi1»، «phi2» و «phi3» چیست؟ summary(ur.df(tcm.ts, type=none,selectlags=BIC)) summary(ur.df(tcm.ts, type=drift,selectlags=BIC)) summary(ur. df(tcm.ts، type=trend,selectlags=BIC)) > summary(ur.df(tcm.ts, type=none,selectlags=BIC)) ############################################## # دیکی افزوده -تست ریشه واحد تست کاملتر #################################################################### #### تست رگرسیون هیچ تماسی: lm(فرمول = z.diff ~ z.lag.1 - 1 + z.diff.lag) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -95.199 -23.380 -6.608 26.885 86.560 ضرایب: برآورد ضرایب. خطای t مقدار Pr(>|t|) z.lag.1 0.04398 0.01205 3.650 0.00183 ** z.diff.lag -0.03722 0.24417 -0.152 0.88053 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 45 در 18 درجه آزادی چندگانه R-squared: 0.7091، تنظیم شده R-squared: 0.6768 F- آمار: 21.94 در 2 و 18 DF، p-value: 1.492e-05 مقدار test-statistic: 3.6495 مقادیر بحرانی برای آمار تست: 1pct 5pct 10pct tau1 -2.66 -1.95 -1.6 > summary(ur.df(tcm.ts, type=drift,selectlags BIC)) ############################################## # دیکی افزوده -تست ریشه واحد تست کاملتر #################################################################### #### تست رگرسیون drift Call: lm(فرمول = z.diff ~ z.lag.1 + 1 + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -69.366 -24.625 -3.018 34.165 82.227 ضرایب: برآورد ضرایب. خطای t مقدار Pr(>|t|) (فاصله) -75.21181 45.89715 -1.639 0.1196 z.lag.1 0.09756 0.03467 2.814 0.0119 * z.diff.lag 0.205 -0.69 -0.203 0.4343 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 43.03 در 17 درجه آزادی چندگانه R-squared: 0.3596، R-squared تنظیم شده: 0.283 آمار: 4.773 در 2 و 17 مقدار P type=trend,selectlags=BIC)) ###################################################### ########## # تست ریشه واحد تست دیکی-فولر تقویت شده # ############################################# روند رگرسیون آزمون تماس: lm(فرمول = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -86.46 -14.84 5.56 20.87 70.29 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 91.4039 92.1407 0.992 0.3360 z.lag.1 -0.1127 0.1082 -1.042 0.3129 tt 13.0810 6.40318 6.40318. z.diff.lag -0.1287 0.2369 -0.543 0.5946 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 39.54 در 16 درجه آزادی چندگانه R-squared: 0.4911، R-squared تنظیم شده: 0.3957 آمار: 5.148 در 3 و 16 DF، p-value: 0.01109 مقدار آزمون آماری است: -1.042 8.1902 6.7579 مقادیر بحرانی برای آمار آزمون: 1pct 5pct 10pct tau3 -4.38 -3.60 -3.24 phi2 8.231 5.671 5.671 5.91 | تفسیر دیکی-فولر تقویت شده در R |
72511 | من واقعا می توانم از برخی کمک های هدایت شده استفاده کنم! من در درک پیاده سازی MCMC از نظر مدل سازی یک مجموعه داده با مشکل مواجه هستم. من روی ایجاد پارامترها از منحنیهای نور ستارهای کار میکنم، و از من خواسته شد تا به پیادهسازی الگوریتم MCMC بپردازم. یک چاک بزرگ روی کد در پایتون نوشته شده است، بنابراین من سعی کرده ام از چکش emcee برای ایجاد تناسب پارامترها استفاده کنم. اما با مرور کد، نحوه کار روش کلیک نمی شود. من مجموعه ای از داده ها (زمان در مقابل شار) از دو ستاره دارم که به دور یکدیگر می چرخند به طوری که از دید ما، آنها را گرفت. شیب هایی در منحنی نور وجود دارد که این امر را نشان می دهد. تمام تلاش من این است که پارامترهای سیستم را به ویژگی های این شیب ها بستگی داشته باشد. در پیاده سازی emcee، چند تابع وجود دارد که من آنها را درک می کنم: تابع خلفی که، به اعتقاد من، به سادگی یک مجموعه داده با توجه به مجموعه پارامترها تولید می کند. سپس یک تابع قبلی وجود دارد که، من فرض میکنم، تابعی است که مجموعهای از پارامترهای قبلی داده شده است. به نوعی الگوریتم انتخاب می کند که آیا پرش به مجموعه پارامترهای عقبی انجام شود یا خیر؟ من حدس می زنم که استفاده از تابع درستنمایی این است؟ برای توضیح اینکه آیا باید پرش کرد یا نه؟ من عذرخواهی می کنم، من در مورد نحوه اجرای این مورد در مجموعه ای از داده های تعریف شده کاملاً گیج هستم. | مشکل در اجرای MCMC |
24449 | اخیراً من یک داده طولی جهانی از چندین کشور دریافت کردم، و هر شهرستان دارای یک متغیر نتیجه و دو پیش بینی کننده از سال 1995 تا 2008 است. من متوجه شدم که یکی از پیش بینی کننده ها همیشه در هر کشور در سال های 1995، 1997، 1999 و 2001 وجود ندارد زیرا آن متغیر است. قبل از سال 2001 هر دو سال یکبار جمعآوری شد تجزیه و تحلیل موردی کامل است زیرا اطلاعات مفید زیادی در آن چهار سال از دست می رود. همچنین، بدیهی است که بر برازش عملکرد هموارسازی زمان تأثیر میگذارد. من خیلی متعجبم که آیا این وضعیت برای استفاده از روش انتساب چندگانه برای تولید داده مناسب است یا خیر. همانطور که میدانم، این مورد یک مکانیسم تصادفی نیست، بنابراین انتساب چندگانه ممکن است راه مناسبی برای رسیدگی به پرونده من نباشد. من در اینجا به دنبال مشاوره ای هستم تا راه حلی برای مقابله با آن داده های از دست رفته پیدا کنم. هر گونه پیشنهاد قدردانی می شود. | چگونه می توان داده ها را بدون از دست دادن به طور تصادفی نسبت داد؟ |
5077 | من سعی میکنم الگوریتم MCMC را اجرا و اجرا کنم، اما در درک نحوه انجام آن با کمی مشکل مواجه هستم. ایده کلی به شرح زیر است: > برای ایجاد یک پرش پیشنهادی در MH، ما: > > * یک جهت $d$ را از یک توزیع روی سطح واحد ایجاد می کنیم > کره $\mathcal{O}$ > * یک جهت ایجاد می کنیم. فاصله امضا شده $\lambda$ در امتداد فضای محدود. > با این حال، من نمی دانم که چگونه باید این را در R (یا هر زبان دیگری) پیاده سازی کنم. آیا کسی قطعه کدی دارد که من را در مسیر درست راهنمایی کند؟ BTW، من به کتابخانه ای که این روش را انجام می دهد علاقه چندانی ندارم، می خواهم خودم آن را کدنویسی کنم. با تشکر فراوان. | MCMC را بزنید و اجرا کنید |
32727 | من یک رگرسیون ساده با یک متغیر پاسخ پیوسته و یک متغیر توضیحی طبقه بندی (با 2 سطح) اجرا کردم. من در حال حاضر بررسی می کنم که آیا مدل با مفروضات رگرسیون مطابقت دارد. من طرح زیر را ایجاد کردم:  من می دانم که باید بررسی کنم که باقیمانده ها به طور معمول توزیع شده اند. آیا باید توزیع باقیمانده ها را در هر یک از 2 سطح متغیر توضیحی بررسی کنم؟ یا باید توزیع همه باقیمانده ها را به طور همزمان بررسی کنم؟ | نرمال بودن باقیمانده ها در یک مدل رگرسیون با IV مقوله ای |
97440 | سلام، من به دنبال یک رابط مبتنی بر وب پیچیده از R بودم که بتوان از آن برای چند برنامه تحلیلی استفاده کرد؟ هر پیشنهادی لطفا..rweb بسیار ساده است | پیشنهاد رابط وب R |
38548 | من با گزارش آزمایشگاهم مشکل دارم. من یک پرسشنامه دارم که شامل پاسخ های لیکرت (1-7) و همچنین سؤالاتی است که فقط به پاسخ بله یا خیر نیاز دارند. میخواهم ببینم آیا بین نمرات بالاتر در مقیاس لیکرت و پاسخهای به پاسخهای دودویی به سؤالات دیگر همبستگی وجود دارد یا خیر. به طور خاص - پاسخ لیکرت در مورد سطوح اضطراب است. پاسخ دودویی (بله/خیر) در مورد پیامدهای منفی ناشی از مصرف الکل است. من می خواهم فقط یک مورد لیکرت ترتیبی را با تمام پاسخ های پیامد منفی اجرا کنم تا ببینم آیا رابطه ای وجود دارد یا خیر. کسی میتونه کمکم کنه؟ * * * خیلی ممنون از نظرات سریع. قطعاً به من اطمینان می دهد که می توان از اسپیرمن Rho استفاده کرد، اما مشکل اصلی من این واقعیت است که من متغیرهای باینری و ترتیبی را با هم در یک ماتریس همبستگی مخلوط می کنم. من یک متغیر ترتیبی دارم (اضطراب - 1-7 در مقیاس لیکرت) که با 13 دوگانگی (0 یا 1 نشان دهنده بله یا خیر) به پاسخ ها (آیا تا به حال به دلیل مصرف الکل خود در بیمارستان بستری شده اید؟) تلاقی داده شده است. پاسخ های آماری معنی داری دریافت می کنم. (<0.05 و <.01، اما ضرایب همبستگی در بهترین حالت ناچیز است (یعنی o.2). بستری شدن در بیمارستان DV و سطح اضطراب IV من فقط فکر می کنم که من در اینجا کار اشتباهی انجام می دهم من مدام فکر می کنم که فقط می خواند که چیزی در آن کادر (ترتیبی) وجود دارد، اما مقدار آن را تشخیص نمی دهد (یعنی 1-7). واقعیت این تفاوت را بشناسید و آن را حساب کنید. | چگونه همبستگی بین داده های ترتیبی و باینری را در SPSS برآورد می کنید؟ |
43836 | فرض کنید من تعدادی متغیر دارم. هر کدام به عنوان گاوسی یا تصادفی یکنواخت با پارامترهای شناخته شده شناخته می شوند و با احتمال مشخصی رخ می دهند. من همچنین جدولی از همبستگی ها (یا کوواریانس ها اگر آسان تر است) برای هر یک دارم. اگر این پارامترها از هر نوع توزیعی بیایند عالی است، اما اگر نه، یکنواخت و گاوسی برای علایق من خوب است. بنابراین، یک مورد مشکل معمولی A گاوسی با میانگین a1 و واریانس a2 خواهد بود. B با حداکثر b1 و حداقل b2 یکنواخت است. C گاوسی با میانگین c1 و واریانس c2 است. سپس من جدولی از همبستگی های A با B، A با C و B با C دارم. چگونه می توانم الگوریتمی بنویسم تا نمونه ای از بردارهای تصادفی (A,B,C) تولید کنم که ویژگی های بالا را برآورده کند. باز هم، بسیار عالی خواهد بود اگر متغیرها بتوانند از هر نوع توزیعی بیایند، اما من حداقل به گاوسی، فقط یکنواخت یا مخلوطی از متغیرهای گاوسی و یکنواخت بسنده می کنم. خوب است که رویکردی داشته باشیم که به راحتی افزایش یابد. من به جای استفاده از بسته های از پیش تعریف شده، می خواهم این را خودم پیاده کنم. بنابراین، من به جزئیات الگوریتمی علاقه مند هستم. | ایجاد جمعیتی از افراد با ویژگی های تصادفی شناخته شده گاوسی و یکنواخت |
5078 | با عرض پوزش برای یک سوال احتمالا نادان. من یک مدل جلوههای ترکیبی را با استفاده از تابع lmer از بسته lme4 برازش دادهام، و اثر ثابت اصلی (فاکتوری با سه سطح) در مدل با توجه به اجرای pvals.fnc (از بسته languageR) معنیدار بود. برای نشان دادن اثر به شیوه ای جذاب، می خواهم سه نوار را با شرایط پایه (قطع شامل سطح اثر 1)، شرایط تجربی 1 (قطع + سطح اثر 2) ترسیم کنم. شرایط تجربی 2 (قطع + اثر سطح 3)، و فواصل اطمینان مربوط به این شرایط. با این حال، چگونه این کار را انجام دهم؟ تابع plotLMER.fnc این کار را انجام میداد، اما برای من کار نمیکند (lme4_0.999375-32؛ languageR_1.0). مدل: mylmer <\- lmer(نتیجه ~ (1|موضوع) + (1|مورد) + فاکتور، داده) بنابراین من خروجی MCMC به شکل: $ ثابت برآورد MCMCmean HPD95 پایین تر HPD95pMCMC Pr(>|t|) دارم. (رهگیری) 0.4728 0.4718 0.2250 0.7368 0.0010 0.0008 Factor2 -0.0420 -0.0420 -0.1732 0.0931 0.5414 0.5710 Factor3 -0.1643 -0.1631 -0.3153 -0.0158 -0.011 ایده من بود شرایط را از این داده ها به سادگی با استفاده از قطع به عنوان شرط پایه، و ساخت شرایط تجربی با افزودن اثر هر سطح عامل به قطع. CI جدید (برق + اثر ترکیبی) با تبدیل بازه HPD به یک انحراف استاندارد ساخته می شود و سپس از جذر مجذور انحرافات استاندارد استفاده می کند (مانند اینجا). آیا این رویکرد مناسب است؟ اگر این کار را انجام دهم، CI ها نسبتاً بزرگ می شوند و اثر دیگر قابل توجه به نظر نمی رسد (در تضاد با خروجی pvals.fnc). آیا راه بهتری وجود دارد (مثال کد عالی خواهد بود)؟ اگر نه، آیا «کمترین بدترین» راه حلی وجود دارد که بتواند خوانندگانی را که به شدت درخواست نمودار نوار استاندارد با CI را دارند، راضی کند؟ مشکلات پشت سرم که خیلی نادان هستم که نمی توانم به درستی آن ها را فرموله کنم: CI برابر با HPD نیست. تبدیل CI به SD نامناسب است، زیرا CI ممکن است نامتقارن باشد. مشکلات تعیین CI اصلاً در مدل های ترکیبی (مانند اینجا). | فواصل اطمینان برای شرایط آزمایش شده با یک مدل اثرات مختلط |
79060 | بهترین راه برای توضیح با 2 متغیر ($Z_1$ و $Z_2$) بسته به متغیرهای یکسان ($X$ و $Y$) و پارامترهای $\theta$ اما با مدلهای متفاوت ($f$ و $) چیست؟ g$)؟ به عنوان مثال: $Z_1 = f(X,Y,\theta) $ و $Z_2 = g(X,Y,\theta)$. من تخمینی از $\hat{X}$، $\hat{Y}$ و $\hat{\theta}$، و دو مدل مکانیکی $f(.)$ و $g(.)$ دارم. من دو رگرسیون را همزمان می خواهم. من از یک تابع GLM، GLMM و «nls()» در «R» استفاده کردم که برای تخمین $\hat{\theta}$ برای $Z_1$ و $Z_2$ یکبار کار میکند. آیا مدل بیزی تنها راه است؟ کجا می توانم جستجو کنم؟ | اتصالات متقاطع با پارامترهای یکسان اما مدل های متفاوت |
85385 | حذف ویژگی بازگشتی (RFE) یک استراتژی انتخاب ویژگی است. در دو سطح تودرتو از اعتبارسنجی متقابل انجام می شود. ابتدا سعی میکند مجموعه آموزشی را به N fold تقسیم کند. RFE یک برابر را برای آزمایش تعمیم کنار می گذارد و سپس خود را با داده های باقی مانده آموزش می دهد. در مورد من فقط دو کلاس دارم و می خواهم RFE انجام دهم. مشکل اینجاست که از آنجایی که فقط دو کلاس وجود دارد، الگوریتم نمی تواند یکی را کنار بگذارد و سپس خود را با چین های باقیمانده تمرین کند (فقط یک فولد باقی می ماند و آموزش در کلاس تک معقول نیست.) بسیار سپاسگزار خواهم بود اگر شما می توانید به من بگویید که چه کاری می توانم در اینجا انجام دهم. | حذف ویژگی بازگشتی تنها با دو کلاس |
43834 | **سوال** یک محقق $n$ دانشجوی کالج را مورد نظرسنجی قرار می دهد و شمارش تعداد حامیان، مخالفت و عدم تصمیم گیری در مورد سیاست فدرال اخیراً معرفی شده را شمارش می کند. اجازه دهید $X_1, X_2, X_3$ این تعداد را نشان دهند، او $X = (X_1, X_2, X_3)$ را به عنوان $X \sim \mathsf{چندجملهای}(n,p)$ مدل میکند. من میخواهم MLE محدود $\mathbf p = (p_1, p_2, p_3)$ را برای یک فرضیه صفر پیدا کنم که نسبتهای واقعی حامیان و مخالفان در کل دانشکده برابر است. فرمول ریاضی من از این null این بود که این MLE بردار $\bf p$ خواهد بود که تابع احتمال را بیش از $\Delta_3^0 \subsetneq \Delta_3$ که $\Delta_3$ سیمپلکس 3 بعدی همه بردارهای احتمال است را به حداکثر میرساند. یعنی بردارهایی که به صورت مولفه 1 جمع می شوند. سپس $\Delta_3^0$ شامل تمام $p$ به شکل $\mathbf p = (a, a, 1 - 2a), a\in(0,1)$ باشد. _توجه_ متوجه شدم که این یک سوال ساده برای چنین انتزاعات ریاضی است، من به سادگی سعی کرده ام از نماد معلمم پیروی کنم. **کار من** وقتی به این موضوع پرداختم و سعی کردم تابع درستنمایی را بنویسم، $L_{x, H_0} = \text{const دریافت کردم. }\times a^{x_1}\cdot a^{x_2}\cdot (1 - 2a)^{x_3}$$ که باید در $\hat a = {x_1 + x_2 \over x_1 + x_2 + x_3}$ حداکثر شود . با این حال، هنگامی که من واقعاً برای داده های تعداد $(X_1، X_2، X_3) = (140، 165، 195)$ محاسبه کردم، $a = 0.61$ دریافت کردم، که به من یک احتمال منفی در بردار احتمال من می دهد که باعث نمی شود حس برای هر کمکی متشکرم | تخمین ML نسبت چندجمله ای با محدودیت ها |
5079 | من دادههایی دارم که واحدهای مسکونی برای افراد دارای ناتوانی یادگیری را توصیف میکند، متغیرهایی مانند زیبا بودن وسایل، سطح علائم روانپزشکی در واحد، میزان خوشحالی کارکنان و مواردی از این دست. میخواهم بررسی کنم که آیا ما چیزهای درستی را اندازهگیری میکنیم - مثلاً. آیا واحدهایی که کارکنان شادتر دارند، فضای بهتری دارند، آیا واحدهایی با مبلمان زیبا کارکنان شادی دارند، چنین چیزهایی. مشکل این است که من فقط برای 8 واحد داده دارم (میانگین در هر واحد، به عنوان مثال 10 پرسنل در مورد میزان خوشحالی خود پاسخ می دهند، این میانگین برای واحد است) بنابراین نمی توانم واقعاً از رگرسیون خطی استفاده کنم تا ببینم آیا این موارد که اندازه گیری کرده ایم روی هم تاثیر می گذارند. من برای همه داده ها چند نمودار پراکنده ترسیم کرده ام و در کل می توانم بگویم که به نظر می رسد یک رابطه خطی به روشی که من انتظار دارم وجود دارد. اما همانطور که می گویم با 8 واحد واقعاً هیچ آماری تولید نمی شود. من این ایده روشن را داشتم که هر واحد را در بین همه متغیرها مرتب کنم و سپس ترتیب رتبه ها را به نحوی با هم مقایسه کنم. اگر چیزهای درستی را اندازه گیری می کنیم، رتبه ها باید مشابه باشند، مانند این: واحد 1 (رتبه در همه متغیرها): 1،1،1،1،1،1،1،1،1 واحد 2: 2،2، 2،2،2،2،2،2،2 و غیره، در حالی که اگر اشتباه می کنم، و متغیرها برای یکدیگر مهم نیستند، این را دریافت خواهم کرد: واحد 1: 1،2،3،4،5،6،7،8 واحد 2: 8،7،6،5،4،3،2،1 واحد 3: 4،5،6،7،8،1،2، 3 و غیره. این چیزی است که من دریافت می کنم: Unit1 7 5 5.0 5 3 4 5 3 Unit2 6 2 4.0 6 5 3 2 5 Unit3 3 7 7.5 1 4 1 1 1 Unit4 4 4 3.0 7 6 7 7 8 Unit5 5 3 1.0 4 2 5 6 7 Unit6 2 6 6.0 8 8 8 8 6 Unit7 1 8 7.5 3 4 2 2 بجز ستون اول خیلی خوب به نظر می رسد. نظری در این مورد دارید؟ آیا آمار مناسبی است که من در مورد آن نشنیده ام؟ یا آیا کاری وجود دارد که بتوانم با این نتایج به طور منطقی قوی انجام دهم؟ با عرض پوزش برای طولانی شدن سوال، پیشاپیش بسیار متشکرم! | ترتیب رتبه بندی اعضای جمعیت را در بین متغیرهای مختلف مقایسه کنید |
15044 | ابتدا چند مقدمه: بگذارید A مجموعهای از عناصر نامرتب باشد و A' و A'' زیرمجموعههای A باشند، که در آن |A'| = |A''| = k با توجه به اینکه با نزدیک شدن k به |A|، به ازای هر x در A' احتمال یافتن x در A' افزایش می یابد. یعنی با نزدیک شدن k به |A|, |A' ∩ A''| رویکردهای |A|. در مورد موضوع مورد بحث: فرض کنید دو نمودار متفاوت G1 و G2 داریم که هر کدام دارای n رأس با برچسب 1 تا n و هر کدام دارای مجموعه ای از یال های غیر تصادفی هستند.* فرض کنید B مجموعه ای از رئوس G1 باشد. C مجموعه رئوس G2 باشد. ترتیب B و C بر اساس درجه راس. فرض کنید B' و C' به ترتیب زیرمجموعه های B و C باشند، جایی که |B'| = |C'| = k، و در جایی که عناصر زیرمجموعه از ابرمجموعه های مربوطه خود از چپ به راست گرفته می شوند (نمونه زیر را ببینید)، به طوری که با نزدیک شدن k به n، B' و C' تمایل دارند که شامل رئوس با درجه کمتر و کمتر شوند. در اینجا یک مثال کلی از فرآیند انتخاب زیر مجموعه آمده است: B = {1،4،2،5،3} C = {4،2،3،1،5} k = 1 -> B' = {1}، C' = {4} k = 2 -> B' = {1،4}، C' = {4،2} k = 3 -> B' = {1،4،2}، C' = {4،2، 3} k = 4 -> B' = {1،4،2،5}، C' = {4،2،3،1} k = n -> B' = {1،4،2،5،3}، C' = {4،2، 3،1،5} اگر بخواهم k در مقابل |B' ∩ C'| رسم کنم، شکل منحنی هم به اثر افزایش k، همانطور که در مقدمه من توضیح داده شد، قابل انتساب خواهد بود، بلکه همچنین، و به ویژه، به اثر از سفارش دادن در این مورد، ترتیب بر اساس درجه. چگونه می توانم اهمیت این سفارش را تعیین کنم؟ *منظورم از یال های غیر تصادفی این است که اتصال نمودارهای مربوطه توسط عامل دیگری تعیین می شود. در مورد دنیای واقعی من، این نمودارها نشان دهنده اتصال مغز در فواصل زمانی مختلف است. گره های متصل نشان دهنده فعالیت بسیار مرتبط بین نورون ها هستند. | تعیین اهمیت یک سفارش مجموعه |
5070 | اگر یک سکه بارگذاری شده داشته باشیم که 75% سر، 25% دم بازی می کند، بهترین راه برای شرط بندی بر روی نتیجه هر یک از آزمایشات $n$ چیست؟ چگونه می توانیم احتمال برنده شدن خود را به حداکثر برسانیم؟ آیا می توان برای سکه ای که $n:(100-n)$ بارگذاری شده است تعمیم داد؟ | به حداکثر رساندن احتمال برنده شدن در سکه بارگذاری شده |
66021 | فرض کنید من برخی از دادههای مورد-شاهدی کمی را جمعآوری میکنم. اولین چیزی که به ذهن من می رسد استفاده از آزمون t است تا ببینم آیا این دو گروه با هم تفاوت دارند یا خیر. فرض کنید دادههای بیشتری جمعآوری شده است، اما فقط کمی متفاوت است (آزمایشی متفاوت آن را جمعآوری کرد، یا ماشینی که دادهها را جمعآوری میکند دارای تغییراتی یا هر چیز دیگری است). گزینه های من برای تجزیه و تحلیل این داده ها چیست؟ اولین چیزی که به ذهن من خطور می کند رگرسیون یا ANOVA است (با استفاده از متغیرهای نشانگر) همانطور که در نظر زیر اشاره می شود: $E[Y] = \beta_0 + \beta_1*CASE + \beta_2*BATCH$ که در آن $BATCH$ نشان دهنده کدام است دسته ای داده ها جمع آوری شد (یا کدام آزمایشگر، یا ماشین و غیره). آیا راه های بهتری برای انجام این تحلیل وجود دارد؟ می دانم که این یک سؤال کاملاً باز است، اما فقط می خواستم ببینم چه چیز دیگری در دسترس است. | نحوه تجزیه و تحلیل داده های جمع آوری شده به روش های مختلف |
109612 | برای یک مجموعه نمونه داده شده $S$ با $N$ نمونه های جداگانه $x_i$، من به راحتی می توانم فاصله متوسط از حداکثر را با انجام کاری شبیه به این بیابم: $\sigma_{max_N}:=\sqrt{\frac{1} {N}\sum\limits_{i=1}^N {\left(x_i - \max{\left(S\right)}\right)}^2}$ تلاش برای انجام این کار برای اندازه های نمونه بزرگتر و بزرگتر، من (غیرقابل تعجب) در نهایت با مقادیر حدی متفاوت با توزیع های مختلف مواجه می شوم. به عنوان مثال، برای توزیع یکنواخت در یک بازه واحد، مقداری در حدود 0.577 با ارقام بعد از آن به شدت متفاوت است. یک توزیع نرمال با همان میانگین $\left(\frac{1}{2}\right)$ و واریانس $\left(\frac{1}{12}\right)$ چیزی در حدود 1.5 به من می دهد، هرچند که دقیقا ارزش خیلی بیشتر تغییر می کند. برای توزیع نمایی با پارامتر $\lambda=2\sqrt{3}$، من در نهایت به 4.5 می رسم. آیا راهی برای بدست آوردن مقدار مورد انتظار $\sigma_{max_N} \to \sigma_{max}$ برای یک توزیع معین به عنوان اندازه نمونه $N \to \infty$ وجود دارد؟ لزوماً نباید تحلیلی باشد. | یافتن میانگین فاصله مورد انتظار از حداکثر توزیع داده شده |
100251 | من یک مجموعه داده از الگوهای ارتباطی بین عوامل چت دارم. هر نماینده می تواند چندین پروفایل یا هویت داشته باشد. من علاقه مند به ایجاد راهی برای بررسی شباهت بین پروفایل های مختلف هستم. مشکل این است که هیچ نشانگر واقعی وجود ندارد که آیا دو پروفایل متعلق به یک عامل هستند یا خیر. مجموعه ویژگی ها فراوانی پیام ها را در ساعات روز، روزهای هفته، ماه ها و سال ها توصیف می کند. هدف یادگیری ویژگیهای مهمی است که نمایههای مشابهی را نشان میدهد که متعلق به یک نماینده است. رویکرد پیشنهادی: در نظر گرفتن هر آیتم داده به عنوان الگوی ارتباطی یک نماینده در طول یک سال. به این ترتیب، مجموعه داده ها دارای اقلام داده های زیادی است که نشان دهنده الگوهای ارتباطی یک عامل در سال های مختلف است. ما خوشه بندی را با تعدادی خوشه برابر با تعداد عامل ها اعمال می کنیم - نه پروفایل ها. در حالت ایدهآل، اگر الگوریتم خوشهبندی نقاط دادهای را که به یک عامل در یک خوشه تعلق دارند، خوشهبندی کند، مدل ویژگیهایی داریم که میتوانیم از آن برای شناسایی پروفایلهای همان عامل استفاده کنیم. البته این پیشنهاد فرض میکند که عامل در پروفایلهای مختلف الگوی یکسانی داشته باشد، که انتظار نمیرود چنین باشد. اما در میان مجموعه دادههای همه عاملها، این روش ممکن است پیشبینی درستی با سطح مشخصی از دقت ارائه دهد. آیا این رویکرد منطقی به نظر می رسد؟ آیا راه بهتری برای مقابله با این موضوع وجود دارد؟ متشکرم | خوشهبندی الگوهای ارتباطی برای شناسایی هویتهای چندگانه |
70113 | من یک مجموعه داده با حدود 5000 ستون و حدود 135000 ردیف دریافت کردم - همه فیلدها حاوی داده های بولی (باینری) هستند. من به دنبال طبقه بندی هر یک از این ستون ها در یکی از 50 گروه بر اساس شباهت هستم. آیا کسی می تواند به من در جهت درست راهنمایی کند که از کجا شروع کنم؟ آیا الگوریتم سبک k-mean برای من مناسب است؟ آیا کتابخانه ای در «R» وجود دارد که بتوانم به راحتی به آن دسترسی داشته باشم؟ توجه: داده ها کاملاً نامتقارن هستند زیرا حدود 95٪ مقادیر 0، 5٪ 1 هستند. | مجموعه داده های بولی بزرگ را خوشه کنید |
85381 | هنگام استفاده از فاکتورها در یک مدل خطی، میخواهم اثر «میانگین» را بهعنوان پایه (برق)، به جای سطح 1 همه عوامل بازیابی کنم. آیا این امکان پذیر است؟ برگه <- data.frame(gl(2,5),rnorm(10)+as.numeric(gl(2,5))) colnames(tab) <- c('pred','dat') mylm <- ضرایب lm(dat~pred,data=tab)(mylm) چیزی شبیه (Intercept) pred2 0.5879712 را برمی گرداند ضرایب 1.8542153 به طور متوسط 1 برای هر دو intercept و pred2 است. من ترجیح میدهم intercept = 1.5، pred1 = -0.5 و pred2 = +0.5 را داشته باشم. 1 8 1 1 9 1 1 1 10 1 1 attr(assign) [1] 0 1 attr(contrasts) attr(contrasts)$pred [1] contr.treatment من ماتریسی مانند این را می خواهم (Intercept) pred1 pred2 1 1 1 0 2 1 1 0 3 1 1 0 4 1 1 0 5 1 1 0 6 1 0 1 7 1 0 1 8 1 0 1 9 1 0 1 10 1 0 1 آیا این منطقی است؟ اگر نه، چرا؟ آیا دستوری برای تولید چنین ماتریس طراحی وجود دارد؟ من به دنبال راهی برای انجام این کار بدون موفقیت بودم ... | از یک خط مبنا شامل همه مشاهدات در lm() استفاده کنید |
85654 | ما پنج لیتر موش داریم که هر کدام شامل چهار موش است. پنج بستر به طور تصادفی از بین جمعیت بستر انتخاب شدند. محققان علاقه مند به مقایسه محتوای جیوه ماهی های هضم شده توسط موش ها و همچنین عملکرد کلی تکنیک های اندازه گیری در شناسایی حجم جیوه هستند. در هر یک از پنج بستر، به چهار موش یک گونه ماهی اختصاص داده شد (4 نوع ماهی وجود دارد). بنابراین، چه موش در هر گونه، به طور تصادفی اختصاص داده شده است. پس از یک ماه، یک انتخاب تصادفی از کلیه موش (به طور تصادفی چپ یا راست) انتخاب شد و کلیه به سه بخش تقسیم شد. هر بخش محتوای جیوه را با استفاده از یکی از 3 تکنیک اندازه گیری اندازه گیری کرد. تکنیک مورد استفاده به صورت تصادفی به ea اختصاص داده شد. 1/3 کلیه. برداشت من: من معتقدم که این یک طرح بلوک کامل با طرح تقسیم است. Block: Litter سوال من در اینجا، اگر ما به طور تصادفی بسترها را از یک جمعیت انتخاب کنیم... آیا واقعاً یک بلوک است یا یک CRD؟ من فقط فکر می کنم که CRD است اگر یک درمان در این مرحله اعمال شود.. اما اینطور نیست. درمان در سطح واحد آزمایشی بعدی روی موشها اعمال میشود. موش صحرایی: واحد آزمایشی برای گونههای ماهی (تمام پلات اتحادیه اروپا) کلیه: فاکتور تصادفی (2 سطح) 1/3 کلیه: واحد آزمایشی برای تکنیک اندازهگیری (تقسیم-نقطه اتحادیه اروپا) بنابراین، بستر = بلوک، موش صحرایی = اتحادیه اروپا برای ماهی (موش) همچنین یک عامل تودرتو در داخل بستر است، کلیه یک عامل تصادفی موش است (نه تودرتو، به سادگی چپ یا راست)، و 1/3 از کلیه = EU برای اندازه گیری (Split-Plot) و همچنین عاملی با 3 سطح ثابت است، [B] نه [/B] تو در تو در کلیه (به سادگی 1، 2 یا 3 قطعه). افکار؟ | طراحی آزمایش - بلوک تصادفی یا کاملا تصادفی |
38542 | من آمار خیلی کمی می دانم، پس اگر سوال بدی مطرح شده است، مرا ببخشید. فرض کنید من $n$ نمونه $x_1,\dotsc,x_n$ دارم که از توزیع $f$ گرفته شده است (مثلاً $n\تقریباً 100$). $1\leq k \leq n$ را برطرف کنید (در عمل $k \ll n$، مثلاً $k\حدود 5$). مجموعه $$ X = \\{\lVert (x_{i_1}, x_{i_2}, \dotsc, x_{i_k}) را در نظر بگیرید \rVert \quad \vert \quad 1\leq i_j \leq n \text{ ( متمایز)}\\}، $$ که $\lVert \cdot\rVert$ مقداری $L^p$-norm است. آیا می توانم در مورد توزیع اعضای $X$ چیزی بگویم (البته از نظر $n$، $k$، $f$ و $p$)؟ | توزیع هنجارهای بردارهایی که اجزای آنها توزیع مشخصی دارند؟ |
84029 | من داده هایی را در شبکه ای از مقادیر $f(x,y)$ جمع آوری کرده ام. من این فرضیه را دارم که دادهها «بهطور افزودنی قابل تفکیک» هستند، یعنی $$ f(x,y) = h_1(x) + h_2(y) + g(x,y) $$ که در آن $g(x,y)$ کوچک است و فقط نویز را در اندازه گیری های من نشان می دهد. آیا راهی برای تست این موضوع وجود دارد؟ اگر وضوح نمونهگیری نامتناهی داشتم، میتوانستم $$ \frac{\partial^2 f(x,y) }{\partial{x}\partial{y}} = \frac{\partial^2 h_1(x)} را اندازهگیری کنم. {\partial{x}\partial{y}} + \frac{\partial^2 h_2(y) }{\partial{x}\partial{y}} + \frac{\partial^2 g(x,y) }{\partial{x}\partial{y}} = g_{xy}(x,y) $$ سپس میتوانم مقدار آستانه $\epsilon را آزمایش کنم $, $|g_{xy}(x,y)| > \epsilon$. با این حال، داده های من واقعی است، با نویز و نمونه های محدود. از چه آزمون آماری می توانم برای بررسی تفکیک پذیری افزودنی استفاده کنم؟ | تعیین اینکه آیا یک تابع افزودنی است یا خیر |
5387 | در مدل لاجیت، آیا روش هوشمندتری برای تعیین اثر یک متغیر ترتیبی مستقل از استفاده از متغیرهای ساختگی برای هر سطح وجود دارد؟ | لاجیت با متغیرهای مستقل ترتیبی |
38541 | من از توابع این پیوند برای ایجاد منحنی ROC برای مدل رگرسیون لجستیک استفاده کردم. از آنجایی که شی تولید شده توسط `glmer` در بسته `lme4` یک شی S4 است (تا آنجا که من می دانم) و تابع از پیوند نمی تواند آن را مدیریت کند. من نمی دانم که آیا عملکردهای مشابهی برای ایجاد منحنی ROC برای مدل رگرسیون لجستیک چند سطحی در R وجود دارد. | ایجاد منحنی ROC برای مدل رگرسیون لجستیک چند سطحی در R |
70117 | امیدوارم سوال من برای این جامعه خیلی اساسی نباشد. من نمی توانم بفهمم که چگونه خروجی مدل مختلط خطی خود را تفسیر کنم، به خصوص اثرات متقابل. من تجزیه و تحلیل خود را در R با استفاده از lme از بسته nlme انجام می دهم. مدل من شامل 3 IV فاکتوریل (exp.type [2 سطح - میدان در مقابل آزمایشگاه]، org.type [3 سطح - اتوتروف، هتروتروف، مختلط]، سیستم [2 سطح - دریا در مقابل آب شیرین]) و 2 IV عددی است. (حتی، مدت). > lme1 = lme(reist ~ even + exp.type + even:exp.type + org.type + > even:org.type + system + duration, random =~1|نویسندگان.سال، داده = داده) ![خروجی از مدل خطی] (http://i.stack.imgur.com/ZhcZK.jpg) سوال من این است: چگونه اثرات متقابل را تفسیر کنم؟ چگونه می توانم شیب رگرسیون های خطی را برای هر سطح از IV هایی که برهمکنش های قابل توجهی دارند بدست بیاورم؟ | تفسیر اثرات متقابل در مدل های مختلط خطی با IV های عددی و فاکتوریل |
85652 | **بیان مسئله** مجموعه ای از نکات داده شده است. میخواهیم آن نقاط را در دو کلاس مجزا با برچسبهای $\\{0,1\\}$ طبقهبندی کنیم. ما تعدادهای طبقه بندی کننده را بر اساس کلاس $1 می شماریم. فرض کنید چند طبقهبندی کننده با ویژگیهای زیر در دست داریم * برای برخی طبقهبندیکنندهها، تصمیم طبقهبندی به آستانههایی بستگی دارد که ممکن است آنها را تغییر دهیم و منحنی Precision/Recall یا RoC را رسم کنیم. برای برخی دیگر، تصمیم به هیچ آستانهای بستگی ندارد. بلکه در یک تست دارایی. یعنی بررسی می کنیم که آیا نقطه $x_i$ خاصیت خاصی دارد یا خیر و بر اساس آن طبقه بندی می کنیم. برای اهداف تصویری، میتوان چنین آزمایشی را تصور کرد که مثلاً x_i$$ فرد است یا خیر، و همه نقاط داده فرد را در یک کلاس طبقهبندی کرد. طبقه بندی اشتباه Label-$0$ امتیاز به عنوان Label-$1$ امتیاز (خطاهایی که بر دقت تأثیر می گذارد)، نسبت به طبقه بندی اشتباه Label-$1$ امتیاز به عنوان Label-$0$ امتیاز (خطاهایی که بر فراخوانی تأثیر می گذارد). به بیان ساده، میخواهیم مجموعه $1$ طبقهبندیشده حاوی چند نقطه پرت باشد (Label-$0$ امتیاز) و میتوانیم تا حدی اندازه مجموعه $1$ بازیابی شده را قربانی کنیم. **سوال** از کدام معیارها می توانم برای ارزیابی عملکرد هر طبقه بندی کننده استفاده کنم و طبقه بندی کننده $c_i$ یا جفت طبقه بندی/آستانه $(c_i,T_i)$ را انتخاب کنم که به بهترین نحو مشکل را حل می کند. فرض کنید یک مجموعه داده با برچسب های شناخته شده داریم که طبقه بندی کننده ها را بر روی آن ارزیابی می کنیم. | ارزیابی طبقهبندیکننده باینری زمانی که دقت مهمتر از یادآوری است |
95172 | من تعجب می کنم که چگونه برنامه های آماری تصمیم می گیرند فاصله اطمینان را تغییر دهند؟ (منظورم فواصل اطمینان برای میانگین یا برای تفاوت میانگین است). چگونه آنها در مورد میزان این (بدون هیچ گونه چکمه) تصمیم می گیرند؟ من می دانم که آنها این کار را بر اساس چولگی توزیع نمونه انجام می دهند (در تست های دو دنباله)، اما از هرگونه جزئیات در مورد آن قدردانی می کنم. | چگونه می توان چولگی فاصله اطمینان نامتقارن حول میانگین یا اختلاف میانگین را تعیین و محاسبه کرد؟ |
44204 | اخیراً با Tableau روبرو شدم و سعی کردم داده ها را از پایگاه داده و فایل csv تجسم کنم. رابط کاربری کاربر را قادر می سازد تا داده های زمانی و مکانی را تجسم کند و در یک لحظه نمودار ایجاد کند. چنین ابزاری واقعاً مفید است زیرا امکان مشاهده داده ها به صورت گرافیکی بدون نوشتن کد را فراهم می کند. از آنجایی که منابع داده زیادی وجود دارد که من باید داده ها را از آنها بازیابی و تجسم کنم، داشتن ابزاری که قادر به تولید نمودارها با کشیدن ستون ها روی محورها و همچنین تغییر تصویرسازی با کشیدن نام ستون ها باشد، بسیار مفید خواهد بود. آیا کسی نرم افزار رایگان یا متن باز از این نوع می شناسد؟ | آیا کسی نرم افزار منبع باز خوب برای تجسم داده ها از پایگاه داده می شناسد؟ |
41523 | من به دنبال راهی برای تطبیق یک مدل ترکیبی لجستیک و/یا پروبیت ترتیبی هستم که شامل شیبهای تصادفی باشد. تنها بستهای برای R که من میتوانم پیدا کنم که در مدلهای مختلط ترتیبی به هیچ وجه به افکتهای تصادفی اجازه میدهد، بستههای **ordinal** و **ordinal2** هستند، اما تنها برازش مدلهای رهگیری تصادفی در حال حاضر در آن بستهها پیادهسازی شده است. | آیا بستههایی برای برازش مدلهای ترکیبی لجستیک / پروبیت ترتیبی با شیبهای تصادفی در R وجود دارد؟ |
33543 | اجازه دهید $Y_1، Y_2،Y_3$ متغیرهای تصادفی نامرتبط با واریانس مشترک $\sigma^2>0$ باشند، به گونهای که $$ \begin{aligned} E[Y_1]&=\beta_1+\beta_2، \\\ E[Y_2] &=2\beta_1 \\\ E[Y_3]&=\beta_1-\beta_2 \end{تراز شده} $$ کجا $\beta_1$ و $\beta_2$ پارامترهای ناشناخته هستند. مجموع باقیمانده (خطا) مربع ها را در مدل خطی بالا بیابید. من به این ترتیب ادامه میدهم: توجه داشته باشید که: $$ \begin{aligned} E[Y_1-\beta_1-\beta_2]&=0، \\\ V[Y_1-\beta_1-\beta_2]&=\sigma^2، \\\ E[Y_2-2\beta_1]&=0، \\\ V[Y_2-2\beta_1]&=\sigma^2، \\\ E[Y_3-\beta_1+\beta_2]&=0، \\\ V[Y_3-\beta_1+\beta_2]&=\sigma^2 \end{aligned} $$ بنابراین مجموع باقیمانده (خطا) مربع های زیر مدل خطی: $$ \sum{e_i^2}=(Y_1-\beta_1-\beta_2)^2+(Y_2-2\beta_1)^2+(Y_3-\beta_1+\beta_2)^2 $$ آیا به روش درستی پیش میروم؟ لطفاً یکی توضیح دهد که منظور از مدل خطی در اینجا چیست؟ | جمع باقیمانده مربع ها را پیدا کنید |
44202 | آیا کسی می تواند به من بگوید که نوع توزیع چگونه با احتمال پوشش تجربی مرتبط است؟ (به نظر می رسد برای برخی از توزیع ها قضیه حد مرکزی راحت تر برآورده شود) | احتمالات پوشش تجربی فواصل اطمینان |
33098 | من در حال حاضر یک مدل رگرسیون چندگانه را با استفاده از داده های ورودی اجرا می کنم و چند سوال دارم. **پس زمینه:** با استفاده از SPSS 18. به نظر می رسد داده های من MAR هستند. حذف فهرستی موارد تنها 92 مورد را برای من باقی می گذارد، انتساب چندگانه 153 مورد را برای تجزیه و تحلیل باقی می گذارد. همه مفروضات برآورده شدند - یک log متغیر تبدیل شد. 9 IV's 5 - 5 طبقه بندی، 3 مقیاس، 1 فاصله. مقیاس DV. با استفاده از روش enter رگرسیون چندگانه استاندارد. * DV من تفاوت نمرات بین معیار نمره پیش و پس از آن است، هر دوی این متغیرها تعدادی از موارد را ندارند - آیا باید مقادیر گمشده را برای هر یک از آنها در نظر بگیرم و سپس تفاوت بین آنها را محاسبه کنم DV (چگونه می توانم این کار را انجام دهم)، یا می توانم فقط داده ها را برای DV خود در نظر بگیرم؟ مناسب ترین رویکرد کدام است؟ * آیا باید بر روی دادههای تبدیلشده یا منحنی دادههای تبدیلنشده اجرا کنم؟ * آیا باید همه متغیرها را حتی اگر دادهای گم نشدهاند، وارد فرآیند انباشتگی کنم یا فقط باید برای متغیرهایی که بیش از 10 درصد موارد را از دست دادهاند، دادهها را وارد کنم؟ من رگرسیون را روی موارد حذف شده به صورت فهرستی و حساب IV خود برای واریانس بسیار کمی در DV خود اجرا کرده ام، متعاقباً رگرسیون را روی یک فایل کامل پس از انتساب چندگانه اجرا کردم - نتایج بسیار مشابه هستند، زیرا 9 IV من هنوز فقط حدود 12 درصد از واریانس را در DV من پیش بینی کنید، با این حال، اکنون یکی از IV's من نشان می دهد که سهم قابل توجهی دارد (این اتفاق برای یک متغیر log تبدیل شده باشد)... * اگر بین نتایج من تفاوت کمی وجود دارد - یعنی IV من dv را ضعیف پیش بینی می کند، باید داده های اصلی را گزارش کنم یا داده های کامل را گزارش کنم؟ | سوالات انتساب چندگانه برای رگرسیون چندگانه در SPSS |
44200 | من کمی احمقانه احساس میکنم، اما روی چیزی که فکر میکردم تحلیل آسانی است گیر کردهام. مدتی است که این نوع داده ها را نداشتم، بنابراین کمی زنگ زده هستم. گوگل را امتحان کردم، اما چون من انگلیسی زبان مادری نیستم، کاملا مطمئن نیستم که از اصطلاحات درست استفاده می کنم. شرکت کنندگان در مطالعه من به 24 سؤال پاسخ دادند که در آن آنها به سادگی مجبور بودند بین گزینه A و گزینه B یکی را انتخاب کنند. سؤالات همه یکسان هستند به این معنا که H0 این است که آنها 50٪/50٪ پاسخ خواهند داد. 12 برابر A و 12 بار B. چگونه تجمیع و تجزیه و تحلیل کنم؟ 1. آیا من داده ها را در درصد A (یا B، برای آن موضوع) برای هر نفر جمع می کنم و سپس یک آزمون t تک نمونه ای را در مقابل 50٪ اجرا می کنم؟ 2. آیا من در تعداد A (دوباره، یا B البته) جمع میکنم و سپس به نحوی یک Chi-square انجام میدهم؟ <\- اینجاست که مبهم می شود! | چگونه سوالات تکراری انتخاب A/B را تجزیه و تحلیل کنیم؟ |
41888 | فرض بر این است که یک پارامتر مورد علاقه از توزیع نمایی با نرخ $\lambda$ پیروی می کند. دو فرضیه قبلی رقیب شکل میگیرند بهطوری که پیشین اول با $\text{Ga}(\alpha, \beta)$ و پیشین دوم با $\text{Ga}(\alpha+1, \beta) داده میشود. $. علاوه بر این، دادهها بر روی پارامتر جمعآوری میشوند به طوری که $x_{1}، x_{2}، \dots، x_{n}$ مشاهدات $n$ از دادههای ثبتشده را نشان میدهند. فردی که مسئول تشکیل این پیشین ها است درجه ای از باور را پیشنهاد می کند که $p(\lambda \sim \text{Ga}(\alpha, \beta)) = 0.75$ و $p(\lambda \sim \text{Ga} (\alpha+1، \beta)) = 0.25$. از موارد فوق: * یک عامل بیز برای دو توزیع قبلی چگونه تشکیل می شود؟ آیا با محاسبه نسبت بین دو توزیع قبلی می توان به این امر دست یافت؟ یعنی $$\text{Bayes} ضریب = \frac{p(x) \sim \text{Ga}(\alpha, \beta)}{p(x) \sim \text{Ga}(\alpha+1, \beta)} = \frac{\frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha-1}e^{-\beta x}}{\frac{\beta^{\alpha+1}}{\Gamma(\alpha+1)}x^{\alpha}e^{-\beta x}}$$ اگر چنین است، با توجه به اینکه وجود دارد مشاهدات چندگانه هستند ($x_{i}$)، چگونه باید هر مشاهده در توزیع درج شود تا یک توزیع ترکیبی ارائه شود (آیا مجموع $p(x) \sim \text{Ga}(\alpha, \beta ) دلار به طوری که $\sum_{i=1}^{n} p(x) \sim \text{Ga}(\alpha، \beta)$)؟ در این صورت ضریب بیز توسط: $$\frac{\sum_{i=1}^{n} p(x_{i}) \sim \text{Ga}(\alpha, \beta)}{\ داده میشود sum_{i=1}^{n} p(x_{i}) \sim \text{Ga}(\alpha+1, \beta)}$$ * چگونه می توان تخمینی از داده های مشاهده شده را با مدل ترکیب کرد احتمالات برای دستیابی به نسبت پسینی از احتمالات مدل؟ آیا با بدست آوردن حاصلضرب توزیع های قبلی و احتمالی می توان به این امر دست یافت؟ $$p(\lambda|{\bf x}) = p(x|\lambda)p(\lambda)$$ اگر چنین است، با فرض اینکه فقط مجموعهای از مشاهدات وجود داشته باشد و هیچ احتمال پیشنهادی وجود نداشته باشد، چگونه میتوان احتمال صحیح را تعیین کرد. مصمم؟ این یک سؤال الگوی کلی تکلیف است، برخلاف یک تمرین خاص، بنابراین پارامتر و مقادیر داده خاصی وجود ندارد. | آزمون فرضیه بیزی و عوامل بیز |
70116 | من $k$ اقشار مستقل دارم، با جمعیت $n_1،\dots،n_k$، و میانگین را در هر طبقه $\bar{x_1}، \dots \bar{x_k}$ برآورد کردهام و خطاهای استاندارد $se_1 را بدست آوردهام. ,\dots,se_k$ (با استفاده از دستور میانگین STATA). من به تخمینگر میانگین وزنی و خطای استاندارد آن علاقهمندم که از وزنهای $w_1،\dots،w_k$ با $\sum_i w_i=W$ استفاده کند. برای محاسبه میانگین وزنی، من به سادگی استفاده میکنم: $$\bar{x}_w=\frac{1}{W}\sum_{i=1}^k w_i \bar{x_i}$$ سپس، میخواهم تخمین بزنم خطای استاندارد میانگین وزنی با استفاده از خطاهای استاندارد (تخمینی) هر لایه، وزن و $n_1،\dots،n_k$. تصور میکنم میتوانم از این واقعیت استفاده کنم که $V(\alpha x + \beta y)=\alpha^2V(x)+\beta^2 V(y)$ و از تخمینگر مورد نظر نسخه پشتیبان تهیه کنم: $$se( \bar{x}_w) = \frac{1}{W}\sqrt{\sum_{i=1}^k w_i^2 se_i^2}$$ درست میگویم؟ من در مورد فرمول های مختلف استفاده شده توسط STATA کمی سردرگم هستم و از کمک شما قدردانی می کنم. | میانگین گیری در بین اقشار مستقل: فاصله اطمینان |
112414 | در حین مطالعه trimmed متوجه شدم که اگر تعدادی متغیر تصادفی $X_1، X_2، ..، X_n$ را با مرتب کردن و برش دادن آنها داشته باشم، متغیرها دیگر مستقل نیستند. با این حال گفته میشود که «با بازنویسی میانگین برششده بهعنوان میانگین متغیرهای مستقل» میتوان از تخمین استاندارد واریانس دوباره استفاده کرد. این بازنویسی می دانم که Winsorizing مقادیر را پیشنهاد می کند. پیرایش شامل حذف صدک معینی از مقادیر از نمونه است. نمونه Winsorized نمونه ای است که دارای مقادیر کمتر از یک صدک معین سانسور شده است و به یک صدک بالا نیز سانسور شده است. واضح است که میانگین بریده شده با میانگین Winsorized یکی نیست. اما چگونه می توان به طور رسمی نتیجه گرفت که متغیرهای پس از Winsorizing متغیرها مستقل هستند؟ [ویرایش بعدی] این سوال در حین مطالعه کتاب مبانی روش های آماری مدرن، بهبود قابل ملاحظه قدرت و دقت، ویرایش دوم - رند آر ویلکاکس مطرح می شود. نقل قول های زیر از صفحات: 149-151 است. > [یادداشت من: به عنوان مقدمه یک $X_1,X_2,..,X_n$ i.i.d داریم. استاندارد > متغیرهای نرمال، آنها کوتاه شده و میانگین بریده شده با $20\%$ ساخته می شود. در نتیجه، روشی که ما برای تعیین عبارتی برای واریانس > میانگین نمونه استفاده کردیم، میانگین متغیرهای وابسته است. (در واقع، یک مشکل دیگر وجود دارد: واریانس متغیرهای مرتب شده > برابر با $\sigma^2$ نیستند. > > یک پیشرفت نظری عمده در طول دهه 1960 استخراج یک تکنیک ریاضی بود که منجر به روشی مناسب و کاربردی برای > تخمین واریانس میانگین بریده شده نمونه روش شامل > بازنویسی میانگین برش یافته به عنوان میانگین مستقل است متغیرها به طوری که > استراتژی مورد استفاده برای تعیین واریانس میانگین نمونه می تواند دوباره > به کار گرفته شود > واریانس و با تخمین به پایان می رسد] $$ VAR(\bar{X_t}) = > \frac{s^2_w}{(1-2\gamma)^2n}$$ [توجه من: جایی که $X_t$ متغیرهای بریده شده است، > $s^2_w$ میانگین نمونه Windsorized است، $\gamma$ مقدار بریده شده است ($0.2$ > در این مورد)، $n$ تعداد مقادیر نمونه] | چرا متغیرهای تصادفی Winsorized مستقل هستند؟ |
70115 | آزمون ویلیامز یک آزمون مقایسه چندگانه است. سوال من این است که وقتی آمار آزمون ویلیامز را با مقادیر بحرانی جدول بندی شده مقایسه می کنیم، باید به دنبال کدام درجه آزادی باشم. در مثال SAS، یک ماده در هفت سطح ($k=6$) در طرح بلوک تصادفی هشت بلوک آزمایش شده است و میانگین مربع با (7 - 1) (8 - 1) = 42 درجه آزادی است. با توجه به درک من از درجه آزادی، آیا نباید $7\times8-7$ باشد زیرا $s$ استفاده شده در آمار آزمون به عنوان تخمین $\sigma$ واریانس ادغام شده است؟ به طور رسمی تر، فرضیه صفر این است: $$ H_0: \mu_0=\mu_1=...=\mu_k $$ جایگزین این است: $$ H_1: \mu_0\leq\mu_1\leq...\leq\mu_k $ $ با حداقل یک نابرابری شدید. MLE درمان یعنی $\mu_i$ با میانگین نمونه $\bar{x}_i$ و تعداد مشاهدات در نمونه $n_i$ با فرمول $$ \mu_i^*=\max_{l بدست میآید. \leq u\leq i}\min_{i\leq v \leq k}\sum_{j=u}^{v}n_j \bar{x}_j/\sum_{j=u}^{v}n_j $$ آمار آزمون این است: $$ T_i=\frac{\mu_i^*-\bar{x}_0}{\sqrt{s ^2/n_i+s^2/n_0}}$$ که در آن، $s$ یک تخمین بی طرفانه از $\sigma$ است، انحراف استاندارد درون گروهی که مستقل از $\bar است. X_i$. فرضیه صفر رد می شود و این واقعیت که سطح دوز $i$-th حداقل دوز موثر است نتیجه می گیرد اگر $$T_j> t_{j,\alpha}, \mbox{for all } j \geq i$$ where , $t_{j,\alpha}$ صدک بالای $\alpha$th توزیع $T_j$ با درجه آزادی $\nu$ است. سوال من این است که چگونه $\nu$ را محاسبه کنیم؟ و چرا؟ من فکر کردم $\nu$ باید $\sum n_i -(k+1)$ باشد، اما نتایج شبیهسازی من بیشتر با روش SAS استفاده از $n_0\times k$ مطابقت دارد، جایی که همه $n_i$ برابر هستند. نکته دیگر، برای همه $j$ها، باید از همان درجه آزادی استفاده کنم، زیرا $s$ را بر اساس همه نمونهها محاسبه کردم، نه پس از حذف نمونههای سطح دوز بالا. درست میگم؟ | نحوه محاسبه درجه آزادی برای آزمون ویلیامز |
115248 | اگر واریانس مجموعه داده آزمایشی کمتر از مجموعه داده قطار باشد، آیا ارزش تقسیم داده ها را دارد؟ از آنجایی که می دانیم مجموعه داده های ما همیشه محدود خواهد بود، آیا انتخاب مدل ها در شرایط فوق منصفانه است؟ با تشکر | آیا مجموعه دادههای قطار و آزمایش باید واریانس مشابهی داشته باشند؟ |
5382 | من یک پسر جدید اینجا هستم. امیدوارم این سوال را در انجمن درست مطرح کنم. ## مشکل: ما داده های گروهی از افراد (P1، P2، P3) را داریم. آنها تخصص خود را (1-10، جایی که تعداد بالاتر بهتر است) در لیستی از اجزاء (G1، G2، G3) رتبه بندی می کنند. P1 P2 P3 -------------- G1 | 8 4 7 G2 | 7 3 7 G3 | 9 6 5 همچنین، ما در مورد کارهای انجام شده توسط هر فرد در هر جزء، داده هایی داریم. مثال: برای P1، W WD ---------- G1 | 0 0 G2 | 2 0 G3 | 8 2 که در آن W کل کار اختصاص داده شده به کاربر P1 است و WD کار واقعی انجام شده است. W >= WD >= 0. ما داده های مشابهی برای کاربران P2 و P3 داریم. **نکته قابل توجه:** ممکن است کاربر بدون توجه به کار انجام شده در یک جزء، دارای سطحی از تخصص باشد. مثال: P1 خود را 8/10 رتبه بندی کرده است، حتی اگر هیچ وظیفه ای در مؤلفه G1 به او داده نشده باشد (W = 0). P1 همچنین خود را 7/10 برای G2 قرار داده است، حتی اگر هیچ کاری را در آن جزء تمام نکرده باشد (WD = 0). حال میخواهیم رتبهبندی مؤثر همه کاربران را نسبت به گروه کاربران، نه خود رتبهبندی، با توجه به دادههای کاری و رتبهبندی خود محاسبه کنیم. آیا کسی می تواند مکانیسمی برای رسیدن به این هدف پیشنهاد کند؟ پیشاپیش بسیار متشکرم | عادی سازی رتبه بندی در گروهی از افراد [پیدا کردن اثربخشی] |
33091 | من به احتمال انتخاب یک برنامه مبتنی بر متغیرهای پیوسته $X_1$، $X_2$، $X_3$، و غیره نگاه میکنم. وقتی نمونه را به افرادی تقسیم میکنم که شرکت کردهاند و شرکت نکردهاند و یک T- آزمون من متوجه شدم که میانگین تمام $X$ها برای کسانی که شرکت نمی کنند به طور قابل توجهی با میانگین برای کسانی که شرکت نمی کنند متفاوت است. با این حال، وقتی به یک ماتریس همبستگی برای $X$ و انتخاب کردن من ضرایب همبستگی بسیار پایینی پیدا کردم -- بین $.04 $ و $.13. اما آزمون های t من در سطح اطمینان +95% قابل توجه است. چگونه این دو نتیجه را مربع کنم؟ | ضریب همبستگی با آزمون t مغایرت دارد |
33545 | دایره ای به شعاع $R$ و دنباله ای از نقاط درون آن وجود دارد. من یک PDF را تخمین می زنم که در ناحیه ابتدایی در فاصله $D$ از مرکز دایره با استفاده از تحقق $N$ امتیاز $X_0$, $X_1$, $\dots$, $X_{N تخمین بزنم. -1}$. بنابراین بازه $[0, R]$ را به $n$ bins $b_i=[r_i,r_{i+1}]$ تقسیم میکنم و $N_i$ را بهعنوان تعداد نقاط $D$ ظاهر شده در هر سطل پیدا میکنم و تقسیم میکنم. آن را در ناحیه حلقه هر سطل $S=\pi\left(r_{i+1}^2-r_{i}^2\right)$ قرار دهید. (به دلایلی ممکن است bin ها طول های متفاوتی داشته باشند $r_{i+1}-r_{i}$.) من می خواهم نوارهای خطا را برای مقادیر هیستوگرام $N_i/S$ پیدا کنم، یا بهتر بگویم تابعی که توسط جدولی از مقادیر $(r_i+r_{i+1})/2\longrightarrow N_i/S$ به عنوان تخمینگر PDF با ضریب $N$. آنها معمولاً از چیزی مانند خطای استاندارد پواسون به عنوان $\sigma=1/\sqrt{n}$ استفاده می کنند، بنابراین من از $\sigma_i=(1/\sqrt{N_i})/S$ یا $\sigma_i استفاده می کنم. = 1/\sqrt{N_i/S}$؟ یا فرمول صحیح تری برای یافتن فاصله اطمینان وجود دارد؟ همچنین، اگر هیستوگرام را به مختصات لگاریتمی $\log((r_i+r_{i+1})/2)\longrightarrow \log (N_i/S)$ تبدیل کنم چگونه باید فاصله اطمینان را محاسبه کنم؟ | فاصله اطمینان تخمینگر تابع چگالی احتمال هیستوگرام |
85657 | من از بسته neuralnet در R استفاده می کنم. مثال در http://gekkoquant.com/2012/05/26/neural-networks-with-r-simple-example عملکرد خوبی دارد. اما وقتی موارد زیر را امتحان می کنم، برای داده های آموزشی متوجه می شوم، خروجی ها همیشه یکسان هستند و خطای آموزشی بسیار زیاد است. همچنین متوجه میشوم که اگر بعد ورودی را 1 تنظیم کنید، sum (خروجی) = جمع (ورودی) است. این خیلی عجیب است. من GOOGLE 'شبکه عصبی همیشه یک خروجی'، چندین صفحه در مورد یک مشکل وجود دارد، اما پاسخی وجود ندارد. من همچنین الگوریتم BP را در متلب کدنویسی کردم و متوجه شدم که این وضعیت نیز وجود دارد. این کد در کد R و MATLAB R است: install.packages('neuralnet') library(neuralnet) install.packages('mvtnorm') library(mvtnorm) #به دنبال ایجاد یک شبکه عصبی برای انجام توضیحات روت کردن #Type ?neuralnet برای اطلاعات بیشتر در مورد کتابخانه عصبی شبکه #تولید 50 بردار ورودی تصادفی که ابعاد هر کدام 10 است. #و آنها را به عنوان یک بعد قاب داده ذخیره کنید<-10 داده <- rmvnorm(n=50, mean=seq(1:dimension), sigma=diag(dimension), method=chol) ورودی آموزش <- as.data.frame (داده) #خروجی برابر با هنجار نیمه اول خروجی آموزشی برداری است <- اعمال (ورودی آموزش[,1:(بعد/2)]^2,1,جمع) #ستون داده ها را به یک داده آموزشی متغیر پیوند می دهد <- cbind(خروجی آموزش، ورودی آموزش) #نام ستون ها به عنوان خروجی، X1، . ..، نامهای X10 (دادههای آموزشی) <- c('Output',paste(rep('X',dimension),seq(1:dimension),sep='')) #ترن شبکه عصبی #آستانه یک مقدار عددی است که آستانه را برای #مشتقات جزئی از تابع خطا به عنوان معیار توقف model1.form.text <- paste(Output ~, paste(colnames(trainingdata)[-1],collapse= + ),collapse= ) model1.form <- as.formula( model1.form. text ) net.sqrt <- neuralnet(model1.form, trainingdata, hidden=c(4), threshold=1e-2) #Output of شبکه برای هر ورودی همیشه یکسان است #من چندین نوع لایه پنهان مانند c(4,2), c(5,4,3,1) و غیره را امتحان کردم، وضعیت همیشه اتفاق می افتد print(net.sqrt$net .نتیجه) print(net.sqrt) #نقشه شبکه عصبی طرح (net.sqrt) کد متلب (نوشته شده بر اساس http://www.amlbook.com/slides/iTunesU_Lecture10_May_03.pdf برای تعریف w، دلتا، s و x) %%این کد تلاش میکند تا عملکرد یک شبکه عصبی را درک کند %% تابع فعالسازی به صورت tanh تنظیم شده است. dactivate مشتق tanh activate=@(s) (exp(s)-exp(-s))./(exp(s)+exp(-s)); dactivate=@(s) 1.-activate(s).^2; %%n: تعداد مشاهدات. بعد: بعد ورودی ها. %%سه لایه، هر کدام با نورون های 7،3،1 n=50. بعد=5; لایه=[7 3 1]'; X=randn(n، بعد); y=جمع (X,2).^2; %% 1s را به آخرین ستون به عنوان بایاس اضافه کنید X=[X,ones(size(X,1),1)]; %%w: وزن هر لایه w1=1e-5*rand(dimension+1,layer(1)); w2=1e-5*rand(layer(1)+1,layer(2)); w3=1e-5*rand(layer(2)+1,layer(3)); %%wlast وزن آخرین تبدیل است، به طوری که خروجی ini_slast=[ini_x3, ones(size(ini_x3,1),1)]*ini_wlast; wlast=1e-5*rand(2,1);%% [w0 w1]'; %% تکرار الگوریتم رو به عقب، نرخ یادگیری را 1e-3 تنظیم کنید. استفاده از یادگیری دسته ای lrate=1e-3; برای i=1:1000 %%تنظیم مقادیر اولیه ini_w1=w1; ini_w2=w2; ini_w3=w3; ini_wlast=wlast; %%s_i=X*w_i، بایاس قبلاً به X اضافه شده است و w_i ini_s1=X*ini_w1; ini_x1=activate(ini_s1); ini_s2=[ini_x1, ones(size(ini_x1,1),1)]*ini_w2; ini_x2=activate(ini_s2); ini_s3=[ini_x2, ones(size(ini_x2,1),1)]*ini_w3; ini_x3=activate(ini_s3); ini_slast=[ini_x3, ones(size(ini_x3,1),1)]*ini_wlast; %%calculate delta delta3=2*(ini_slast-y) *ini_wlast(1) .*dactivate(ini_s3); delta2=bsxfun(@times,dactivate(ini_s2), delta3*ini_w3(1:end-1,:)'); delta1=bsxfun(@times,dactivate(ini_s1), delta2*ini_w2(1:end-1,:)'); %% محاسبه گرادیان gw gwlast=2*(ini_slast-y)'*[ini_x3, ones(size(ini_x3,1),1)]/n ; gw3=delta3'*[ini_x2, ones(size(ini_x2,1),1)]/n; %%size(x2)=[1,?] gw2=delta2'*[ini_x1, ones(size(ini_x1,1),1)]/n; gw1=delta1'*X/n; %%+2*lambda*ini_w1'; %% وزن ها را به روز کنید w1=ini_w1-lrate*gw1'; w2=ini_w2-lrate*gw2'; w3=ini_w3-lrate*gw3'; wlast=ini_wlast-lrate*gwlast'; %% مکث؛ display(norm(y-ini_slast)); نمایش پایان ([y ini_slast]); sum (([y ini_slast])) | شبکه های عصبی همیشه خروجی یکسانی دارند |
93719 | فقط میخواستم با توجه به یک مطالعه موردی گذشتهنگر بررسی کنم، آیا دادههای مختلفی برای مجموعهای از بیماران در متغیرهای مختلف جمعآوری میشود، آیا میتوان این را با آزمونهای آمار استنباطی تفسیر کرد؟ حتی اگر هیچ محاسبه توانی برای تعیین حجم نمونه مورد نیاز قبل از شروع مطالعه وجود نداشته باشد، یعنی فقط از بیمارانی که با یک آسیب شناسی خاص در دسترس بودند استفاده شود؟ با تشکر فراوان برای هر فکری. | آیا می توان آمار استنباطی را در یک مطالعه موردی گذشته نگر انجام داد؟ |
41524 | من با ارزیابی دو طبقه بندی متن روبرو هستم. من یک ** مجموعه داده آموزشی بزرگ** (فقط برای استفاده در آموزش)، **و یک مجموعه تست کوچک مجزا** (فقط برای آزمایش استفاده) دارم، **هر دو متعادل هستند**. کدام یک از روش های زیر باید مناسب تر باشد و چرا؟ 1) ارزیابی مستمر تکراری طبقهبندی شده (نمونهگیری فرعی مکرر): k بار بدون تکرار از مجموعه دادههای آموزشی نمونه بگیرید، هر نمونه متعادل است. برای هر نمونه، طبقهبندیکننده با نمونه آموزش داده میشود و دقت با مجموعه داده آزمایشی کامل آزمایش میشود. نتایج متوسط هستند. 2) اعتبار سنجی متقاطع طبقه بندی شده: مجموعه داده آموزشی کامل را به k برش با اندازه مساوی تقسیم کنید، هر برش متعادل باشد. برای هر برش، طبقهبندیکننده با برش آموزش داده میشود و دقت با مجموعه داده آزمایشی کامل آزمایش میشود. نتایج متوسط هستند. 3) راهاندازی طبقهای: K بار با تکرار از مجموعه دادههای آموزشی بزرگ نمونهگیری کنید و هر نمونه متعادل باشد. برای هر نمونه، طبقهبندیکننده با نمونه آموزش داده میشود و دقت با مجموعه داده آزمایشی کامل آزمایش میشود. نتایج متوسط هستند. | روش ارزشیابی هنگام استفاده از یک مجموعه آموزشی بزرگ و یک مجموعه تست کوچک |
33549 | من سعی می کنم بفهمم که چگونه POD (احتمال تشخیص) و FAR (نسبت هشدار نادرست) در این مقاله محاسبه می شود. در صفحه 234 آنها به طور معمول تعریف شده اند و ساختار داده درختی در صفحه 239 مقادیر POD و FAR را برای یک مثال ساده نشان می دهد، اما من نمی توانم بفهمم آنها چگونه به این مقادیر رسیده اند. $$ POD = \frac{TP}{(TP+FN)} \\\ FAR = \frac{FP}{(TP+FP)} $$برای این مثال، اجازه دهید: * TP = گردباد وجود دارد (+ برچسب در سریال) و کلمه ای در سریال وجود دارد * FP = هیچ گردبادی وجود ندارد و کلمه ای در سریال وجود دارد * TN = هیچ گردبادی وجود ندارد و کلمه در سریال وجود ندارد * FN = گردباد وجود دارد و کلمه ای در سریال وجود ندارد سپس برای اولین کلمه (aa)، می فهمم که: TP = 2; FN=0; FP=2; بنابراین POD=1 و FAR= 0.5 که در مقاله است، اما برای کلمه دوم (ab): TP= 2; FN=0; FP=1; بنابراین POD=1 که در کاغذ است، اما آیا به جای 1/4 در کاغذ، نباید FAR= 0.333 باشد؟ و برای کلمه سوم (ac): TP= 1; FN=1; FP=1; بنابراین POD=1/2، که در کاغذ است، اما آیا نباید به جای 1/4 در کاغذ، FAR= 1/2 باشد؟ من نمی فهمم مشکل FAR من چیست، و اگر POD من درست است، همانطور که به نظر می رسد. | احتمال تشخیص و نسبت هشدار نادرست در یک مثال ساده اشتباه است، نمی دانم چرا |
36113 | یک نسخه بسیار ساده از قضیه محدود مرکزی به صورت زیر $$ \sqrt{n}\bigg(\bigg(\frac{1}{n}\sum_{i=1}^n X_i\bigg) - \mu\bigg) \ \xrightarrow{d}\ \mathcal{N}(0,\;\sigma^2) $$ که Lindeberg–Lévy CLT است. من نمی فهمم چرا یک $\sqrt{n}$ در سمت چپ وجود دارد. و لیاپانوف CLT میگوید $$ \frac{1}{s_n} \sum_{i=1}^{n} (X_i - \mu_i) \ \xrightarrow{d}\ \mathcal{N}(0,\;1) $$ اما چرا $\sqrt{s_n}$ نه؟ آیا کسی میتواند به من بگوید این عوامل، مانند $\sqrt{n}$ و $\frac{1}{s_n}$ چیست؟ چگونه آنها را در قضیه بدست آوریم؟ | $\sqrt{n}$ در قضیه حد مرکزی (CLT) از کجا می آید؟ |
41882 | من یک سوال در مورد توزیع پسین دیریکله دارم. با توجه به یک تابع درستنمایی چند جمله ای، مشخص است که پسین $Dir({\alpha_i + N_i})$ است، که $N_i$ تعداد دفعاتی است که مشاهده $i^{th}$ را دیده ایم. اگر شروع به کاهش $\alpha$s برای یک داده ثابت $D$ کنیم، چه اتفاقی میافتد؟ از شکل پسین به نظر می رسد که بعد از مدتی $\alpha$s به هیچ وجه روی پسین اثر نمی گذارد. اما آیا درست نیست که بگوییم وقتی $\alpha$s را بسیار کوچک می کنیم، جرم احتمال به گوشه های سیمپلکس حرکت می کند و قسمت خلفی باید به میزان بیشتری تحت تأثیر قرار گیرد؟ کدام عبارت صحیح است؟ | دیریکله خلفی |
85778 | امیدوارم ساده لوحی من در این سوال آشکار نشود: آیا جنگل های تصادفی بیزی هستند؟ | آیا جنگل های تصادفی بیزی هستند؟ |
5073 | من یک چارچوب داده دارم که ستون اول آن نام یک آیتم و ستون دوم فراوانی آن آیتم در مجموعه داده است. names freq 1 گوجه فرنگی 7 2 سیب زمینی 4 3 کلم 5 4 sukuma-wiki 8 5 terere 20 من می خواهم یک ستون نواری انباشته داشته باشم که نسبت هر ورودی را در نمودار نشان دهد. وقتی با بیش از شصت ورودی ارائه می شود، چگونه رنگ آمیزی نوار انباشته شده را مدیریت می کنید؟ ساده ترین راه برای انجام این کار چیست؟ | طرح نوار انباشته |
41525 | من به دنبال مجموعه داده ای هستم که برای مقایسه رگرسیون لجستیک هسته (KLR) و رگرسیون لجستیک معمولی به راحتی قابل دسترسی باشد. تمام کاغذهایی که من با استفاده از KLR پیدا کردم از مجموعه داده های مصنوعی استفاده می کنند. من بیشتر به مجموعه های داده با متغیرهای پیوسته علاقه دارم، بنابراین می توانم هسته نمایی مربعی را اعمال کنم. مجموعه داده ها با یک هدف باینری و متغیرهای پیش بینی فضایی نیز جالب خواهد بود. | مجموعه داده رایگان برای مقایسه رگرسیون لجستیک هسته و رگرسیون لجستیک منظم |
41528 | من یک مدل رگرسیون لجستیک با یک متغیر پاسخ دوگانه و پیشبینیکنندههایی دارم که از $1 تا $10$ و از $0$ تا $18$ کدگذاری شدهاند. وقتی مدل را مناسب کردم، این نتایج را دریافت می کنم: Intercept 2.467 (p=2e-16) Predictor#1 -0.181 (p=1.76e-07) Predictor#2 -0.098 (p=3.34e-14) Null deviance 2252.3 on 1741 DF Residual dev. 2113.1 در 1739 DF (1276 مورد به دلیل گم شدن حذف شد) — AIC: 2119.1 و Nagelkerke $R^2$ 0.10$. $R^2$ و Deviance مدل را بسیار بد نشان میدهند، اما وقتی مقادیر پیشبینیشده را محاسبه میکنم، زمانی که هر دو پیشبینیکننده $1$ باشند، احتمال $24.8\%$ و زمانی که پیشبینیکنندهها $89.9\%$ هستند را دریافت میکنم. در حداکثر مقادیر خود (به ترتیب 10 دلار و 18 دلار) هستند. چگونه می توانم چنین معیارهای بدی از خوبی تناسب داشته باشم، و در عین حال، چنین تفاوت بزرگی (معناداری آماری، $p<0.01$) در مقادیر پیش بینی شده بدست بیاورم؟ | رگرسیون لجستیک: تفاوت بزرگ در مقادیر پیش بینی شده و برازش بسیار معنی دار، اما ضعیف |
96079 | اجازه دهید $(X_1،Y_1)، . . . , (X_n,Y_n)$ یک نمونه تصادفی از توزیع گسسته با تابع جرم احتمال مشترک باشد $$ f_{X,Y} (x,y) = \frac{\theta}4 , \space (x,y) = (0,0)\space یا \space(1,1)$$ $$ = \frac{2 - \theta}4, \space \space (x,y) = (0,1)\space یا \space(1,0),$$ با $0 \le \theta \le 2$. برآوردگر حداکثر احتمال $\theta$ را پیدا کنید. | برآوردگر حداکثر احتمال $\theta$ را پیدا کنید |
36116 | من از یک راهنمای اندازه گیری پیروی می کنم که تکنیکی را برای بهبود برآورد واریانس کل با استخراج مولفه های واریانس فردی و انجام مجموع مربعات مشخص می کند. من آمارگیر نیستم، بنابراین به دنبال کسی هستم که روش تعریف شده توسط راهنما را تأیید کند. این به بهترین شکل با یک مثال توضیح داده میشود: ما محصولی را میفروشیم که باید الزامات عملکرد خاصی را برآورده کند و از دو قطعه مجزا تشکیل شده است که ممکن است به طور بالقوه خارج از کنترل ما تعویض شوند. به این ترتیب، ما نمی توانیم هر ترکیب ممکن را آزمایش کنیم. برای نشان دادن اینکه محصول الزامات را برآورده میکند، مطالعهای را انجام میدهیم که عملکرد جفتها را در یک ماتریس با دو اندازهگیری در هر جفت برای گرفتن خطای اندازهگیری نمونهبرداری میکند. در اینجا یک مجموعه داده برای این وجود دارد:  دستورالعمل بیان می کند که واریانس نمونه واریانس کل را کمتر از حد تخمین می زند و راه حل استخراج فرد است. اجزای واریانس و سپس آنها را جداگانه ترکیب کنید. محاسبات، _همانطور که در راهنما تجویز شده است، در زیر آمده است:   بیشتر این تکنیک واقعاً برای من منطقی است. من ارزش استفاده از مؤلفه ها را به طور جداگانه برای محاسبه اندازه های مختلف نمونه می بینم، اما چند جنبه از این نیز وجود دارد که کاملاً درک نمی کنم. به طور خاص: 1. محاسبه واریانس اندازه گیری (معادل 3) فقط در نظر گرفتن میانگین واریانس در هر جفت است. آیا این روش مناسبی برای استخراج واریانس اندازه گیری است؟ 2. چرا واریانس های مؤلفه (معادل 4 و 5) واریانس در میانگین اندازه گیری را کم می کنند؟ این امر به ویژه در مواردی که واریانس مؤلفه کمتر از واریانس تفریق شده در میانگین اندازه گیری باشد مشکل ساز است (مانند معادله 5). آیا در این موارد باید آن مولفه را صفر کنیم؟ 3. در محاسبه واریانس کل میانگین (معادل 7)، آیا مقسوم علیه $S^2_{meas}$ نباید در واقع pq باشد، نه pqr؟ به غیر از این راهنمایی، من نتوانستم نمونه دیگری پیدا کنم که از این روش دقیق استفاده کند. تنظیم داده ها مانند یک ANOVA متقاطع دو طرفه به نظر می رسد اما تجزیه و تحلیل متفاوت است. برای مرجع، این راهنما به کتاب Poduri S.R.S Rau، Variance Components Estimation: Mixed Models, Methodology, and Applications [Chapman & Hall, 1997, pp 12-38] به عنوان منبع این تکنیک اشاره می کند. اگر کسی بتواند این تکنیک را تأیید کند و به من در درک سؤالاتی که مطرح کردم کمک کند، خوشحال می شوم. از کمک شما متشکرم PS: بابت استفاده از تصاویر به جای فرمول متاسفم - من قبلاً تصاویر را برای تابلوی دیگری ایجاد کرده بودم که این سوال بدون پاسخ مانده است. | بهبود دقت واریانس کل از طریق مولفه های واریانس؟ |
41529 | من در حال حاضر در دوره _An Introduction to Operations Management_ در Coursera.org شرکت می کنم. در مقطعی از دوره، استاد شروع به پرداختن به تغییرات در زمان عملیات کرد. اندازهگیری که او استفاده میکند _ضریب تغییرات_ است، نسبت بین انحراف معیار و میانگین: $c_v = \frac{\sigma}{\mu}$ چرا باید از این اندازهگیری استفاده شود؟ مزایا و معایب کار با _CV_ در کنار کار با مثلاً انحراف معیار چیست؟ شهود پشت این اندازه گیری چیست؟ | شهود و استفاده از ضریب تغییرات |
33096 | اگر بخواهم از rho اسپیرمن بهعنوان معیار همبستگی استفاده کنم، آیا دادههایی که با آنها کار میکنم باید به طور معمول توزیع/همسان باشند؟ همچنین، اگر من داده ها را در برابر زمان ترسیم کنم، آیا داده ها باید مستقل از زمان باشند؟ | مفروضات آزمون rho اسپیرمن برای همبستگی |
108860 | من یک سری زمانی «الف» و دیگری «ب» دارم. من می خواهم رخدادهای B را در A پیدا کنم. به طور معمول، A بسیار بزرگتر است (قدر: میلیون ها امتیاز) از B (قدر: صدها نقطه) * من لزوماً تطبیق دقیق را نمی خواهم (بدیهی است، زیرا مقادیری که ما معامله می کنیم اعداد واقعی هستند، نه مثلاً، متن) اگرچه مقادیر ترجیحا نزدیک هستند. * روندها/شکلها مهمتر از تطبیق زمان دقیق هستند (یعنی به نوعی تابآوری زمان پویا میتواند مفید باشد) * با توجه به دو نکته اول، چه اتفاقی میافتد اگر به مقادیر مطلق و فقط به شکل اهمیتی نداشته باشم (شاید چه اتفاقی میافتد) گرفتن گزارشی از مقادیر؟) * اگر بخواهم تعداد امتیازها را از میلیون ها به میلیاردها تغییر دهم، چه اتفاقی می افتد؟ چگونه سیستم را مقیاس بندی کنیم؟ چگونه یک سری زمانی را نمایه کنم؟ (شاید به نحوی از Mahout، Lucene استفاده کنید؟) آنچه داخل پرانتز است، نتایج تحقیقات کوتاه من است، لزوما درست نیست. در مجموع، چه نوع رویکردی را باید در پیش بگیرم؟ پیشنهادات/نکات کلی شما چیست؟ من میخواهم یک سیستم توسعه دهم، بنابراین از هرگونه مثال/پیشنهاد عملی حتی بیشتر استقبال میشود. با تشکر | جستجوی سری های زمانی در سری زمانی دیگر |
38540 | من همیشه برای به دست آوردن جوهر واقعی هویت در اقتصاد سنجی تلاش می کنم. من می دانم که می گوییم یک پارامتر (مثلا $\hat{\theta}$) را می توان شناسایی کرد در صورتی که با نگاه کردن به توزیع (مشترک) آن بتوانیم مقدار پارامتر را استنتاج کنیم. در یک حالت ساده $y=b_1X+u$، جایی که $E[u]=0,E[u|x]=0$، میتوانیم بیان کنیم که $b_1$ شناسایی میشود اگر بدانیم که واریانس آن $Var(\ کلاه{b})> 0 دلار. اما اگر $E[u|X]=a$ که در آن $a$ یک پارامتر ناشناخته باشد چه؟ آیا $a$ و $b_1$ قابل شناسایی هستند؟ اگر مدل را به $Y=b_0+b_1X+b_2XD=u$ گسترش دهم که در آن $D\in\\{0,1\\}$ و $E[u|X,D]=0$، نشان میدهد که $ b_1,b_2,b_3$ شناسایی شده اند، آیا باید دوباره بیان کنم که واریانس هر سه پارامتر بزرگتر از صفر است؟ من از همه کمک هایی که برای پاک کردن ذهنم در مورد شناسایی کمک می کنند قدردانی می کنم. | مشکل شناسایی پارامترها |
89921 | من یک سوال دارم که در آن یک داستان کوتاه به من داده شده است: > یک محقق می خواهد تأثیر داروی تجویز شده برای > سرماخوردگی را بر زمان واکنش ارزیابی کند. دادهها نشاندهنده زمان واکنش (بر حسب ثانیه) روی یک محرک یک ساعت پس از تجویز هر یک از چهار برند انتخابی تصادفی این نوع دارو برای 5 نفر است. سپس از من میخواهند: _مدل مناسب بدهم_ بعد از گذراندن مدتی برای جستجوی معنای این موضوع، بیشتر در مورد انتخاب آزمون مناسب نتیجه میگیرم. آنچه من در مورد انتخاب فکر می کنم این است: * تجزیه و تحلیل واریانس * تحلیل کوواریانس * تحلیل رگرسیون آیا می توان اینها را مدل در نظر گرفت یا یک مدل به عنوان چیز دیگری (از نظر آماری) تعریف می شود؟ | انتخاب مدل مناسب - این عبارت به چه معناست؟ |
71799 | بیماران به صورت تصادفی در دو گروه (کنترل و مداخله) قرار گرفتند. هر بیمار در 3 نقطه زمانی ارزیابی می شود. اولین نقطه قبل از مداخله گرفته می شود، بنابراین میانگین پاسخ در هر دو گروه مداخله و کنترل باید یکسان باشد. ایده این است که برای شیب های مختلف در دو گروه آزمایش شود. من میتوانم این کار را با اندازهگیری مکرر آنووا، آزمایش برای تعامل گروه x انجام دهم. من نمیدانم که آیا یک آزمایش قویتر شامل محدود کردن اثرات میانگین برای زمان 1 برابر است، اما مطمئن نیستم که چگونه این را تنظیم کنم (چه در R یا SPSS). $$y_{gkti}=\mu+\alpha_g+\tau_{gt}+\eta_{k}+\epsilon_{gkti}$$ منوط به $\tau_{11}=\tau_{21}$ جایی که $\alpha $ جلوه های گروهی برای گروه های 1 و 2 هستند و $\tau$ اثرات زمان و $\eta$ اثرات بیمار هستند. هر ایده ای؟ | یک عامل در جایی که اولین نقطه زمانی یک کنترل است، اقدامات تکراری را انجام می دهد |
41889 | من اصطلاحات را فراموش میکنم، اما این زمانی اتفاق میافتد که مثلاً $Y$ در لیستی از متغیرها پسرفت میکنید، و گمان میکنید که $Y$ روی $x_3$ تأثیر میگذارد، علاوه بر اینکه $x_3$ روی $Y.$ تأثیر میگذارد. فراموش میکنم. چگونه به این نام می گویند، و چگونه با آن برخورد کنیم - چیزی در امتداد خطوط اضافه کردن یک متغیر اضافی؟ با تشکر | چگونه یک رگرسیون و تأثیرگذار بر یک پسرفت را حساب کنیم؟ |
76229 | بگویید من $n$ رویدادهای احتمالی دارم که منجر به $m$ اثرات قابل مشاهده می شود. فرضیه استنتاج بیزی این است که رویدادها متقابلاً انحصاری و به طور مشترک جامع هستند. آیا هنوز هم می توانم از استنتاج بیزی (در نهایت اصلاح شده) زمانی که بیش از یک رویداد در برخی از مشاهدات رخ می دهد، استفاده کنم؟ مثال واقعی: $n$ اجزای احتمالی معیوب روی یک برد با $m$ نقاط تست روی برد که میتواند منجر به در محدوده یا خارج از محدوده شود، و من نمیتوانم پیشینی رد کنم که دو جزء همزمان معیوب هستند. زمان | استنتاج بیزی قابل انطباق با رویدادهای غیر انحصاری متقابل؟ |
89928 | من درک می کنم که پایایی و روایی در هنگام ساخت یک پرسشنامه کلیدی است. لطفاً اگر روشهای زیر برای تهیه پرسشنامه مناسب است، راهنمایی کنید: 1. پس از ایجاد همه موارد در پرسشنامه، قصد دارم سؤال را با نمونهای از 25 شرکتکننده آزمایش کنم. در مرحله بعد، من دوباره همان پرسشنامه را با همان گروه نمونه، در زمان دیگری آزمایش خواهم کرد. برای بررسی سازگاری های داخلی، یک تحلیل رگرسیونی برای یافتن مقدار آلفای کرونباخ یا رو انجام می دهم. لطفا راهنمایی کنید. | مراحل تهیه پرسشنامه |
109551 | من در حال محاسبه توابع مشخصه و MGF بودم و به این فکر می کردم که آیا همیشه می توانیم تابع مشخصه را به سادگی با جایگزینی $it$ به جای $t$ در معادله حاصل بدست آوریم. برای مثال، MGF معمولی $ \exp{(\mu t + \frac{\sigma^2 t^2}{2})} $ است، اما اگر $it$ را جایگزین آن کنیم، $ \exp{(\mu) دریافت میکنیم. it - \frac{\sigma^2 t^2}{2})} $ که تابع مشخصه است. اگر MGF در همسایگی 0 وجود داشته باشد همیشه می توانیم این کار را انجام دهیم؟ | تابع مشخصه را از MGF دریافت کنید؟ |
7141 | فرض کنید من $n$ مشاهدات $X_1,X_2,\ldots,X_n$ را به طور مستقل از توزیعی رسم کنم که در آن $X_i \sim \mathcal{N}(\mu_i,\sigma^2)$ است، جایی که میانگین فرض می شود Lipschitz باشد. : $\ چپ| \mu_i - \mu_{i+1}\right| \le \gamma،$ با $\gamma$ شناخته شده است. من می خواهم فرضیه صفر را آزمایش کنم: $$H_0: \mu_n = 0$$ در برابر جایگزین محلی $H_1: \mu_n > 0$. چند سوال: 1. آیا این یک مشکل شناخته شده است؟ اگر چنین است، برای چه عباراتی باید در گوگل جستجو کنم؟ 2. راه معقولی برای انجام این تست چیست؟ من می توانم تصور کنم که ممکن است راهی برای انجام این کار با کاهش وزن مشاهدات کمتر اخیر وجود داشته باشد - شاید نوآوری ها را در اصطلاح نویز قرار دهیم، سپس از آزمون t وزنی استفاده کنیم؟ مشکل آن رویکرد این است که تغییر در میانگین ممکن است قطعی باشد، بنابراین من باید مشکل را به عنوان یک مشکل حداقلی مطرح کنم. شاید رویکرد دیگر نادیده گرفتن عدم ایستایی و استفاده از آزمون t منظم بر روی برخی از زیرمجموعههای مشاهدات $X_j,X_{j+1},\ldots,X_n$ باشد که $n-j$ توسط تابعی از $ انتخاب شده است. \gamma، \sigma$ (احتمالا نسبت آنها؟) و بپذیرید که آزمون نرخ اسمی نوع I را حفظ نخواهد کرد. چه ایده های بهتری وجود دارد؟ **ویرایش**: با توجه به نظرات عالی تاکنون، من معتقدم این سوال را می توان به صورت زیر فرموله کرد: اجازه دهید $V$ مجموعه محدب در $\mathbb{R}^n$ باشد که توسط: $$ V = \left تعریف شده است. \\{\mathbf{x} | x_n = 0, x_{i-1} \le x_i + \گاما, x_{i-1} \ge x_i - \گاما, i = 2,\ldots,n \right\\} $$ مشاهده بردار $X = f + \sigma\epsilon$، که در آن عناصر $\epsilon$ به طور مستقل از یک گاوسی استاندارد ترسیم میشوند، فرضیه صفر را آزمایش کنید: $$H_0: f \in V$$ از این نظر، شبیه مقاله Baraud _et است. al._ که توسط @Robin Girard ذکر شده است، به جز مقاله Baraud روشی برای موردی ارائه می دهد که $V$ یک زیرفضای خطی از $\mathbb{R}^n$ است، _نه_ یک polytope محدب. بر اساس این فرمول، به نظر می رسد که، در زیر صفر، فاصله مجذور از $X$ تا $f$ باید به صورت Chi-squared تا ضریب مقیاس بندی $\sigma^2$ توزیع شود. سپس فاصله از $X$ تا $V$ نباید بیشتر از آن باشد. سپس آزمون پیشنهادی یافتن پیشبینی $X$ روی $V$ و آزمایش فاصله از $X$ تا آن پیشبینی بر اساس کران مجذور کای است. من تصور می کنم این تست قدرت نسبتا کمی خواهد داشت. شاید کوتاه کردن مشاهده به یک زیر مجموعه نهایی از $X_i$ قدرت بالاتری داشته باشد... | تست مکان تحت یک غیر ایستایی محدود؟ |
71797 | من با محاسبه اهمیت یک اثر ثابت در آزمایش طراحی تودرتو ساده مشکل دارم. فرض کنید یک مجموعه داده ساده داریم: تک کلاس مقدار ind_mean replicate 1 A -0.37651119 -1.23495005 1 1 A -0.37651119 1.24107015 2 1 A -0.37651119 -0.411376 -0.411376 -1.09239410 4 2 A 0.01519211 0.15858308 1 2 A 0.01519211 0.69513257 2 2 A 0.01519211 0.05390850 3015 3015 A -0.84685576 4 3 A -0.19937009 0.49203770 1 3 A -0.19937009 0.06218100 2 3 A -0.19937009 -1.12546250 - 3193 A. -0.22623652 4 4 A 0.62853718 1.63792462 1 4 A 0.62853718 1.26212834 2 4 A 0.62853718 -0.52029892 3625 3624 A 0.13439466 4 5 B 2.38620939 2.67706019 1 5 B 2.38620939 1.71849546 2 5 B 2.38620939 2.31713740 3 385 B 2.83214451 4 6 B 0.91834030 -0.13221319 1 6 B 0.91834030 2.41841628 2 6 B 0.91834030 0.25367270 3916 B 0.25367270 3916 1.13348538 4 7 B 2.12694664 2.22003887 1 7 B 2.12694664 1.31492118 2 7 B 2.12694664 2.53495794 3146 B 2.53495794 3126 2.43786856 4 8 B 1.52867659 0.65959322 1 8 B 1.52867659 1.23188018 2 8 B 1.52867659 1.58976691 3526 B 1.58976692 3528 B 2.63346604 4 حالا اگر مدل lme را با این داده ها تطبیق دهم، > summary(lme(value ~ class, .~1|individual, data = d)) را دریافت می کنم... اثرات تصادفی: فرمول: . ~ 1 | individual (Intercept) Residual StdDev: 0.3643563 0.8430941 اثرات ثابت: مقدار ~ class Value Std.Error DF t-value p-value (Intercept) 0.016962 0.2785935 24 0.06019523 class. 0.3939908 6 4.373405 0.0047 ... به نظر می رسد همه چیز خوب است. با این حال، اگر مدل را در ستون «ind_mean» قرار دهم که به جای مقادیر اصلی، میانگینهای هر فرد را دارد، دقیقاً همان تخمینهای پارامتر ثابت، آمار و مقادیر p را دریافت میکنم. > summary(lme(ind_mean ~ class, .~1|individual, data = d)) ... اثرات تصادفی: فرمول: . ~ 1 | individual (Intercept) Residual StdDev: 0.5571871 1.854137e-16 اثرات ثابت: ind_mean ~ class Value Std.Error DF t-value p-value (Intercept) 0.016962 0.2785935 60920240. 1.723081 0.3939908 6 4.373405 0.0047 ... در واقع این p-value با p-value آزمون t معمولی مطابقت دارد، جایی که من مقایسه را بر روی میانگین افراد انجام می دهم. این البته منطقی است، زیرا مشاهدات اضافی در این مورد **هیچ اطلاعاتی را اضافه نمی کنند. با این حال، در مورد مدل اصلی، مشاهدات اضافی ** انجام ** اطلاعات اضافه می کند. در واقع، داده ها بدون هیچ گونه تأثیر فردی تولید شده اند، بنابراین آمار صحیح خواهد بود. > summary(lm(value ~ class, data = d)) ... Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.01696 0.22597 0.075 0.941 classB 1.72308 0.31957 5.392 7.7e-06 *** ... شهود آماری من نشان می دهد که اولین مدل p-value باید از مدل p-value در اینجا باشد. مدل سوم و دوم دقیقا نه همانند مدل دوم آیا شهود من اشتباه است؟ آیا من از روش به روش اشتباه استفاده می کنم؟ آیا روش هایی وجود دارد که به من مقادیر p مناسب تری بدهد؟ | چرا P-value اثر ثابت در یک مدل ترکیبی به طور غیر مستقیم عمل می کند؟ |
41526 | من می خواهم چند فرضیه ساده از فرم ارائه شده توسط T-Tests و ANOVA را امتحان کنم. با این حال، داده های من به طور معمول توزیع نمی شود (از توزیع پارتو پیروی می کند). درک من این است که T-Tests این فرض را ایجاد می کند که داده ها به طور معمول توزیع شده اند و بنابراین من نمی توانم از آنها استفاده کنم - آیا این درست است؟ آیا کار دیگری هست که بتوانم انجام دهم؟ **ویرایش** در اینجا اطلاعات بیشتری در مورد مشکل من وجود دارد. من سعی می کنم برخی از تجزیه و تحلیل های کیفی را روی نقص های نرم افزار انجام دهم و در دانستن اینکه از کجا شروع کنم با مشکل مواجه هستم. یک سوال اساسی که می خواهم به آن پاسخ دهم این است: > آیا نرم افزار تولید شده در بخش X دارای نقص بیشتری نسبت به بخش Y است؟ به عنوان پیشینه، تغییرات نرمافزار را بهعنوان «وصلهها» گروهبندی میکنیم، در این صورت این سؤال به این صورت میشود که آیا پچ متوسط از بخش X دارای نقصهای بیشتری نسبت به بخش > Y است؟ در اینجا یک هیستوگرام از اشکالات / پچ، N = 3700 وجود دارد. ایراداتی که جواب خوبی برای آنها ندارم. انتخاب بدیهی برای یکی از دانش محدود من، مقایسه میانگین نقایص در هر گروه است، اما همانطور که دیگران اشاره کردند این بهترین انتخاب نیست. معیاری که توسط Procrastinator ($P(X<Y)$) پیوند داده شده است، به نظر میرسد که شهود من را به خوبی جذب میکند. | آزمون فرضیه برای توزیع های پارتو |
96214 | طبق الگوریتم $K$-means، 1. به طور تصادفی یک گروه یا خوشه به هر نقطه اختصاص دهید. # مرحله اولیه 2. مرکزهای تمام گروه های $K$ را محاسبه کنید. 3. با اندازه گیری فاصله تا مرکز، هر نقطه را به نزدیک ترین گروه ها اختصاص دهید. 4. روی 2 تا 3 تکرار کنید تا همگرایی. فکر می کنم درک من در مورد این الگوریتم درست است، اگر نه، لطفاً من را اصلاح کنید. مشکل من اینجاست. من یک مجموعه داده دارم، و میخواهم خوشههای $3$ را با استفاده از $K$-means پیدا کنم، و حالا فرض کنید بعد از مرحله اولیه (مرحله 1)، به نظر میرسد: 1112 33233، و خوشه-2 به طور تصادفی انتخاب شده است. یک تراژدی، زیرا مرکز خوشه-2 در وسط خوشه-1 و خوشه-3 قرار دارد و بعد از مرحله-2 و مرحله-3، همه نقاط (فقط دو 2) به خوشه-1 و خوشه-3 تخصیص داده می شوند و خوشه-2 خالی می ماند. برای واقعی؟ من 3 خوشه می خواهم، اما در نهایت به 2 می رسم؟ فقط به دلیل وضعیت اولیه نامناسب؟ با این چیکار کنم؟ | K-means کمتر از گروه های K پیدا می کند |
7146 | سلام من داده های باد را برای تخمین انرژی از یک توربین بادی تجزیه و تحلیل می کنم. من 10 سال داده های باد را گرفتم و یک نمودار هیستوگرام ترسیم کردم. مرحله دوم من برازش توزیع Weibull به داده ها بود. من از R با بسته lmom برای محاسبه شکل و مقیاس Weibul استفاده کردم. این کدی است که استفاده کردم: >library(lmom) wind.moments<-samlmu(as.numeric(pp$WS)) moments<-pelwei(wind .moments) x.wei<-rweibull(n=length(pp$WS)، shape=moments[delta]، scale=moments[beta]) hist(as.numeric(pp$WS), freq=FALSE) lines(density(x.wei)، col=red، lwd=4) به نظر می رسد کمی تاخیر وجود دارد بین داده ها و تابع چگالی؛ می توانید در این مورد به من کمک کنید؟ یک سوال دیگر این است که می توانید در محاسبه انرژی سالانه از تابع چگالی به من کمک کنید؟  متشکرم | تجزیه و تحلیل داده های باد با R |
18746 | من در حال جمع آوری داده های زیادی از نورون ها هستم و هر نورون را جداگانه تجزیه و تحلیل خواهم کرد. آیا انتخاب بهترین از بین چندین مدل بر اساس AICc _برای هر نورون_ و سپس استفاده از مقادیر p ANOVA از بهترین مدل معتبر است؟ یا باید AICc را فقط روی داده های اولیه اجرا کنم و سپس از بهترین مدل برای تجزیه و تحلیل هر نورون استفاده کنم؟ تصور من این بود که انتخاب مدل در مرحله طراحی آزمایشی اولیه فقط از نظر آماری معتبر است، اما اکنون در یافتن این موضوع که به صراحت بیان شده است با مشکل مواجه هستم. مراجع بسیار قدردانی می شود. | آیا می توان از معیار AICc (معیار اصلاح شده اطلاعات Akaike) برای تجزیه و تحلیل پس از آن استفاده کرد؟ |
89929 | من از یک طرح 2X3X4 استفاده می کنم که دارای iv های زیر است: نمرات اضطراب اجتماعی (دو گروه اساساً نمرات بالا و پایین) 3 احساس و 4 جهت نگاه. من باید آزمایش کنم که آیا گروه ها اساساً متفاوت هستند یا نه (قبل از اینکه آنوای مختلط خود را انجام دهم). من فکر کردم که می توانم این کار را از طریق یک آزمون t مستقل انجام دهم. همانطور که سعی کردم یکی را انجام دهم، تفاوت بین هر شرایط را به صورت جداگانه آزمایش کرده است. چگونه می توانم آنها را برای تفاوت آزمایش کنم، آیا این موضوع به نحوه ارائه داده ها در بیننده داده مربوط می شود؟ یا روش دیگری برای انجام آن است؟ | تقسیمبندی دادهها - نحوه آزمایش تفاوت (آزمون t مستقل بالقوه) SPSS |
101353 | من به دنبال منابعی در مورد مدل خطرات متناسب کاکس با متغیرهای کمکی متغیر هستم. من در تجزیه و تحلیل بقا تازه کار هستم، بنابراین به دنبال چیزی هستم که بیش از حد ریاضی نباشد. همچنین از هرگونه اطلاعاتی در مورد پیاده سازی نرم افزاری که می تواند با این مشکل مقابله کند قدردانی می کنم. | رگرسیون کاکس با متغیرهای کمکی متغیر زمان |
41881 | من در درک آمار کامل کافی مشکل دارم؟ اجازه دهید $T=\Sigma x_i$ یک آمار کافی باشد. اگر $E[g(T)]=0$ با احتمال 1، برای تابعی از $g$، آنگاه یک آمار کاملاً کافی است. اما این به چه معناست؟ من نمونه هایی از یونیفرم و برنولی را دیده ام (صفحه 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf)، اما شهودی نیست، با دیدن ادغام بیشتر گیج شدم. آیا کسی می تواند به روشی ساده و شهودی توضیح دهد؟ | آمار کامل و کافی چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.