_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
40400
من در حال انجام پروژه ای هستم که در آن باید مقادیر فعال سازی fMRI را برای هر وکسل مغز پیش بینی کنم. وکسل ها تقریباً 20000 است و من 300 نمونه با 25 ویژگی در هر کدام دارم. بنابراین تعداد زیادی متغیر وابسته وجود دارد. بهترین روش‌ها در این زمینه تحلیل چند متغیره کدامند؟ من در این زمینه تازه کار هستم و اگر مرا در مسیر درست راهنمایی کنید بسیار مفید خواهد بود.
تکنیک های تجزیه و تحلیل چند متغیره برای داده های fMRI
103429
من 2 متغیر دارم که هر کدام 500 نمونه دارند. و من می خواهم یک مقدار $p$ دریافت کنم که به من اهمیت ارتباط بین آن 2 متغیر را می دهد. راه دریافت این $p$-value در R چیست؟ من توابع «fisher.test» و «chisq.test» را بررسی کردم، اما فکر می‌کنم هر دوی آنها به متغیرهای با مقدار صحیح نیاز دارند در حالی که متغیرهای من هر دو دارای ارزش واقعی هستند. و وقتی تابع cor.test را امتحان می کنم، مقادیر p بسیار بزرگ هستند (حدود 0.05) حتی زمانی که همبستگی بین متغیرها بسیار زیاد است (حدود 0.99)، که برای من منطقی نیست.
11385
من سعی می کنم آزمایش کنم که آیا رگرسیون من یک مسئله ناهمسانی دارد یا خیر. پس از اجرای یک رگرسیون، به وضوح می توانم ببینم که نمودار باقیمانده دارای یک الگو است. پس از گرفتن گزارش از متغیر وابسته، الگوی بسیار بسیار کاهش می یابد. آزمون White بر روی فرمول اصلی مقدار p 0.0004 را قبل از تبدیل (مدل با الگوی قوی در باقیمانده ها) و مقدار p 0.08 را پس از تبدیل log برمی گرداند. من می توانم ببینم که مدل دوم ناهمگنی کمتری در طرح دارد، اما چگونه می توانم نتایج آزمایش وایت را تفسیر کنم؟ آیا مقدار اول به این معنی است که می‌توانیم وجود ناهمسانی را با اهمیت (100-0.0004)٪ رد کنیم، در حالی که در مدل دوم، مثلاً با اطمینان 95٪ می‌توانیم آن را رد کنیم؟
رگرسیون خطی، ناهمسانی، تفسیر آزمون وایت؟
15474
بگویید من جدول احتمالی 2 * 2 دارم که در آن یکی از سلول ها به طور قابل توجهی از همه سلول های دیگر بزرگتر است، مانند این: P1 P2 C1 6 11 C2 81 12201 آیا استفاده از آزمون دقیق فیشر در اینجا مناسب است و می توانید به من اشاره کنید دفاع از آن انتخاب؟ اگر نه، چه آزمونی بهتر از اهمیت است؟
اگر یک سلول بسیار بزرگتر از بقیه باشد، آزمایش دقیق فیشر مناسب است؟
43276
من آزمایشی را با استفاده از دو روش مختلف انجام دادم. داده ها درصد هستند و درصدهای بالاتر نشان دهنده روش بهتر است. نتایج به شرح زیر بود: روش 1: 74.47،79.34،72.85،83.54،75.18،73.58،70.06، 73.35،74.41،78.35،73.14،81.55،76.21، روش 726. 83.25،85.14،81.61،77.59،79.38،80.24،79.94،82.54،78.22، 83.21،82.54،77.67،83.51،78.87، میانگین روش 1، 78.87، 70.51، 78.87 است و میانگین روش 1، 76 است. 2 به دلیل ارزش میانگین بهتر است. بازبین‌ها از من خواسته‌اند شواهد آماری قوی‌تری ارائه کنم که روش 2 عملکرد بهتری نسبت به روش 1 دارد. به طور خاص: > نظر 1: نتایج در چارچوب آماری قابل اعتماد می‌شوند > مقادیر p یا سایر معیارهای آماری تفاوت را ارائه می‌کنند. > > نظر 2: یک تجزیه و تحلیل آماری باید انجام شود تا شواهد قوی با توجه به بهترین عملکرد روش 2 نسبت به روش > 1 ارائه شود.
چگونه می توان شواهد آماری مبنی بر اینکه یک روش آزمایشی میانگین درصدهای بالاتری را ارائه می دهد ارائه کرد؟
19156
من سعی می‌کنم کمیت کنم که شرکت‌های نظرسنجی مختلف در یک انتخابات اخیر در یک سیستم چند حزبی چقدر خوب (یا ضعیف) عمل کردند (بنابراین، به آسانی نمی‌توان گفت که چقدر در یک مسابقه دو اسبی امتیاز اشتباه گرفته‌اند). بنابراین، بگوییم که نتیجه انتخابات واقعی این بود: شرکت انتخاباتیA شرکتB حزب A 0.3 0.3 0.3 حزب B 0.6 0.5 0.4 حزب C 0.3 0.2 0.3 در ابتدا فکر می کردم با استفاده از اندازه نمونه هر نظرسنجی برای محاسبه مقادیر مورد انتظار، یک Chi Squared انجام دهم (و مشاهده شده به عنوان تعداد به جای نسبت). به این ترتیب، من می‌توانم اندازه‌گیری مناسبی از تطابق داده‌های هر شرکت با استاندارد خارجی داشته باشم - اما نمی‌دانم چگونه می‌توانم بپرسم که آیا برآورد CompanyA تناسب قابل توجهی بدتر از شرکت B با نتیجه دارد یا خیر. من مطمئن هستم که چیز بی اهمیتی وجود دارد که نمی توانم آن را درک کنم، بنابراین خوشحالم که پاسخی دریافت می کنم که مرا در مسیر دیگری قرار می دهد. _**به روز رسانی** (از پیتر فلوم برای کمک به این موضوع تشکر می کنم)_ فقط برای روشن شدن. چیزی که من واقعاً می‌خواهم بدانم این است که چه کسی به تطبیق پیش‌بینی‌های خود با نتیجه نهایی در همه طرف‌ها نزدیک‌تر شده است. بنابراین، حدس می‌زنم بهترین متریک مجموع مجذور تفاوت‌ها باشد
مقایسه دقت شرکت های نظرسنجی در سیستم چند حزبی
89175
من یک کلاس تابع $\mathcal{F}$ دارم. من $n$ نمونه بر اساس مدل $$y = f^*(x)+\epsilon$$ دریافت می‌کنم بهترین $\hat{f}$ را از این نمونه‌های آموزشی پیدا می‌کنم، یعنی $$\hat{f} = \ arg\min\limits_{f\in \mathcal{F}} \frac{1}{n}\sum\limits_{i=1}^n (y_i-f(x_i))^2$$ اجازه دهید $\bar{f} = E[\hat{f}]$، که در آن انتظار بیش از همه نمونه‌های آموزشی است. اکنون، میانگین خطای تست توسط \begin{align*} E[(y_0-\hat{f}(x_0))^2] &= E\left[\left((y_0-f^*(x_0)) داده می‌شود. ) + (f^*(x_0)-\bar{f}(x_0)) + (\bar{f}(x_0)-\hat{f}(x_0))\right)^2\right]\\\ &= E[(y_0-f^*(x_0))^2] + \color {red}{E\left[\left((f^*(x_0)-\bar{f}(x_0)) + (\bar{f}(x_0)-\hat{f}(x_0))\right)^2\right]}\\\ &\stackrel{\color{red}{?}} = E[(y_0- f^*(x_0))^2] + \color{red}{E\left[(f^*(x_0)-\bar{f}(x_0))^2\right] + E\left[(\bar{f}(x_0)-\hat{f}(x_0))^2\right]} \end{align*} مرحله دوم به این دلیل است که $y_0-f^*(x_0)= \epsilon_0$، که مستقل از $x_0$ است. با این حال، نمی‌دانم که چگونه $f^*(x_0)-\bar{f}(x_0)$ مستقل از $\bar{f}(x_0)-\hat{f}(x_0)$ برای سوم است گام $f^*(x_0)-\bar{f}(x_0)$ به میانگین تمام نمونه‌ها مربوط می‌شود، در حالی که $\bar{f}(x_0)-\hat{f}(x_0)$ به نمونه فعلی بستگی دارد، و ما می دانیم که نمونه ها مستقل هستند، اما چگونه این نشان دهنده استقلال آنها است؟
متعامد بودن در مبادله واریانس سوگیری
21233
چرا روش استوفر اغلب بر روی z هایی انجام می شود که با مقادیر $p$- یک دنباله مطابقت دارند، در حالی که ریاضیات اجازه می دهد z هایی که با مقادیر $p$-دو دنباله مطابقت دارند؟
چرا روش استوفر اغلب با مقادیر $p$-یک دنباله به جای $p$-values ​​دو طرفه استفاده می شود؟
19158
من 2 جلد دارم: * لیست 1 در کل شامل 1 میلیون کلمه است. این نشان دهنده استفاده کلی نوشتاری است. * فهرست 2 در مجموع شامل 5 میلیون کلمه است. این نشان دهنده یک زیر ژانر ادبیات است. من می خواهم کلماتی را که مخصوص آن ژانر هستند جدا کنم. با مقایسه این دو لیست با استفاده از نرم افزارهایی که نوشتم، می توانم داده هایی مانند این را دریافت کنم: * کلمه elephant 20 بار در لیست 1 ظاهر می شود. * کلمه elephant 100 بار در لیست 2 ظاهر می شود. * کلمه forest 20 بار در لیست ظاهر می شود. 1. * کلمه جنگل 300 بار در لیست 2 آمده است. در این مورد، به نظر من واضح است که فیل چندان خاص این ژانر نیست. (20/1000000 = 100/5000000)، با این حال، جنگل احتمالاً خاص است (20/1000000 < 300/5000000). با این حال، مواردی وجود دارد که تصمیم گیری دشوارتر به نظر می رسد: * کلمه پل 20 بار در لیست 1 ظاهر می شود. * کلمه پل 150 بار در لیست 2 ظاهر می شود. * کلمه راکون در لیست 1 ظاهر می شود. زمان در لیست 1. * کلمه راکون 10 بار در لیست 2 ظاهر می شود. در مثال اول، پل بیشتر در لیست 2 ظاهر می شود، اما آیا این تفاوت قابل توجه است؟ در مثال دوم، راکون 10 برابر بیشتر در لیست 2 ظاهر می شود، اما با توجه به اینکه تعداد کل موارد بسیار کم است، آیا این مهم است؟ * چگونه می توانم یک نقطه برش برای تصمیم گیری در مورد کلمات خاص برای ژانر به دست بیاورم؟
مقایسه کلمات در 2 مجموعه برای یافتن تفاوت های قابل توجه
89179
بسیار در امتداد خطوط «نمونه‌های واقعی توزیع‌های رایج» برایم جالب است که آیا کسی نمونه‌های آموزشی دارد که برای آموزش چولگی منفی استفاده می‌شود؟ نمونه‌های متعارف فراوانی از توزیع‌های متقارن یا عادی وجود دارد که در آموزش استفاده می‌شوند - حتی اگر نمونه‌هایی مانند قد و وزن تحت بررسی دقیق‌تر بیولوژیکی قرار نگیرند! شاید فشار خون نزدیک به حد طبیعی باشد. من از مثال تاریخی خطاهای اندازه گیری نجومی خوشم می آید - شهودی است که احتمال اینکه آنها در یک جهت قرار بگیرند بیشتر از دیگری نیستند، و خطاهای کوچک بیشتر از بزرگ هستند. همچنین ده ها مثال آموزشی رایج برای چولگی مثبت وجود دارد. درآمد مردم؛ مسافت پیموده شده در اتومبیل های دست دوم برای فروش; زمان واکنش در یک آزمایش روانشناسی؛ هزینه های خانه؛ تعداد خسارت های ناشی از تصادف توسط مشتری بیمه؛ تعداد فرزندان یک خانواده معقول بودن فیزیکی چنین مثال هایی اغلب از توزیع هایی ناشی می شود که در زیر (معمولاً با صفر) محدود می شوند، با مقادیر پایین قابل قبول یا حتی معمول هستند، در حالی که مقادیر بسیار بزرگ (گاهی اوقات، مرتبه های بزرگی) نیز مشخص است که رخ می دهند. اما برای انحراف منفی، نمونه‌های واضح و واضح فراوان نیستند، شاید به دلیل عدم توزیع واقعی با کران بالایی واضح باشد. مثال بد ذوقی که در مدرسه به من آموختند «تعداد انگشتان» بود. اکثرا ده نفر دارند، اما از دست دادن یک یا چند مورد در یک تصادف غیرمعمول نیست. (نتیجه این بود که 99٪ افراد تعداد انگشتانشان بالاتر از حد متوسط ​​است!) Polydactyly این موضوع را پیچیده تر می کند، بنابراین ده یک حد بالایی نیست. و از آنجایی که هر دو انگشت گم شده و اضافی رویدادهای نسبتاً نادری هستند، دانش آموزان ممکن است شهود روشنی نداشته باشند که کدام یک از تأثیرات غالب است. در عوض، من معمولاً از توزیع دو جمله ای با _p_ بالا استفاده می کنم. اما دانش‌آموزان اغلب «تعداد مؤلفه‌های رضایت‌بخش در یک دسته به‌طور منفی منحرف است» نسبت به این واقعیت مکمل که «تعداد مؤلفه‌های معیوب در یک دسته دارای انحراف مثبت است» کمتر شهودی می‌دانند. (کتاب درسی موضوعی صنعتی دارد؛ من در واقع از تعدادی تخم مرغ شکسته و دست نخورده در یک بسته 12 تایی استفاده می کنم.) به نظر می رسد دانش آموزان احساس می کنند که موفقیت باید نادر باشد. در واقع برخی از جداول احتمال تجمعی دوجمله ای به $p \leq 0.5$ نیاز دارند، بنابراین این را اجرا کنید، و من اغلب متوجه شده ام که دانش آموزان با سوالاتی که نیاز به گرفتن $p > 0.5$ دارند، مشکل دارند تا با سوالاتی که به طور غیر شهودی از آنها خواسته می شود ابتلا به یک بیماری وحشتناک را به عنوان موفقیت! گزینه دیگر این است که به این نکته اشاره کنیم که اگر $X$ دارای یک توزیع دارای انحراف مثبت باشد، آنگاه $-X$ دارای انحراف منفی است، اما تلاش برای قرار دادن آن در یک زمینه عملی (قیمت‌های خانه منفی منحرف شده است) محکوم به شکست آموزشی شاید مشکل انگشتان یا تخم مرغ های دست نخورده به عنوان مثال این باشد که (الف) بسیار مصنوعی هستند، (ب) دارای یک برش شدید در حالت هستند. نمونه‌های انحرافی مثبت خوب، مانند درآمد، اغلب توزیع آرامی دارند، که دانش‌آموزان برای آگاهی از شکل آن تجربه زندگی کافی دارند. آیا مجموعه داده های مشابهی، شناخته شده یا به راحتی قابل درک، وجود دارد که به طور موثر چولگی منفی را نشان می دهد؟
نمونه های واقعی از توزیع ها با چولگی منفی
72299
ویکی‌پدیا تعریف قابل قبولی از _متغییر_ دارد که دقیقاً با دیکشنری اپیدمیولوژی مطابقت دارد. طبق گفته وبستر، اولین استفاده شناخته شده در سال 1965 بود. اما نمایشگر گوگل n-gram آن را زودتر نشان می دهد، اگرچه من گمان می کنم بسیاری از اسناد اولیه به اشتباه تاریخ گذاری شده اند. با این حال، هیچ یک از اینها واقعاً به سؤال من پاسخ نمی دهد، که این است: این اصطلاح که اکنون همه جا حاضر است از کجا آمده است؟
94200
من علیت را همانطور که در اقتصاد خرد استفاده می شود (به ویژه طراحی ناپیوستگی IV یا رگرسیون) و همچنین علیت گرنجر را همانطور که در اقتصاد سنجی سری زمانی استفاده می شود درک می کنم. چگونه یکی را با دیگری مرتبط کنم؟ به عنوان مثال، من هر دو روش را دیده ام که برای داده های پانل استفاده می شود (مثلا $N=30$، $T=20$). هر گونه ارجاع به مقالات در این زمینه قابل تقدیر خواهد بود.
علیت در اقتصاد سنجی خرد در مقابل علیت گرنجر در اقتصاد سنجی سری زمانی
19151
این یک رویکرد ساده است که مجموعه‌ای از مختصات دارد (مثلاً در دوبعدی به عنوان «{x,y}») و حداقل یک متغیر مرتبط (مثلاً «v») برای محاسبه **واریوگرام** به عنوان توصیف‌کننده وابستگی فضایی متغیر v از طریق میدان مورد مطالعه. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mhYnX.jpg) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FFB5j.jpg) سوال به نظر من این است: **چگونه می توان یک مجموعه داده با واریوگرام تولید کرد؟ (حرکت معکوس!)** یعنی حداقل یک واریوگرام موجود است اما نه مجموعه داده و نه توضیحات دیگری در دسترس است و هدف ایجاد یک مجموعه داده اصلی (ناشناخته) است که می تواند چنین واریوگرام را داشته باشد. احتمال چنین تحققی چقدر است؟ ** به روز رسانی ها / نظرات: ** از variogram در زمینه بالا منظور من از variogram تجربی است. من فکر می کنم که مناسب کردن یک مدل واریوگرام حداقل برای این سوال مشکلی نیست. همچنین واریوگرام به صورت جفت (h، گاما) در دسترس است.
تولید داده برای دنبال کردن واریوگرام داده شده
19150
من سعی می کنم دو ANOVA درون موضوعی (فقط) را اجرا کنم و پیام های خطای زیر را دریافت کنم: اولی یک ANOVA 3 طرفه با 11 موضوع و 48 مشاهده در هر موضوع است. من یک آموزش آنلاین را دنبال کردم تا سعی کنم از تابع Anova استفاده کنم و پیام خطای زیر را دریافت کنم: > خطا در linearHypothesis.mlm(mod, hyp.matrix, SSPE = SSPE, idata = idata, : > ماتریس خطای SSP ظاهراً ناقص است رتبه = 10 < 18 این کد R من برای اجرای ANOVA است: block_aov <- factor(rep(c(b0، b1، b2، b3)، c(12، 12، 12، 12))، level=c(b0، b1، b2 , b3)) set_aov <- factor(rep(rep(c(s0، s1، s2، s3)، c(3، 3، 3، 3))، c(4) سطوح = c(s0، s1، s2، s3)) quality_aov <- factor(rep(c(q0، q1، q2)، 16)، سطوح = c(q0 ، q1، q2)) idata <- data.frame(block_aov, set_aov, quality_aov) av.ok <- Anova(lm(formula = cbind(b0s0q0, b0s0q1, b0s0q2, b0s1q0, b0s1q1, b0s1q2, b0s2q0, b0s2q1, b0s2q2, b0s3q0, b0s3q1, b0s3q2, b1s0q1, b0s3q2, b1s0q1, b1, b1s0q1, b1 b1s1q1، b1s1q2، b1s2q0، b1s2q1، b1s2q2، b1s3q0، b1s3q1، b1s3q2، b2s0q0، b2s0q1، b2s0q2، b2s1q0، b2s1q1، b2s2، b2s1q2 b2s2q2، b2s3q0، b2s3q1، b2s3q2، b3s0q0، b3s0q1، b3s0q2، b3s1q0، b3s1q1، b3s1q2، b3s2q0، b3s2q1، b3s2q2، b3s3q1، b3s3q2، b3s3q1، b3s3q = space_zero)، idata = idata، idesign = ~ block_aov * set_aov * quality_aov، type = III) سپس آموزش استفاده از تابع `ezANOVA` را دنبال کردم و همان پیغام خطا را دریافت کردم و به دنبال آن چهار پیام خطا دریافت کردم. دومین ANOVA با اندازه گیری های مکرر که من سعی کردم اجرا کنم، 4 طرفه با 17 موضوع و 144 مشاهده برای هر موضوع بود. برای این کار، هنگام تلاش برای تطبیق یک مدل خطی با داده‌ها، پیام خطایی دریافت کردم: lm(cbind(b0s0p0q0, b0s0p0q1, b0s0p0q2, b0s0p1q0, b0s0p1q1, b0s0p1q2, b0s0p2q0, b0s0p2q0, b0s0, b0s0p0q0, b0s0, b0s1p0q0, b0s1p0q1, b0s1p0q2, b0s1p1q0, b0s1p1q1, b0s1p1q2, b0s1p2q0, b0s1p2q1, b0s1p2q2, b0s2p0q0, b0s1p2p0, b0s1p2p0, b0s1p2p0 b0s2p1q1, b0s2p1q2, b0s2p2q0, b0s2p2q1, b0s2p2q2, b0s3p0q0, b0s3p0q1, b0s3p0q2, b0s3p1q0, b0s3p1q1, b0s2q, b0s3p1q1, b0s3p2q1, b0s3p0q1 b0s3p2q2, b1s0p0q0, b1s0p0q1, b1s0p0q2, b1s0p1q0, b1s0p1q1, b1s0p1q2, b1s0p2q0, b1s0p2q1, b1s0p2q2, b1s0p1p1, b1s0p1p1, b1s0p1p0 b1s1p1q0, b1s1p1q1, b1s1p1q2, b1s1p2q0, b1s1p2q1, b1s1p2q2, b1s2p0q0, b1s2p0q1, b1s2p0q2, b1s2p1q0, b1s1p2p1, b1s2p2p1 b1s2p2q1، b1s2p2q2، b1s3p0q0، b1s3p0q1، b1s3p0q2، b1s3p1q0، b1s3p1q1، b1s3p1q2، b1s3p2q0، b1s3p2q1، b1s3p1q0، b1s3p2q1، b1s3p2p2، b1s3p1q0 b2s0p0q2، b2s0p1q0، b2s0p1q1، b2s0p1q2، b2s0p2q0، b2s0p2q1، b2s0p2q2، b2s1p0q0، b2s1p0q1، b2s1p0q2، b2s0p1p2، b2s1p2q1 b2s1p2q0, b2s1p2q1, b2s1p2q2, b2s2p0q0, b2s2p0q1, b2s2p0q2, b2s2p1q0, b2s2p1q1, b2s2p1q2, b2s2p2q0, b2s2p0q0, b2s2p2p2, b2s2p2p2 b2s3p0q1, b2s3p0q2, b2s3p1q0, b2s3p1q1, b2s3p1q2, b2s3p2q0, b2s3p2q1, b2s3p2q2, b3s0p0q0, b3s0p0q1, b2s3p1q1, b3s0p1q1, b3s0p1, b3s0p0 b3s0p1q2, b3s0p2q0, b3s0p2q1, b3s0p2q2, b3s1p0q0, b3s1p0q1, b3s1p0q2, b3s1p1q0, b3s1p1q1, b3s1p1q2, b3s1p2, b3s1p2, b3s1p2, b3s1p2, b3s1p2, b3s2p0q0, b3s2p0q1, b3s2p0q2, b3s2p1q0, b3s2p1q1, b3s2p1q2, b3s2p2q0, b3s2p2q1, b3s2p2q2, b3s3p0q0, b3s2p1q0, b3s2p3p0, b3s2p1q2 b3s3p1q1, b3s3p1q2, b3s3p2q0, b3s3p2q1, b3s3p2q2) ~ 1, data = spacing_no_out) > خطا در model.matrix.default(mt، mf، تضادها): قاب مدل و فرمول > عدم تطابق اطلاعات با مدل. من عرضه کردم (و با فرض من وقتی سعی می‌کنید از تابع «ezANOVA» برای مورد اول استفاده کنید، نحو درست است، اگر کسی بتواند به من بگوید چه کار اشتباهی انجام می‌دهم، یا برای تحلیلی که می‌خواهم انجام دهم، چه راه حلی می‌تواند داشته باشد، سپاسگزارم.
مشکلات با توابع Anova/ezANOVA/lm برای تجزیه و تحلیل اندازه‌گیری‌های مکرر در مجموعه داده بزرگ
69959
من می خواهم یک رگرسیون لاجیت چند جمله ای ایجاد کنم و بنابراین باید چند خطی بودن و همبستگی خودکار را بررسی کنم. همه متغیرهای من مقیاس اسمی با چهار دسته هستند. من بسته perturb را در R برای آزمایش چند خطی پیدا کردم. من آن را امتحان کردم و خروجی زیر را برای یک مدل لاجیت چند جمله ای با یک متغیر مستقل a دریافت کردم. > a<-sample(4,100, TRUE) > c<-sample(4,100, TRUE) > مورد نیاز(اتومبیل) مورد نیاز(perturb) > a<-as.ordered(a) > c<-as.factor(c) > test<-multinom(c~a) pert.1<-perturb(test) $distribution [1] normal $coeff.table (Intercept) a2 a3 a4 [1،] 0.3629135 19.35080 14.24745 -9.612242 [2،] -2.7724858 22.16780 19.90884 -7.518942 [3،] -115.1831.1600. 26.503249 ... من خلاصه خروجی را خلاصه کردم (pert.1, dec.places = 3, full = TRUE) فرمول: Category ~ c13 formula2: Category ~ c13 Impact of perturbations on coefficients: mean s.d. حداقل حداکثر (رهگیری) -6.190 7.177 -16.160 0.363 a2 18.398 3.537 13.676 22.168 a3 21.979 7.319 14.247 31.782 31.782 31.782 a4 -41961. 26.503 آیا می دانید چگونه این خروجی را تفسیر کنید؟ آیا فرمولی برای تست همبستگی وجود دارد؟ تابع دیگری برای کنترل هم خطی وجود دارد، اما من یک خطای ماساژ دریافت کردم > colldiag(mod = multinom(c~a)، مقیاس = FALSE، مرکز = FALSE، add.intercept = TRUE) # وزن: 20 (12 متغیر) اولیه مقدار 241.215219 iter 10 مقدار 116.300246 iter 20 مقدار 113.703102 iter 30 مقدار 113.686744 iter 40 مقدار 113.685795 iter 50 مقدار 113.685662 مقدار نهایی 113.685659 همگرا Index Condition Variance Variance Decomposition پیام 11000. is.na(object): آیا.na() به غیر (لیست یا برداری) از نوع 'NULL' اعمال می شود آیا انجام این کار برای داده های ترتیبی امکان پذیر نیست؟ با تشکر
چند خطی بودن را برای رگرسیون لاجیت چند جمله ای آزمایش کنید
79248
این مثال از Casella و Berger صفحه دوم 146 است. شما $$f(x,y)=e^{-y}، 0<x<y< \infty $$ دارید و علاقه مند به پیدا کردن $$P( X+Y\ge1)$$ این مشکل را به روش زیر حل کردند $$P(X+Y\ge1)=1-P(X+Y<1)=1-\int_0^{1/2}{\int_x^{1-x}{e^{-y}dydx} }\\\= 1-\int_0^{1/2}{(e^{-x}-e^{-(1-x)}dx)}=2e^{-1/2}-e^{ -1}$$ سوال من این است که چرا آیا آنها آن را به این طریق حل کردند؟ 1) چرا نمی توانم فقط $P(X+Y\ge1)$ را به جای $1-P(X+Y<1)$ حل کنم؟ من گیج شدم زیرا مثال قبل از این به روش دیگری حل شد. آنجا $f(x,y)=6xy^2$ و برای حل $P(X+Y\ge1)$، $$P(X+Y\ge1)=\int_0^1\int_{1-y}^ 16xy^2dxdy=9/10$$ 2) چرا حد انتگرال برای x 0 تا 1/2 است؟ از کجا این مقدار را پیدا کنم؟ آنها این را با استفاده از نمودار حل می کنند، اما آیا راهی برای توجیه روش خود بدون استفاده از نمودار وجود دارد؟
19155
چگونه باید تعداد عناصر منحصر به فرد را در فهرستی که به طور تصادفی در هم ریخته شده است تخمین بزنم؟ من در شرایطی هستم که حافظه ای که دارم بسیار کوچکتر از حافظه مورد نیاز برای ذخیره تمام عناصر منحصر به فرد است. چیزی کارآمد با فاصله اطمینان و/یا مرجعی برای چنین روشی عالی خواهد بود
شمارش عناصر متمایز زمانی که حافظه محدود است
52267
من از رگرسیون لجستیک برای طبقه بندی داده ها به دو کلاس استفاده می کنم. متغیری برای پیش‌بینی (Y) 0 یا 1 است. من با رگرسیون لجستیک تخمین نسبتاً خوبی از Y پیدا کردم و در نهایت از مجموعه‌ای از متغیرها به عنوان متغیرهای پیش‌بین استفاده کردم (بقیه کاملاً همبسته بودند یا کاهشی نداشتند. هنگام اضافه شدن خطای زیادی دارد). مجموعه متغیرهای انتخابی من هنگام استفاده از AIC به عنوان معیار بهینه‌سازی، بهینه است. به هر حال، به این نکته: من قبلاً هرگز از توابع رگرسیون به عنوان طبقه‌بندی کننده استفاده نکرده‌ام، و مطمئن نیستم که چگونه این طبقه‌بندی کننده را به خوبی آزمایش کنم. استاد من اعتبار متقاطع را پیشنهاد کرد، اما من متوجه نمی شوم که چرا اعتبار متقاطع انتخاب خوبی است در این مورد. من یک مجموعه داده نسبتاً بزرگ دارم (196). اگر تابع رگرسیون من به بهترین شکل ممکن نشان داده شود (با توجه به مقداری بهینه تعریف شده، من از AIC به عنوان معیار استفاده می کنم)، چرا باید حتی آن را آزمایش کنم؟ آیا ممکن است طبقه‌بندی‌کننده من بیش از حد برازش داشته باشد، و بنابراین آیا باید برخی از داده‌ها را کنار بگذارم تا در پایان فقط از آنها به عنوان آزمایش/ اعتبارسنجی استفاده کنم؟ من در این زمینه کمی تازه کار هستم. پیشاپیش از همه کمک ها متشکرم (من 196 بردار ویژگی و 22 ویژگی برای این مورد خاص دارم که از 12 مورد از آنها در پیش بینی Y استفاده می کنم).
رگرسیون لجستیک به عنوان طبقه بندی کننده و بیش از حد برازش
43182
این تکلیف است، اما من نسبتاً گیر کرده ام و TA برای کلاس هنوز راه حل های خود را ارائه نکرده است. هر گونه کمکی در جهت حرکت من در جهت مناسب بسیار قدردانی خواهد شد. من در تعیین کوچکترین اندازه نمونه مورد نیاز برای تشخیص با احتمال 90٪ اختلاف یک علامتی بین دو میانگین $\mu_1$ و $\mu_2$ مشکل دارم، زمانی که $\alpha = 0.05$ است. در مرحله دوم، اگر تفاوت بین $\mu_1$ و $\mu_2$ 2 باشد، مقدار $\beta$ برای آزمایش انجام شده از من پرسیده می‌شود. میانگین از دو متغیر تصادفی مستقل استخراج شده از توزیع‌های نرمال می‌آید (به عنوان مثال، $X_1 \ sim \mathcal N(\mu_1، \sigma_1^2)$ و $X_2 \sim \mathcal N(\mu_2، \sigma_2^2)$، با $n_1 \neq n_2$ می دانم برای فرضیه جایگزین دو طرفه با سطح معنی داری $\alpha$ و $n_1 = n_2$ به منظور تشخیص تفاوت بین میانگین ها با توان $1-\. beta$ عبارت است از: $$n \approx \frac{(Z_{\alpha / 2} + Z_{\beta})^2(\sigma_1^2 + \sigma_2^2)}{(\delta - \delta_0)^2}$$ برای $n_1 \neq n_2$ آیا اندازه نمونه برای هر توزیع استاندارد می شود، یعنی $(\sigma_1^2 + \sigma_2^2 )$ به $(\frac{\sigma_1^2}{n_1} + تبدیل می شود \frac{\sigma_2^2}{n_2})$ یا آیا باید نگران این موضوع بود؟
تعیین حداقل حجم نمونه برای تفاوت دو جمعیت با توزیع نرمال
39058
من یک داده جفتی متشکل از $N$ = 421 نمونه دارم. من می خواهم بدانم که آیا بین نمونه های جفت شده معناداری آماری وجود دارد یا خیر. از آنجایی که من توزیع داده های اساسی را نمی دانم، آزمون رتبه امضا شده Wilcoxon را برای وظیفه خود انتخاب می کنم. من از ماژول آمار SciPy در پایتون برای انجام کار برای من استفاده می کنم [0]. این تابع آمار z$$ (تحت تقریب نمونه بزرگ که آمار رتبه علامت دار معمولاً توزیع می شود) و مقدار $p$ را برای آزمون دو طرفه برمی گرداند. من مقادیر زیر را به عنوان خروجی دریافت کردم > $z = 4788.5$ > > $p = 1.00530788183* 10^{-8}$ فرضیه صفر $H_o$ آزمون رتبه امضا شده Wilcoxon [1,2,3] بیان می‌کند که _تفاوتی وجود ندارد بین نمونه های جفت شده_. از آنجایی که، $p \leq 0.99$، **من $H_0$ را به عنوان فرضیه صفر خود در فاصله اطمینان 1% رد می کنم** و به این نتیجه می رسم که **تفاوت بین دو نمونه جفت شده از نظر آماری معنی دار است**. من دو سوال دارم - $Q1$ آیا انتخاب من از تست رتبه امضا شده Wilcoxon انتخاب درستی است؟ اگر نه، از چه چیزی استفاده کنم؟ $Q2$ آیا نتیجه گیری من از آزمون معناداری صحیح است؟ اگر نه، لطفاً توضیح دهید که چرا آنها صحیح نیستند؟ [0] http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.wilcoxon.html#scipy.stats.wilcoxon [1] http://blog.excelmasterseries.com/2010/10 /wilcoxon-signed-rank-test-in- excel-for_13.html [2] لطفاً در تفسیر اینها به من کمک کنید نتایج آزمون ویلکاکسون با رتبه امضا شده [3] http://en.wikipedia.org/wiki/Wilcoxon_signed-rank_test
آیا در داده‌های نمونه زوجی من پس از انجام آزمون رتبه‌بندی علامت‌دار Wilcoxon معنی‌داری آماری وجود دارد؟
43189
من داشتم به نمونه گیبس نگاه می کردم که به طور تصادفی به مثال زیر برخوردم: فرض کنید $y = (y_{1}، y_{2}، \ldots، y_{n})$ مشاهدات iid از یک $N(\mu، \tau^{-1})$ علاوه بر این، فرض کنید اطلاعات قبلی در مورد $\mu$ و $\tau$ وجود دارد که نشان می‌دهد آنها مستقل هستند و $\mu$ به دنبال آن است. توزیع $N(\mu_{0}, \sigma_{0}^{2})$ در حالی که $\tau$ از توزیع $\text{Ga}(\alpha_{0}, \beta_{0})$ پیروی می کند . برای این مثال، $$ p(\mu، \tau|y_{1}، y_{2}، \ldots، y_{n}) \propto f(y|\mu، \tau)p(\mu، \ tau)$$ همچنین، $$ p(\mu|\tau, y) \sim N(\frac{n\bar{y}\tau+\mu_{0}\tau_{0}}{n\tau+\tau_{0}}، (n\tau+\tau_{0})^{-1} ) $$ جایی که $\tau_{0} = (\sigma_{0}^{2})^{-1}$ و $$ p(\tau|\mu, y) \sim \text{Ga}(\alpha_{0}+\frac{n}{2}، \beta_{0}+\frac{S_{n}}{2}) $$ که در آن $S_{n} = \sum_ {i=1}^{n}(y_{i}-\mu)^{2}$ از آنجایی که محاسبه مستقیم از این توزیع آسان نیست، نمونه‌گر گیبس را می‌توان به شرط مشخص بودن توزیع‌های شرطی مورد استفاده قرار داد. آیا کسی می تواند نشان دهد که چگونه (مشتقات را برای) توزیع های شرطی ($p(\mu|\tau، y)$ و $p(\tau|\mu، y)$) ارائه شده در بالا نشان دهد؟ **EDIT:** به عنوان مثال، برای دستیابی به $p(\mu|\tau، y)$، آیا موارد زیر معتبر هستند؟ $$ p(\mu|\tau, y) \propto p(\tau, y|\mu)p(\mu)$$ اگر چنین است، $p(\tau, y|\mu)$ چه شکلی خواهد داشت ?
آماده سازی توزیع های شرطی بیزی برای نمونه گیری گیبس
43186
چرا $T=X_1X_2$ آمار کافی نیست؟ فرض کنید می‌خواهم نشان دهم $T=x_1x_2$ کافی است و با این توزیع $$ x \sim \frac{\theta^xe^{-\theta}}{x!}$$ Chug and plug، شما $$ دریافت خواهید کرد. \frac{\theta^{x_1x_2}e^{-\theta}}{x_1x_2!}$$ چرا این قضیه فاکتورسازی را برآورده نمی‌کند، بنابراین کافی نیست آمار برای من کاملاً خوب است، من آنها را به 2 قسمت تقسیم کردم. یک قسمت این است: $\theta^{x_1x_2}e^{-\theta}$. دیگری این است: $\frac{1}{{x_1x_2!}}$. اینجا چه خبر است؟
چرا $T=X_1X_2$ آمار کافی نیست؟
43185
من یک سوال در مورد تکنیک راه‌اندازی مناسب برای استفاده با داده‌هایی که خوشه‌بندی قوی وجود دارد، دارم. من وظیفه ارزیابی یک مدل پیش‌بینی اثرات مختلط چند متغیره را بر روی داده‌های خسارت بیمه با امتیاز دادن به مدل پایه فعلی بر روی داده‌های خسارت اخیر، به منظور تعیین اینکه مدل چقدر خوب پیش‌بینی می‌کند که کدام قسمت از مراقبت دارای بالاترین دفعات جلسات هستند، انجام شده است. صدک 95). حساسیت، ویژگی و ارزش اخباری مثبت (PPV) برای ارزیابی اثربخشی مدل استفاده خواهد شد. به نظر می رسد بوت استرپینگ راه درستی برای ایجاد فواصل اطمینان برای حساسیت، ویژگی و درصد PPV است. متأسفانه، با توجه به اینکه داده‌های ادعاها 1) توسط ارائه‌دهنده مراقبت همبستگی دارند، 2) در قسمت‌های مراقبت با بازدیدهای مکرر در ماه‌های قبل از دوره مراقبت گروه‌بندی می‌شوند، یک راه‌انداز ساده مناسب نیست (بنابراین مقداری همبستگی خودکار وجود دارد). آیا تغییر در تکنیک بوت استرپ بلوک های متحرک در اینجا مناسب است؟ یا شاید یک روش بوت استرپ سه مرحله ای کار کند: 1) نمونه با جایگزینی از ارائه دهندگان متمایز در داده ها، سپس 2) نمونه با جایگزینی از قسمت های مراقبت مجزا توسط ارائه دهندگان منتخب، سپس 3) نمونه با جایگزینی از ادعاهای متمایز در هر یک. قسمت انتخاب شده با تشکر فراوان برای هر گونه پیشنهاد!
تکنیک بوت استرپینگ مناسب برای داده های خوشه ای؟
60355
$N_1(t)$ و $N_2(t)$ دو فرآیند پواسون مستقل به ترتیب با شدت $λ_1$ و $λ_2$ هستند. $v_1$ و $v_2$ دو متغیر تصادفی مثبت وابسته هستند و $p=P(v_1<c)=P(v_2<c)$ که $c$ یک ثابت است. وقتی یک رویداد تصادفی $N_1(t)$ و $v1<c$ رخ داد، به این معنی است که یک رویداد از فرآیند نقطه $N_3(t)$ رخ داده است. هنگامی که یک رویداد تصادفی در $N_2(t)$ و $v_2<c$ رخ داد، به این معنی است که یک رویداد از فرآیند نقطه $N_4(t)$ رخ داده است. سپس $N_3(t)$ و $N_4(t)$ دو فرآیند پواسون وابسته به ترتیب با شدت $p*λ_1$ و $p*λ_2$ هستند. سوالات من این است: 1. آیا برهم نهی $N_3(t)$ و $N_4(t)$ تقریبا یک فرآیند پواسون است؟ 2. اجازه دهید $N_5(t)$ یک فرآیند پواسون با شدت $p(λ_1+λ_2)$ باشد، آیا $P\\{N_3(t)+N_4(t)\le m\\} \le P\ وجود دارد \{N_5(t)\le m\\}$؟ (در اینجا $m$ یک عدد صحیح است.) همه پاسخ های شما مفید هستند. من واقعا از آنها قدردانی می کنم و از ویرایش گنگ تشکر می کنم. به ویژه، $v_1$ و $v_2$ به عنوان دو متغیر log-normal وابسته با همبستگی $\rho$ نشان داده می شوند. به عبارت دیگر، ما می توانیم $v_1$ و $v_2$ را به عنوان یک متغیر log-normal چند متغیره توصیف کنیم. در این زمان، چگونه به این دو سوال پاسخ دهیم؟ موافقم که ($v_1$, $v_2$) را می توان با جفت وابسته برنولی ($b_1$, $b_2$) جایگزین کرد. و اکنون $N_{3}(t)$ و $N_{4}(t)$ دو فرآیند پواسون وابسته هستند. آیا برهم نهی آنها تقریباً یک فرآیند سمی است؟ من واقعا از همه پاسخ شما سپاسگزارم. من چندین ادبیات خوانده ام و با استادی مشورت کرده ام. $N_{3}(t)$+$N_{4}(t)$ طبق پاسخ استاد یک فرآیند Cox است. و به یک فرآیند سم همگرا می شود. (Serfozo 1984, Chen & Xia 2011).
برهم نهی دو فرآیند پواسون وابسته
35319
چه رابطه ای بین تحلیل مؤلفه های مستقل و تحلیل عاملی وجود دارد؟
72892
چرا آزمون F برای اهمیت کلی (تحلیل رگرسیون OLS) زمانی که باقیمانده ها ناهمسان هستند، نامعتبر است؟ آیا راهی برای محاسبه آن به روشی ثابت تحت ناهمسانی وجود دارد؟ آیا تابعی در R برای انجام آن وجود دارد؟
آزمون F سازگار ناهمسانی
40607
به عنوان بخشی از پایان نامه کارشناسی ارشد خود، در حال حاضر در حال انجام تجزیه و تحلیل آماری از چرخش شرکت هستم. من یک مجموعه داده پانل متشکل از تقریباً 200 شرکت به مدت 6 سال دارم که هر کدام در یک بازه زمانی 15 ساله و با ابعاد مقطعی بزرگ (صنایع و کشورها مختلف) گردآوری شده اند. بر اساس مجموعه‌ای از معیارها، من هر شرکتی را به‌عنوان یک مورد چرخشی یا غیر گردشی توصیف کرده‌ام، که در آن یک متغیر وابسته باینری دارم که در صورت موفقیت شرکت، مقدار 1 را دریافت می‌کند، در غیر این صورت 0. این نشان می‌دهد که متغیر مستقل من این کار را انجام می‌دهد. برای شرکت منفرد در 6 مشاهدات مرتبط با شرکت داده شده متفاوت نیست. با توجه به اثرات ثابت مشاهده نشده خاص برای شرکت منفرد، که در طول زمان تغییر نمی کند، من سعی کردم یک مدل لاجیت اثر ثابت را اعمال کنم (برای اطلاع شما، من قبلاً مدل های پانل اثر ثابت و پویا را برای نمونه جایگزین اعمال کرده ام. با یک متغیر وابسته پیوسته، که همچنین دلیلی است که من می خواهم از اثرات ثابت استفاده کنم). بر اساس چندین نمونه موجود آنلاین، من کد/رویکرد زیر را در SAS امتحان کرده ام: PROC LOGISTIC DATA=mydata; سال کلاس /PARAM=REF; چرخش مدل (رویداد = '1')= سال OC DOMI COSTR ASSETR SIZE; STRATA FIRMID; (که در آن همه متغیرها پیوسته هستند به جز DOMI که یک ساختگی است؛ و اتفاقاً من از SAS EG استفاده می کنم). با این حال، تخمین نمی تواند موفقیت آمیز باشد یا هیچ نتیجه ای به همراه داشته باشد (یعنی همگرایی به دست نمی آید و من خطای همه طبقات غیر اطلاعاتی هستند را دریافت می کنم)، که به نظر می رسد نتیجه مشکل پارامترهای اتفاقی باشد زیرا متغیر وابسته من مقدار یکسانی می گیرد. برای همه مشاهدات در هر شرکت از آنجایی که این اولین تجربه من با داده های پانل است، برای کسب اطلاعات به صورت آنلاین به اطراف نگاه کردم اما شانسی نداشتم. بنابراین، من به دنبال مشاوره / کمک در مورد چگونگی برآورد یک مدل لاجیت در حسابداری SAS برای ناهمگونی شرکت با توجه به مشخصات مدل خود یا یک رویکرد جایگزین برای یک مدل مشابه هستم.
داده های پانل: مدل اثر ثابت لجستیک با یک متغیر وابسته غیر متغیر / ثابت
97820
چرا روش‌های max-t فقط از حداکثر مقادیر t تولید شده استفاده می‌کنند؟
65650
من در حال انجام آزمایش هاسمن بر روی داده‌های پانل هستم تا تعیین کنم که آیا باید جلوه‌های تصادفی یا ثابت را برای تجزیه و تحلیل خود انتخاب کنم. پس از انجام آزمایش، این خطا را دریافت می کنم: chi2(2) = (b-B)'[(V_b-V_B)^(-1)](b-B) = -8.32 chi2<0 ==> مدل برازش شده روی این داده ها برآورده نمی شود مفروضات مجانبی آزمون هاسمن؛ برای آزمون تعمیم یافته به suest مراجعه کنید **این به چه معناست؟ آیا این نتیجه خوب است، و به سادگی به این معنی است که باید از جلوه های تصادفی استفاده کنم یا چیزی در اینجا به شدت اشتباه است؟** من نمی توانم از suest همانطور که نرم افزار پیشنهاد می کند استفاده کنم، زیرا این برای داده های پانل نیست. علاوه بر این، وقتی ترتیب تجزیه و تحلیل را تغییر می‌دهم، یعنی ابتدا re، و سپس fe را تخمین می‌زنم، و انجام می‌دهم: hausman random fixed، یک نتیجه «عادی» دریافت می‌کنم، مانند این: chi2(17) = (b-B)'[ (V_b-V_B)^(-1)](b-B) = 411.18 Prob>chi2 = 0.0000 با این حال، من در Statalist خواندم که اینطور نیست به سادگی تغییر ترتیب، زیرا آمار اشتباهی دریافت می کنید. بنابراین، سوال این است که **در این مورد چه باید کرد، آیا می توانم ترتیب تخمین را تغییر دهم؟** تقریباً مطمئن هستم که FE با داده های من خوب کار نمی کند، اما به راهی برای اثبات آن نیاز دارم. لطفاً در نظر بگیرید که من آمارگیر نیستم، بنابراین هر چه پاسخ ساده تر باشد، بهتر است.
تست هاسمن برای داده های تابلویی، fe و re. خطا در تخمین، چه باید کرد؟ Stata
60354
من متغیرهای خود را با استفاده از تابع 'ln' در Stata به منظور حل برخی مسائل مربوط به مفروضات مدل رگرسیون خطی تغییر داده‌ام. در حالی که اکثر مسائل به این روش حل شده اند (و این تغییر شکل به طور قابل توجهی در این امر کمک می کند)، به نظر می رسد داده ها دارای انحراف منفی هستند، که منجر به یک تست IM قابل توجه همانطور که در زیر نشان داده شده است. تجزیه IM-test توسط Cameron & Trivedi ------------------------------------------ --------- منبع | chi2 df p ----------------------------------------------- ---- ناهمگونی | 8.42 7 0.2968 چولگی | 17.92 3 0.0005 Kurtosis | 0.51 0.4735 ------------------------------------------------ ---- مجموع | 26.86 11 0.0048 من قبلاً سعی کرده ام از mboxcox برای یافتن تبدیل های مناسب استفاده کنم (داده های من حاوی صفر هستند و باید 1 را اضافه کنم) و هیچ تبدیل مناسبی به جز ریشه دوم و سوم برای متغیرها پیدا نکردم - که مطلوب نیست. به دلیل مشکلات در تفسیر و عوارضی که پیش می آید. آیا باید در مورد این مشکل چولگی اذیت شوم؟ چولگی تقریباً -0.7 است.
تبدیل خطی ورود به سیستم
46008
می‌خواهم از شما بپرسم که آیا می‌توانم ANOVA اندازه‌گیری‌های مکرر دو طرفه (GLM) را اجرا کنم تا تأثیر روش امتیازدهی بر میزان پاس را در زمانی که متغیرهای من طبقه‌بندی می‌کنند، ببینم و آیا متغیرهایم را به خوبی تعریف می‌کنم. از کمک شما متشکرم. داده‌های من شامل یک متغیر وابسته طبقه‌بندی با دو دسته (موفقیت = 1 و شکست = 0) و چهار سطح است: تعداد قبولی/عدم قبولی برای آزمون A در دو نمره برش 44% و 65% و تعداد قبولی/عدم قبولی برای آزمون B و برش نمرات 44 درصد و 65 درصد. متغیر مستقل طبقه بندی دارای دو سطح (گروه X و Y) می باشد. هر آزمودنی در گروه‌های X و Y دو بار اندازه‌گیری شد: با یک آزمون (A یا B) که با روش قدیمی نمره داده شد و در نوبت دوم، با آزمون دیگری (B یا A) با روش جدید نمره‌گذاری شد (جدول XXX). من فرض می کنم هیچ اثر دستور تست وجود ندارد و هر دو تست معادل هستند. مارتینا
ANOVA اندازه گیری های مکرر دو طرفه برای داده های طبقه بندی شده؟
69373
من یک کاربر جدید R هستم و در اعتبارسنجی/تکرار نتایج Stata (که یکی از همکاران استفاده می کند) در R مشکل دارم. ما در حال بررسی زمان (`TIME<-c(1:7)`) دوره نشانگرهای زیستی (`BIO< نشانگر زیستی (اندازه‌گیری‌های مکرر در طی چند روز) در 2000 نفر («SUBJECT») در مدل‌های چندسطحی خطی. ساختار «پایه» ساده‌ترین مدل این است: lme(BIO~I(TIME^2)، داده=داده، ~TIME | موضوع) آنچه من می‌خواهم از این به دست بیاورم، میانگین‌های تنظیم شده (یا میانگین‌های حاشیه‌ای) با فواصل اطمینان به دوره زمانی بیومارکرها را رسم کنید. مدل نهایی دارای متغیرهای کمکی و شرایط تعامل اضافی خواهد بود. در Stata، همکار من این کار را با استفاده از دستور 'margins' ('margins TIME#TIME') و به دنبال آن 'marginsplot, x(TIME)' انجام می دهد که نمودار مورد نظر را به دست می دهد. برآوردهایی که من با استفاده از «predict()» یا «lsmeans()» به دست می‌آورم (که دومی فواصل اطمینان را ارائه می‌کند) به طور قابل‌توجهی با برآوردهای Stata متفاوت است، اگرچه تناسب اساسی هر دو مدل تفاوتی ندارد. هر گونه فکر یا اشاره در جهت درست قدردانی خواهد شد.
تعدیل شده/حاشیه ای به معنای برآورد در مدل اثر مختلط خطی در R/Stata است
99784
من سعی می کنم بهره وری فرآیند ورودی یک انبار را با استفاده از y-value = بهره وری بر حسب pcs/hr x-value = # pcs و نسبت pcs/SKU پیش بینی کنم. (که در آن SKU = واحد نگهداری سهام) فرضیه اصلی --> (1) هر چه تعداد کار بیشتر باشد (افراد شلوغ تر هستند)، عجله بیشتری دارند و بهره وری بهتری خواهد داشت. (2) علاوه بر این، از آنجایی که افراد تنها یک بار 1 SKU را مدیریت می کنند، هر چه تعداد pcs/SKU بیشتر باشد، به این معنی است که زمان کمتری برای هر قطعه صرف خواهید کرد (یعنی اگر 1 دقیقه طول می کشد تا اطلاعات را برای 1 SKU وارد کنید، می توانید 1 عدد را در آن انجام دهید. یک دقیقه در 1 عدد/SKU یا 100 عدد در یک دقیقه در 100 عدد/SKU). سؤالات --> (1) آیا متغیرهای y و هر دو متغیر x باید به طور عادی توزیع شوند؟ من می دانم که باقیمانده ها باید به طور عادی توزیع شوند، اما آیا خود ورودی و خروجی نیز باید به طور عادی توزیع شوند؟ (2) تعداد قطعات در هر دو x1 و x2 موجود است، آیا این مشکل ایجاد می کند. فکر می کنم این مشکل وابستگی ایجاد می کند؟ خیلی ممنون از کمک شما
69371
من مجموعه ای از پیش بینی کننده ها در یک رگرسیون خطی و همچنین سه متغیر کنترلی دارم. مسئله اینجاست که یکی از متغیرهای مورد علاقه من تنها در صورتی از نظر آماری معنادار است که متغیرهای کنترلی در مدل نهایی گنجانده شوند. با این حال، خود متغیرهای کنترلی از نظر آماری معنادار نیستند. چند خطی بودن همه متغیرهای من به این صورت است (از جمله متغیرهای کنترل): > vif(lm(return ~ EQ + EFF + SIZE + MOM + MSCR + UMP، data = as.data.frame(port.df))) EQ EFF SIZE MOM MSCR UMP 3.687171 3.481672 2.781901 I MSCR** و متغیرهای کنترلی _EFF، SIZE و UMP_ هستند. EQ تنها در صورتی مهم است که سه متغیر کنترل گنجانده شود، و زمانی که آنها نباشند، بی‌اهمیت می‌شود: * در اینجا ضرایب (ردیف اول) و t-stats (ردیف دوم) وقتی متغیرهای کنترل گنجانده شده‌اند (توجه داشته باشید که EQ از نظر آماری معنی‌دار است) intercept EQ EFF SIZE MOM MSCR UMP [1,] 0.005206246 -0.006310531 0.0001229055 0.004125551 0.007738259 0.00473377 5.838596e-06 [2،] 1.866628909 -1.746583234 0.00473377 0.038596e-06 2.145062820 2.08131100 1.994863e-01 * حال، در اینجا نتیجه رگرسیون زمانی است که متغیرهای کنترل حذف می شوند (توجه داشته باشید که EQ دیگر از نظر آماری معنی دار نیست) EQ MOM MSCR [1,] 0.00302111-0.00302073 را قطع کنید. 0.007128606 0.00668364 [2,] 2.652662996 -0.595391117 2.036985378 2.80177366 مشکل این است که وقتی متغیرهای کنترلی خود را وارد می کنم، همه متغیرهای مورد علاقه من قابل توجه نیستند، اما متغیرهای مورد علاقه من قابل توجه نیستند. کدام متغیرها را باید در مدل نهایی خود وارد کنم؟ با توجه به این واقعیت که مدل برای پیش بینی استفاده می شود، چگونه باید مدل نهایی خود را ساختار دهم؟ ممنون
اگر متغیرهای کنترلی از نظر آماری معنی دار نیستند، باید در مدل گنجانده شوند؟
80756
فقط فرضیه غیر خطی اندرو نگ در مورد شبکه های عصبی را پوشش دادیم، و ما یک سوال چند گزینه ای برای تعیین **تعداد ویژگی** برای تصویری با وضوح **100*100** با شدت **grescale** داشتیم. و پاسخ 50 میلیون دلار، 5 دلار x 10^7 دلار بود، با این حال، قبلاً برای یک تصویر 50×50 پیکسل، در مقیاس خاکستری. تعداد ویژگی ها 50x50 (2500) است. چرا به جای 10000 دلار باید 5$ x 10^7$ باشد؟ با این حال، او می‌گوید که شامل همه اصطلاحات درجه دوم ($x_ix_j$) به عنوان ویژگی‌ها می‌شود > فرض کنید در حال یادگیری تشخیص خودروها از تصاویر 100×100 پیکسل هستید > (مقیاس خاکستری، نه RGB). اجازه دهید ویژگی ها مقادیر شدت پیکسل باشند. اگر رگرسیون لجستیک را شامل همه عبارت های درجه دوم ($x_ix_j$) به عنوان ویژگی > آموزش دهید، تقریباً چند ویژگی خواهید داشت؟ و در اسلاید قبلی در مورد 100x100، که ویژگی های درجه دوم ($x_i$ x $x_j$) = 3 میلیون ویژگی است، اما من هنوز نمی توانم انگشتی روی اتصال بگذارم.
چگونه تعداد ویژگی ها را بر اساس وضوح تصویر محاسبه کنیم؟
69375
من یک وضعیت کاملاً استاندارد از یک مطالعه دارم که در آن اندازه‌گیری‌های مکرر از همان افراد انجام می‌شود. دو عامل وجود دارد: گروه (با 25 نفر در هر یک از دو گروه) و روز (در اینجا زمان به عنوان یک متغیر طبقه بندی شده در نظر گرفته می شود). برای ساده نگه داشتن چیزها، اجازه دهید تنها دو نقطه زمانی، روز 1 و روز 2 را در نظر بگیریم. هنگام کار در R، داده ها به صورت زیر به نظر می رسند (ID - شناسه های افراد، گروه - برچسب ها برای گروه ها، روز - عامل نشان دهنده روز نمونه برداری، با 2 سطح وزن بدن، کیلوگرم): dat ID گروه روز BW 1 ID1 روز 1 2333.231 2 ID2 در روز 1 2615.744 3 ID3 روز 1 2282.484 4 ID4 روز 1 2796.806 5 ID5 روز 1 2262.759 6 ID6 روز 1 2520.216 7 ID7 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.519 روز 1 2796.806 1 2439.651 10 ID10 روز 1 2515.900 11 ID11 B روز 1 2692.253 12 ID12 B روز 1 2208.707 13 ID13 B روز 1 2343.652 14 ID11 B روز 1 2692.253. 2411.044 16 ID16 B روز 1 2774.001 17 ID17 B روز 1 2634.651 18 ID18 B روز 1 2514.433 19 ID19 B روز 1 2198.449 20 ID20 B روز 1 20 ID20 B روز 1 21. 2314.214 22 ID2 A Day 2 2302.396 23 ID3 A Day 2 2319.029 24 ID4 A Day 2 2533.612 25 ID5 A Day 2 2290.300 26 ID6 A Day 2 21629 21629 ID. 28 ID8 روز 2 2223.379 29 ID9 روز 2 2441.762 30 ID10 روز 2 2288.917 31 ID11 B روز 2 1984.846 32 ID12 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.821 B روز 2 2702.827 B روز 2 334 B روز 2 2563.337 35 ID15 B روز 2 2666.664 36 ID16 B روز 2 2399.159 37 ID17 B روز 2 2586.255 38 ID18 B روز 2 2193.912 35 ID16 B روز 2 2193.912 35 ID16 B روز 2 27 3043.074 در اینجا یک نمایش گرافیکی از این داده ها است (نقاط داده ای که از یک موضوع دریافت می شوند با خطوط چین دار به هم متصل می شوند تا درک ساختار این مجموعه داده آسان تر شود): ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/RCUZH.png) به منظور آزمایش اثرات گروه و روز، می‌توانم یک مدل با جلوه‌های ترکیبی را با استفاده از مثلاً جاسازی کنم. بسته nlme برای R: # متناسب با مدل: M <- lme(BW ~ روز * گروه، تصادفی = ~ 1 | ID، داده = dat) # اهمیت افکت ها را بررسی کنید: anova(M) numDF denDF F-value p -value (Intercept) 1 18 5564.085 <.0001 روز 1 18 0.326 0.5753 گروه 1 18 2.849 0.1087 روز:گروه 1 18 3.631 0.0728 بنابراین، با توجه به مدل اثرات مختلط برازش شده (که برای این داده ها کافی بود - تشخیص ها اجرا شد اما در اینجا ارائه نشده است)، هیچ یک از فاکتورهای گروه مورد بررسی (D) ) بر متغیر پاسخ تأثیر می گذارند. همچنین هیچ گونه تعاملی بین این دو عامل وجود ندارد. این نوع تحلیلی است که اگر از من خواسته شود برای چنین مجموعه داده ای انجام می دهم. با این حال، در سازمان من بسیاری از مردم هیچ ایده ای در مورد مدل های اثرات مختلط ندارند. کاری که آنها معمولاً انجام می‌دهند این است که دسته‌ای از آزمون‌های t (یا آزمایش‌های مشابه) را برای تشخیص تأثیر «گروه» بر هر یک از تاریخ‌های نمونه‌گیری اعمال می‌کنند. به عنوان مثال، برای داده های نشان داده شده در بالا، یک آزمون t برای روز 1 و آزمون t دیگری برای روز 2 انجام می شود و نتایج زیر را دریافت می کند: روز 1: P = 0.271 روز 2: P <0.001 بنابراین، آنها ادعا می کنند که یک اثر گروهی قابل‌توجهی در روز 2 وجود داشت. من سعی کردم توضیح دهم که این نتیجه به دلیل وجود همبستگی در داده‌ها که از اندازه‌گیری‌های مکرر انجام شده روی همان افراد نشات می‌گیرد، صحیح نخواهد بود. با این حال یکی از همکارانم سوالی پرسید که نتوانستم به راحتی به آن پاسخ دهم. او گفت: بسیار خوب، مشاهدات با هم مرتبط هستند، من متوجه شدم. اما فعلاً این واقعیت را فراموش کنید که ما داده های روز 1 را داریم و فرض کنید که داده هایی فقط از روز 2 وجود دارد. مشاهدات در گروه A و گروه B مستقل هستند. از یکدیگر، و بنابراین ما مجاز به استفاده از یک آزمون t یا چیزی مشابه هستیم. و این دقیقاً نقطه ای است که من گیر کردم. در واقع، اگر کسی فقط اطلاعات روز دوم را داشته باشد و یک آزمون t ساده انجام دهد، نتیجه‌گیری بسیار متفاوت (و اصولاً موجه) با نتیجه‌ای که با مدل اثرات مختلط به دست می‌آید به دست می‌آورد. **پس به کدام روش تحلیل اعتماد کنیم؟ آیا اثر گروه واقعی است؟** احساس می‌کنم بخش مهمی را برای توجیه استفاده از مدل ترکیبی از دست داده‌ام. هر اشاره ای بسیار قدردانی می شود.
یک مدل اثرات مختلط برای اندازه‌گیری‌های مکرر در مقابل مقایسه‌های چندگانه نقطه‌ای زمانی با یک آزمون ساده‌تر
80751
من داشتم آموزش زیر را در مورد جنگل‌های تصادفی تماشا می‌کردم و می‌گوید: «در هر گره، زیرمجموعه‌ای تصادفی از ویژگی‌های m را انتخاب کنید و فقط روی آن ویژگی‌ها تقسیم کنید» من نمی‌دانم چرا m ویژگی را انتخاب می‌کنیم. چرا همه ویژگی ها را در نظر نمی گیریم؟ به عنوان مثال در جایی که ویژگی ها قد، وزن، سن و متر 2 بود، زیرفضای تصادفی می تواند قد و وزن باشد؟ این چگونه کار می کند؟ پیشاپیش از شما متشکرم
چرا جنگل های تصادفی بر اساس m ویژگی های تصادفی تقسیم می شوند؟
46000
من در حال مشاهده دو سری زمانی پیوسته هستم که در هر لحظه ممکن است یک رویداد یکسان را مشاهده کنم. یعنی برای هر دنباله، مثلاً $S_1$، من یک مجموعه داده متشکل از $S_1 = (t_0, t_1, ..., t_m)$ دارم که در آن $t_i \in (0, T) \subset \mathbb{R }$. بنابراین اگر من این رویداد را در یک زمان $t_i$ در طول جریان داده‌ام $1$ مشاهده کردم، سپس $t_i$ را به $S_1$ اضافه می‌کنم، می‌خواهم بگویم که رویدادها در یک دنباله بیشتر از دیگری با سطح اطمینان اتفاق می‌افتند. آیا می توانم میانگین را به صورت زیر محاسبه کنم؟ $$ \mu_1 = \int_0^T \delta(t \در S_1) dt = \frac{|S_1|}{T} $$ که در آن $|S_1|$ اصلی بودن $S_1$ را نشان می‌دهد. همچنین، آیا منطقی است که واریانس را به صورت زیر محاسبه کنیم: $$ \sigma_1^2 = \int_0^T (\delta(t \in S_1)-\mu_1)^2 dt = \frac{|S_1|}{T} - \left(\frac{|S_1|}{T}\right)^2 $$ بنابراین، اگر می‌خواهم نوارهای خطا ایجاد کنم، حدس می‌زنم که داشته باشم: $$ \mu \pm \frac{2\sigma_1}{\sqrt{T}} $$ من فرض می‌کنم این درست نیست زیرا بسته به واحدهای زمانی من مقدار تغییر می‌کند. اگر از ثانیه‌ها، نانوثانیه‌ها یا پیکوثانیه‌ها استفاده کنم، میانگین و واریانس متفاوتی دریافت می‌کنم. امیدوارم با تماشای این سکانس‌ها برای مدت طولانی‌تر و طولانی‌تر، عدم اطمینان من در مورد احتمال انتشار آنها به صفر برسد.
چگونه واریانس یک دنباله زمانی پیوسته را محاسبه کنیم؟
46006
در K به معنای خوشه بندی است، فرض کنید، اگر فاصله اقلیدسی برابر یک نقطه داده تا تمام مراکز خوشه k آن وجود داشته باشد، نقطه داده کدام خوشه را برای عضویت در آن انتخاب می کند؟ آیا مدرکی وجود دارد که آن را تأیید کند؟
مساوی فاصله اقلیدسی یک نقطه داده واحد تا تمام مراکز خوشه
99200
من نمی‌دانم که نماد _dG(y)_ درون یک انتگرال دقیقاً به چه معناست، نام آن چیست و کجا می‌توانم بیشتر در مورد آن مطالعه کنم: $$E[B_1]=\int_0^{\infty}E[B_1 \vert Y_1 = y] dG(y)$$
dG(y) در انتگرال مقدار مورد انتظار
99202
در معادله فاصله کوک: $$D_i = \frac{\sum_{j=1}^{n}(\hat{y}_j - \hat{y}_{j(i)})^2}{ p MSE}$$ مقدار $p$ به عنوان تعداد پارامترهای متناسب در مدل تعریف می شود. این به چه معناست؟
$p$ در فاصله کوک چقدر است؟
80753
من در اینجا کاملاً تازه وارد هستم، لطفاً اگر این سؤال مناسب نیست، ببخشید. من در حال توسعه یک سایت برای دانش آموزان هستم که به آنها اجازه می دهم رونوشت های مجازی خود (گزارش نمره) را در سایت ما آپلود کنند و به ما اجازه می دهد تا دستکاری های مختلفی را انجام دهیم (افزودن تکلیف آینده، رها کردن یک تکلیف و غیره) بنابراین ما مقدار زیادی از اطلاعات دانش آموزان در سراسر مدرسه ما (گیگابایت داده). من متعجب بودم که چه نوع تجزیه و تحلیل آماری می توانم بر روی آن اطلاعات انجام دهم. آیا کاربرد محبوب تری از آمار برای چیزی شبیه به این وجود دارد که بتوانم به آن نگاه کنم؟ (سهام؟ و غیره...) در اینجا یک مرور کلی از نوع اطلاعاتی که در دست دارم آورده شده است: * امتیازهای کسب شده تکلیف/امتیازهای احتمالی تکلیف * دسته بندی هر تکلیف * وزن هر دسته. * نام تکالیف، کلاس، معلم * حرف جاری و نمره عددی در کلاس. سپس مجموع دسته‌ها را محاسبه می‌کنیم و تاریخچه نمره را بر اساس تاریخچه تکلیف و تنظیمات وزن کلاس ایجاد می‌کنیم. امیدواریم کارهای ساده ای مانند گرفتن میانگین و انحراف معیار نمرات یک تکلیف انجام دهیم. سپس میانگین و صدک کاربر (محاسبه شده از میانگین/انحراف استاندارد، توزیع نرمال را فرض می‌کنیم، اما این یک فرض بد است...) از داده‌ها را نمایش می‌دهیم. (اما من فکر می کنم یک فاصله اطمینان به جای میانگین مناسب تر است، اما ما این پیاده سازی را در تاریخ بعدی تکمیل خواهیم کرد). ما در حال حاضر حداقل برش 5 را داریم تا اطمینان حاصل کنیم که کاربران نمی توانند فقط آنچه را که کاربر خاص دیگری دریافت می کند تخمین بزنند، بلکه اطمینان حاصل کنیم که داده ها تا حدودی از نظر آماری معتبر هستند. آیا راه بهتری برای تعیین یک بریدگی برای داده ها وجود دارد؟ چه کارهای منظم دیگری می توانیم با این داده ها انجام دهیم؟ من احساس می‌کنم که به سختی سطح را می‌تراشیم و امیدواریم چیزهایی وجود داشته باشد که نمی‌توانیم به آنها فکر کنیم که برای دانش‌آموز مفید باشد. مشکل دیگر: داده‌ها همیشه تازه نیستند، ما فقط داده‌ها را هنگام آپلود آن‌ها دریافت می‌کنیم و برخی از کاربران بیشتر از دیگران به‌روزرسانی می‌شوند. با این حال، ما می خواهیم یک نمودار تاریخچه ایجاد کنیم که میانگین تاریخچه نمره کلاس را به تصویر بکشد. ما داده‌ها را هر بار که کاربر به‌روزرسانی می‌کند در هر کلاس در زمان به‌روزرسانی، داده‌ها را ذخیره می‌کنیم. اما، تعیین اینکه چه چیزی به عنوان میانگین کلاسی با داده‌های قدیمی و ناقص تشکیل می‌شود، دشوار است. من به استفاده از میانگین وزنی فکر می‌کردم، جایی که آخرین نمره‌ای را که دانش‌آموز به‌روزرسانی کرده تا یک نقطه X می‌گیریم، سپس آن امتیاز را بسته به تعداد امتیاز در آن نمره در میانگین وزن می‌کنیم. بنابراین اگر دانش آموزی که زمانی که کتاب نمره فقط 100 امتیاز داشته است به روز رسانی کرده است، به اندازه دانش آموزی که اخیراً با 1500 امتیاز در کتاب نمره به روز شده است مهم نخواهد بود. آیا رویکرد بهتری برای این وجود دارد؟ من یک آشنایی مقدماتی با آمار دارم (آمار AP که _باید_ معادل یک سال اول دوره آمار در کالج باشد). اما من بیشتر آن را فراموش کرده ام، بنابراین اگر شما بچه ها بتوانید کارها را برای من نیز کمی ساده کنید، کمک خواهد کرد. اوه و من این را از طریق PHP برنامه نویسی می کنم. من از توابع MySQL stddev() و avg() برای محاسبه انحراف استاندارد و میانگین استفاده می کنم. من یک لیست T-Score @ 90% اطمینان برای 1-200 df و یک تابع عادی معکوس دارم. من همچنین یک انحراف استاندارد 2 پاس و تابع میانگین نیز در PHP نوشته شده است. ویرایش 1: من این وب سایت را برای دانش آموزان دبیرستانی هدف قرار می دهم. ویرایش 2: این چیزی است که ما تاکنون داشته ایم: ![مشکلاتی از آنچه تاکنون داشته ایم](http://i.stack.imgur.com/8sNaO.png)
با داده هایم چه کنم؟
99207
اگر X دارای توزیع یکنواخت [0,1] باشد، و f(x) = e^X و g(x)=2^X. من 1000 مقدار برای X ایجاد کردم و برای هر دو تابع اعمال کردم. و واریانس را بعد از تبدیل محاسبه کردم. نتیجه نشان می دهد که 2^X واریانس کمتری دارد. چرا این اتفاق می افتد، آیا 2 بزرگتر از e نیست، واریانس از کجا می آید؟ کد این است: N <- 1000 X <- runif(N,0,1) phi <- 2^X var(phi) theta <- exp(X) var(theta)
واریانس با توجه به نمایی توزیع یکنواخت
64296
من سعی می کنم از یک مدل جنگل تصادفی در R RF استفاده کنم<- randomForest(as.factor(y)~., data=train, important=TRUE, proximity=FALSE, ntree=1000, keep.forest=TRUE) Y دودویی است . مدل بدون هیچ مشکلی اجرا می شود. با این حال من چند سوال دارم، من حدود 50000 ردیف داده و 300 متغیر دارم. طبق سایر برنامه های استفاده از proximity=TRUE احتمالاً بسیار کند اجرا می شود یا به حافظه زیادی نیاز دارد. 1. اگر حافظه مشکلی نداشته باشد، استفاده از proximity=TRUE نتایج متفاوتی به من می دهد؟ 2. من علاقه مند به احتمال پیش بینی 1s خود به عنوان نتیجه نهایی خود هستم. هنگامی که من پیش بینی می کنم = پیش بینی (RF).. من 1 و 0 را پیش بینی من دریافت می کنم. من احتمالات را ترجیح می دهم. 3. چگونه یک مدل جنگل تصادفی را پیاده سازی کنیم؟ من 1000 درخت دارم. اگر بخواهم این مدل را در زمان واقعی پیاده سازی کنم، چگونه این را کدنویسی کنیم؟ آیا برای پیش بینی هر مورد جدید، 1000 درخت تصمیم را کد می کنیم؟ متشکرم.
randomForest در R برای طبقه بندی
64293
من سعی کرده ام الگوریتم متروپلیس-هیستینگ را درک کنم تا کدی برای تخمین پارامترهای یک مدل بنویسم (یعنی $f(x)=a*x$). طبق کتابشناسی، الگوریتم Metropolis-Hastings مراحل زیر را دارد: * ایجاد $Y_t \sim q(y|x^t)$ * $X^{t+1}=\begin{cases} Y^t و \text {با احتمال} \quad \rho(x^t,Y_t), \\\ x^t, & \text{با احتمال} \quad 1-\rho(x^t,Y_t), \end{cases}$ where $\rho(x,y)=\min \left( \frac{f(y)}{f(x)}*\frac {q(x|y)}{q(y|x)},1 \right)$ چگونه می‌خواهم چند سؤال بپرسم: * کتاب‌شناسی بیان می‌کند که اگر $q$ یک توزیع متقارن باشد، نسبت $q(x|y)/q(y|x)$ می شود 1 و الگوریتم متروپلیس نامیده می شود. آیا این درست است؟ تنها تفاوت متروپلیس و متروپلیس هاستینگ این است که اولی از توزیع متقارن استفاده می کند؟ در مورد Random Walk Metropolis (-Hastings) چطور؟ تفاوتش با دوتای دیگه چیه؟ * بیشتر کد مثالی که من به صورت آنلاین پیدا می کنم از توزیع پیشنهادی گاوسی $q$ و بنابراین $\rho(x,y)=\min(f(y)/f(x),1)$ استفاده می کند که در آن $f( y)/f(x)$ نسبت احتمال است. اگر توزیع پیشنهادی توزیع پواسون باشد چه؟ فکر می‌کنم به طور منطقی درک می‌کنم که چرا آن نسبت در هنگام استفاده از توزیع نامتقارن 1 نمی‌شود، اما کاملاً مطمئن نیستم که آیا آن را به صورت ریاضی درک می‌کنم یا اینکه چگونه آن را با کد پیاده‌سازی کنم. آیا کسی می تواند یک کد ساده (C، پایتون، R، شبه کد یا هر چیزی که ترجیح می دهید) مثالی از الگوریتم Metropolis-Hastings با استفاده از توزیع پیشنهادی غیر متقارن به من بدهد؟
درک متروپلیس-هیستینگ با توزیع نامتقارن پیشنهاد
99204
من سعی می کنم یک مدل رگرسیون لجستیک را در JAGS مشخص کنم. من با خطایی روبرو هستم که قبلاً ندیده بودم و راه حلی آنلاین پیدا نکرده ام. اگر کسی بداند چه اتفاقی دارد می‌افتد، ممنون می‌شوم. data<-read.csv(JAGSdata.csv,header=T) #read در فایل csv N <-length(data$study) #تعداد obs. M <-length(unique(data$study)) ls(data) #input the data Data <- list( N = N, synergy = data$ synergy, dapto = data$dapto, teic = data$teic, tela = data $tela، cph = data$cph، cpm = data$cpm، blfrac = data$blfrac، gpfrac = data$gpfrac، loglt6 = data$loglt6, mrsa = data$mrsa, vssa = data$vssa ) #مقادیر اولیه برای MCMC #MODEL model <- model{ #ضریب پیشین #----------------------------------------------- -----------# bcons ~ dunif(-10,10) bdapto ~ dunif(-10,10) bteic ~ dunif(-10,10) btela ~ dunif(-10,10) bcph ~ dunif(-10,10) bcpm ~ dunif(-10,10) blfrac ~ dunif(-10,10) bgpfrac ~ dunif(-10,10) bloglt6 ~ dunif(-10, 10) بمرسا ~ دونف(-10،10) بوسسا ~ dunif(-10،10) #تابع احتمال #-------------------------------------- --------------------# #N مشاهدات برای (i در 1:N) { synergy[i] ~ dbern(p[i]) logit(p[i]) <- bcons + bdapto*dapto[i] + bteic*teic[i] + btela*tela[i] + bcph*cph[i] + bcpm*cpm[i] + blfrac*blfrac[ i] + bgpfrac*gpfrac[i] + bloglt6*loglt6[i] + bmrsa*mrsa[i] + bvssa*vssa[i] } } writeLines(model, model.txt) model <- jags.model(model.txt, data=Data, n.chains=4, n.adapt=1000) پارامترها< - c('bcons', 'bdapto', 'bteic','btela','bcph', 'bcpm','blfrac','bgpfrac', 'bloglt6','bmrsa','bvssa') start<-Sys.time() update(model, 50000) # رایت در JAGS_samples <- coda.samples(model= model,variable.names=پارامترها,n.iter=50000) finish<-Sys.time() finish-start وقتی این مدل را اجرا می کنم با پیغام خطای زیر مواجه می شوم: Error in jags.model(model.txt, data = Data, n.chains = 4, n.adapt = 1000 ) : خطا در گره dunif((-10),10) عدم تطابق طول در Node::setValue
خطای JAGS عدم تطابق طول در Node
64290
در زیر یک نمونه نمودار پراکندگی بین متغیر «LWAGE» (Log of حقوق) و متغیر «EXPER» (تعداد سال‌های تجربه) برای اندازه نمونه «n=3000» آمده است. در این نمودار پراکندگی خط مستقیم OLS (سبز) و خط منحنی (کمترین روش ناپارامتریک در قرمز) وجود دارد. در اینجا کدهای R آمده است: خطوط scatterplot(Dataset$LWAGE~Dataset$EXPER، reg.line=lm، smooth=FALSE، spread=FALSE، boxplots=FALSE، span=0.5، data=Dataset) خطوط (lowess(Dataset$EXPER، Dataset$LWAGE),col='red', lwd=2) از دانستن کدهای R برای معادله خط مستقیم OLS (به رنگ سبز) و معادله خط منحنی (کمترین در قرمز) را بدست آورید؟ نتیجه برای خط مستقیم OLS باید چیزی شبیه به این باشد: «LWAGE = 6.25 + 0.05*EXPER» ![طرح پراکنده و خط OLS و خط منحنی پایین](http://i.stack.imgur.com/nKsbZ.png)
چگونه معادله رگرسیون را از OLS و Lowess در R بدست آورید؟
67713
من سعی می کنم یک تحلیل عاملی در SPSS روی مجموعه ای از داده های آسیب پذیری اجتماعی برای پایان نامه خود اجرا کنم. من 5 انجمن دارم، با 26 متغیر آسیب پذیری اجتماعی برای هر جامعه. هدف کلی من تعیین تعداد مؤلفه ها و متغیرهای مربوط به آنها است که داده ها را می توان در آنها کاهش داد. وقتی تجزیه و تحلیل عاملی را اجرا می‌کنم، SPSS به من می‌گوید که ماتریس کوواریانس من «مشخص نیست». چند همبستگی بالا در ماتریس من وجود دارد (r > 0.900)، بنابراین متغیرهایی را که در این همبستگی‌های بالا دخیل بودند حذف کردم، اما همچنان همان موضوع قطعی نه مثبت را دریافت کردم. من به طور مداوم سعی کردم متغیرهای بیشتری را حذف کنم که به شدت همبستگی داشتند و باید به r = 0.70 کاهش می یافتند، اما پیام حتی مثبت نیست همچنان ظاهر می شود. متغیرهای من برای حذف تمام می شود، زیرا مجموعه داده های من مدام کاهش می یابد، هر بار که یک متغیر را حذف می کنم! درک من این است که مشکل قطعی نه مثبت تنها زمانی باید ایجاد شود که شما همخطی تقریباً کاملی بین یک یا چند متغیر داشته باشید. اگر چنین است، آیا روشی گام به گام برای مقابله با مشکل وجود دارد، به جای حذف خودسرانه متغیرها تا زمانی که مشکل برطرف شود؟ (که سعی کردم انجام دهم اما بسیار بیهوده است) آیا مشکلی در داده های من وجود دارد؟ PS من سابقه آماری ندارم..من دارم ژئوانفورماتیک میخونم!
تحلیل عاملی ... کمک ماتریس کوواریانس
7860
آیا می توان خروجی تجزیه و تحلیل مؤلفه اصلی را به گونه ای تجسم کرد که بینش بیشتری نسبت به جداول خلاصه ارائه دهد؟ آیا زمانی که تعداد مشاهدات زیاد است، مثلاً ~1e4، می توان آن را انجام داد؟ و آیا انجام آن در R [محیط های دیگر خوش آمدید] امکان پذیر است؟
تجسم یک میلیون نسخه PCA
95550
> فرض کنید $X$ دارای توزیع نرمال با میانگین $0$ و واریانس $25$ است. فرض کنید > $Y$ یک متغیر تصادفی مستقل باشد که مقادیر $-1$ و $1$ را با احتمال > برابر می گیرد. $S = XY + \frac{X}Y $ و $T = XY - \frac{X}Y$ را تعریف کنید. توزیع احتمال $S$ و توزیع احتمال $(\frac{S+T}{10})^2$ را پیدا کنید. کاملاً واضح است که $S=2X$ یا $-2X$ هر کدام با احتمال $1/2$، و $S+T=X$ یا $-X$ هر کدام با احتمال $1/2$. من نمی توانم از این نقطه فراتر بروم. آیا من در مسیر درستی هستم؟
$X\sim\mathcal N(0, 25)$; $Y=1$ یا $-1$ با احتمال $1/2$ هر کدام. $S = XY + \frac{X}Y $ را تعریف کنید و توزیع آن را پیدا کنید
43149
من رفتار حیوانات را در چهار شرایط مختلف اما در یک محیط ثبت می کنم. بنابراین داده های من چندین مقدار هستند (تعداد آنها متفاوت است) که نشان دهنده بسامد یک رفتار واحد برای هر یک از چهار شرط است. قبلاً مردم از ANOVA یک طرفه برای تجزیه و تحلیل این داده ها استفاده می کردند، با این حال، من متوجه شدم که داده ها در واقع به طور معمول توزیع نمی شوند. بنابراین من به استفاده از آزمون Kruskall Wallis فکر کردم، اما داده ها نیز اندازه گیری های مکرر هستند. سپس به فکر استفاده از آزمون فریدمن افتادم اما گروه‌های داده (شرایط) دارای مقادیر نامساوی هستند... اگر کسی تستی را می‌شناسد که می‌توانم برای این داده‌ها استفاده کنم، بسیار ممنون می‌شوم که کمک کند.
آزمون غیر پارامتری گروه های نابرابر و داده های اندازه گیری مکرر
16811
من از بسته locfit برای مقداری رگرسیون لجستیک محلی در R و تابع scb آن برای ترسیم نوارهای اطمینان همزمان استفاده می کنم. با این حال، من هیچ راهی برای درخواست باندهای اطمینان 90٪ به جای نوارهای استاندارد 95٪ نمی بینم. من خود توابع را بررسی کردم، اما نمی‌دانم کجا می‌توان آن‌ها را هک کرد. چرا این محدودیت وجود دارد؟ در این مورد چه کاری می توان انجام داد؟ کد من در امتداد این خطوط است: fit2<-scb(closed_rule ~ bl,deg=1,type=4, xlim=c(0,1),ev=lfgrid(100), family='binomial',data=data, alpha=cbind(0,0.3))
چگونه باندهای اطمینان 90% را با locfit در R رسم کنیم؟
16816
من می خواهم مقادیر را روی یک نمودار ستونی/ستونی ساده در اکسل قرار دهم. سوال مشابهی برای R پرسیده شد، و من می دانم چگونه داده های خود را به R وارد کنم، اما نه اینکه چگونه نمودارها را بسازم. کاری که من انجام می دهم بسیار ساده به نظر می رسد انجام آن در اکسل آسان تر از یادگیری نحوه انجام آن در R است.
چگونه می توان مقادیر را روی یک نمودار میله ای ساده در اکسل قرار داد؟
95554
من مجموعه‌ای از داده‌های سری زمانی $X^B = \begin{bmatrix} {X^B_1},{X^B_2},\dots, X^B_n \end{bmatrix}$ دارم که شامل مشاهدات ثبت‌شده در مکان‌های مکانی مختلف است. بین سیگنال های زیرین $X$، که توسط نویز گاوسی افزایشی نیز خراب می شوند، تداخل وجود دارد: $$ X^B = M(X + \epsilon) ;\; \epsilon \sim \mathcal{N}(0, \sigma) $$ ماتریس اختلاط $M$ یک شکل عملکردی شناخته شده دارد: $$ M = I + \alpha e^{-(D / \lambda)^2} $$ که $D_{ij}$ فاصله اقلیدسی بین مکان‌های $i$ و $j$ است، $\alpha$ دامنه تداخل و $\lambda$ است. ثابت طول می‌خواهم مقادیر پارامترهای ناشناخته $\hat{\alpha}$ و $\hat{\lambda}$ را تخمین بزنم، $\hat{M}$ را بسازم، سپس از آن برای حذف همبستگی‌ها در $X^ استفاده کنم. B$ ناشی از تداخل است. فکر کردم شاید بتوانم از این هویت استفاده کنم: $$ cov(MX) = Mkov(X)M^T \\\ cov(X^B) = M(cov(X) + \sigma^2 I)M^ T $$ با این حال، ساختار $cov(X)$ ناشناخته و غیر پیش پا افتاده است. چیزی که می توانم از آن مطمئن باشم این است که $cov(X)$ تحت تاثیر $D$ نیست. با توجه به $X^B$، $D$، و شکل عملکردی شناخته شده $M$، آیا می توان $\hat{\alpha}$، $\hat{\lambda}$ و $\hat{X} را تخمین زد. دلار؟
حذف ساختار با فرم عملکردی شناخته شده از ماتریس کوواریانس
7869
**زمینه:** داده های زیر را دارم (یک مثال): headings = { :heading1 => { :weight => 25, :views => 0, :conversions => 0} :heading2 => { :weight = > 25, :views => 0, :conversions => 0} :heading3 => { :weight => 25, :views => 0, :conversions => 0} :heading4 => {:weight => 25, :views => 0, :conversions => 0} } total_views = 0 من باید این عناوین را بر اساس وزن آنها ارائه دهم. هر بار که عنوانی ارائه می‌شود، «نمایش» آن یک و «کل_نمایش‌ها» نیز افزایش می‌یابد. و هر زمان که کاربر روی عنوان ارائه شده کلیک کند، «تبدیل» آن یک افزایش می یابد. من یک برنامه (در روبی) نوشته ام که این را به خوبی اجرا می کند. **سوال:** من باید **`Auto Optimize`** بهترین عنوان تبدیل را انجام دهم. نماها و تبدیل‌های زیر را برای همه عنوان‌ها در نظر بگیرید: heading1: views => 50, conversions => 30 heading2: views => 50, conversions => 10 heading3: views => 50, conversions => 15 heading4: views => 50, تبدیل => 5 من باید به طور خودکار وزن عنوان(ها) را افزایش دهم که بیشتر تبدیل می شود/ برعکس مجموع وزن ها همیشه 100 خواهد بود. آیا الگوریتم/فرمول/تکنیک استانداردی برای انجام این کار وجود دارد؟ ممکن است پارامترهای دیگری وجود داشته باشد که قبل از انجام این محاسبات باید از پیش تعریف شوند. اما من از آن عبور نمی کنم.
چه تکنیک آماری برای بهینه سازی وزن ها مناسب است؟
12120
تابع زیر $Y = \alpha\ln(x)$ دارم، $\alpha$ یک ثابت است. سوال: الف) مشتق Y نسبت به x چیست؟ (ب) کشش Y wrt چقدر است. x
استخراج یک کشش از یک تابع ساده $Y = \alpha\ln(x)$
112686
سری زمانی ثابتی را که $$ \gamma(h) =(-1)^{|h|}+\cos \left(\frac{\pi}{4}h\right)$$ ACVF است را شناسایی کنید. این یک مشکل تکلیف است. در سطح اول گیر کرده است. لطفا نکاتی را بیان کنید. پیشاپیش ممنون
سری زمانی ثابت را شناسایی کنید
16814
من حدس می زنم این یک سوال اساسی است اما من مدت زیادی است که به دنبال یک راه حل بدون نتیجه هستم. من از بسته lme4 استفاده می کنم و از این کد استفاده می کنم: library(lme4) plot(confint(lmList(Reaction ~ Days | Subject, sleepstudy), pooled = FALSE), order = 1) برای ترسیم فواصل اطمینان برای ضرایب فردی رهگیری و شیب: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/r6irm.jpg) من فقط می خواهم برای اضافه کردن یک خط عمودی (v=0) در هر دو پانل تا بتوان بهتر نشان داد کدام CI حاوی 0 است. من سعی کردم از panel.abline استفاده کنم اما موفق نشدم. plot(confint(lmList(واکنش ~ روز | موضوع، مطالعه خواب)، ادغام = FALSE)، سفارش = 1، panel=function(...){ panel.plot(...) panel.abline(v=0، col خاکستری) })
افزودن یک خط در نمودار محدود lmList
12124
من سعی می کنم یک تعامل سه جانبه مهم را تفسیر کنم. اساساً من از رگرسیون سلسله مراتبی برای تجزیه و تحلیل داده های خود استفاده کرده ام و به یک تعامل سه جانبه قابل توجه رسیده ام. DV من پیوسته است. 3 IV من پیوسته، طبقه بندی شده (2 سطح)، و دیگری طبقه بندی (3 سطح). حجم نمونه من 194 است. من می دانم که می توانم نمودارهایی را برای تعاملات کره چشم انجام دهم، اما برای اینکه بفهمم شیب قابل توجه است یا نه، به یک روش آماری نیاز دارم. من از الگوی جرمی داوسون برای کشف تفاوت های شیب قابل توجه مطلع هستم، اما آنها فقط برای 3 متغیر پیوسته کار می کنند. آیا روشی وجود دارد که بتوانم این کار را انجام دهم؟ من همچنین راهنمای SPSS UCLA برای تفسیر تعاملات سه طرفه را مطالعه کرده ام. آیا این راهی برای رفتن خواهد بود؟ پیشاپیش از هر کمکی که می توانید ارائه دهید متشکریم.
تشریح تعاملات سه جانبه
7864
هنگام کار با هیستوگرام های تصویری، اغلب فکر می کنم که در برابر فقدان کلمه دقیق برای نام عنصر شدت دست و پا می زند. هنگامی که شخصی به اصطلاح مشابه برای عنصر حوزه زمان نیاز دارد، از پیکسل یا نمونه استفاده می کند. با این حال، الگوریتم‌هایی که با هیستوگرام کار می‌کنند معمولاً بر روی مقادیر شدت خاصی عمل می‌کنند، مانند > شمارش همه مقادیر/عناصر دامنه شدت/THEWORD از همه پیکسل‌ها در پنجره > کلمه چیست؟ آیا هرگز وجود دارد؟
چگونه عناصر دامنه شدت را فراخوانی کنیم؟
23181
چگونه می توان پی دی اف حاشیه، خلفی را تعیین کرد؟
83003
توزیع دوجمله ای منفی NB($m,r$), $$\Pr(X = k) = \left(\frac{r}{r+m}\right)^r \frac{\Gamma(r+) است. ک) {ک! \, \Gamma(r)} \left(\frac{m}{r+m}\right)^k \quad\text{برای }k = 0, 1, 2, \dots.$$ من علاقه دارم در یافتن جفری های قبلی برای $m$ و $r$. من نتوانستم این را در جایی پیدا کنم، اکثر نتایج فرض می کنند $m$ ثابت است. من سعی کردم عبارت را استخراج کنم اما گیر کردم، مطمئن نیستم چگونه بیان را ادامه دهم یا ساده کنم. $$\frac{\partial^2 ln P}{\جزئی m^2} = \frac{k+r}{(m+r)^2} - \frac{k}{m^2}$$ و $$\frac{\partial^2 ln P}{\جزئی r^2} = ...$$
جفری های دوجمله ای منفی قبل
57984
بنابراین، من همیشه فکر می‌کردم که ایده راه‌اندازی این است که شما نمونه‌ای دارید که از آن یک تخمین‌گر برای برخی از تابع‌های جمعیت (مانند قد متوسط) بدست می‌آورید. و سپس هنگامی که بوت استرپ را با نمونه‌گیری مجدد انجام می‌دهید، از توزیع تخمین‌گر (و در نتیجه واریانس) نتیجه می‌گیرید. من این را بدیهی می دانستم که میانگین نمونه های بوت استرپ شده با میانگین نمونه اصلی یکسان است. این قطعاً برای آمارهایی مانند هر میانگین در سراسر جمعیت صادق است. با این حال، برای هر تابع غیرخطی، مانند درصد «افراد ثروتمند» در نمونه، این دو میانگین متفاوت خواهند بود. بنابراین، راه‌اندازی در واقع به شما می‌گوید که تخمین‌گر اصلی شما در حال حاضر میانگین متفاوتی دارد (که در بیشتر موارد نیز حالت است). با توجه به این سوگیری، **آیا هنوز استفاده از bootstrapping برای اندازه گیری واریانس مناسب است (بدیهی است که از میانگین بوت استرپ به جای برآورد اولیه استفاده نمی کنید؟**
آیا استفاده از bootstrapping برای اندازه گیری واریانس مناسب است؟
90004
در بسیاری از بازی های آنلاین، زمانی که بازیکنان یک کار دشوار را انجام می دهند، گاهی اوقات یک جایزه ویژه داده می شود که هر فردی که این کار را انجام داده می تواند از آن استفاده کند. این معمولاً یک مانت (روش حمل و نقل) یا یکی دیگر از وسایل روشویی است (اقلامی که عملکرد شخصیت را بهبود نمی بخشند و عمدتاً برای سفارشی سازی ظاهر استفاده می شوند). هنگامی که چنین پاداشی داده می شود، رایج ترین راه برای تعیین اینکه چه کسی پاداش را دریافت می کند، از طریق اعداد تصادفی است. بازی معمولاً دارای فرمان خاصی است که یک عدد تصادفی (احتمالاً شبه تصادفی، نه تصادفی امن رمزنگاری) بین 1 تا 100 تولید می کند (گاهی اوقات بازیکن می تواند گسترش دیگری را انتخاب کند، اما 100 رایج ترین است). هر بازیکن از این دستور استفاده می‌کند، همه بازیکنان می‌توانند ببینند چه کسی چه چیزی رول کرده است، و آیتم به شخصی که بالاترین رول را می‌زند تعلق می‌گیرد. اکثر بازی ها حتی یک سیستم داخلی دارند که در آن بازیکنان فقط یک دکمه را فشار می دهند و وقتی همه دکمه خود را فشار دادند، بازی بقیه کارها را به صورت خودکار انجام می دهد. گاهی اوقات، برخی از بازیکنان همان تعداد بالا را تولید می کنند و هیچ کس آنها را شکست نمی دهد. این مشکل معمولاً توسط بازیکنانی حل می شود که شماره خود را بازسازی می کنند، تا زمانی که بالاترین عدد منحصر به فرد وجود داشته باشد. سوال من این است: یک مولد اعداد تصادفی را فرض کنید که می تواند هر عددی بین 1 تا 100 را با همان احتمال ایجاد کند. فرض کنید شما یک گروه 25 بازیکنی دارید که هر کدام 1 عدد را با چنین مولد اعداد تصادفی تولید می کنند (هر کدام با دانه خاص خود). شما 25 عدد بین 1 تا 100 خواهید داشت، بدون هیچ محدودیتی در مورد تعداد بازیکنانی که یک عدد خاص را می زنند و هیچ ارتباطی بین اعداد وجود ندارد. احتمال اینکه بیشترین عدد تولید شده توسط بیش از 1 بازیکن ایجاد شود چقدر است؟ به عبارت دیگر، احتمال تساوی چقدر است؟
احتمال اینکه از 25 عدد تصادفی بین 1 تا 100، بالاترین بیش از یک بار ظاهر شود چقدر است؟
57981
من در حال حاضر سعی می کنم یک مدل پیش بینی بهتر برای فهرست بیسبال فانتزی خود بسازم. من در حال حاضر از آمارهای فصل پیش‌بینی‌شده معمولاً پذیرفته‌شده (ZiPS از Fangraphs) برای تعیین میانگین امتیازات فانتزی که یک بازیکن انتظار می‌رود در هر بازی کمک کند، استفاده می‌کنم. با این حال، این مشکل ساز است، زیرا واریانس عملکرد بازیکن (از جمله موارد دیگر) را در نظر نمی گیرد. از آنجایی که بیسبال هم شامل شانس و هم مهارت است، فکر نمی‌کنم پیش‌بینی آمار خاصی از یک بازی (یعنی تعداد ضربه‌هایی که شاهزاده فیلدر خواهد داشت) تمرین مفیدی باشد. در عوض، من می‌خواهم میانگین امتیازات را پیش‌بینی کنم، اما در حین انجام این کار، واریانس را در نظر بگیرم. اولین چیزی که به ذهن خطور می کند، تاثیر کوزه حریف است. فرضیه من این است که کیفیت پارچ بر عملکرد بازیکنان مقابل تأثیر می گذارد. با توجه به انتخاب دو بازیکنی که در میانگین امتیازات فانتزی پیش بینی شده نسبتاً برابر هستند، چگونه می توانم تأثیر پارچ حریف را تعیین کنم و چگونه می توانم فرضیه را آزمایش کنم؟ همچنین، چگونه می توانم واریانس را به روشی معقول در نظر بگیرم، حتی اگر نامشخص باشد؟ چگونه می توانم بفهمم که پروجکشن های من در حال اجرا هستند یا بیش از حد اجرا می شوند؟ (به نظر می رسد این شبیه به یک مشکل بهینه سازی سبد مالی است)
پیش بینی تکنیک های بهینه سازی در بیسبال فانتزی
90005
من یک مدل weibull را به صورت زیر نصب می کنم: s <- Surv(DFBR[Time],DFBR[Censor]) wei <- survreg(s~ Group+ UsefulLife, data = DFBR, dist=weibull) چگونه می توانم احتمال شکست را در 10 روز آینده برای یک داده جدید با گروه = 10 و مفید Life = 100 پیش بینی کنم
پیش بینی احتمال شکست در R با استفاده از survreg
57982
من یک رگرسیون خطی با چندین متغیر مستقل دارم. یکی از متغیرها باینری است. اگر تخمین پارامترها مثبت یا منفی باشد، آیا رابطه مثبت/منفی یکسانی با متغیر وابسته به عنوان یک متغیر پیوسته دارد؟ بنابراین اگر یک رابطه مثبت باشد، آیا متغیر باینری با مقدار 1 مقدار متغیر وابسته بالاتری نسبت به متغیرهای با مقدار 0 خواهد داشت؟
رابطه مثبت/منفی برای یک متغیر باینری در رگرسیون خطی
57988
من در حال نوشتن پایان نامه خود در مورد چگونگی تأثیر عوامل مختلف بر بازده اضافی سهام پس از اعلام M&A هستم. من در کلاس تحلیل چند متغیره شرکت نکرده ام و فقط یک ایده بسیار ابتدایی از اقتصاد سنجی دارم. من مطمئن نیستم که کدام یک از آن دو چیزی است که برای ساختن مدل خود باید یاد بگیرم. به طور کلی، من یک متغیر وابسته (بازده اضافی در بازه زمانی مشخص) و متغیرهای توضیحی زیادی مانند اندازه خریدار، مالکیت نهادی، جنبه‌های مختلف حاکمیت شرکتی و غیره خواهم داشت. هر یک از آن متغیرها دارای متغیر وابسته هستند. چه چیزی باید یاد بگیرم تا بتوانم مدل خود را بسازم؟
تفاوت بین تحلیل چند متغیره و اقتصادسنجی چیست؟
10419
من یک سوال در مورد رگرسیون دوجمله ای منفی دارم: فرض کنید دستورات زیر را دارید: require(MASS) attach(cars) mod.NB<-glm.nb(dist~speed) summary(mod.NB) detach(cars) ) (توجه داشته باشید که ماشین‌ها مجموعه داده‌ای هستند که در R موجود است، و من واقعاً اهمیتی نمی‌دهم که این مدل منطقی باشد.) چیزی که می‌خواهم بدانم این است: چگونه می‌توانم آن را تفسیر کنم. متغیر «تتا» (همانطور که در انتهای تماس به «خلاصه» برگردانده شده است. آیا این پارامتر شکل توزیع نگبین است و آیا می توان آن را به عنوان معیار چولگی تفسیر کرد؟ من از هر فکری قدردانی می کنم!
تتا در رگرسیون دوجمله ای منفی برازش R چیست؟
63117
من دو مجموعه داده بسیار راست انحرافی دارم که باید آنها را برای تفاوت در میانگین مطالعه کنم. با توجه به چولگی، با استفاده از مقیاس log 10 بعد از اضافه کردن 1 تغییر شکل دادم تا بتوانم لاگ را بگیرم. به عبارت دیگر: `xx = log10(x+1)`. 'xx' به خوبی توزیع شده است، که خوب است، اما من یک سنبله منظم در 0 دارم ('x' کاملاً پراکنده است). از آنجایی که تست $t$-تست در مورد نرمال بودن بسیار قوی است، آیا می توانم به هر حال یک تست استنتاج در برابر میانگین اعمال کنم؟ فکر نمی‌کنم بتوانم صفرها را به‌عنوان حالت عادی حذف کنم، زیرا سنبله بسیار زیاد است (حدود 0.2 برابر مقدار مورد انتظار). آیا باید این مقادیر را به عنوان مقادیر پرت در نظر بگیرم؟
نرمال بودن یک متغیر لگ نرمال با یک سنبله در 0؟
9322
از _Econometrics_، توسط فومیو هیاشی (فصل اول): همسانی غیرشرطی: * لحظه دوم عبارات خطا E(εᵢ²) در سراسر مشاهدات ثابت است * شکل تابعی E(εᵢ²|xi) در سراسر مشاهدات ثابت است همسانی مشروط: * این محدودیت که لحظه دوم خطای E(εᵢ²) در سراسر آن ثابت است مشاهدات برداشته می شود * بنابراین لحظه دوم شرطی E(εᵢ²|xi) می تواند در بین مشاهدات از طریق وابستگی احتمالی به xᵢ متفاوت باشد. بنابراین، سوال من: **همسانی مشروط چه تفاوتی با ناهمسانی دارد؟** درک من این است که وقتی لحظه دوم در مشاهدات متفاوت است، ناهمگونی وجود دارد (xᵢ).
هموسکداستیتی مشروط در مقابل دگراندیشی
63113
فرض کنید یکی می خواهد آزمایش کند که چند بازیکن یک روز پس از دریافت بازی و دو روز پس از دریافت آن هنوز بازی می کنند. و اینکه نتایج به این صورت خواهد بود: بازی 1: * تعداد کل بازیکنان = 120 * بازیکنانی که روز بعد بازی می کنند = 21.7٪ * بازیکنانی که دو روز بعد بازی می کنند = 18.3% بازی 2: * تعداد کل بازیکنان = 62 * بازیکنانی که روز بعد بازی می کنند = 16.1٪ * بازیکنانی که دو روز بعد بازی می کنند = 8.1٪ آیا می توان میزان دقیق بودن نتیجه را محاسبه کرد، به خصوص در بازی 2. +- درصد؟ آیا در واقع بازی 2 می تواند بهتر از بازی 1 باشد؟
دو بازی با آمار جمع آوری شده، داده ها چقدر دقیق است؟
9327
ویرایش: از کمکی که تا الان کردید متشکرم. من سوال را بر اساس کار بیشتر به روز کردم. من علاقه مندم که تفاوتی در پاسخ تعداد دو گونه رقیب به خشکی و ارتفاع پیدا کنم. هر دو در یک نوع تله گرفتار شده‌اند، اما قرار دادن تله (بوته‌ها در مقابل ساختمان‌ها) احتمالاً نسبت به یک گونه یا دیگری تعصب دارد، بنابراین هر تله بر اساس فضای داخلی/خارجی در مقیاس 1-3 رتبه‌بندی می‌شود. یک تله با قرار دادن آن حرکت نمی کند. تله‌ها در سایت‌ها تودرتو هستند، خشکی در هر ترکیب سایت/بازدید اندازه‌گیری می‌شود، و البته ارتفاع در هر مکان ثابت است. داده های من شامل تعداد هر گونه است که در 4-12 تله، در 8-12 سایت در طی 6-8 بازدید از هر سایت گرفتار شده است. بازدیدها و سایت ها به اندازه کافی فاصله دارند که به نظر من مستقل هستند. بیشتر داده ها صفر هستند، به خصوص برای Sp_A که نادر است. در زیر ساختار داده ها آمده است. R> str(mydata) 'data.frame': 300 obs. از 8 متغیر: تعداد $ : num 0 5 1 0 1 1 0 0 0 0 ... $ گونه : فاکتور w/ 2 سطح a،b: 1 1 1 1 1 1 1 1 1 1 ... $ elevation: int 1 1 1 1 1 1 1 1 1 1 1 ... خشکی $ : num 0.179 0.179 0.179 0.179 0.179 ... سایت $ : فاکتور w/ 5 سطح a،b،c،d،...: 1 1 1 1 1 1 1 1 1 1 . .. تله $ : فاکتور w/ 50 سطح MT10a،MT10b،...: 6 11 16 21 26 31 36 41 46 1 ... $ بازدید : فاکتور w/ 3 سطح 1،2،3 : 1 1 1 1 1 1 1 1 1 1 1 ... $ in_out : num 1 1 1 1 1 1 1 1 1 1 ... به عنوان یک تلاش اولیه، من هیچ مشکلی در استفاده از تابع R `lmer` برای مدل کردن Sp_A حضور/غیبت با Sp_B به عنوان متغیر کمکی نداشتم: `(SpA>0) ~ Sp_B + elevation + (1|سایت/تله) + (1|بازدید)` اما بنا به پیشنهاد لیست مدل‌های ترکیبی R-sig و همچنین ils از این سایت، داده‌ها را همانطور که در بالا مشاهده می‌کنید تغییر شکل داده‌ام و سعی کردم تعداد گونه‌ها را به عنوان عاملی در مدل مدل کنم. من از دو بسته مختلف (lme4 و glmmADMB) استفاده کرده ام. توابع داده ها را در مدل های ساده کنترل می کنند تا زمانی که فاکتور گونه ها را اضافه کنم. کد R و پیام های خطا در زیر آمده است. هنگامی که از داده‌های ساختگی ساده‌تر استفاده می‌کنم، همین خطاها نیز اتفاق می‌افتد. آیا ایده ای در مورد نحو یا بسته های دیگر دارید؟ require(lme4) glmera1 <- glmer(count~elevation*species*in_out + (1|بازدید) + (1|site/trap), data=mydata, family=poisson) خطا در asMethod(object) : ماتریس است متقارن نیست [1،2] علاوه بر این: پیام‌های اخطار: 1: در mer_finalize(ans): اخطار چالمود 'نه قطعی مثبت در فایل:../Cholesky/t_cholmod_rowfac.c، خط 432 2: در mer_finalize(ans) : چلمود اخطار «قطعی مثبت نیست» در فایل:../Cholesky/t_cholmod_rowfac.c، خط 432 3: در mer_final (انس) : همگرایی مفرد (7) require(glmmADMB) admba1 <- glmm.admb(count~elevation*species*in_out, random=~visit, group=site, data=mydata, family=nbinom) خطا در glmm.admb(count ~ elevation * species * in_out، تصادفی = ~visit، : حداکثر کننده تابع ناموفق بود علاوه بر این: پیام هشدار: دستور اجرای './nbmm -maxfn 500 دارای وضعیت 1 بود
شمارش داده ها با اثرات مختلط
54952
من با یک مشکل بسیار عجیب در STATA مواجه هستم. من یک مجموعه داده پانل با 8000 گروه و 4 میلیون مشاهده دارم. من می خواهم یک رگرسیون لجستیک باینری پانل اثرات ثابت (xtlogit) را اجرا کنم. همانطور که در سوال اصلی من می توانید بخوانید، الگوریتم حداکثر سازی STATA نمی تواند یک راه حل را هنگام استفاده از xtlogit محاسبه کند. من این مشکل را در هنگام تبدیل داده‌ها به داده‌های پانل به وجود می‌آورم، زیرا: 1. اجرای «logit depvar indepvars» به خوبی کار می‌کند. 2. «logit depvar indepvars» در اولین اجرای «xtdata indepvars، fe clear» به حداکثر نمی‌رسد. بنابراین « xtdata` کاری را انجام می دهد که باعث از کار افتادن حداکثر ساز می شود. به نظر می رسد که وقتی «xtdata indepvars, fe clear nodouble» را اجرا می کنم، محاسبه می کند. این به این معنی است که تابع پانل stata باعث می‌شود که داده‌ها به فرمت «دوگانه» (از «float») دوباره فرستاده شوند، و این دقت افزایش‌یافته باعث می‌شود فرآیند حداکثرسازی با شکست مواجه شود. با این حال، من نمی‌توانم از «logit» بعد از «xtdata ..، nodouble» استفاده کنم زیرا با اجرای «xtlogit» یکسان نیست («xtdata» برای OLS در نظر گرفته شده است). بنابراین باید «xtlogit» را اجرا کنم، اما به نظر نمی‌رسد گزینه «nodouble» داشته باشد، که باعث می‌شود STATA داده‌های «پانل پس‌زمینه مخفی» را با دقت بالاتر به فرمت «دوگانه» مجدداً ارسال کند، و بنابراین تابع همگرا نمی‌شود. . بنابراین، آیا می توان به نحوی به STATA گفت که هنگام اجرای «xtlogit»، «float»های من را به «دبل» تغییر ندهد، به طوری که تابع همگرا شود؟ آیا راه حل دیگری برای این مشکل افزایش دقت وجود دارد که باعث عدم همگرا شدن تابع می شود؟
xtlogit: تبدیل داده‌های پانل به دو برابر، مدل را غیرقابل محاسبه می‌کند (STATA)
54950
بیشتر یک سؤال سوادآموزی است که آماری دارد، اما من به دنبال اصطلاحات صحیح هستم و دستگاه Google چیزی را مطرح نکرده است. شما داده های توضیحی و داده های مشاهده شده برای سال های 2000-2010 دارید. شما فقط متغیرهای توضیحی برای 1990-2000 دارید. شما می خواهید X را برای سال های 1990-2000 تخمین بزنید، آیا پیش بینی می کنید؟ تخمین زدن؟ برگشت پیش بینی؟ اصطلاح صحیح چیست؟
پیش بینی گذشته؟
21722
امروز یک ایده را سرهم کرده ام، اما فقط یک ترم آمار گرفته ام، پس لطفاً این را در نظر داشته باشید. با تشکر ابتدا، این سوال: _چگونه تخمین های متعدد را قضاوت می کنید (با شامل خطاهای استاندارد)؟ منظور من تخمین میانگین یا توزیع آنها نیست، بلکه نشان دادن شباهت است. چیزی شبیه به R^2 (یا یک معیار خوب برازش متفاوت) در مدل‌های رگرسیون خطی._ من در مورد متاآنالیز شنیده‌ام، اما تا آنجا که می‌دانم، با تخمین، دقت سروکار دارد و به داده‌های بیشتری نیاز دارد. من، AFAIK، چیز زیادی در مورد شباهت نمی گویم. شاید اندازه CI برآورد به نوعی شباهت را منعکس کند. وقتی در مدرسه برای تشابه آزمایش می‌کردیم، خطاها را در نظر نمی‌گرفتیم، فقط تخمین‌ها را در نظر می‌گرفتیم (آزمون کای اسکوئر، آزمون فیشر). افکار من: وقتی دو تخمین و خطاهای استاندارد آنها دارید، به فواصل اطمینان آنها علاقه مند می شوید. در حالی که می‌دانم قضاوت درباره شباهت آماری فقط بر اساس این فواصل به جای آزمون‌های فرضیه، خطرناک است، اما بررسی اندازه هم‌پوشانی چطور؟ دریافت نسبت چیزی شبیه $$ratio_{1,2} = \frac{l(overlap_{1,2})}{l(CI_1) + l(CI_2)}، $$ که $l$ فقط طول را برمی‌گرداند یک بازه هر چه به یکی نزدیکتر باشد، بهتر است (البته نیازی به نگه داشتن آن نیست). شروع کردم به فکر کردن در مورد آن، زیرا گاهی اوقات شما برای یک پدیده مشابه $n$ تخمین دارید و دوست دارید میزان شباهت آنها را بدانید. برای مثال، نسبت $$ \frac{\sum_{i,j,i<j} ratio_{i,j}}{n(n-1)/2}، $$ نشانگر شباهت زوجی خواهد بود. فقط یه فکر فقط یک تخلیه مغز از زمانی که داشتم سگم را پیاده می کردم. من کمی در گوگل جستجو کردم و دو مقاله در مورد این موضوع پیدا کردم، اما آنها برای من کمی فنی هستند، آنها همچنین با مشکلات متفاوتی سروکار دارند. متاسفم اگر این یک نوع موضوع بی اهمیت در آمار است. یا اگر شرح سوال مشخص نباشد. با تشکر
همپوشانی فاصله اطمینان - قضاوت در مورد شباهت برآوردها
21720
من اخیراً یک نظرسنجی برای مقایسه سال به سال دوباره انجام دادم. در نظرسنجی اخیر، من مقیاس لیکرت را با لنگر انداختن هر کادر به جای 1 و # 6، کمی تغییر دادم. به عبارت دیگر، مقیاس من از این قرار گرفت: 1 - کاملاً موافقم، 2، 3، 4، 5، 6 - کاملاً مخالفم. به این: 1 - کاملا موافق 2 - موافق 3 - تا حدودی موافق 4 - تا حدودی مخالف 5 - مخالف 6 - کاملا مخالف سال به سال مقایسه ها هنوز دقیق هستند؟ من به صورت آنلاین جستجو کردم اما هیچ بهترین روش استاندارد در این زمینه پیدا نکردم. با تشکر
مقایسه داده های مقیاس لیکرت لنگر و بدون لنگر
21727
اندازه نمونه را می توان به روش های مختلفی محاسبه کرد، به عنوان مثال، با استفاده از حاشیه خطا و سطح اطمینان یا انجام آنالیز توان و غیره. چه مواردی باید در انتخاب روش محاسبه نمونه در نظر گرفته شود؟
دستورالعمل برای محاسبه حجم نمونه
21725
فرض کنید من دو مدل $A$ و $B$ دارم که برچسب‌های کلاس را پیش‌بینی می‌کنند. اگر این ها پیش بینی های دودویی ارائه دهند، این ها به صورت جفت (نرخ مثبت کاذب، نرخ مثبت واقعی) در فضای ROC ظاهر می شوند. ما باید بتوانیم مدل‌های مختلفی را برای دستیابی به tpr و fpr در امتداد درونیابی خطی این منحنی‌ها با نسبت دادن نقاط نامناسب به کلاس 1 یا 0 با توجه به برخی احتمالات (همانطور که در شکل دستی زیر نشان داده شده است) بسازیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TRqVmm.png) اجازه دهید بگوییم که مدل $A$ به نرخ مثبت واقعی $t_A$ با نرخ مثبت کاذب $f_A$ دست می یابد. ، و $B$ به طور مشابه به $t_B$ در $f_B$ می رسد. اکنون سعی می کنم در بدنه محدب دو مدل بمانم و نرخ مثبت کاذب $f$ را پیش بینی کنم. من از فرمول زیر استفاده می کنم: 1. اگر $f \leq f_A$، $f/f_A$ نمونه های پیش بینی شده توسط $A$ را به عنوان $1$، و بقیه را $0$ پیش بینی کنید. 2. اگر $f_A \lt f \leq f_B$، $1$ را برای همه آنهایی که توسط $A$ پیش‌بینی شده‌اند، و همچنین $1$ را برای $(f-f_A)/(f_B-f_A)$ از پیش‌بینی‌شده توسط $B$ پیش‌بینی کنید. اما نه $A$. 3. اگر $f_B \le f$، $1$ را برای همه آنهایی که توسط $A$ یا $B$ پیش‌بینی شده‌اند، و همچنین $1$ را برای $(f-f_B)/(1-f_B)$ بقیه پیش‌بینی کنید. این چیزی است که من با استفاده از این دریافت می کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BXfmY.png) به نظر می رسد که در این فرمول چیزی اشتباه است. همانطور که می بینیم، من به طور مداوم زیر خطوطی که $A$ و $B$ را به هم متصل می کنند، پیش بینی می کنم. این به دلیل تصادفی نیست زیرا من کار تقریباً عالی بین مبدا و $A$ انجام می دهم و همچنین از نمونه های زیادی برای تولید این نمودار استفاده کرده ام. برای یک، در محدوده $f>f_B$، ما در واقع بین $B$ و $(1,1)$ درون یابی می کنیم، بنابراین باید $A$ را نادیده بگیریم. من فقط برای حفظ تداوم بین منطقه 2 و 3 آن را به این صورت نوشتم. در واقع باید $1$ را برای کسانی که توسط $b$ و $(f-f_B)/(1-f_B)$ پیش‌بینی می‌شوند، پیش‌بینی کرد. سوال اصلی من این است که فرمول صحیح درون یابی بین $A$ و $B$ چیست؟ این کد من برای تولید این نمودار در R است: n <- 1e6 برچسب <- c(rep(0,n/2),rep(1,n/2)) fA <- .2; tA <- 0.6; fB <- 0.7; tB <-.95 A <- rep(0,n) A[نمونه(n/2,fA*n/2)] = 1; A[(n/2)+ نمونه (n/2,tA*n/2)]=1 B <- rep(0,n) B[نمونه(n/2,fB*n/2)] = 1; B[(n/2)+sample(n/2,tB*n/2)]=1 Ainds = Filter(function(x) {A[[x]]}, 1:n) Binds = Filter(function( x) {B[[x]]}، 1:n) BnotA = فیلتر(تابع(x) {B[[x]]&(! A[[x]])}، 1:n) AorB = Filter(function(x) {A[[x]]|B[[x]]}, 1:n) notAnotB = Filter(function(x) {! (A[[x]]|B[[x) ]])}، 1:n) کتابخانه (ROCR) pred.a <- پیش بینی (A, labels) pred.b <- prediction(B, labels) pdf(ROC_Interpolated.pdf) # نمودار a و b نمودار(عملکرد(pred.a,tpr,fpr),col=blue,lty=0,type='o',pch=2) plot(عملکرد(pred.b,tpr،fpr),col=blue,lty=0,type='o',pch=2,add=T) i <- 0 C = list() pred.c = list() p = list() f = list() for (fgoal in ((1:29)/30)) { i <- i+1 f[[i]] = fgoal C[[i ]] <- rep(0,n) if (fgoal<=fA) { p[[i]] = fgoal/fA C[[i]][sample(Ainds, p[[i]]*طول(Ainds))] = 1 # C[[i]] <- sapply(1:(2*n),function(x) {if (A[[x]]) rbinom( 1,1,p[[i]]) else 0}) } else if (fgoal<=fB) { p[[i]] = (fgoal-fA)/(fB-fA) C[[i]][Ainds] = 1 C[[i]][نمونه(BnotA,p[[i]]*طول(BnotA))] = 1 # C[[i]] <- sapply(1: (2*n)،تابع(x) {if (A[[x]]) 1 else if (B[[x]]) rbinom(1،1،p[[i]]) other 0})} else { p[[i]] = (fgoal-fB)/(1-fB) C[[i]][AorB] = 1 C[[i]][نمونه(notAnotB،p[[i]] * طول (notAnotB))] = 1 # C[[i]] <- sapply(1:(2*n),function(x) {if (A[[x]]|B[[x]]) 1 else rbinom(1،1، p[[i]]) }) } pred.c[[i]] = پیش‌بینی (C[[i]]، برچسب‌ها) نمودار (عملکرد (pred.c[[i]] tpr,fpr),col=red,lty=0,type='o',pch=5,add=T) } خطوط (c(0,fA,fB,1),c(0,tA,tB,1),lty=2,col=black) legend(.4,0.4,legend=c(A, ب، درون یابی شده توسط نمونه‌برداری، نظری)، lty=c(0،0،0،2)، pch=c(2،2،5، NaN)، col=c(آبی، آبی، قرمز، سیاه)) dev.off()
درون یابی بین مدل ها در فضای ROC
21724
من در حال بررسی مقاله کنفرانس هستم (نه یک کنفرانس آماری). نویسندگان با روش شناسی خود کارهای خنده داری انجام داده اند. مجموعه آزمایش دارای 4 درمان است که هر کدام برای همان 30 نفر اعمال می شود. این در 10 شرایط مختلف تکرار می شود. ANOVA برای تعیین اینکه آیا انتخاب درمان تأثیری دارد یا خیر، به طور جداگانه برای هر یک از 10 شرایط مختلف استفاده می شود. آنها دریافتند که تنها یک مورد تفاوت معنی داری داشت، در p=0.03. من دو سوال در مورد روش آنها دارم: 1. به نظر من باید از شرایط به عنوان یک عامل جداگانه در ANOVA استفاده کرد نه اینکه 10 ANOVAS جداگانه انجام داد و اگر کسی آزمایش را 10 بار انجام داد باید p- را ضرب کرد. مقادیر 10 (یعنی تصحیح بونفرونی). آیا این منطقی است؟ 2. علیرغم نتایج قبلی، نویسندگان سپس آزمون‌های t زوجی را بین تمام گروه‌های درمانی مختلف در هر 10 شرایط انجام دادند. آنها اختلاف آماری معنی‌داری را در میانگین‌ها بین بسیاری از گروه‌ها در شرایطی گزارش کردند که ANOVA پیشنهاد کرد هیچ تفاوتی نداشت. من گمان می کنم که این بدان معنی است که آنها اصلاح بونفرونی را برای مقادیر p در تست های زوجی خود انجام نمی دهند. آیا این درست است؟ آیا روش دیگری وجود دارد که آنالیز واریانس نشان دهد که هیچ معناداری وجود ندارد، اما تفاوت معنی داری بین گروه ها وجود دارد؟
عادی سازی در آزمون فرضیه های زوجی
48367
ویرایش گسترده سوال اصلی در حالی که من توانسته ام افکارم را اصلاح کنم و کد بهتری بنویسم. داده‌های دو فرآیند را در نظر بگیرید، که هر کدام می‌توانند منحنی‌های سری زمانی زیادی را تولید کنند که همپوشانی زیادی در نتایج خود دارند. یک تصویر نمونه در زیر آمده است، با استفاده از منحنی های نسبتاً کمی - برنامه واقعی هزاران مورد برای هر فرآیند دارد، در حالی که هر کدام فقط 250 عدد دارد (قرمز در مقابل آبی): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/cLtIp.png) مقدار زیادی همپوشانی بین این دو وجود خواهد داشت، اما برای مثال فرآیند قرمز تنها فرآیندی است که می‌تواند در اوایل قله‌های بسیار بالا و بسیار تیز ایجاد کند، در حالی که به نظر می رسد آبی قله های بالاتری در محدوده X = 3000 تا 4000ish و غیره ایجاد می کند. چیزی که من به دنبال آن هستم راهی برای کمیت کردن یا تجسم آماری آن فضای غیر همپوشانی است که در آن همپوشانی های زیادی وجود دارد. کسی ایده ای دارد؟ یکی از کارهایی که من به انجام آن فکر کرده‌ام این است که نادیده بگیرم که اینها سری‌های زمانی هستند، و چیزی شبیه چگالی هسته برای هرکدام تولید کنیم و یکی از دیگری کم کنیم - مناطق دور از صفر مکان‌هایی با همپوشانی کمتر خواهند بود، اما مطمئن نیستم. چقدر قابل دفاع است کاربرد واقعی این یک سری جستجوی پارامتر برای یک سیستم دینامیکی است - اساساً، هدف این است که نتایج عددی بسیار زیادی از یک سیستم معادلات دیفرانسیل را با استفاده از دو رویکرد مختلف تولید کند و سپس هر جایی از نتایج را پیدا کند، مثلاً «قرمز می‌تواند نتایجی را با این مقدار ایجاد کند، در حالی که آبی نمی‌تواند» زمانی که در اکثر موارد مقداری پارامتر برای قرمز همان نتایجی را ارائه می‌دهد که پارامترهای متفاوت برای آبی.
توصیف/تجسم آماری «عدم همپوشانی» در مجموعه بزرگی از داده‌های سری زمانی
62862
به من مجموعه داده ای داده می شود که در آن پروفایل افراد و انواع آبجوی مورد علاقه هر فرد وجود دارد که در یک لیست آورده شده است. بهترین راه برای یافتن آبجوهای مرتبط با یک آبجو خاص بر اساس این داده ها چیست؟ ویرایش: درباره سوالم بیشتر تحقیق کردم و متوجه شدم که در حوزه فیلترینگ مشارکتی است. از تحقیقات من، نمونه‌هایی که در حال حاضر ارائه می‌شوند شامل رتبه‌بندی یا سایر معیارها هستند، اما مجموعه داده‌های من بسیار کم است. شامل آبجوهای خریداری شده توسط یک شخص می شود. بنابراین تنها داده ای که ما داریم آب و هوا است یا اینکه شخصی آبجو خاصی را خریداری نکرده است. قالب به این صورت است: Person | Beers 1 A,B,C,R,G,S 2 A,F,U,I,T 3 B,C 4 J,R خرید. سوال من این است که با توجه به یک آبجو بگویید A، بهترین توصیه را از 3 آبجو ارائه دهید. تلاش فعلی من 1 آبجو داده شده است، همه کاربرانی را که آن را خریده اند پیدا کنید، سپس به همه آبجوهایی که خریداری کرده اند نگاه کنید و 3 مورد رایج ترین آنها را پیدا کنید. من معتقدم که این خیلی ساده لوحانه است، بنابراین چه روش های دیگری ممکن است؟ من به داشتن یک تابع وزنی فکر می کنم اما مطمئن نیستم که چگونه آن را انجام دهم.
بهترین روش یادگیری ماشین برای موتور توصیه؟
26974
من داده‌هایی دارم که در تعدادی از سایت‌ها جمع‌آوری شده‌اند، و هر سایت در یکی از سه منطقه (دریاچه انتاریو، ایری و سنت لارنس) قرار داشت، بنابراین امیدوار بودم که ANOVAهای تودرتو برای مقایسه بین سایت‌ها و مناطق انجام دهم. متأسفانه تعداد سایت‌های نابرابر در هر منطقه (به ترتیب 3، 4 و 5) به دلیل جمع‌آوری داده‌های کافی در چند سایت وجود ندارد. همچنین، واریانس‌ها و اندازه نمونه‌های من بین سایت‌ها برابر نیست (اندازه نمونه از 3 تا 43، می‌دانم، وحشتناک است!). تعداد کل مشاهدات برای همه سایت ها 182 بود. بیشتر سایت ها حدود 15 مشاهده داشتند سوال من این است که آیا امکان دارد من به نوعی تحلیل تودرتو انجام دهم؟ من نمی توانم اطلاعات زیادی در مورد تجزیه و تحلیل تودرتو با واریانس های نابرابر پیدا کنم. من سعی کرده‌ام تبدیل کنم، نزدیک‌ترین چیزی که می‌توانم به homoscedasticity برسم با $x_{new}=\frac{1}{(x+2)}$ است، و این به من $p \تقریبا 0.02$ می‌دهد.
من می خواهم یک ANOVA تودرتو انجام دهم اما واریانس های من بسیار نابرابر است
49945
در یک نظرسنجی از 1070 نفر از ساکنان آن آربور، 59٪ از ممنوعیت دوچرخه در پیاده روهای مرکز شهر در مناطق خاصی با ترافیک زیاد عابران حمایت کردند. یک مدیر شهری می خواهد تعیین کند که آیا اکثریت ساکنان آن آربر از چنین ممنوعیتی حمایت می کنند یا خیر. او تصمیم می گیرد که فرضیه های $H_0:\; p = 0.50$ در مقابل $H_a:\; p > 0.50 دلار در سطح معنی داری 5 درصد. مقدار آماره آزمون مناسب برای آزمون فرضیه اکثریت را محاسبه کنید. آیا فقط $$z = \frac{0.59-0.50}{\sqrt{0.50(1-0.50)\big/1070}} = 5.89 است؟ $$ من گیج شدم، زیرا به نظر می رسد مقدار z بسیار بالا است . هر ایده ای؟
یافتن آمار آزمون برای یک فرضیه اکثریت
49944
هنگام بهینه سازی یک برنامه کامپیوتری، باید تعیین کنم که برنامه با آخرین بهینه سازی چقدر سریعتر اجرا می شود. برای این کار، برنامه را N بار **بدون ** بهینه سازی و N بار **با** بهینه سازی اجرا می کنم. بعد از هر بار اجرا، زمان سپری شده را ثبت می کنم. بنابراین من دو مجموعه از اندازه‌گیری‌های N را دریافت می‌کنم که می‌خواهم آنها را برای تعیین سود حاصل از بهینه‌سازی مقایسه کنم. فرض کنید که A و B به ترتیب مجموعه ای از اندازه گیری ها با و بدون بهینه سازی هستند. بنابراین: A = [Ta1، Ta2، ...، TaN] <-- بدون بهینه سازی B = [Tb1، Tb2، ...، TbN] <-- با بهینه سازی به طور خاص می پرسم: 1. آیا اندازه گیری ها سازگار هستند؟ من می‌خواهم از مقادیر فقط در صورتی استفاده کنم که سازگار باشند، و مطمئن باشم که هیچ صدایی وجود نداشته است که نتایج را خراب کند. در حال حاضر، من stddev(A)/mean(A) < 0.03 را بررسی می کنم، و برای B یکسان است. 2. چند اندازه گیری لازم است تا اطمینان خوبی در مقایسه داشته باشیم؟ 3. بهترین روش برای مقایسه این دو سری چیست: «میانگین(A)/میانگین(B)»، «میانگین(A)/میانگین(B)»، یا «(میانگین(B)-میانگین(A)) /mean(A)`؟
چگونه بهبود حاصل از یک درمان را ارزیابی کنیم؟
49943
به نظر می رسد در میان متاآنالیزها، حذف مطالعاتی که تخمینی از انحراف استاندارد نمونه ارائه نمی کنند، رایج است. برای مثال، یک سوال قبلی روش‌هایی را برای تخمین $\sigma$ از آمارهای خلاصه مختلف مرور می‌کند. اما آیا عدم برآورد خطا به تنهایی توجیه کافی برای حذف یک مطالعه از یک متاآنالیز است؟ اگر چنین است، آیا مرجعی برای این موضوع وجود دارد و چگونه می توان به این منبع بالقوه سوگیری پرداخت؟
آیا حذف مطالعاتی که برآوردی از انحراف استاندارد نمونه از متاآنالیز ندارند، عملی استاندارد است؟
49940
$x_1، ...، x_n$ ثابت های شناخته شده هستند و $Y_1، ...، Y_n$ $Y_i = Bx_i + \epsilon_i$ را برآورده می کند که $\epsilon_i$ مستقل هستند، $N(0، \sigma^2)$ ، متغیرهای تصادفی گفتم تابع احتمال من $$\prod_{i = 1}^n\frac{1}{\sigma \sqrt{2\pi}} \exp\left({-\frac{(x - Bx_i)^2 است {2\sigma^2}}\right)$$ آیا این درست است؟
آیا تابع احتمال من درست است؟
28559
من در تلاش برای یافتن توزیع مناسب برای مدل کردن تعداد کل روزهای تعطیلات در یک سال هستم. من در ابتدا به این فکر کردم که با یک توزیع شمارش استاندارد مانند دوجمله ای منفی یا حتی از رگرسیون مانع برای ترکیب negbin با یک مدل لجستیک استفاده کنم. با این حال، ماهیت متغیر وابسته باعث می‌شود که انتخاب‌هایم را در مرحله دوم حدس بزنم. مشکلی که من دارم این است که سعی می کنم تعداد کل روزها را پیش بینی کنم و اینها رویدادهای مستقلی نیستند. اگر من # تعطیلات را مدل می کردم و نه روزها، بیشتر مایل بودم از مدل شمارش استفاده کنم. من همه جا برای چیزهایی مانند مدل سازی مدت جستجو کرده ام اما هیچ چیز مفیدی پیدا نکردم. هر گونه پیشنهادی که من را در مسیر درست راهنمایی کند بسیار قدردانی می شود.
بهترین توزیع برای مدت زمان مدل
8942
چگونه می توانم ماتریس همبستگی نویز (تابع psi) را در رویکرد حالت افزوده فیلتر کالمن تخمین بزنم؟ آیا می توانم چیزی شبیه به این انجام دهم: $$\text{noise}_2 = \psi \cdot \text{noise}_1\text{;}\quad\text{noise}_3 = \psi \cdot \text{noise}_2 = \psi^2 \cdot \text{noise}_1\text{;}$$ بنابراین $$\text{noise}_n = \psi^{n-1} \cdot \text{noise}_1 \quad \text{and}\quad \psi = \sqrt[n]{\frac{\text{noise}_n}{\text{noise} _1}}.$$ لطفا کمک کنید!
تخمین همبستگی نویز در فیلتر کالمن بردار حالت افزوده
8947
فرض کنید من ماتریسی دارم که در آن داده های اساسی از کل جمعیت است. فرض کنید من همچنین ماتریسی دارم که در آن داده های اساسی از جمعیت نمونه برداری شده است. چگونه می توانم تجزیه و تحلیل کنم که نمونه چقدر جامعه را نشان می دهد؟ غریزه من این است که آن را به یک فهرست ردیف-col تبدیل کنم: row col popvalue samplevalue 1 1 34.5 33.2 [...] i j 54.4 51.2 و سپس ANOVA را بین این دو اجرا کنید. آیا این درست به نظر می رسد یا راه بهتری برای اندازه گیری آن وجود دارد؟
چگونه می توانم یک ماتریس از مقادیر جمعیت را با یک ماتریس از مقادیر نمونه مقایسه کنم؟
48366
این یک سوال بسیار ساده است: چگونه می توان خطای استاندارد را برای تخمین کوواریانس در R بدست آورد؟ من کوواریانس را با استفاده از تابع 'cov' تخمین می زنم، اما به نظر می رسد جایی برای بازگشت خطای استاندارد در برآورد وجود ندارد. من مشتق را ترجیح می دهم تا بتوانم خودم را پیاده کنم.
خطاهای استاندارد برای برآورد کوواریانس در R
58189
من با انجام بسیاری از نمونه ها یک توزیع نرمال 1 بعدی را تقریب می زنم. من می توانم میانگین آن را با میانگین گرفتن نمونه ها تقریب بزنم. با این حال، چگونه می توانم واریانس را بدست بیاورم؟ این خیلی ساده به نظر نمی رسد.
چگونه می توانم واریانس یک توزیع نرمال را تقریب بزنم؟
47957
من می خواهم بدانم بهترین روش برای تجزیه و تحلیل مجموعه داده ها چیست که متغیر پاسخ من داده های شمارش و متغیرهای توضیحی من متغیرهای پیوسته هستند. همه متغیرهای من به طور معمول توزیع نمی شوند. آیا GLM ها گزینه خوبی هستند؟
بهترین تجزیه و تحلیل برای داده های شمارش به عنوان متغیر پاسخ
48360
سوال من این است که آیا قبل از برازش رگرسیون لجستیک باید مجموعه داده را استاندارد کنیم تا مطمئن شویم همه متغیرها مقیاس یکسانی دارند، بین [0،1]. فرمول $\frac{x_i-min(x_i)}{max(x_i)-min(x_i)}$ است. مجموعه داده من 2 متغیر دارد، آنها یک چیز را برای دو کانال توصیف می کنند، اما حجم آن متفاوت است. بگویید تعداد بازدید مشتری در دو فروشگاه است، y در اینجا این است که آیا مشتری خرید می کند یا خیر. زیرا مشتری می تواند قبل از خرید از هر دو فروشگاه، یا دو بار فروشگاه اول، یک بار فروشگاه دوم بازدید کند. اما تعداد کل بازدید مشتری برای فروشگاه اول 10 برابر بیشتر از فروشگاه دوم است. وقتی این رگرسیون لجستیک را منطبق می‌کنم، بدون استانداردسازی، `coef(store1)=37, coef(store2)=13`; اگر داده ها را استاندارد کنم، «coef(store1)=133، coef(store2)=11». یه چیزی شبیه این کدام رویکرد منطقی تر است؟ اگر من یک مدل درخت تصمیم را برازش کنم چه؟ من می دانم که مدل های ساختار درختی نیازی به استانداردسازی ندارند زیرا خود مدل به نحوی آن را تنظیم می کند. اما با همه شما چک می کنم.
آیا استانداردسازی قبل از برازش رگرسیون لجستیک لازم است؟
26940
> **تکراری احتمالی:** > تکنیک های اعتبارسنجی برای مدل سلسله مراتبی من قبلاً این را در Math.SE پست کرده بودم، اما متوجه شدم که احتمالاً این مکان بهتری برای پست کردن خواهد بود. من یک مدل سلسله مراتبی دارم که باید آن را تایید کنم. مدل من به صورت زیر است: ما مجموعه ای از $λ_i$ داریم که از ${\rm Gamma}(α,β)$ می گیریم. سپس، نقطه داده yi خود را از ${\rm Poisson}(λ_i)$ ترسیم می کنیم. من توزیع مشترک $α,β,λ_i$ را از طریق نمونه‌بردار گیبس همراه با گام متروپلیس دریافت می‌کنم. این قسمت مشکلی ندارد و مشکلی در اجرا وجود ندارد. سوال من این است که چگونه چنین مدلی را تایید کنم؟ من مجموعه ای از داده های خود را دارم که هر کدام مربوط به یک $λ_i$ خاص است. من مطمئن نیستم که چه آزمایش های آماری/مراحل دیگری برای بررسی باید انجام دهم. با تشکر
اعتبار سنجی مدل سلسله مراتبی بیزی
26972
من سعی می کنم یک پارامتر را بر اساس تاریخچه گذشته آن تخمین بزنم. با این حال، من داده های مشاهده شده را در هر نقطه از زمان ندارم. برای نشان دادن این سناریو، گروهی از N نفر را در نظر بگیرید که در آن هر نفر تخمین می‌زند که افراد N-1 باقیمانده روز بعد چند ایمیل دریافت خواهند کرد. این افراد به ندرت ملاقات می کنند. وقتی X با Y ملاقات می کند، آنها فقط تعداد ایمیل های دریافتی دیروز را رد و بدل می کنند، یعنی هیچ داده تاریخی در دسترس نیست. آیا استفاده از میانگین متحرک موزون نمایی (EWMA) در این مورد درست است؟ $$ \hat{X}_t = a * X_t + (1 - a) * \hat{X}_{t-1} $$ به طور دقیق: من سعی می کنم یک مقدار را تخمین بزنم (یا بهتر بگویم، پیش بینی کنم) بر اساس ارزش های تاریخی که ممکن است برخی از مشاهدات وجود نداشته باشد. من می‌توانم از EWMA فیلتر کالمن (یا هر چیز دیگری) استفاده کنم -- نکته این است که در صورت مشاهده چنین **مشاهده‌ای از دست رفته** کدام روش قوی خواهد بود؟
برآورد در حضور مشاهدات گمشده
68774
من می‌خواهم یک مدل چندسطحی (مدل شیب تصادفی قطع تصادفی) با مقایسه حداکثر احتمال و تخمین بیزی اعمال کنم. من به تخمین حداکثر احتمال عادت دارم، با این حال، بخش تخمین بیزی برای من کاملاً واضح نیست. 1) آیا وقتی می خواهم یک مدل چندسطحی را به روش بیزی اعمال کنم، لزوماً باید از تخمین بیز سلسله مراتبی استفاده کنم؟ 2) و به نوبه خود، آیا می توانم استنباط کنم که مقاله ای که از تخمین بیز سلسله مراتبی استفاده کرده است، لزوماً از یک مدل چند سطحی استفاده می کند؟ با تشکر از کمک شما!
مدل چند سطحی با بیز سلسله مراتبی
38419
> **تکراری احتمالی:** > تحت چه شرایطی باید از تحلیل چندسطحی/سلسله مراتبی استفاده کرد؟ من مقالات مختلفی را در مورد تجزیه و تحلیل چند سطحی مطالعه کرده ام، و صادقانه بگویم، هنوز در مورد انتخاب مدل های رگرسیون OLS ساده یا مدل های چند سطحی (تصادفی یا مختلط) زمانی که داده ها خوشه ای هستند، سردرگم هستم، اما تمرکز اصلی تحقیق بر روی فردی است. سطح (در حالی که اثرات در سطح گروه به عنوان یک مزاحم تلقی می شود)؟ در این مورد مناسب ترین راه برای ادامه چیست؟ خیلی ممنون
رگرسیون خطی ساده در مقابل مدل سازی چند سطحی زمانی که علاقه اصلی در سطح فردی است
68773
من تجزیه و تحلیل ANOVA را با استفاده از نرم افزار ژنتیکی جمعیت Arlequin انجام دادم. من از چند مجموعه داده، نتیجه عجیبی به دست آوردم: -------------------------------------- -------------------------------- منبع مجموع واریانس درصد تغییرات d.f. مربعات اجزای تغییرات ---------------------------------------------- ------------------------ در میان گروه‌ها 1 2.253 0.04725 Va 21.07 در میان جمعیت‌های درون گروه‌های 4 1.515 0.01703 Vb 7.60 درون جمعیت 73 11.675 0.15993 Vc 71.33 ---------------------------------------- ------------------------------ مجموع 78 15.443 0.22421 ------------------------------------------------ ---------------------- شاخص های ثابت FSC : 0.09623 FST : 0.28667 FCT : 0.21072 ------------------------------------------------- --------------------- تست های اهمیت (1023 جایگشت) ------------------ Va و FCT: P(Rand. value > obs. value) = 0.00000 P(Rand. value = obs. value) = 0.10753 P(rand. ارزش >= obs. ارزش) = 0.10753+-0.01354 چگونه ممکن است که مقدار p$ اول برابر با صفر باشد در حالی که دومی 0.10753$ است؟
مشکل مقدار p در تجزیه و تحلیل ANOVA
68777
من اخیراً به یادگیری ماشین پرداخته ام. تا اینجا متوجه شدم که در یادگیری نظارت شده، نتیجه رگرسیون اغلب یک عدد واقعی است، به عنوان مثال، در رگرسیون خطی، نتیجه y یک عدد واقعی است. سوال من این است که آیا ممکن است y بردار باشد؟
رگرسیون به یک فاصله به جای یک عدد واقعی