_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
95743
تحلیل مسیر و رگرسیون چندگانه سلسله مراتبی دو روش تحلیلی رایج هستند که برای بررسی یک مدل نظری استفاده می‌شوند. یک متغیر وابسته وجود دارد. هیچ کس توضیح نداده است که چرا یک روش دیگر را انتخاب می کنند. به زبان عوام لطفاً جوانب مثبت و منفی را بیان کنید!
نحوه انتخاب بین تحلیل مسیر یا رگرسیون چندگانه با یک متغیر وابسته را به یک فرد غیرمستقیم توضیح دهید
65769
من یک سوال سریع در مورد مدل‌سازی منحنی رشد و عدم تعادل پایه دارم: آیا مدل‌های منحنی رشد عدم تعادل پایه را کنترل می‌کنند و اگر چنین است، آیا آنها عدم تعادل را به روشی قابل اعتماد کنترل می‌کنند، یعنی سازگار با ANCOVA؟
کنترل عدم تعادل پایه
45747
جمعیت من 2000 دلار است. من از فرمول کوکران برای تعیین اندازه نمونه استفاده کردم که $$\text{Sample Size} = \frac{n}{1 + (n/\text{population})}$$ است که در آن $n$ برابر است با $Z * Z [P (1-P)/(D*D)]$ (با استفاده از اطمینان 95% و 5\%$ حاشیه خطا و $p = 0.5$) که اندازه نمونه را به من می دهد 323 دلار **سوال من**: آیا 323$ حداقل حجم نمونه است؟ آیا می توانم نمونه بزرگتری بگیرم؟ اگر اندازه جمعیت 800$ داشته باشم و دوباره با استفاده از همان فرمول، حجم نمونه 18$ را دریافت کنم (با استفاده از 10$\%$ حاشیه خطا و $95\%$ اطمینان، $p=95\%$) پس اندازه نمونه نیست. برای انجام آزمون فرضیه خیلی کوچک است؟
چگونه اندازه نمونه را تعیین کنیم؟
104604
من داده های زیر را برای مکان های مختلف رویداد دارم. هر رویداد می تواند موفقیت یا شکست باشد (مقادیر باینری). بنابراین میانگین = درصد موفقیت. داده ها نشان دهنده تاریخچه رویدادهای $$\begin{array}{c|c|c}\rm رویداد\ مکان&\rm تعداد\ رویدادها &\rm میانگین\\\\\hline A & 10 & 0.5\\ \ B & 2 & 1 \\\ C & 1 & 0\\\ D & 100 & 0.3\\\ E & 1 & 0\\\ F & 1 & 1\\\\...&...&...\end{array}\\\$$ من به دنبال راهی برای یافتن مکان رویدادهایی هستم که شانس موفقیت آنها در رویدادهای آینده کم است. من به این فکر می کنم که میزان اطمینان در هر مکان را بر اساس نمونه آن مکان محاسبه کنم. به عنوان مثال، داشتن یک مکان با تنها 1 یا 2 رویداد با میزان موفقیت 0٪ یا 100٪ محتمل است زیرا تعداد زیادی از این مکان ها وجود دارد. با این حال، مکانی با 100 رویداد اما میانگین بسیار متفاوت از میانگین کلی نادر است. من در نظر دارم از آزمون _t_ برای مقایسه میانگین مکان رویداد با میانگین کلی و واریانس جامعه استفاده کنم. آیا روشی بهتر یا بهتر از آزمون _t_ برای انجام این کار وجود دارد؟ من احساس می کنم این باید یک مورد استفاده رایج باشد، نمونه هایی را پیدا کنید که بسیار متفاوت از دیگران هستند. **ویرایش:** یک گزینه پیدا کردم این است که یک scipy.stats.binom_test در هر ردیف انجام دهید و از p-value برای یافتن موارد با اطمینان بالا استفاده کنید. هنوز مطمئن نیستم که این بهترین یا تنها راه است.
ردیف هایی را در داده ها پیدا کنید که از نظر آماری با میانگین تفاوت دارند
9280
من یک مدل خطای مکانی دارم که تخمین زده ام و می خواهم با فاصله پیش بینی رقمی ایجاد کنم. منظور من از مدل خطای فضایی این است که خطاها از نظر مکانی همبسته هستند و بنابراین OLS بی طرفانه اما ناکارآمد است (نه یک مدل خود رگرسیون مکانی). من از رویکرد زمین آماری برای آمار فضایی استفاده کردم و یک نیمه متغیر برای داده‌هایم تخمین زدم و از تخمین‌های نیمه متغیروگرام برای ایجاد یک ماتریس وزنی برای محاسبه خودهمبستگی مکانی در داده‌ها استفاده کردم. من فکر می‌کنم پاسخ به این سؤال به هر کسی که از وزن‌ها در رگرسیون خود استفاده می‌کند، بدون توجه به ساختار دقیق ماتریس وزنی خود کمک می‌کند. از این سؤال می بینم که فرمول یک بازه پیش بینی 95٪ برای OLS $$ \hat{y} \pm 1.96 \hat{\sigma} \sqrt{1 + \mathbf{X}^* (\mathbf{X است }'\mathbf{X})^{-1} (\mathbf{X}^*)'}. $$ با توجه به شهود محدود من، حدس من این است که فاصله پیش‌بینی در مورد وزن‌ها این خواهد بود (که $\Omega$ ماتریس وزن است): $$ \hat{y} \pm 1.96 \hat{\sigma } \sqrt{1 + \mathbf{X}^* (\mathbf{X}'\mathbf{\Omega}^{-1}\mathbf{X})^{-1} (\mathbf{X}^*)'} $$ و امیدوار بودم که بتوانم مقداری دریافت کنم بازخورد از جامعه اینجا در مورد درستی و یا اینکه آیا من حتی در میدان توپ درست هستم.
فرمول فاصله پیش بینی برای رگرسیون فضایی
45742
من می خواهم تجزیه و تحلیل بقا را با مجموعه داده های بزرگ انجام دهم. جمع آوری داده ها در تاریخ 01/01/1997 آغاز شد و هنوز ادامه دارد. با این حال، قسمت‌هایی که قبل از «01-01-1997» شروع شده‌اند (و تاریخ پایانی بعد از «01-01-1997» داشتند یا هنوز تاریخ پایانی ندارند) نیز در پایگاه داده هستند. بنابراین، اگرچه شروع رسمی جمع‌آوری داده‌ها «01-01-1997» است، برخی از داده‌ها با تاریخ شروع «< 1997-01-01» در پایگاه داده وجود دارد. _[EDIT]_ قسمت‌هایی که بعد از «01-01-1997» شروع شده‌اند نیز ضبط می‌شوند. بنابراین چیزی که من می دانم این است: 1. اگر تاریخ شروع > 1997-01-01 باشد و تاریخ پایان < امروز باشد، هیچ سانسور و هیچ برشی وجود ندارد. 2. اگر تاریخ پایان = امروز باشد به احتمال زیاد سانسور دلیل این تاریخ پایان است. 1997-01-01` راه مناسب برای رسیدگی به این مشاهدات چیست؟ آیا این مشاهدات باعث سوگیری می شود (پس احتمالاً بهتر است آنها را حذف کنید)؟ یا باید به سادگی این مشاهدات را در مجموعه داده های خود رها کنم؟ _[ویرایش 2]_ برای دقیق تر بودن در مورد مشکل: همانطور که جمع آوری داده ها در «01-01-1997» آغاز شد، انتظار می رود حداکثر زمان بقای مشاهدات در پایگاه داده (تقریبا) 15 سال باشد (ما دسامبر داریم. 2012 در زمان نگارش). با این حال، اگر قسمت‌ها قبل از «01-01-1997» شروع می‌شد و رویداد هنوز برگزار نمی‌شد، بیش از 15 سال طول می‌کشید. این به نوعی احساس عجیبی دارد - اگر یک مشاهده 01-01-1995 باشد - امروز شامل می شود، اگر مشاهده دیگری 01-01-1995 - 1996-12-31 باشد مستثنی می شود.
داده هایی را که قبل از تاریخ شروع تعریف شده برای تجزیه و تحلیل بقا شروع شده اند، حذف کنید
80543
مشکل من اساساً مشکل تفکیک منبع کور است. من 3 منبع غیر متعامد (یا توابع پایه) و N ترکیب خطی تصادفی (مخلوط) از منابع گفته شده دارم. مشکل من بدست آوردن منابع از مخلوط هاست. شکل A منابع را نشان می دهد، B مخلوط ها را نشان می دهد. رویکردهای اتخاذ شده: 1) PCA- من PCA را روی مخلوط ها امتحان کردم (شکل C)، اما مسئله این است که PCA فقط پایه های متعامد می دهد، در حالی که منابع/پایه های من غیر متعامد هستند. این مشکل با PCA در شکل D نشان داده شده است، که در آن داده ها به وضوح توسط 2 پایه غیر متعامد توضیح داده شده است، اما PCA (خطوط جامد) نمی تواند آنها را بازسازی کند! 2) چرخش عاملی - من سعی کردم از برخی راه حل ها از تحلیل عاملی استفاده کنم (نه قدرت من). چرخش پرومکس (matlab: nw = rotatefactors (cov,'method','promax')) در شکل نشان داده شده است. D با خطوط چین. تا آنجا که من می توانم بگویم، چرخش عامل با مولفه های اصلی کار می کند، نه ماتریس اصلی و بنابراین من نمی دانم که چگونه می تواند پایه درست را بازسازی کند. فکر می‌کنم این فقط با ماتریس‌های فاکتور کار می‌کند، نه با ماتریس‌های عمومی... 3) ICA - ICA بیش از حد تعیین‌شده را با الگوریتم fastICA امتحان کردم (همچنین قدرت من نیست، اما فکر می‌کنم آن را بهتر درک می‌کنم). من امیدوار بودم که این کار کند زیرا اجزای مستقل (IC) غیر متعامد هستند. راه حل در شکل E نشان داده شده است. اگرچه آی سی ها در واقع غیر متعامد هستند، اما منابع اصلی من نیستند:-( هر گونه راهنمایی یا راه حل بالقوه دیگر بسیار قدردانی می شود. ![شکل](http://i.imgur.com/DmFiAZ3.png) با تشکر!
استخراج منابع غیر متعامد در مسئله جداسازی ICA/PCA/منبع کور
78257
اجازه دهید متغیر تصادفی X نشان دهنده مقدار پولی باشد که دانش آموز در کلاس حمل می کند. برای تعیین μ، میانگین پول حمل شده توسط دانش آموز، آزمایشی در کلاس انجام شد. کلاس به چهار گروه تقسیم شد و از هر گروه به صورت تصادفی نمونه گیری شد. از گروه های 1 و 2، نمونه های تصادفی با اندازه n=5 و از گروه های 3 و 4، نمونه های تصادفی با اندازه n=10 گرفته شد. برخی از نتایج نمونه برای چهار گروه در زیر نشان داده شده است. میانگین گروه 1 46.60 2 6.80 3 16.00 4 13.90 مربی شما علاقه مند است که فرضیه زیر را در مورد میانگین مقدار پول حمل شده توسط دانش آموز آزمایش کند: H0: μ ≥ 28.79 H1: μ < 28.79 فرض کنید مقدار پولی که دانش آموز حمل می کند از توزیع نرمال پیروی می کند و s2 = 4929.1. **با استفاده از میانگین نتایج برای گروه 2 از جدول بالا، مقدار p برای این آزمون چقدر است؟** **پاسخ را 0.24 دریافت می کنم، در حالی که پاسخ صحیح 0.2611 است. ** من اشتباه می کنم؟ **من ابتدا z-score را به صورت (6.80-28.79)/sqrt(4929.1/5) = -0.7.** **P(z <-0.7) = 0.24** محاسبه کردم
چگونه مقدار p را برای آزمون فرضیه به درستی محاسبه کنیم؟
9283
آیا می توانید یک بسته تجزیه و تحلیل ترکیبی آسان برای استفاده یا جامع برای R را توصیه کنید؟
بسته های مشترک برای R
112459
با توجه به دو ماتریس همبستگی (هر $p \times p$)، که در آن هر کدام متعلق به یک گروه متفاوت است، آیا می توان یک نمونه جدید را در یکی از گروه ها (فقط بر اساس ماتریس همبستگی) طبقه بندی کرد؟ بهترین روش یادگیری ماشین در چنین شرایطی چه می تواند باشد؟
طبقه بندی با استفاده از همبستگی
63321
من به این پست اشاره می‌کنم که به نظر می‌رسد اهمیت توزیع نرمال باقیمانده‌ها را زیر سوال می‌برد، با این استدلال که این امر همراه با ناهمسانی به طور بالقوه می‌تواند با استفاده از خطاهای استاندارد قوی اجتناب شود. من دگرگونی‌های مختلفی را در نظر گرفته‌ام - ریشه‌ها، سیاهه‌ها و غیره - و همه در حل کامل مسئله بی فایده هستند. در اینجا یک نمودار Q-Q از باقیمانده‌های من آمده است: ![نمودار نرمال](http://i.stack.imgur.com/hSS43.jpg) **داده** * _متغیر وابسته:_ از قبل با تبدیل لگاریتمی (مشکلات پرت را رفع می‌کند و مشکل چولگی در این داده ها) * متغیرهای مستقل: سن شرکت، و تعدادی متغیر باینری (شاخص) (بعداً من تعدادی برای یک رگرسیون جداگانه به‌عنوان متغیرهای مستقل به حساب می‌آید) فرمان «iqr» (همیلتون) در Stata هیچ نقطه‌ی پرت شدیدی را تعیین نمی‌کند که نرمال بودن را رد کند، اما نمودار زیر خلاف این را نشان می‌دهد و همچنین آزمون Shapiro-Wilk نیز چنین است.
غیر عادی بودن در باقیمانده ها
37967
من در حال حاضر در حال آموزش یک طبقه‌بندی کننده NN بر روی داده‌های مصنوعی تولید شده از مدلی از داده‌های واقعی هستم، و این داده‌های مصنوعی به طور یکنواخت در محدوده مقادیر مورد انتظار در داده‌های واقعی تولید می‌شوند. با این حال، حتی یک بازرسی گذرا از داده‌های واقعی نشان می‌دهد که محدوده کوچک‌تری از مقادیر در محدوده وسیع‌تر بسیار بیشتر اتفاق می‌افتد. به عنوان مثال، با فرض بازه 1 تا 10 شامل، 4s، 5s، 6s و 7s بیش از 1s و 10s رخ می دهند و 2s، 3s، 8s و 9s از نظر فراوانی وقوع در بین آنها قرار دارند. سوال من این است: آیا توزیع داده های آموزشی ایجاد شده باید مشابه داده های واقعی باشد؟ نگرانی من این است که با توزیع یکنواخت داده‌های آموزشی، ممکن است به طور ناخواسته اهمیت داده‌هایی که کمتر اتفاق می‌افتند را بیش از حد سنگین کنم و به تبع آن داده‌هایی که معمولاً اتفاق می‌افتد را کم وزن کنم.
آیا داده‌های آموزشی شبکه عصبی باید «نسبت‌های» مورد انتظار در داده‌های واقعی را منعکس کند
78254
من دو سری زمانی موج سینوسی ایجاد کردم و می خواهم ثابت بودن آنها را بررسی کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jWocE.png) (1) سری زمانی اول کوتاه است. `kpss.test()` فکر می کند ثابت است. `PP.test()` تهی ریشه واحد را رد نمی کند. n=120 t=1:n x=sin(t/(n-1)*6*pi)+rnorm(n)*0.2 par(mfrow=c(2,1)) نمودار(x,ty='l' ,xlab='',ylab='x',main='Sine') # تست ثابت (H0:stationary) kpss.test(x)$p.value #[1] 0.1 # ریشه واحد تست (H0: ریشه واحد) PP.test(x)$p.value #[1] 0.4937582 (2) مورد دوم بسیار طولانی‌تر است. kpss.test() می گوید غیر ثابت است در حالی که PP.test() ثابت است. n=1000 t=1:n x=sin(t/(n-1)*6*pi)+rnorm(n)*0.2 نمودار(x,ty='l',xlab='',ylab='x' ,main='Sine') # تست ثابت (H0:stationary) kpss.test(x)$p.value #[1] 0.01 # تست ریشه واحد (H0: ریشه واحد) PP.test(x)$p.value #[1] 0.01 در حالی که `kpss.test()` برای نمونه های کوچک قدرتمندتر است (لطفاً این پرسش و پاسخ را ببینید)، اولین نمونه قابل درک است. با این حال، من واقعاً گیج شده‌ام که چرا «kpss.test()» برای دومین سری زمانی نمونه بزرگ‌تر شکست می‌خورد. کسی نظر یا جوابی داره لطفا؟
درباره ایستایی موج سینوسی
63327
من از حباب هایی که به یک سطح سیال می رسند عکاسی کرده ام. عکس ها با سرعت یک تصویر در دقیقه به دست می آیند. با توجه به اینکه اندازه قاب تصویر همیشه یکسان است و منبع حباب ها ثابت فرض می شود، برای به دست آوردن تخمینی از میانگین تعداد حباب ها در هر تصویر با دقت 5 درصد، باید چند تصویر را بشمارم؟ من فرض می‌کنم که تعداد حباب‌ها در هر تصویر به صورت poisson توزیع شده است و یک نگاه سریع به تصاویر نشان می‌دهد که حدود 5-20 حباب در هر تصویر دارم.
چند شمارش برای تخمین میانگین به یک دقت خاص مورد نیاز است؟
78250
من سعی می کنم تخمین پارامتر و مشکلات یادگیری را در مدل های گرافیکی، به ویژه در مدل های جهت دار (شبکه های بیزی) درک کنم. اما اول از همه، من سعی می‌کنم بفهمم که یک پارامتر در شبکه بیزی دقیقاً به چه معناست. جدایی بین یک متغیر و یک پارامتر هنگام توصیف مشکلات یادگیری به خصوص در یادگیری بیزی که پارامترها نیز متغیر هستند مبهم می شود. بنابراین به طور کلی، ما یک فرآیند تصادفی داریم که با نمودار $G$ نشان داده می شود. این نمودار از متغیرهای تصادفی $S$، $X_1،X_2،...،X_S$ تشکیل شده است و توزیع احتمال بر روی این متغیرها $P(X_1,X_2,...,X_S)=\prod_{i=1} است. ^{S} P(X_i|والدین(X_i))$. حالا، کجا پارامترها در اینجا قرار می گیرند؟ از آنچه تاکنون فهمیده ام: 1. با معادله $P(X_1,X_2,...,X_S)=\prod_{i=1}^{S} P(X_i|parents(X_i))$، ما به طور ضمنی فرض کنید که یک مجموعه پارامتر $\theta$ قبلاً داده شده است و ما در واقع منظورمان است $P(X_1,X_2,...,X_S|\theta_{1},\theta_{2},...,\theta_{S})=\prod_{i=1}^{S} P(X_i |parents(X_i)،\theta_{i})$. اگر فرآیند $G$ را اجرا کنیم، $N$ بار در یک i.d. مد، سپس یکی است: یک مجموعه صحیح برای $\theta$ وجود دارد و هر بار که فرآیند را اجرا می کنیم، متغیرها مطابق با این یک و تنها واقعی $\theta$ (نمایش حداکثر احتمال) یا $\theta نمونه سازی می شوند. $ توزیع قبلی $P(\theta)$ دارد و nature یک $\theta$ را پیشینی ترسیم می کند و سپس تمام $N$ قبلی و هر نمونه آینده ما با این $\theta$ تولید می شود. (نمای بیزی). بنابراین، هنگام استنتاج در مورد یک نمونه جدید، همه $\theta$ ممکن را ادغام می کنیم. آیا این الگوی فکری درست است؟ 2. اگر به این به عنوان یک فرآیند مولد فکر کنیم، آیا می‌توانیم بگوییم که برای یک متغیر $X_i$، نمونه‌ای از والدین آن، $parents(X_{i})=\pi$ زیرمجموعه‌ای از $\theta_{ را انتخاب می‌کند. i}$ به عنوان $\theta_{i}^{\pi}$ و سپس با توجه به توزیع، X_{i}$ ایجاد می‌کند. $P(X_{i}|والدین(X_{i})=\pi، \theta_{i}^{\pi})$؟ من به این زیر مجموعه فکر می‌کنم زیرا $X_{i}$ دارای توزیع‌های متفاوتی است که مشروط به مقادیر متفاوتی از والدینش است و هر یک از این توزیع‌ها می‌توانند پارامترهای متفاوتی (یا البته مشترک) در بین $\theta_{i}$ داشته باشند. باز هم، آیا این درست است یا من چیزی را به طور کامل گم کرده ام یا اشتباه متوجه شده ام؟ 3. در مدل گرافیکی، برای هر $X_{i}$ یک گره جدید $\theta_{i}$ اضافه می‌کنیم که والد جدید $X_{i}$ است و هیچ والدینی برای خود ندارد. (همچنین می‌توان پارامترهای مشترکی بین متغیرهای تصادفی وجود داشت.) بنابراین، برای هر نمونه از فرآیند $G$، یک گراف جهت‌دار جدید $G_{n}$ داریم که گره‌های آن به $\theta_{i مربوطه متصل هستند. }$ گره ها و با توجه به تمام گره های $\theta$، این نمونه های $N$ مستقل از یکدیگر هستند. (البته این از نقطه نظر تئوری است، تا آنجایی که من می دانم این نشان بندی صفحه برای کاربردهای واقعی استفاده می شود.) در نهایت، آیا این درست است یا اشتباه؟ هدف من از این سوال تایید یا بی اعتبار کردن درک فعلی من از مفهوم پارامتر در مدل های گرافیکی است. من به درک کاملی نیاز دارم زیرا باید با مفاهیم پیشرفته ای مانند یادگیری با الگوریتم EM و غیره کنار بیایم. پیشاپیش متشکرم.
پارامترها و تخمین پارامترها در مدل های گرافیکی
53414
من سعی می کنم تجزیه و تحلیل مؤلفه های اصلی را با هدف تبدیل مجموعه متغیرهای همبسته خود به مجموعه ای از متغیرهای غیر همبسته (به جای کاهش ابعاد) انجام دهم. با این حال، داده‌ها تودرتو هستند، و وقتی من این تودرتو را در نظر می‌گیرم، برخی از مؤلفه‌های من همبستگی بالایی دارند. به طور خاص، متغیرهای اصلی من در چندین سایت در تعدادی از تکه های جنگلی اندازه گیری می شوند. هنگامی که من یک PCA استاندارد را اجرا می کنم، هیچ یک از مؤلفه های اصلی در کل مجموعه داده همبستگی ندارند، اما وقتی یک مؤلفه را به عنوان تابعی از دیگری در یک مدل اثرات مختلط که شامل وصله به عنوان یک فاکتور تصادفی است، مدل می کنم، رابطه بین برخی از جفت ها اجزای آن بسیار قابل توجه است. لطفاً کسی می تواند به من بگوید که آیا راهی برای انجام PCA در حین حسابداری ساختار داده های تودرتو وجود دارد، یا اگر نه، آیا روش دیگری وجود دارد که بتوانم از آن برای تبدیل مجموعه ای از متغیرهای همبسته به مجموعه ای از متغیرهای غیرهمبسته در حین حسابداری برای تودرتو استفاده کنم. ? ممنون از کمکت، جی
تجزیه و تحلیل مؤلفه های اصلی ایجاد محورهای همبسته با داده های تو در تو است
78256
من سعی می کنم کدی بنویسم تا یک رگرسیون بر روی وزن داده (x) و زمان (y) انجام دهم. تا جایی که می توانم بگویم، مدل باید y = b1 + b2ln(x) باشد، اما من نمی دانم چگونه می توان این کار را با دست انجام داد (من می دانم چگونه در R...). من می دانم چگونه یک رگرسیون خطی ساده را با دست انجام دهم. قدرش را بدان
رگرسیون لگاریتمی با دست
50265
تکنیک های رایج برای استخراج ویژگی اشکال چیست؟ من در حال تجزیه و تحلیل تصویر هستم، و می‌خواهم یک جسم صاف (یکی با مرزهای صاف) را از یک جسم ناهموار (دارای مرز زیگزاگ) طبقه‌بندی کنم. کدام ویژگی باید به چارچوب یادگیری ماشینی وارد شود؟
استخراج ویژگی شکل دوبعدی
78255
پارادوکس سیمپسون یک پازل کلاسیک است که در دوره های آمار مقدماتی در سراسر جهان مورد بحث قرار می گیرد. با این حال، دوره من فقط به این نکته بسنده کرد که یک مشکل وجود دارد و راه حلی ارائه نمی کند. من می خواهم بدانم چگونه پارادوکس را حل کنم. یعنی وقتی با پارادوکس سیمپسون روبرو می‌شویم، که در آن به نظر می‌رسد دو انتخاب متفاوت برای بهترین انتخاب، بسته به نحوه تقسیم‌بندی داده‌ها، رقابت می‌کنند، کدام انتخاب را باید انتخاب کرد؟ برای مشخص کردن مسئله، اجازه دهید اولین مثال ارائه شده در مقاله مربوطه ویکی پدیا را در نظر بگیریم. این بر اساس یک مطالعه واقعی در مورد درمان سنگ کلیه است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/c4m7X.png) فرض کنید من یک پزشک هستم و با آزمایش مشخص می شود که بیمار سنگ کلیه دارد. فقط با استفاده از اطلاعات ارائه شده در جدول، می خواهم تعیین کنم که آیا باید درمان A یا درمان B را انجام دهم. به نظر می رسد اگر اندازه سنگ را بدانم، باید درمان A را ترجیح دهیم. اما اگر این کار را نکردیم، پس ما باید درمان B را ترجیح دهیم. اما راه قابل قبول دیگری برای رسیدن به پاسخ در نظر بگیرید. اگر سنگ بزرگ است باید A و اگر کوچک است دوباره A را انتخاب کنیم پس حتی اگر اندازه سنگ را ندانیم با روش موارد می بینیم که باید A را ترجیح دهیم. این با استدلال قبلی ما در تضاد است. بنابراین: یک بیمار وارد مطب من می شود. یک آزمایش نشان می دهد که آنها سنگ کلیه دارند اما هیچ اطلاعاتی در مورد اندازه آنها به من نمی دهد. کدام درمان را توصیه می کنم؟ آیا راه حل پذیرفته شده ای برای این مشکل وجود دارد؟ ویکی‌پدیا به وضوح با استفاده از «شبکه‌های بیزی علّی» و آزمون «در پشتی» اشاره می‌کند، اما من نمی‌دانم اینها چیستند.
چگونه پارادوکس سیمپسون را حل کنیم؟
78252
اکثر مراجعی که من پیدا می کنم می گویند که تابع فعال سازی استفاده شده در 'nnet' 'معمولا' یک تابع لجستیک است. اما در موردی که می خواهم عملکرد شبکه عصبی آموزش دیده را از nnet آزمایش کنم، لازم است تابع فعال سازی دقیق مورد استفاده را بدانیم.
تابع فعال سازی مورد استفاده در گره های لایه پنهان از کتابخانه nnet در R چیست؟
30991
آیا انجام یک رگرسیون لجستیک چندگانه که هر دو متغیر وابسته و مستقل باینری هستند مناسب است؟ یا، آیا می توانم فقط از رگرسیون لجستیک ساده استفاده کنم؟ تفاوت این دو روش چیست؟
آیا انجام یک رگرسیون لجستیک چندگانه که هر دو متغیر وابسته و مستقل باینری هستند مناسب است؟
109504
من تازه وارد آمار هستم، این اولین پست من است، بابت اشتباه احتمالی متاسفم. یک مدل _فاکتورسازی ماتریس احتمالی بیزی_ خوب معرفی شده است در: فاکتورسازی ماتریس احتمالی بیزی با استفاده از زنجیره مارکوف مونت کارلو من سعی داشتم یک نسخه باینری از آن را پیاده‌سازی کنم، یعنی تمام ورودی‌های ماتریس رتبه‌بندی ۰ یا ۱ هستند، ممکن است فکر کنید. آن را به عنوان نشان می دهد که آیا هر رتبه از دست رفته است یا نه. بنابراین حدس می‌زنم بردارهای پنهان U و V نیز باید به باینری تغییر کنند. حالا، از آنجایی که من در آمار خوب نیستم، حدس من این است که باید تغییر زیر را در مدل مولد 1 ایجاد کنم: پیشینهای گاوسی چند متغیره در U,V را به مجموعه ای از پیشین های برنولی تغییر دهید، به عنوان مثال، برای یک بردار نهفته. $U_i$، عناصر آن از $$ U_{i,k} \sim \mathrm{برنولی}(\pi_k) تولید شده‌اند. \\\ \pi_k \sim \mathrm{بتا}(\alpha,\beta) $$ $k=1...D$، $D$ بعد عوامل نهفته است، $\alpha،\beta$ مسلم است هایپرپارامترها آیا این مدل مناسب است؟ اگر چنین است، آیا می توان تخمین پارامتر MCMC آن را با استفاده از pymc پیاده سازی کرد؟ فقط یک طرح کلی ساده از کد pymc را به من نشان دهید عالی خواهد بود. * * * این یک مشکل بزرگ برای من است. پیشاپیش متشکرم
نسخه باینری فاکتورسازی ماتریس احتمالی در pymc؟
63323
در این مقاله علمی، نویسندگان تا حدی به تلاش برای شناسایی ژن‌هایی که در چرخه هستند (که در طول روز بر حسب ساعت بیولوژیکی نوسان می‌کنند) علاقه دارند. در اینجا عصاره‌ای از روش‌ها است که روش آنها را توضیح می‌دهد: > تجزیه و تحلیل سری زمانی برای چرخه شبانه روزی: > > چرخه RNA توسط سه برنامه، COSOPT (35)، چرخه JTK (75) و > ARSER (76) با برش‌های سطح بیان ارزیابی شد، > 0.05 RPKM برای اینترون، > 0.5 RPKM > برای اگزون و > 0.0625 RPKM برای ضد حس برای تجزیه و تحلیل چرخه COSOPT و JTK، > داده ها با رگرسیون خطی کاهش یافتند. **اگر از هر سه برنامه > دو برنامه دوچرخه سواری با آستانه p <0.05** را تشخیص دهند، یک ژن دوچرخه سواری در نظر گرفته شد. دوره > و فاز از ARSER برای تجزیه و تحلیل بیشتر استفاده شد. ForChIP-seq peak > آنالیز، دو چرخه به هم پیوسته شدند و چرخه با > ARSER آنالیز شد (05/0p<). سوال من این است که انجام تست های متعدد (بیش از 20000 تست) با استفاده از نرم افزارهای مختلف و سپس انتخاب آنهایی که در **p-value (نه FDR) < 0.05** از همه نرم افزارها مهم هستند، چقدر از نظر آماری قابل قبول/اعتبار است؟
اعتبار جایگزینی مقدار q با مقادیر p از آزمایش چندگانه ابزارهای مختلف
30999
احتمال کاربردی شاخه مهمی در احتمالات از جمله احتمال محاسباتی است. از آنجایی که آمار از تئوری احتمال برای ساخت مدل‌هایی برای مقابله با داده‌ها استفاده می‌کند، به عنوان درک من، می‌پرسم تفاوت اساسی بین مدل آماری و مدل احتمال چیست؟ مدل احتمال به داده های واقعی نیاز ندارد؟ با تشکر
تفاوت بین مدل آماری و مدل احتمال؟
78259
آیا یک شبکه پیشخور چند لایه با n واحد در هر لایه می‌تواند عملکرد بدتری نسبت به یک شبکه مشابه با واحدهای $<n$ داشته باشد (به عنوان مثال توپولوژی یکسان، فقط واحدهای بیشتری در هر لایه پنهان)؟ من تصور می‌کنم که نمی‌تواند (با فرض نداشتن مشکل می‌می‌مای محلی)، زیرا اگر چنین بود، الگوریتم آموزشی فقط می‌توانست برخی از وزن‌ها را به صفر برساند و اساساً شبکه پیچیده‌تر را معادل شبکه کم‌پیچیده‌تر کند. آیا این درست است یا چیزی را از دست داده ام؟
آیا یک شبکه پیشخور با n واحد در هر لایه می تواند عملکرد بدتری نسبت به شبکه ای با <n واحد داشته باشد؟
30995
من به دنبال راهی برای تجسم رتبه بندی ذهنی، جدا از آزمون های غیر پارامتری خود هستم. من از 12 شرکت‌کننده خواسته‌ام که 8 مورد مختلف را بر اساس معیارهای ذهنی مختلف (رتبه‌بندی جداگانه برای هر یک) رتبه‌بندی کنند. برای هر مجموعه ای از رتبه بندی ها، من به دنبال راه خوبی برای تجسم روندهای سطح بالای رتبه بندی هستم. من هر دو نمودار نواری و رادار را در رتبه‌بندی متوسط ​​امتحان کرده‌ام، و دیده‌ام که یک نفر دیگر از نمودار پراکنده/بالون بر روی تعداد پاسخ‌ها در هر رتبه‌بندی استفاده می‌کند، اما کاملاً مطمئن نیستم که چه چیزی بهترین نمای کلی را نشان می‌دهد. یا می توانم از 8 رتبه بندی میانگین استفاده کنم، یا از 8 شمارش هر رتبه در هر مورد. **ویرایش:** به عنوان مثال: هر ستون یک آیتم است، هر ردیف رتبه‌بندی هر یک از هشت مورد است. در این مثال توافق خاصی وجود ندارد، اما به طور کلی می‌خواهم بهترین راه برای انتقال روند کلی را بفهمم. مورد: A B C D E F G H رتبه‌دهنده: 1 6 8 1 7 3 4 2 5 2 1 3 8 7 6 5 2 4 3 5 8 7 6 1 4 2 3 4 5 8 7 6 4 2 1 3 5 1 4 8 5 6 1 7 8 5 6 2 4 3 7 5 1 8 4 7 3 6 2 8 4 2 8 7 6 1 5 2 9 6 3 8 4 7 1 5 2 10 3 2 8 7 4 1 5 6 11 2 3 7 8 5 1 5 2 4 5 6 7 2 3 1 4
چگونه می توان نتایج ترتیب رتبه بندی ذهنی را ترسیم کرد؟
37961
من مجموعه ای از مقادیر را دارم که می خواهم از آنها فرمولی بدست بیاورم. در زیر مجموعه داده است. F V1 V2 V3 V4 A1(i) 0.02 30 0.5 X1(i) A2(i) 0.02 60 0.5 X2(i) A3(i) 0.02 90 0.5 X3(i) A4(i) 0.02 120 0.5 X4(i) (i) 0.1 30 0.1 X5(i) A6(i) 0.1 60 0.1 X6(i) A7(i) 0.1 90 0.1 X7(i) A8(i) 0.1 120 0.1 X8(i) A9(i) 0.2 30 0.01 X9(i) A10( i) 0.2 60 0.01 X10 (i) A11(i) 0.2 90 0.01 X11(i) A12(i) 0.2 120 0.01 X12(i) A13(i) 0.5 30 0.02 X13(i) A14(i) 0.5 60 0.02 X15(i) 0.02 X15(i) A16(i) 0.5 120 0.02 X16(i) F = نیروی برش، V1 - V3 = پارامترهای برش V4 = موقعیت ابزار. من به یک فرمول برای Y به عنوان تابعی از V1، V2، V3، V4 نیاز دارم. جایی که V1، V2، V3 پارامترهای فرآیند در فرآیند برش مکانیکی هستند و V4 موقعیت ابزار در حین برش است. آنچه مشاهده می کنیم این است که، حتی زمانی که پارامترهای فرآیند (V1، V2، V3) ثابت هستند، بسته به موقعیت ابزار روی قطعه کار، مقادیر متفاوت A برای هر X دریافت می کنیم. آیا می توان فرمولی برای این موضوع داشت؟ من قبلاً از تحلیل رگرسیون برای بدست آوردن فرمولی برای حداکثر مقدار A به عنوان تابعی از V1، V2، V3 استفاده کرده ام. اما اکنون می‌خواهم مقادیر متغیر X (متغیر موقعیت) و مقادیر A حاصل را از آنجا نیز وارد کنم تا فرمول دیگری به دست آید. من سوالات مشابه دیگری را دیده ام اما هنوز احساس می کنم که این یک مورد متفاوت است، بنابراین من یک سوال جدید ایجاد کرده ام. سیگنالی که من برای اندازه‌گیری نیرو استفاده می‌کنم به این صورت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lX0u1.png) همچنین می‌تواند با فرمول زیر نمایش داده شود (با استفاده از matlab یافت می‌شود. جعبه ابزار برازش منحنی) $$ f(x) = k \left(a_1 e^{-\left(\frac{x-b_1}{c1}\right)^2}+ a_2 e^{-\left(\frac{x-b_2}{c2}\right)^2}+ a_3 e^{-\left(\frac{x-b_3}{c3}\right)^2}+ a_4 e^{-\left(\frac{x-b_4}{c4}\right)^2}+ a_5 e^{-\left(\frac{x-b_5}{c5}\right)^2}\right) $$ آیا کسی ایده ای در مورد چگونگی ایجاد یک مدل رگرسیون برای این معادله دارد، با توجه به اینکه من 16 دارم مجموعه ای از مقادیر، هر کدام برای هر یک از 16 متغیر $$ k, a_1,b_1,c_1,....a_5,b_5,c_5 $$
فرمول را از مقادیر تجربی بدست آورید
34430
سوال من این است که چگونه می توان آزمایش کرد که آیا دو نسبت از یک نمونه از بیماران به طور قابل توجهی با یکدیگر متفاوت هستند که با یک مقدار p نشان داده شده است؟ مثال: 100 نفر، 1 نفر دارای بیماری A و 2 نفر دارای بیماری B هستند. آیا بروز بیماری A بیشتر از بیماری B است. وقوع بیماری A با 1/100 در مقایسه با 2/100 برای B؟ کلمه کلیدی همان نمونه بیماران است. هر گونه کمکی بسیار قدردانی خواهد شد. :)
مقایسه نسبت ها از همان نمونه بیماران
47450
بهترین کتاب برای یادگیری احتمال چیست - پواسون، دوجمله ای، رگرسیون، و غیره. من به عنوان یک تنظیم کننده شانس در یک کتابفروشی کار می کنم و باید مهارت های خود را به سطح کامپایلر شانس ارتقا دهم.
بهترین کتاب برای یادگیری احتمال - پواسون، دو جمله ای، رگرسیون و غیره
10206
مفروضات فنی دست و پا گیر (به عنوان مثال، خواص اختلاط) در ادبیات برای اثبات قضایای حد مرکزی برای دنباله های وابسته استفاده می شود. من مدرکی را ترسیم کردم که به هیچ یک از این فرضیات فنی نیاز ندارد. آیا می توانید به من کمک کنید تا بفهمم این اثبات چه اشکالی دارد؟ اثبات در: http://www.statlect.com/central_limit_theorem_for_correlated_sequences.htm است. پیشاپیش از همه کسانی که برای خواندن آن سخاوتمند و صبور هستند تشکر می کنم.
شرایط قضیه حد مرکزی برای دنباله های وابسته
34439
من از یک رگرسیون لجستیک چند جمله ای برای بررسی همبستگی های انتخاب مدرسه استفاده کرده ام. سه احتمال برای متغیر وابسته وجود دارد: مدرسه دولتی، مدرسه خصوصی و مدرسه NGO (سازمان غیردولتی، یعنی غیرانتفاعی). با این حال، من تقریباً مطمئن هستم که این مشکل، فرضیه استقلال جایگزین‌های نامربوط (IIA) را نقض می‌کند - هم به دلایل شهودی (مثلاً حذف گزینه NGO احتمال رفتن به دولت در مقابل مدرسه خصوصی را افزایش می‌دهد) و هم با استفاده از « دستور suest` در Stata برای انجام تست هاسمن (100% مطمئن نیستم که این کار را به درستی انجام داده ام، اما این یک مسئله دیگر است). به هر حال سوال این است که اگر logit چند جمله ای بهترین مدل برای استفاده نیست، چه چیز دیگری می توانم امتحان کنم؟ از آنجایی که تنها سه گزینه وجود دارد، آیا می توانم به سادگی از دو لاجیت مجزا استفاده کنم (مثلاً NGO در مقابل سایر و خصوصی در مقابل سایرین) یا مناسب نیست؟ همانطور که من درک می کنم، سایر روش های چند جمله ای مشکلات خاص خود را دارند، مانند ویژگی نسبت ثابت جانشینی (همانطور که در اینجا توضیح داده شده است (pdf)). برای آنچه ارزش دارد، پروبیت چند جمله ای نتایج مشابه mlogit ایجاد می کند. آیا می توان استدلال کرد که نتایج mlogit نسبتاً دقیق هستند (شاید، استدلال کنیم که ناقص است اما بهترین مدل موجود است) با وجود نقض IIA، و اگر چنین است چه شواهدی این ادعا را تأیید یا رد می کند؟ (این دو مقاله استدلال می‌کنند که لاجیت چندجمله‌ای حداقل به اندازه پروبیت چندجمله‌ای در زمینه انتخاب رأی‌دهندگان دقیق است).
جایگزین های رگرسیون لجستیک چند جمله ای
112453
من از یک بسته R بیزی محور برای برخی از آنالیزهای ژنومیک برای تشخیص جهش در 3 فرد از یک خانواده استفاده کرده ام. با توجه به نحوه نگارش بسته، باید هر تحلیل را برای هر فرد جداگانه انجام دهم. وقتی من تست بیزی را به کار می برم، هر 3 نفر تست مثبت می گیرند، و برای سه تست جداگانه، ضریب بیز مثلاً 4، 7 و 9 را دریافت می کنم، که تا آنجایی که می توانم بگویم در حوزه شواهد «قابل توجه» است (به عنوان مثال http ://en.wikipedia.org/wiki/Bayes_factor#Interpretation) سوال من این است که این 3 فرد همگی حامل این جهش هستند (که ما نیز همینطور بود). فرضیه قبلی)، آیا می توانم این عوامل بیز را که به طور مستقل مورد آزمایش قرار گرفته اند، ادغام کنم تا نوعی عامل بیز «فراتحلیل» ارائه کنم، که احتمالاً برای کل خانواده بیش از 10 خواهد بود؟
ادغام چندین آزمون عوامل بیز
63320
هنگام مقایسه مدل‌های GMM با تعداد مؤلفه‌های مختلف (یعنی تعداد گاوسیان)، احتمال تعداد کل پارامترهای آزاد در مدل مخلوط جریمه می‌شود. اگر داده ها در بعد $D$ باشند، تعداد پارامترهای آزاد برای مولفه های $J$ به صورت زیر داده می شود: $J-1$: برای وزن های $J$ که مجموع آنها یک $D$ است: برای هر میانگین $D(D +1)/2$: برای هر ماتریس کوواریانس سوال من این است: با فرض اینکه من در یک فضای محدود در $D$ کار می کنم و به دقت بی نهایت نیاز ندارم، اگر به جای اینکه فضای خود را به نقاط شبکه ای گسسته کنم. با اشاره به هر مکان متوسط ​​با بردار مختصات عناصر $D$ آیا نمی توانم فقط از یک پارامتر به عنوان شاخص برای تعریف مکان استفاده کنم؟ این فقط برای بردار میانگین کار می کند، اما با این وجود باعث کاهش پیچیدگی خواهد شد.
تعداد پارامترهای آزاد در مدل های مخلوط گاوسی
78251
من دانشجوی روانشناسی هستم و در حال حاضر در حال تهیه پیش نویس طرح آزمایشی پایان نامه ام هستم. من واقعاً می‌توانم در مورد سؤال آماری زیر به کمک نیاز داشته باشم. در آزمایش من، شرکت کنندگان در دو گروه مختلف قرار خواهند گرفت. در یک گروه، شرکت کنندگان تحت رویه ای قرار می گیرند که احتمالاً به طور موقت همدلی آنها را کاهش می دهد. گروه دیگر گروه کنترل است. این دو گروه متغیر مستقل را تشکیل می دهند. متغیر وابسته یک مؤلفه عصبی خواهد بود (یک پتانسیل مرتبط با رویداد) که فرض می شود یک شاخص روانی فیزیولوژیکی همدلی است. این جزء در دو موقعیت مختلف (Repeated Measures!) اندازه گیری خواهد شد. همچنین، شرکت کنندگان در یک مقیاس فاصله ای، خود توصیفی از همدلی فعلی خود ارائه می دهند. سوال من این است: آیا می توانم از ANCOVA با همدلی خود گزارش شده به عنوان متغیر کمکی استفاده کنم تا بررسی کنم که آیا همدلی گزارش شده از خود تأثیر دستکاری بر مؤلفه عصبی را واسطه می کند؟ من این کار را به این صورت انجام می‌دهم: اولاً، من یک ANOVA را بدون متغیر کمکی محاسبه می‌کنم تا تعیین کنم آیا اثر دستکاری وجود دارد یا خیر. ثانیاً، من یک ANCOVA را با همدلی خود گزارش‌شده به‌عنوان متغیر کمکی محاسبه می‌کنم و بررسی می‌کنم که آیا تأثیر از بین رفته یا کاهش یافته است. من احساس می‌کنم که این روش می‌تواند به تأیید (یا رد) فرضیه من کمک کند، اما در مورد فرضیه ANCOVA نیز مطالعه کردم، که متغیر کمکی ممکن است با متغیر مستقل همبستگی نداشته باشد. الان کمی گیج شدم. آیا هنگام استفاده از ANCOVA به این روش، تحقق این فرض لازم است؟ متشکرم!
آیا می توانم از ANCOVA برای تجزیه و تحلیل میانجیگری استفاده کنم؟
109509
من در حال حاضر در حال اجرای یک مطالعه رویداد هستم، که برای آن باید بفهمم آیا رویدادهای من خوشه‌ای هستند و/یا فراوانی آنها به بازار سهام مرتبط است. ایجاد یک نمودار پراکنده از تاریخ رویداد و شاخص بورس به من یک ایده تقریبی می دهد که آنها همبسته هستند (نقاط در نمودار پراکندگی در طول نوسانات بازار متراکم تر می شوند و در رکودها کمتر می شوند)، اما من نمی دانم چگونه ثابت کنم. این در سطح آماری معنی دار است. در طول جستجوی خود به یک رگرسیون به ظاهر نامرتبط برخورد کردم، اما مطمئن نیستم که آیا این ابزار مناسبی برای استفاده است یا خیر، و اگر هست، چگونه از آن استفاده کنم. من نمودار پراکندگی را پیوست کرده ام، محور x تاریخ رویداد و محور y شاخص S&P 500 در زمان رویداد است. اگر می‌دانید چگونه می‌توانم این را کمیت کنم، لطفاً به من اطلاع دهید، زیرا می‌خواهم از چیزی محکم‌تر از «نگاه به نمودار» استفاده کنم. LE بسیار قدردانی شده است: برای اینکه ایده بهتری درباره ساختار داده های خود داشته باشم، فقط دو متغیر دارم: _date_ که تاریخ رویداد است و _sp500_ که سطح S&P 500 برای هر _date_ است. از این دو، من سعی می کنم ببینم که آیا _date_ در زمانی که _sp500_ بالا است، خوشه ای است (همزمان اتفاق می افتد یا نزدیک به یکدیگر است) و بالعکس. ![طرح پراکندگی](http://i.stack.imgur.com/B6Wue.png)
چگونه برای تست همبستگی بین فراوانی یک رویداد و بازار سهام
10207
نحوه پیدا کردن تعداد اجراها در زیر:
چگونه تعداد اجراها را پیدا کنیم؟
112451
آیا کسی می تواند در مورد تخمین حداکثر احتمال (MLE) به صورت غیرمستقیم به من توضیح دهد؟ من می خواهم قبل از رفتن به مشتق یا معادله ریاضی مفهوم اساسی را بدانم.
MLE به زبان عامیانه
50269
من در حال مقایسه دو روش جراحی هستم و می‌خواهم بدانم چگونه می‌توانم داده‌هایی را که برای یک متاآنالیز در اختیار دارم، تجزیه و تحلیل کنم. روش کلی جراحی یکسان است، اما برخی از نویسندگان تصمیم می‌گیرند که این روش را کمی تغییر دهند. بنابراین اساساً من تعداد زیادی مطالعه با روش استاندارد و تعداد کمتری با روش اصلاح شده دارم. نتیجه درصد عوارض است، به عنوان مثال، 20٪ از جمعیت مورد مطالعه دارای عوارض خفیف و 10٪ عوارض شدید داشتند. بهترین راه برای نشان دادن اینکه آیا روش اصلاح شده به خوبی رویه استاندارد است، چیست؟
چگونه از یک متاآنالیز برای ارزیابی هم ارزی دو روش مختلف استفاده کنیم؟
63325
من در حال تجزیه و تحلیل برخی از داده های فعالیت کاربر برای یک وب سایت شبکه اجتماعی هستم. برای هر کاربر، شاخص‌هایی از فعالیت دارم مانند: * تعداد صفحات بازدید شده * تعداد نظرات * تعداد اشتراک‌گذاری‌ها * تعداد لایک * تعداد دوستان همه متغیرها تعداد ساده‌ای هستند و داده‌های دسته‌بندی ندارند. اکنون، می‌خواهم یک «شاخص فعالیت» ارائه کنم که کل فعالیت کاربر را نشان دهد. واضح است که می‌توانم از میانگین ساده این متغیرها استفاده کنم، اما، همانطور که در این زمینه انتظار می‌رود، بسیاری از آنها به شدت وابسته هستند (مثلاً افرادی که زیاد نظر می‌دهند، معمولاً از صفحات زیادی بازدید می‌کنند و غیره). برای انجام این کار، متغیرها را مقیاس‌بندی کردم، و سپس یک PCA را اجرا کردم، که مؤلفه‌های زیر را پیدا کرد: اهمیت مؤلفه‌ها: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 انحراف استاندارد 1.5586900 1.1886741 0.8548985 0.4857532670i Variation از 0.485753879 0.4859029 0.2825892 0.1461703 0.04719232 0.03814528 نسبت تجمعی 0.4859029 0.7684921 0.9146624 0.9146624 0.920180 به نظر می رسد که دو مهم هستند. کامپوننت‌ها در اینجا هستند، بنابراین نمی‌توانم از اولین مورد به عنوان شاخص استفاده کنم. برای به دست آوردن یک شاخص فعالیت مناسب که وابستگی متغیر را در نظر می گیرد، چگونه به این مشکل برخورد می کنید؟ **ویرایش:** آیا ترکیب خطی اجزای PCA که بر اساس نسبت واریانس وزن شده اند اشتباه است؟ با تشکر از هر گونه بازخورد. مولون
کاهش ابعاد برای خلاصه کردن فعالیت کاربر
115109
چگونه می توانیم پیش بینی عدد صحیح داشته باشیم؟ در حالی که با مقادیر تقاضا سروکار داریم، پیش بینی های کسری منطقی نیست. با تشکر
چگونه مقادیر پیش بینی عدد صحیح داشته باشیم؟
37963
من نمی فهمم استاد چگونه این مشکل را حل کرده است. سوال این است: > شما در حال کار با مجموعه داده ای هستید که حاوی توضیحاتی درباره مواد سمی و غیر سمی است. مجموعه داده، که از 1000 نمونه از هر یک از > دو کلاس تشکیل شده است، در قالب یک برچسب کلاس و تعدادی ویژگی > توضیح داده شده است. مجموعه داده به گونه‌ای مرتب شده است که 1000 نمونه سمی اول و سپس 1000 نمونه غیر سمی قرار می‌گیرند. شخصی به شما می‌گوید که آنها تأیید کرده‌اند که برای این مجموعه داده، احتمال شرطی که از دانش درباره ویژگی X به دست می‌آید با احتمال کلاس قبلی تفاوتی ندارد. با فرض صحیح بودن آنها، کدامیک از جملات زیر می تواند صحیح و کدامیک صحیح نباشد؟ > > 1. همه نمونه ها مقدار یکسانی برای ویژگی X دارند. > 2. همه نمونه های سمی مقدار یکسانی برای ویژگی X دارند در حالی که هر یک از > نمونه های غیر سمی مقدار تصادفی خود را برای ویژگی X دارند. > سؤال من این است که چگونه آیا زمانی که اطلاعات داده شده بسیار محدود است، هر کدام از این پاسخ ها به این سوال درست است؟ کتابی که ما برای داده کاوی استفاده می کنیم Witten and Frank، _Data Mining: Practical Machine Learning Tools and Techniques_، Morgan Kaufmann، 2011 (ویرایش سوم) است.
کشف برچسب‌های کلاس بر اساس احتمال کلاس شرطی یا قبلی
26722
آیا راهی در R (یک تابع داخلی) برای محاسبه ماتریس انتقال زنجیره مارکوف از روی مجموعه‌ای از مشاهدات وجود دارد؟ به عنوان مثال، یک مجموعه داده مانند زیر را بگیرید و ماتریس انتقال مرتبه اول را محاسبه کنید؟ dat<-data.frame(replicate(20,sample(c(A، B، CD)، اندازه = 100، replace=TRUE)))
محاسبه ماتریس انتقال (مارکوف) در R
109506
من در حال تجدید قضیه بیز و احتمال شرطی هستم و با این مسائل تمرینی برخورد کردم. من تا مشکل 9 در حال حمل و نقل بودم که بیان می‌کند: اچ‌آی‌وی وزارت بهداشت ایالت نیویورک نرخ 10 درصدی ویروس HIV را برای جمعیت «در معرض خطر» گزارش می‌کند. تحت شرایط خاص، آزمایش غربالگری اولیه برای ویروس HIV در 95٪ موارد صحیح است. (تا زمانی که آزمایش‌های اضافی نتایج را تأیید نکند، به آزمودنی‌ها گفته نمی‌شود که آلوده به HIV هستند). غربالگری اولیه خیلی مستقیم به نظر می رسد. فرض کنید P(H) نشان دهنده احتمال ابتلا به HIV باشد. سپس P(H) = 0.1 P(~H) = 0.9 P(+ | H) = 0.95 و باید P(H | +) = P(H)P(+ | H)/[ (P(H)P(+ | H)) + (P(~H)P(+ | ~H)) پس از اجرای اعداد به نوعی نتیجه می گیرند که P(+ | ~H) = 1 - P(+ | H) = 0.05 من این را با کار کردن برعکس از پاسخ آنها فهمیدم. مشکل اینجاست که نمی دانم چگونه به این نتیجه رسیده اند. با انجام کاری که در بالا انجام دادند، باید هر دو P(- | H) و P(+ | ~H) را با هم شامل شوند، زیرا این موارد مخالف P(+ | H) هستند. دلیل اینکه من گیج شده‌ام این است که به نظر نمی‌رسد راه مناسبی برای اشاره به احتمال مثبت بودن آزمایش آن‌ها با توجه به اینکه HIV ندارند، نیست، دقیقاً به این دلیل که آنچه در بالا فکر می‌کنم انجام داده‌اند شامل مواردی هم می‌شود که آزمایش آنها منفی بوده است، حتی اگر آنها HIV دارند. آیا کسی می تواند مرا از طریق منطق خود در اینجا راهنمایی کند؟ با تشکر
نفی احتمال شرطی
2988
چگونه می توان حجم نمونه مورد نیاز برای مطالعه ای را محاسبه کرد که در آن گروهی از افراد دارای یک متغیر پیوسته واحد هستند که در زمان جراحی اندازه گیری می شود و سپس دو سال بعد به عنوان پیامد عملکردی یا پیامد مختل طبقه بندی می شوند. می‌خواهیم ببینیم آیا آن اندازه‌گیری می‌توانست نتیجه بد را پیش‌بینی کند یا خیر. در برخی موارد ممکن است بخواهیم یک نقطه برش در متغیر پیوسته استخراج کنیم که در بالای آن سعی کنیم برای کاهش احتمال پیامد مختل مداخله کنیم. هر ایده ای؟ هر پیاده سازی R.
محاسبه اندازه نمونه برای رگرسیون لجستیک تک متغیره
37969
من به انجام آنالیز توان با داده های بدون وزن عادت دارم. در R، من از بسته pwr استفاده می کنم که بر اساس کوهن (1988) است. چگونه تجزیه و تحلیل توان را روی داده های بررسی وزنی انجام می دهید؟ من فکر نمی کنم شما بتوانید از محاسبات مشابه استفاده کنید. وزن ها احتمالاً باید به نحوی در آن نقش داشته باشند؟ آیا مرجعی وجود دارد که در این مورد بحث کند؟
تجزیه و تحلیل توان با داده های بررسی وزنی
66315
من اخیراً شروع به خواندن مقدمه ای بر آمار بیزی ویرایش دوم بولستاد کردم. من یک کلاس آمار مقدماتی داشته ام که عمدتاً تست های آماری را پوشش می دهد و تقریباً در یک کلاس در تجزیه و تحلیل رگرسیون هستم. از چه کتاب های دیگری می توانم برای تکمیل درک خود در این کتاب استفاده کنم؟ من از 100-125 صفحه اول به خوبی عبور کردم. پس از آن کتاب شروع به صحبت در مورد آزمایش فرضیه می کند، چیزی که من بسیار هیجان زده هستم که به آن بپردازم، اما چند چیز وجود دارد: * استفاده از توابع چگالی احتمال در محاسبات. به عبارت دیگر چگونه می توان چنین معادلاتی را ارزیابی کرد. * کل این جمله: فرض کنید ما از یک بتا (1،1) قبل برای pi استفاده می کنیم. سپس با توجه به y=8، چگالی خلفی بتا (9،3) است. احتمال عقبی فرضیه صفر است... _believe_ beta(1,1) به یک پی دی اف اشاره دارد که میانگین آن 1 و stdev 1 است؟ من نمی دانم که چگونه به عنوان یک تابع چگالی خلفی به بتا (9،3) تغییر می کند. من مفهوم پیشین ها در مقابل پسین ها را درک می کنم و می دانم که چگونه آنها را با استفاده از جدول به صورت دستی اعمال کنم. دریافتم (فکر می‌کنم!) که پی نشان‌دهنده نسبت یا احتمال فرضی جمعیت است. نمی‌دانم چگونه می‌توانم این را با داده‌هایی که روزانه به آن‌ها برخورد می‌کردم وصل کنم و به نتیجه برسم.
رویکرد ملایم‌تر به آمار بیزی
66310
من سعی می کنم خروجی تابع dgpd را در بسته evir در R ارزیابی کنم. من می توانم بردار بیش از حد و همچنین تخمین پارامتر gpd را ارسال کنم، کد زیر، اما بردار خروجی دارای اعداد زیادی است. چه واحد اندازه گیری با خروجی dgpd مرتبط است؟ بیش از حد.بردار <- زیرمجموعه(negRets، negRets > 0.02) بیش از حد.بردار densityOfExceedence <- dgpd(exceedence.vector,xi=tau,beta=sigma) densityOfExceedence
خروجی dgpd EVIR چیست؟
30997
من می خواهم رابطه بین همبستگی و SVM ها را بفهمم. سوال من بر اساس مطالعات اولیه است که از همبستگی به عنوان راهی برای بررسی پردازش توزیع شده در قشر با fMRI استفاده می‌کند. این رویکرد شامل نشان دادن این بود که همبستگی‌های فعالیت برانگیخته درون کلاس بیشتر از همبستگی‌های کلاس بود (ظاهراً این شبیه به روش‌های نزدیک‌ترین همسایه است). به طور عجیبی، بسیاری از محققین هنوز از معیارهای تشابه ساده مانند همبستگی استفاده می کنند، حتی اگر تکنیک های بسیار پیچیده تری در دسترس هستند. به نظر من استفاده از همبستگی ها ادامه دارد، زیرا همبستگی ها فقط تفاوت ها را در الگوهای پاسخ ارزیابی می کنند، نه تغییرات در بزرگی. این ویژگی جذابی است زیرا معیاری را ارائه می‌دهد که آیا دسته‌های مختلف محرک‌ها الگوهای متمایز فعالیت را در یک منطقه برمی‌انگیزند، بدون اینکه اندازه‌گیری شود که آیا این دو دسته سطوح مختلف فعال‌سازی را برمی‌انگیزند. من اخیراً مقدمه‌ای بر روش‌های هسته با SVM را تکمیل کرده‌ام و طبق درک من، طبقه‌بندی‌کننده مرز تصمیم‌گیری را بر اساس معیار تشابه «همبستگی» بین مثال‌ها تشکیل می‌دهد. بنابراین سوالات من این است؛ آیا یک SVM خطی مانند همبستگی عمل می کند مگر با اعمال یک حاشیه بزرگ؟ و اگر چنین است، آیا یک SVM خطی به اصطلاح «استقلال» را برای کلاس‌هایی که فقط در اندازه متفاوت هستند حفظ می‌کند؟ اگر نه، آیا یک SVM خطی می‌تواند از ماتریس همبستگی به جای معیارهای تشابه استاندارد استفاده کند؟ (یا این یک الگوریتم فرانکن وحشتناک است)؟
آیا یک SVM خطی مانند همبستگی عمل می کند مگر با اعمال یک حاشیه بزرگ؟
92436
فرض کنید من یک مدل لجستیک دارم به این صورت که: set.seed(123) df <- data.frame(y=rbinom(100,1,0.5), x1=rnorm(100,10,2), x2=rbinom(100, 20,0.6)) متناسب <- glm(y~x1+x2, data=df, family=binomial) من پیش بینی می کنم $\hat{y}$ برای m بار بر اساس مناسب با حسابداری توزیع خطا $Error \sim N(0,\sigma)$، به این معنی که برای هر مجموعه $\hat{y_{i}}، i=1\cdots m$: $\hat{y_{i}}=fixed(\hat{y_{i}})+error_{i}$. آیا کسی در اینجا می داند که چگونه می تواند آن را درک کند؟
چگونه می توان مدل لجستیک را با حسابداری توزیع خطا پیش بینی کرد؟
115100
آیا کسی می تواند به من بگوید تغییرات در توزیع p-value به چه معناست؟ منظورم این است که مثلاً مقادیر p از توزیع یکنواختی پیروی می کنند؟ و اگر توزیع p-values ​​مقادیر زیادی p بین 0 تا 0.05 داشته باشد و سپس صاف شود چه اتفاقی می افتد؟
معنی توزیع مقادیر P
26720
فرض کنید مقادیر کاراکتری را به عنوان مقادیر x دارید. فرض کنید می خواهید یک هیستوگرام رسم کنید. چگونه می توان مقادیر کاراکترها را به مقادیر عددی تبدیل کرد؟
هیستوگرام در R: تبدیل به عدد
2982
من سعی می‌کنم آنچه را که تاکنون در تحلیل چند متغیره جریمه‌شده با مجموعه‌های داده‌ای با ابعاد بالا درک کرده‌ام، خلاصه کنم، و هنوز هم در یافتن یک تعریف مناسب از _آستانه‌سازی نرم در مقابل جریمه‌سازی _Lasso_ (یا L_1$) مشکل دارم. به‌طور دقیق‌تر، من از رگرسیون PLS پراکنده برای تجزیه و تحلیل ساختار داده‌های ۲ بلوکی از جمله داده‌های ژنومی (چند شکل‌های تک نوکلئوتیدی، که در آن فرکانس آلل فرعی را در محدوده {0،1،2} در نظر می‌گیریم، به عنوان یک متغیر عددی در نظر می‌گیریم) و فنوتیپ های پیوسته (نمرات کمی کردن ویژگی های شخصیتی یا عدم تقارن مغزی، همچنین به عنوان متغیرهای پیوسته در نظر گرفته می شود). ایده این بود که تأثیرگذارترین پیش بینی کننده ها (در اینجا، تغییرات ژنتیکی روی توالی DNA) برای توضیح تغییرات فنوتیپی بین فردی جدا شوند. من در ابتدا از بسته mixOmics R (که قبلا integrOmics نام داشت) استفاده کردم که دارای رگرسیون PLS جریمه شده و CCA منظم است. با نگاهی به کد R، متوجه شدیم که sparsity در پیش بینی ها به سادگی با انتخاب متغیرهای $k$ با بالاترین بارگذاری (در مقدار مطلق) در $i$th جزء، $i=1،\dots القا می شود. ، k$ (الگوریتم تکراری است و بارگذاری متغیرها را روی اجزای $k$ محاسبه می‌کند، بلوک پیش‌بینی‌کننده را در هر تکرار کاهش می‌دهد، به Sparse PLS: Variable مراجعه کنید. انتخاب هنگام ادغام داده های Omics برای یک نمای کلی). برعکس، بسته spls که توسط S. Keleş تالیف شده است (به رگرسیون حداقل مربعات جزئی پراکنده برای کاهش ابعاد همزمان و انتخاب متغیر مراجعه کنید، برای توضیح رسمی تر رویکرد اتخاذ شده توسط این نویسندگان) $L_1$-جریمه کردن متغیر را پیاده سازی می کند. مجازات برای من واضح نیست که آیا بین انتخاب ویژگی های تکراری بر اساس آستانه نرم و تنظیم $L_1$، یک دوره دقیق وجود دارد یا خیر. بنابراین سوال من این است: **آیا ارتباط ریاضی بین این دو وجود دارد؟** **مآخذ** 1. Chun, H. and Kele ̧s, S. (2010), Sparse partal small Squares for Sparse partal small Squares for Sparse partal small Squares for Simulateous Discount and variable selection . _Journal of the Royal Statistical Society: Series B_, _72_, 3-25. 2. Le Cao, K.-A., Rossouw, D., Robert-Granie, C., and Besse, P. (2008), A Sparse PLS for Variable Selection when Integrating Omics Data. _کاربردهای آماری در ژنتیک و زیست شناسی مولکولی_، _7_، ماده 35.
آستانه نرم در مقابل جریمه کمند
66311
آیا حسن تناسب و عدم تناسب یکسان است؟ اگر آنها تست هستند، آیا صفر یکی جایگزین دیگری است؟
آیا حسن تناسب و عدم تناسب یکسان است؟
50261
فرض کنید من یک سری زمانی ثابت دارم، آیا این نشان می‌دهد که این سری نیز مرتبه N ثابت است؟
سری زمانی ثابت و ایستایی مرتبه N
68923
من یک سری زمانی مشاهده‌شده چند متغیره $Y_t$ دارم و می‌خواهم بهترین فرآیند VAR مناسب را برای آن پیدا کنم. من جعبه ابزار اقتصاد سنجی را در Matlab دارم و می توانم از vgxvarx استفاده کنم اگر از قبل سفارشی را برای فرآیند VAR مشخص کنم. با این حال من می خواهم که ترتیب فرآیند نیز برآورد شود. آیا تابعی برای انجام این کار در Matlab وجود دارد؟
Fit مدل VAR با ترتیب نامشخص در Matlab
7515
چند تکنیک برای نمونه‌برداری از دو متغیر تصادفی همبسته وجود دارد: * اگر توزیع‌های احتمال آنها پارامتری باشد (به عنوان مثال، log-normal) * اگر توزیع‌های غیر پارامتری داشته باشند. داده ها دو سری زمانی هستند که می توانیم ضرایب همبستگی غیر صفر را برای آنها محاسبه کنیم. ما می خواهیم این داده ها را در آینده شبیه سازی کنیم، با فرض ثابت بودن همبستگی تاریخی و سری زمانی CDF. برای مورد (2)، آنالوگ 1-D ساخت CDF و نمونه برداری از آن است. بنابراین حدس می‌زنم، می‌توانم یک CDF دو بعدی بسازم و همین کار را انجام دهم. با این حال، نمی‌دانم آیا راهی برای نزدیک شدن با استفاده از CDF‌های 1 بعدی و به نوعی پیوند دادن بین انتخاب‌ها وجود دارد. با تشکر
چند تکنیک برای نمونه برداری از دو متغیر تصادفی همبسته چیست؟
10200
به یاد دارم که استدلالی شنیدم مبنی بر اینکه اگر یک جمعیت معین از افراد دارای ضریب هوشی متوسط ​​110 به جای 100 معمولی باشند، تعداد افراد با ضریب هوشی 150 بسیار بیشتر از یک گروه با اندازه مشابه از جمعیت عمومی خواهد بود. به عنوان مثال، اگر ضریب هوشی هر دو گروه به طور معمول توزیع شده باشد و دارای انحراف معیار یکسانی با 15 باشد، انتظار داریم حدود 0.2٪ از افراد گروه با IQ بالا بالای 150 و 0.02٪ از جمعیت عمومی باشند. تعداد افراد «در سطح نابغه» از گروه با IQ بالا حدود ده برابر بیشتر است. این در حالی است که تعداد افراد با IQ 120 یا بیشتر در گروه با IQ بالا تنها سه برابر بیشتر است و افراد با IQ 110 یا بیشتر تنها دو برابر بیشتر است. بنابراین، وقتی با فردی با ضریب هوشی بالای 150 ملاقات می‌کنیم، می‌توانیم به شدت مشکوک شویم که او از گروه با ضریب هوشی بالا است، حتی اگر به طور متوسط ​​آن گروه مزیت زیادی ندارد. آیا نام خاصی برای این اثر وجود دارد؟ به طور مشابه، اگر دو جمعیت میانگین یکسانی داشته باشند، اما جمعیت A واریانس بالاتری نسبت به جمعیت B داشته باشد، نقاط داده بیشتری بالاتر از یک آستانه بالا از جمعیت A وجود خواهد داشت. (من شنیده ام که این استدلال برای توضیح نسبت بالای مردان ارائه شده است. بر خلاف زنان در بالاترین رده های پیشرفت ریاضی، ادعا می شد که مردان و زنان دارای توانایی میانگین یکسان هستند، اما مردان دارای واریانس بالاتری هستند.) آیا این تأثیر نیز نامی دارد؟ به خاطر جنجالی بودن مثال ها پوزش می طلبم. من فقط به اسامی افکت‌ها علاقه‌مندم، نه به ضریب هوشی و توانایی ریاضی در گروه‌های مختلف. من به سادگی به این مثال ها اشاره کردم زیرا این زمینه ای است که من توصیف این پدیده ها را شنیدم.
آیا نامی برای حساسیت زیاد فرکانس نقاط داده شدید به میانگین توزیع نرمال وجود دارد؟
50197
من در حال خواندن این یادداشت در مورد بهینه سازی Mean-CVAR هستم. نویسندگان بر خلاف فرض رایج مبنی بر اینکه طبقات دارایی معمولاً توزیع می‌شوند استدلال می‌کنند و پیشنهاد می‌کنند که از یک توزیع پرواز کوتاه‌شده برای توصیف رفتار طبقات دارایی استفاده شود. اکنون، درک من از تطبیق یک سری زمانی تاریخی برای توزیع جدید اینجاست، لطفاً اگر فکر من اشتباه است، مرا اصلاح کنید. 1. شما تعیین می‌کنید که چه پارامترهایی برای توزیع جدیدتان مورد نیاز است: در مورد توزیع پرواز مالیات، به شاخص دم، یک پارامتر چولگی، یک پارامتر مقیاس و یک پارامتر مکان 2 نیاز دارید. شما آن پارامترها را از سری‌های زمانی تاریخی خود تخمین می‌زنید. : در این حالت، شاخص دم به صورت کورتوزیس، پارامتر چولگی به عنوان چولگی تاریخی، پارامتر مقیاس به عنوان انحراف معیار و پارامتر مکان به عنوان پارامتر تاریخی تخمین زده می شود. متوسط 3. شما متغیرهای جدید خود را با اعمال تخمین های خود بر عکس تابع توزیع تجمعی توزیع پرواز مالیات شبیه سازی می کنید. **آیا کسی می تواند توضیح دهد که چگونه این کار انجام می شود؟** سوالات بیشتر: * هنگامی که یک توزیع جدید را متناسب کردید، آیا این به این معنی است که تخمین های قدیمی شما دیگر مرتبط نیستند؟ * چند راه خوب برای آزمایش خوب بودن تناسب برای توزیع پرواز مالیاتی چیست؟
اتصال سری به یک توزیع
67956
من در حال نوشتن یک پایان نامه اقتصاد هستم و مقالات اقتصاد سنجی زیادی پیدا کرده ام که در آنها جداول رگرسیون بدون p-value را پیدا کرده ام. آنها فقط ضریب متغیر مستقل و مقدار t آن را مانند تصویر مثال نشان می دهند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Jgc8u.png) دانش اقتصاد سنجی من بسیار ابتدایی است، اما فکر می کردم مهم ترین چیز برای ارزیابی اهمیت یک متغیر، p- است. ارزش با جستجو در وب، متوجه شدم که گاهی اوقات $t-value>2$ به عنوان یک ارزش خوب برای اهمیت در نظر گرفته می شود. درست است؟ آیا می توانم بگویم که وقتی $t-value>2$ ضریب از نظر آماری معنی دار است؟ ویرایش: پس از پیشنهاد راب، در اینجا پیوندی به مقاله آمده است
اهمیت: p-value یا t-value؟
50262
من می خواهم میانگین تفاوت بین مدارس درمانی 1998 (گروه 1 = 1) و مدارس مقایسه (گروه 1 = 0) را در دو ویژگی زیر تعیین کنم: نسبت فرزندان دختر (مونث)، میانگین سال تولد کودک (yob) من تازه وارد Stata هستم، بنابراین نمی دانم در پنجره فرمان چه چیزی تایپ کنم. چی باید تایپ کنم؟ من یاد گرفته ام که چگونه رگرسیون بین یک متغیر x و y را در جایی که مانند رگرسیون y x است محاسبه کنم، اما نمی دانم چگونه رگرسیون بین گروه 1 و گروه مقایسه را در مقایسه با مشخصه دیگر محاسبه کنم. من به 2 رگرسیون نیاز دارم، پس تنظیم کنم آیا تایپ کنم؟ گروه رگرسیون 1=1 گروه رگرسیون زن yob1=0 گروه رگرسیون زن yob1=0 گروه2 yob گروه 1=1 گروه 2 زن یا چیز دیگری؟ و آیا میانگین تفاوت به من داده می شود یا این چیزی است که باید خودم محاسبه کنم؟ تنها چیزی که می دانم این است که باید از دستور 'regress' استفاده کنم. این مجموعه داده است: schid group1 group2 group3 part98 زن yob 115 1 0 0 0.7439648 .3834144 1987.234 117 1 0 0.7443243 .3705711 1986.414.428 0.3864889 1987.516 143 1 0 0.699026 .3519214 1987.588 158 1 0 0.5439946 .3648172 1987.836 1607.836 1607 1607. .3641604 1987.808 191 1 0 0.6320185 .3460737 1987.057 206 1 0 0.8539617 .3606257 1987.210 207.210 207. 0.3759444 1986.204 210 1 0 0.8510154 .3543401 1986.542 215 1 0 0.6107619 .387303 1987.144 2103 2106. 1986.481 219 1 0 0.8350134.3801926 1986.603 220 1 0 0.6586895 1 0 0 0.9961755.3797742 1986.82 268 1 0 0.9998046 .3439624 1986.505 274 1 0 0.9886107 .9877396 .387717 1986.717 281 1 0 0 .994603 .4124718 1985.863 286 1 0 0 .9647818 .3563205 1984 1986. 0.3386317 1985.715 290 1 0 0.9806792 .4015853 1986.362 296 1 0 0.9931837 .4222261 1986.637 2901 1986.637 2901. 1986.104 109 0 1 0 .7627826 .3316738 1986.306 116 0 1 0.6412753 .3338825 1987.693 118 0 1 0 058 .50 1986.826 119 0 1 0.6373736.3749958 1986.878 133 0 1 0.5865115 1987.21 141 0 1 0.619329 .3765736 1987.549 164 0 1 0.7135595 .2955894 1987.438 166 0 1 0 0.7135595 182 0 1 0 .6992276 .3615404 1987.088 183 0 1 0 .7401822 .3925673 1988.551 192 0 1 0.5432901.5432901.5432901. 1 0 .6527734 .3902833 1986.182 208 0 1 0 .6212902 .4109006 1986.253 221 0 1 0 .8271556 .991182665 0.9702736 .3943461 1987.15 263 0 1 0 .6658556 .413118 1987.252 264 0 1 0 .9434038 .3477578 1986.3477578 1986. .3844051 1986.523 273 0 1 0 .8159674 .4032201 1987.036 277 0 1 0 .74529 .4287328 1986.644 1986.644 28043284. 1987.396 289 0 1 0.9922523 .3737274 1986.665 292 0 1 0.992666 .421622 1986.812 293 0 1 0 0.892666. 108 0 0 1 .6897349 .2809297 1986.995 140 0 0 1 .7615737 .3513303 1987.509 144 0 0 1 .585314 .585314. یک 0.6437579 .2906108 1986.846 193 0 0 1 .8333147 .3409633 1986.912 201 0 0 1 .7961279 .4090333 19021 .4090333 1986. .8110762 .4032104 1986.049 205 0 0 1 .8138164 .4128731 1986.051 211 0 0 1 .9859384 .3808163 1985 .3808163 1985. .8145156 .4102123 1986.173 213 0 0 1 .9905288 .3850739 1985.755 218 0 0 1 .9398516 .3266351 1986.
دستور Stata Regress و یافتن میانگین تفاوت
68929
من 3 روز گذشته خود را به درک فرآیند دیریکله و خوشه‌بندی فرآیند دیریکله اختصاص دادم، اما به دلیل عدم دانشم در مورد فرآیند تصادفی و تئوری اندازه‌گیری (من هیچ دوره‌ای را در مورد آن‌ها گذراندم) نمی‌توانم آن را دقیقاً بفهمم که فرآیند دیریکله چیست. حداقل بعد از 3 روز من می دانم که توزیع دیریکله چیست :) اما نمی توانم به جلو بروم. اگر کسی یک مقدمه ساده‌لوحانه برای فرآیند دیریکله و خوشه‌بندی به من بدهد، قدردانی خواهم کرد. اساسا شهود من در اشتباه است. * تفاوت بین توزیع (دریکله) و فرآیند (دریکله) چیست * چگونه نشانی اینترنتی یا چوب شکستن پولی بر فرآیند دیریکله تاکید می کند، * مهمتر از همه اینکه چگونه نمونه گیری گیبس از مدل مخلوط دیریکله با استفاده از فرآیند دیریکله خوشه بندی مبتنی بر نمونه برداری گیبس است. چگونه توانایی من را در آن محورها گسترش دادید، تا این حد سپاسگزارم.
آیا کسی می تواند یک راهنمای ساده برای خوشه بندی فرآیند دیریکله ارائه دهد؟
115104
من به دنبال توضیحاتی در مورد کنترل ضعیف و قوی برای خطاها بودم، اما واقعاً معنی آن را نمی فهمم. کسی میتونه کمکم کنه؟ کنترل قوی به کنترل نرخ خطای نوع یک در هر ترکیبی از فرضیه صفر درست و نادرست اشاره دارد و کنترل ضعیف به حالتی اشاره دارد که همه فرضیه های صفر درست باشند، یعنی تحت یک فرضیه صفر که فرضیه صفر کامل را برآورده کند، اما ... چگونه بفهمیم که تمام فرضیه های صفر درست هستند؟ در یک آزمایش کنترلی؟ بنابراین آیا باید از کنترل ضعیف فقط برای آزمایش های کنترلی استفاده کرد؟ پیشاپیش ممنون
کنترل قوی و ضعیف
26728
شنیده‌ام که رگرسیون لجستیک هسته ترکیبی کلاسیک از روش‌های هسته و رگرسیون لجستیک است، اما من نمی‌توانم مرجع اصلی (کتاب یا مقاله) در این موضوع پیدا کنم. آیا می توانید پیشنهادی به من بدهید؟ با تشکر
رگرسیون لجستیک هسته
50193
من سعی می کنم داده ها را برای پایان نامه کارشناسی روانشناسی خود تجزیه و تحلیل کنم، اما در تلاش هستم که از کدام آزمون ها استفاده کنم زیرا پروژه من با هر چیزی که قبلاً تجربه کرده ام متفاوت است (و همچنین ذهنی برای آمار ندارم). من 200 مورد از بیمارانی دارم که در درمان شرکت کرده اند، و تاریخ هر جلسه ای که آنها شرکت کرده اند. من متغیرهای اضافی را برای تعداد روزهای انتظار بین هر جلسه ایجاد کردم، اما می‌خواهم بدانم آیا تشخیص‌های مختلف (مانند افسردگی، اضطراب...) بر تعداد دفعاتی که بیماران برای درمان مراجعه می‌کنند تأثیر دارد یا خیر. مشکل این است که گروه های تشخیصی n بسیار متفاوتی در هر کدام دارند (5 گروه تشخیصی اصلی وجود دارد که از n = 109 تا n = 3 را شامل می شود). من مطمئن نیستم که آیا راهی برای انجام این کار وجود دارد؟ هر توصیه بسیار قدردانی می شود. با تشکر
چه آزمایشی برای داده های من؟
68927
مقادیر زیر از ماژول گسسته در BayesTraits هستند. هر مقدار در ماتریس تفاوت در مقادیر لاگ احتمال بین یک مدل 4 پارامتری تکامل مستقل و یک مدل 8 پارامتری تکامل وابسته است. اگر عبارات همبستگی یا ماتریس همبستگی را اشتباه به کار برده ام، عذرخواهی می کنم. مستندات اینجاست. داده‌ها در اینجا نتیجه تجزیه و تحلیل با دو ورودی است: درخت فیلوژنی یا تکاملی، و ماتریس داده‌های حضور/غیاب (1/0) برای 2 صفت، برای هر گونه در درخت. ماتریس به این شکل است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2YYzW.png) به طور معمول، من می‌توانم از این برای بدست آوردن مقادیر p برای همبستگی بین دو متغیر استفاده کنم. p-value برای همبستگی بین 4 و 5، p-value 2 (85.83) در جدول $\chi^2$ با چهار درجه آزادی خواهد بود. همچنین باید اشاره کنم که ترتیب متغیرها بسیار مهم است. هر عدد (1-9) مربوط به یک صفت همولوگ سریال در یک حیوان است و همولوگ های سریال به همان ترتیبی که در اینجا ارائه شده اند ظاهر می شوند. 1 ابتدا می آید، سپس 2، و غیره. بنابراین کاری که می خواهم انجام دهم این است: می خواهم یک مقدار p **_برای کل ماتریس_** دریافت کنم که به من می گوید آیا مجاورت به طور قابل توجهی بر مقادیر همبستگی تأثیر می گذارد یا خیر. مقدار p زیر 0.05 نشان می دهد که مقادیر همبستگی بین یک صفت و صفات در هر دو طرف آن (به عنوان مثال، 4 در مقایسه با 3 و 4 در مقایسه با 5) بالاتر از آن چیزی است که به طور تصادفی انتظار می رود. من این را در بسیاری از ماتریس ها می بینم، اما می خواهم شک خود را تأیید کنم. آیا این در R قابل انجام است؟
اهمیت مجاورت در ماتریس همبستگی با متغیرهای مرتب شده
68925
من علاقه مند به درک قضیه اثبات کالنبرگ بر قضیه گیرسانوف هستم. قضیه می‌گوید: اگر $Q=Z_{t}P$ و $Q$،$P$ اندازه‌گیری‌های احتمال هستند و $Z$ a.s است. پیوسته، سپس برای همه P-martingale محلی $X - X':=X-Z^{-1}[X,Z]$ یک $Q$-martingale محلی است. من قسمت هایی را که می گویند $-[X,Z]+[X',Z]=0$ و اینکه $X'Z$ یک $Q$-martingale است به دلیل $X'Z-(X') را نمی فهمم Z)_{0}=X'*M+Z*m$، که $[.,.]$ همواریاسیون درجه دوم است، و $X'*Z$ یک انتگرال تصادفی است.
قضیه گیرسانوف
66313
من می‌خواهم یک داده مکانی را به دنبال توزیع گاوسی چند متغیره تولید کنم. با این حال، من نمی‌خواهم همگن باشد، یعنی نمی‌خواهم همبستگی/کوواریانس همگن باشد. من می خواهم ناهمگن باشد. آیا پیشنهادی در مورد نحوه تولید چنین داده هایی دارید؟ در اینجا نمونه ای از منظور من از ماتریس کوواریانس ناهمگن 25.8621 25.1207 24.6305 24.3867 25.1207 25.3719 24.8768 24.6305 24.6305 24.6305 24.6305 24.8768 است. 25.1207 24.3867 24.6305 25.1207 25.8621 چهار متغیر وجود دارد. همانطور که می بینید واریانس حاشیه ای متفاوت است به این معنی که C(0) به مکان بستگی دارد. همینطور C(h) برای هر h. این یکی از روش های تولید داده های ناهمگن است. اما من می خواهم برخی از داده های فضایی متشکل از خشکی ها، دریاچه هایی که کوواریانس بسیار کمتری بین یکدیگر دارند.
تولید داده های گاوسی فضایی غیر همگن
50199
آیا توزیع نرمال چولگی لگ مقعر است؟
آیا توزیع نرمال چولگی لگ مقعر است؟
24371
این یک سوال عمومی است. اجازه دهید یک سناریوی مثال بزنم. بگو، من 2 تکنیک برای تخصیص بودجه روزانه خود در 4 سهم داشتم. پس از تخصیص، من اطلاعات مربوط به عملکرد سهام را در روز بعد دریافت می کنم. (تنبل هستم و بعد از تخصیص به فیلم می روم). مشکل 1: من باید برای آزمایش دو تکنیک در این آزمایش متوالی در چند روز معین، یک طرح آزمایشی را ارزیابی یا ارائه کنم. مشکل 2 با اخطار: اگر بودجه خود را به نصف تقسیم کنم و یکی از دو تکنیک را داشته باشم، آن را در دو آزمایش موازی به طور همزمان بین چهار سهام در مقادیر یکسان تخصیص دهم - در روز دوم مشکل زیر را پیدا می کنم. اگرچه همه چیز از بودجه گرفته تا تخصیص یکسان بود. هر دو آزمایش به دلیل تصادفی بودن سیستم، عملکردهای متفاوتی را در روز بعد ارائه دادند. در این شرایط - که اجراها حتی در تکنیک یک متفاوت هستند - چگونه می توانم آزمایشی را برای مقایسه دو تکنیک در یک تعداد معین ارزیابی یا طراحی کنم؟ مشکل 3: اگر به جای دریافت اجراهای روز بعد - دقیقه به دقیقه یا اجراهای ساعتی دریافت کنم و بخواهم این دو تکنیک را ارزیابی کنم - خط فکری شما چیست؟
آزمایش متوالی: طراحی کنترل شده و معیارها
50196
با توجه به داده های چند سطحی، من علاقه مند به تخمین نتایج در سطح عضو هستم، زمانی که فقط نتایج در سطح گروه، همراه با پیش بینی کننده های سطح گروه و عضو، شناخته شده باشند. من فاقد اصطلاحات آماری هستم، بنابراین با یک مثال توضیح می‌دهم: ما می‌خواهیم احتمال قبولی دانش‌آموز دبیرستانی را در کالج تخمین بزنیم. در این صورت «گروه ها» مدارس و «اعضا» دانش آموزان خواهند بود. ما این موارد را داریم: 1. داده‌های جمع‌آوری شده در سطح گروه در مورد متغیر وابسته (تعداد کل درخواست‌های پذیرفته شده/رد شده از هر دبیرستان) 2. متغیرهای مستقل در سطح گروهی برای هر مدرسه (تعداد دانش‌آموزانی که حداقل سه نفر را دریافت کرده‌اند). دوره های پیشرفته/افتخار، توزیع معدل، تعداد دانش آموزان در 10 درصد برتر نمرات آزمون استاندارد و غیره) 3. متغیرهای مستقل مشابه در سطح عضو/انفرادی (برای هر دانش آموز، خواه حداقل سه دوره پیشرفته/افتخار را گذرانده باشد، معدل واقعی، آیا در یک آزمون استاندارد در 10 درصد برتر نمره کسب کرده است یا خیر، و غیره) آنچه ما کم داریم، با این حال، داده های نتیجه در سطح عضو در مورد پذیرش کالج است (برای هر دانش آموز، اینکه آیا او در کالج پذیرفته شده است). به طور شهودی، من این حس را دریافت می‌کنم که حتی در غیاب این داده‌های پیامد در سطح فردی، ممکن است برخی تخمین‌ها برای اعضای گروه انجام شود: برای مثال، ممکن است ببینیم که مدارسی با نسبت‌های بالایی از دانش‌آموزانی که حداقل سه دوره پیشرفته/افتخار را می‌گذرانند، به همین ترتیب، نرخ پذیرش بالا منطقی است که با دانستن این موضوع، احتمال قبولی دانشجو در کالج باید به طور مثبت تحت تأثیر این باشد که آیا او حداقل سه دوره پیشرفته / افتخاری را گذرانده است (احتمالاً همراه با سایر تأثیرات در سطح گروه). پس آیا می توان نتایج در سطح گروه را مدل کرد و آن مدل ها را در موارد فردی برای تخمین احتمالات در سطح فردی به کار برد؟ اگر چنین است، چه اصطلاحی این نوع مدل را توصیف می کند؟ هر گونه اشاره به ادبیات در مورد این موضوع نیز قدردانی خواهد شد.
برآورد احتمال نتیجه در سطح فردی که از داده های آموزشی در سطح گروهی ارائه شده است
2981
با کمک چندین نفر در این جامعه، پاهایم را در خوشه‌بندی برخی از داده‌های شبکه اجتماعی با استفاده از اجرای خوشه‌بندی مبتنی بر مدولاریت در igraph خیس کرده‌ام. من در تفسیر خروجی این روال و نحوه استفاده از آن برای ایجاد لیستی از اعضای هر جامعه شناسایی شده مشکل دارم. این روال یک ماتریس دو ستونی و لیستی از مقادیر مدولاریته را خروجی می دهد. از Docs: > merges: یک ماتریس با دو ستون، که نمایانگر یک دندوگرام است و شامل > همه ادغام های الگوریتم انجام شده است. هر خط یک ادغام است و با شناسه دو جامعه ادغام شده > داده می شود. شناسه‌های انجمن اعداد صحیحی هستند که از صفر شروع می‌شوند و جوامع بین صفر و تعداد رئوس (N) منهای یک به رئوس منفرد تعلق دارند. خط اول > ماتریس اولین ادغام را می دهد، این ادغام جامعه N را ایجاد می کند، > تعداد راس ها، ادغام دوم جامعه N+1 و غیره را ایجاد می کند. > > مدولاریت: یک بردار عددی حاوی مقدار مدولاریت جامعه > ساختار پس از انجام هر ادغام با کار با این توضیح و نگاه کردن به مثال در پایین صفحه man، فکر می کنم جوامع در این نمودار اولین جامعه هستند: 0 1 2 3 4 جامعه دوم: 10 11 12 13 14 جامعه سوم: 5 6 7 8 9 می توانید کسی که قبلاً از این روش استفاده کرده است تأیید می کند که آیا رویکرد صحیح این نتیجه را ایجاد می کند؟ من اساساً (i) دو ادغام آخر را نادیده گرفته ام و (ii) روی هر ردیف در ماتریس ادغام رفته ام، هر جفت رئوس را در مجموعه ای ترکیب کرده ام در حالی که مراقب مقادیر راس بزرگتر از تعداد رئوس هستم (و بنابراین به ردیف دیگری در ماتریس 'ادغام' مراجعه کنید). با تشکر فراوان ~l
تفسیر خروجی روش خوشه‌بندی fastgreedy.community igraph
50263
من کاملاً مطمئن نیستم که چگونه باید مدلی را که دو پاسخ دارد مناسب کنم. داده ها از مختصات هدف (x,y) و مختصات واقعی (x,y) تشکیل شده است. من می‌خواهم مدلی را برای پیش‌بینی مجموعه‌ای از نقاط جدید از هدف تنظیم کنم، با این حال وجود دو متغیر من را از کار می‌اندازد. همچنین به نظر می رسد که هیچ رابطه ای بین نقاط وجود ندارد، بنابراین من حتی مطمئن نیستم که چه نوع مدل سازی را انجام دهم. آیا یک گاوسی چند متغیره مناسب است؟ ویرایش: لینک داده ها اینجاست: https://dl.dropbox.com/u/12945652/data.csv sessionID targetX targetY touchX touchY name phone 253 0.034375 0.564606742 0.034375 0.584256966 0.584256963 Subject. 0.901685393 0.625 0.907303371 موضوع 15 Iphone4 253 0.2875 0.764044944 0.253125 0.783707865 موضوع 15 Iphone4 2503 0.2424 2503 0.250 0.823033708 Subject15 Iphone4 253 0.059375 0.657303371 0.04375 0.679775281 Subject15 Iphone4 253 0.06875 0.910111236 0.910112364609. 253 0.625 0.603932584 0.68125 0.643258427 Subject15 Iphone4 253 0.265625 0.530898876 0.26875 0.53370578659 Iphone4 253 0.974719101 0.603125 0.963483146 Subject15 Iphone4 253 0.290625 0.533707865 0.25 0.530898876 موضوع15 Iphone4 2587425859 0.98125 0.564606742 Subject15 Iphone4 253 0.825 0.54494382 0.909375 0.542134831 Subject15 Iphone4 253 0.4625 0.555617474 موضوع 15 آیفون4 253 0.6875 0.814606742 0.70625 0.828651685 موضوع 15 آیفون4 253 0.734375 0.873595506 0.775 0.910115 0.91012
2 پاسخ از دو متغیر مشترک را پیش بینی کنید
67954
بهترین فرمول برای تعیین حجم نمونه در نظرسنجی های رضایت مشتری و کارکنان کدام است؟
تعیین حجم نمونه صحیح
28715
چگونه می توانید آزمایش یا بررسی کنید که نمونه IID (مستقل و توزیع شده یکسان) است؟ توجه داشته باشید که منظور من Gaussian و Identically Distributed نیست، فقط IID است. و ایده ای که به ذهن من می رسد این است که به طور مکرر نمونه را به دو نمونه فرعی با اندازه مساوی تقسیم کنم، آزمون کولموگروف-اسمیرنوف را انجام دهم و بررسی کنم که توزیع مقادیر p یکنواخت است. هر گونه نظر در مورد آن رویکرد، و هر گونه پیشنهاد استقبال می شود. **توضیحات پس از شروع جایزه:** من به دنبال یک آزمایش کلی هستم که بتوان آن را برای داده های سری زمانی غیر از سری زمانی اعمال کرد.
آزمایش برای نمونه برداری IID
111373
**من به دنبال راه هایی برای ارزیابی عملکرد/موفقیت مدل های پیش بینی کننده (طبقه بندی) برای اهداف اقتصادی هستم.** می دانم: * درصد دقت مستقیم * امتیاز AUC * سود خالص * نرخ بازده * نسبت شارپ ** ممکن است شما راه های ممکن دیگر برای ارزیابی عملکرد/موفقیت چنین مدل هایی را به من اطلاع دهید؟** متشکرم. PS: در صورتی که به پاسخ شما مربوط باشد: 2 دسته ممکن وجود دارد که مدل اشیاء داده را در آنها طبقه بندی می کند.
ارزیابی مدل های پیش بینی
114856
من می دانم که، تحت شرایط معمول منظم، با بزرگ شدن اندازه نمونه، MLE به مقادیر پارامتر واقعی همگرا می شود. و MLE مقیاس شده تمایل به توزیع عادی دارد. با این حال، در تعدادی از موارد دنیای واقعی، یافتن حداکثر جهانی به دلیل وجود حداقل‌های محلی در احتمال، دشوار است. به طور شهودی، من انتظار دارم که با افزایش اندازه نمونه، تعداد و عمق حداقل های محلی کاهش یابد، که منجر به احتمال یک وجهی می شود. اما آیا این حقیقت دارد؟ آیا ثابت شده است؟
آیا احتمال ورود به سیستم زمانی که اندازه نمونه به بی نهایت می‌رود، یک‌وجهی می‌شود؟
24375
کنترل متغیرهایی مانند اندازه شرکت و غیره کاملاً واضح است. اما من واقعاً هیچ ایده ای در مورد چگونگی کنترل اثرات صنعت و اثرات سال ندارم. من خوانده ام که شما باید متغیرهای ساختگی را با دو رقم SIC کدهای GICS وارد کنید. اما چگونه می توان این کار را در SPSS (یا Stata) انجام داد. میشه لطفا در این مورد به من کمک کنید؟
چگونه می توان اثرات صنعت و سال را در نظر گرفت؟
73119
من یک تابع $f(t) = \sum_{i=1}^{N} |y_i-t|$ دارم. مقدار بهینه t چقدر خواهد بود که آن را به حداقل می رساند. چگونه آن را استخراج کنیم؟ به طور مشابه مقدار بهینه t که $f(t) = \sum_{i=1}^{N} |y_i-t|^{\infty}$ را به حداقل می‌رساند چقدر است؟
استخراج مقدار بهینه یک تابع
28712
من از آزمون U Mann-Whitney برای بررسی تفاوت های احتمالی بین دو گروه نسبتاً کوچک (12 موضوع در هر یک) در 15 مورد مختلف استفاده کرده ام. من هیچ فرض از پیش تعریف شده ای در مورد اینکه کدام آیتم ها متفاوت خواهند بود نداشتم. با این حال، این آزمون ساده Mann-Whitney U تفاوت معنی داری (P<0.05) برای **ALL** آیتم های آزمایش شده به همراه داشت. **سوال من**: اگر/چه اصلاحاتی برای مقایسه های چندگانه باید در اینجا استفاده کنم؟ آیا این واقعیت که من تفاوت قابل توجهی در همه موارد پیدا کرده ام تفاوتی ایجاد می کند؟
در مورد اصلاحات برای مقایسه های متعدد
72642
من نمونه ای از مشتریان دارم که مسیرهای مختلفی را برای رسیدن به یک وضعیت نهایی طی کردند. بین شروع و پایان، آنها ممکن است تعاملات مختلفی را در این بین تکمیل کرده باشند. برخی از این تعاملات وابسته به اقدامات قبلی است. دیگران، نکن بنابراین، من تعدادی متغیر دسته‌بندی سه‌گانه دارم که تعداد محدودی از انواع تعامل را نشان می‌دهند (کاری را انجام ندادم، کاری را قبل از رویداد دیگری انجام دادم، کاری را بعد از رویداد دیگری انجام دادم). و من مهرهای زمانی مرتبط با بیشتر تعاملات دارم. علاوه بر این، من ویژگی های جمعیت شناختی دیگری نیز دارم که می توانند عوامل مخدوش کننده را نشان دهند. من می خواهم نمونه را به تعداد کمتری از کهن الگوهای مسیر کاهش دهم. برای من، این شبیه به هر یک از تجزیه و تحلیل مسیر، تجزیه و تحلیل زمان تا رویداد، تجزیه و تحلیل کلاس پنهان، و تجزیه و تحلیل مکاتبات چندگانه است. من تجربه ای در خوشه بندی دارم، اما نه زمانی که وابستگی متقابل یا همبستگی نیمه قوی بین متغیرها وجود داشته باشد. و مطمئناً نه زمانی که یک عنصر زمان درگیر باشد. پیشنهادی در مورد نحوه برخورد دارید؟ فکر می‌کنم این یک فرآیند تکاملی خواهد بود که در آن می‌توانم با یک تکنیک کمتر قدرتمند شروع کنم و شاید کهن الگوهای خاصی را برای تجزیه و تحلیل عمیق‌تر قوی‌تر انتخاب کنم. من مایلم ترجیحاً در R یا SAS انجام دهم. ممنون از هر راهنمایی
خوشه بندی مسیر کهن الگو
111370
من از بسته «زمین» در «R» برای تخمین تعداد نقاط شکست در یک منحنی استفاده می‌کنم. تنها یک پیش بینی کننده وجود دارد. من امیدوار بودم که روش معقولی برای مقایسه شیب برای برخی از بخش ها در برابر 0 وجود داشته باشد. معمولاً از تخمین و خطای استاندارد استفاده می کنم، اما (برای من) واضح نیست که برای بخش هایی که ترکیبی از شیب های متعدد هستند چه کاری انجام دهم: تخمین SE (قطع) 2.78 .015 ساعت (سن-4) -.01.0029 ساعت (4-سن) -.35.015 h (سن-11) -.076.0055 بنابراین شیب بعد از سن 11 سالگی -.086 است. چگونه می توانم اطمینان خود را از اینکه این شیب واقعاً منفی است، کمیت کنم؟
آزمایش شیب در خطوط رگرسیون تطبیقی ​​چند متغیره (MARS/Earth)
28711
من می دانم که نسخه های مختلفی از قضیه حد مرکزی وجود دارد و در نتیجه براهین مختلفی برای آن وجود دارد. موردی که من بیشتر با آن آشنا هستم در زمینه دنباله ای از متغیرهای تصادفی توزیع شده یکسان است، و اثبات بر اساس یک تبدیل انتگرال است (مثلاً تابع مشخصه، تابع مولد گشتاور)، و به دنبال آن تقریب های مرتبه اول برای به دست آوردن یک تابع به که تبدیل معکوس را می توان اعمال کرد. من علاقه مندم بدانم که آیا در این رویکرد نقصی وجود دارد - به طور غیررسمی به من گفته شده که کاملاً دقیق نیست - اما چرا؟
اثبات theroem حد مرکزی
24373
یک نظرسنجی از خانواده (بطور معقولی بزرگ) را تصور کنید که در آن همه افراد در هر خانواده مورد سوال قرار گرفته اند. برای هدف ریزشبیه‌سازی، این نظرسنجی باید به یک جمعیت کامل گسترش یابد. در مرحله اول، وزنه‌ها به هر مشاهده متصل می‌شوند تا مجموع کنترل‌های خارجی رعایت شود (کالیبراسیون). اگر فقط مجموع کنترلی داشته باشیم که تعداد خانوارهای این و آن نوع را در یک منطقه توصیف می کند، می توانیم از IPF (همچنین به عنوان رتبه بندی نیز شناخته می شود) استفاده کنیم که تخمین حداکثر احتمال وزن ها را ارائه می دهد. به حداقل رساندن آنتروپی نسبی معادل رتبه بندی/IPF است. **ویرایش**: اما اگر مجموع کنترل در سطح افراد و خانواده داشته باشیم چه؟ مثلاً به ما گفتن چند خانوار از کدام نوع _و_ چند نفر از کدام جنس/سن/سطح تحصیلی/... هستند. من نتوانستم یک رویکرد استاندارد در اینجا پیدا کنم. آیا رتبه بندی/IPF از نقطه نظر آماری رویکرد صحیح است؟ آیا گزینه های دیگری وجود دارد؟ از دیدگاه آماری، معقول‌ترین رویکرد برای کالیبره کردن وزن‌ها در حضور مجموع‌های کنترل در سطح خانوار و فرد چیست؟ برای متن بیشتر به سوال اصلی مراجعه کنید. (احتمالا خیلی بزرگ بود، من آن را به قطعات تقسیم می کنم.)
کالیبره کردن یک نظرسنجی خانوار به مجموع کنترل در سطح خانوار و سطح فرد
77344
چگونه می توان به صورت برنامه ای بررسی کرد که آیا دو کلاس به صورت خطی قابل جداسازی هستند؟ (فقط پاسخ بله/خیر) شاید بتوانم SVM خطی را روی داده ها آموزش دهم (از پارامترها برای اضافه کردن استفاده کنم) و سپس آزمایش را روی همان داده ها اجرا کنم و اگر دقت 100٪ باشد مجموعه داده ها به صورت خطی قابل جداسازی هستند.
به صورت برنامه ای بررسی کنید که آیا دو کلاس به صورت خطی قابل جداسازی هستند یا خیر
4756
من یک نمونه تصادفی از متغیرهای تصادفی برنولی $X_1 ... X_N$ دارم که $X_i$ i.i.d است. r.v. و $P(X_i = 1) = p$، و $p$ یک پارامتر ناشناخته است. بدیهی است که می توان تخمینی برای $p$: $\hat{p}:=(X_1+\dots+X_N)/N$ پیدا کرد. سوال من این است که چگونه می توانم یک فاصله اطمینان برای $p$ ایجاد کنم؟
فاصله اطمینان برای نمونه برنولی
66280
چه چیزی باعث نتایج مختلف زیر می شود؟ var1 = c(0.04875،0.13725،0.28350،0.50975،0.77425،0.94700،0.05325،0.14050،0.29725،0.51525،0.79000،0.79000،0.95025،0.9540 . 79325,0.95875,0.04775,0.13850,0.28675,0.54250,0.78300,0.95175,0.05150,0.12725,0.30175,0.547925,0.5479250 375،0.14100،0.30050،0.53275،0.78100،0.96175،0.05450،0.15300،0.29650،0.52850،0.80100،0.95674،0.95674،0.95674،0.96100،0.52850. ,0.56025,0.80575,0.96100,0.05100,0.15350,0.31175,0.53300,0.78900,0.96000,0.04650,0.13525,0,0.13525,0.253300,0.13525,0.2960 . 3200,0.29850,0.52700,0.80525,0.96150,0.05150,0.14050,0.29450,0.54375,0.79450,0.96375,0.05337552501 50،0.79425،0.96025،0.04950،0.14500،0.29425،0.52250،0.78475،0.95650،0.05225،0.14425،0.29225،0.29225،0.29225،0.538. var2 = c(1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6, 1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1, 2،3،4،5،6،1،2،3 ,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4 ,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5 ,6,1,2,3,4,5,6) var3 = c(4,4,4,4,4,4,6,6,6,6,6,6,8,8,8,8,8,8,10,10,10,10,10,10, 12،12،12،12،12،12،14،14،1 4,14,14,14,16,16,16,16,16,16,18,18,18,18,18,18,20,20,20,20,20,20,22,22,22, 22،22،22 ,24,24,24,24,24,24,26,26,26,26,26,26,28,28,28,28,28,28,30,30,30,30,30,30,32 ,32,32 ,32,32,32,34,34,34,34,34,34,34,36,36,36,36,36,36,38,38,38,38,38,38,38,40,40,40,40 ,40,40) summary(aov(var1~as.factor(var2)*var3)) summary(aov(var1~as.factor(poly(var2,1))*poly(var3,1))) ممکن است به خوبی نفهمم چگونه poly( ..) و من (..) کار می کنم. ممکن است نکاتی در مورد این دو عملکرد به من بدهید؟ (هدف من ایجاد مدل هایی با درجه های مختلف (مربع، مکعب و غیره) و مقایسه BIC (یا AIC) آنهاست).
مدل های درجه دوم با R. استفاده از توابع poly(..) و I(..) (R-language)
50198
مشکل از اینجاست یعنی من مجموعه ای از داده های نقاط داده = [[90.00، 2.0]، [97.40، 5.0]، [104.8، 14.0]، [112.2، 12.0]، [119.6، 11.0]، [127.0، 6.0]، [1] را دارم. 3.0]، [141.8، 1.0]، [149.2، 2.0]، [156.6، 1.0]] من باید یک منحنی به شکل $$\frac{m}{\sigma\sqrt{2\pi}}\cdot e^{-(x بسازم -\mu)^2/(2\sigma^2)}$$ به این داده ها. در پیوند، ولکر براون مقادیر $$m = 405.75796954829985، \mu = 111.86913960269014، \sigma = 11.968861052746961$$ را دریافت کرد و همانطور که من سعی کردم نسخه Sage را روی داده های $$ تنظیم کنم. 405.7572223708457، \mu = 111.86914614035226، \sigma = 11.96881745593664$$ چه نوع راه‌هایی برای اندازه‌گیری اینکه کدام یک برای آن مجموعه داده‌ها مناسب‌تر است وجود دارد؟ شنیده ام که گاهی می توان از log-likelihoods برای انتخاب بهترین مدل استفاده کرد و گاهی معیار اطلاعات Akaike برای آن مناسب است. اما در این شرایط کدام را انتخاب کنم؟ تا کنون، من نظریه پشت AIC را مطالعه نکرده ام. نکته دیگری که من را گیج می کند، اظهار نظر براون است شما باید برای مقادیر اولیه راهنمایی کنید. آیا این بدان معناست که هیچ روش استانداردی برای اندازه گیری میزان تناسب یک منحنی خاص با داده ها وجود ندارد؟ یا این فقط یک اشکال در نسخه قبلی Sage است که در نسخه 5.6، 21 ژانویه 2013 برطرف شده است؟
چگونه می توانم اندازه گیری کنم که کدام تابع برای مجموعه ای از نقاط داده مناسب تر است
77346
ابتدا، رگرسیون Y در $X_1، X_2، X_3، X_4$$ به دست می‌آید: $$Y=\beta_0+\beta_1X_1+\beta_2X_2+\beta_3X_3+\beta_4X_4+e (1)$$ سپس، Y را در $X_2$ رگرسیون کنید. X_3، X_4$$ $$Y=\beta'_0+\beta'_2X_2+\beta'_3X_3+\beta'_4X_4+e'(2) $$ در نهایت، $X_1$$ روی $$X_2، X_3، X_4$$ $$X_1= پسرفت کنید \beta''_0+\beta''_2X_2+\beta''_3X_3+\beta''_4X_4+e'' (3)$$ حالا من e' را روی e'' $$e'= \alpha_1+\alpha_2e''+\epsilon$$ پس می‌کشم آیا روش ساده‌ای برای اثبات اینکه $$\alpha_2=\beta_2$$ وجود دارد؟ (3) به (1) (که معادله (4) را به دست می دهد) و سپس باقیمانده های (2) و (4) را مشخص می کند؟ p/s: متاسفم، اما آیا کسی می‌تواند به من بگوید چگونه نظر بدهم؟ من دکمه افزودن نظر را امتحان کردم اما هنوز نمی توانم. من اینجا تازه واردم
آیا این کاربرد قضیه فریش-و-لاول است؟
92298
من R 3.0.2 را اجرا می کنم و از بسته PLS برای ساخت مدل های حداقل مربعات جزئی استفاده می کنم. مشکلی که من دارم این است که وقتی مقیاس‌گذاری ویژگی را در ماتریس طراحی خود اعمال می‌کنم، بردار ضریب حاصل، مقادیر پاسخ پیش‌بینی‌شده را در نمونه‌های آموزشی و اعتبارسنجی متقابل من بازتولید نمی‌کند. کد من اینجاست: model.train <- cppls(y ~ .، داده = data.train، ncomp = 20، مقیاس = TRUE، اعتبارسنجی = هیچ، وزن = w) yhat.train <- fitted(model.train ) B <- coef(model.train، intercept = TRUE، ncomp = 20) yhat.cv <- predict(model.train، newdata = data.cv، ncomp = 20، type = response) اگر بردار B را بگیرم و در ماتریس طراحی خود ضرب کنم، مقادیر حاصل با مقادیر تولید شده توسط `fitted( برابری نمی کند. توابع ) و پیش بینی(). به عبارت دیگر، Y != BX. اما اگر دقیقاً همان کد را با «scale = FALSE» در تابع «cppls()» اجرا کنم، «Y = BX». سوال من این است که آیا تابع coef() به سادگی نمی تواند بتاها را مجدداً مقیاس کند یا اینکه من در روال خود اشتباه می کنم. من واقعاً دوست دارم بتوانم مقیاس ویژگی را در ماتریس طراحی خود اعمال کنم، اما به بردار بتای صحیح به عنوان خروجی نیاز دارم. از هر توصیه ای بسیار قدردانی می کنم.
بردار بتا از مدل مقیاس‌پذیر PLS که پاسخ‌های پیش‌بینی‌شده را بازتولید نمی‌کند
28714
مدتی است که در حال مطالعه مدل های سری زمانی گسسته هستم. من با مدل‌های سری‌های زمانی معمول (ARMA، ARIMA، GARCH و غیره) آشنا هستم، اما می‌خواهم همتایان پیوسته آنها را مطالعه کنم (فرآیندهای CAR و CARMA بسیار جالب به نظر می‌رسند) تا برخی مدل‌ها را برای سری‌های زمانی با فاصله ناهموار پیاده‌سازی کنم. علیرغم موارد فوق، من سعی کردم مقدمه هایی برای نظریه و روش های سری زمانی پیوسته به خوبی کتاب Brockwell & Davis (1991) پیدا کنم، اما نتوانستم چیزی را پیدا کنم، فقط برخی از مرورها را اینجا و آنجا (به ویژه آنهایی که وجود دارد). توسط براکول). آیا پیشنهادی برای یک کتاب خوب در این زمینه دارید؟ پیشاپیش متشکرم PS: لطفاً در نظر داشته باشید که پیشینه من تئوری اندازه گیری زیادی ندارد، و برای خواندن ادبیات سری های زمانی مجزا، مجبور شدم تا حد زیادی از یادداشت های سخنرانی و بررسی هایی که در وب پیدا کردم به خودم یاد بدهم (پیشنهاداتی در مورد این موضوع عبارتند از نیز استقبال کرد!).
چه مراجع خوبی برای پرش از مدل های سری زمانی گسسته به مدل های پیوسته وجود دارد؟
62743
از من خواسته شد که یک امتیاز اطمینان را برای یک نسبت واحد محاسبه کنم که نشان دهنده نرخ تبدیل است. من اسناد زیادی را دیدم که اعتماد _فاصله_ را برای نسبت ها بر اساس توزیع دو جمله ای محاسبه می کنند. با این حال من هیچ ماده ای برای یک تبدیل (یا نسبت) ندیدم. اگر $X \sim Bin(n,p)$، با حجم نمونه بزرگ تقریباً دو جمله‌ای معتبر است، آنگاه $$ \hat{p} \leadsto \mathcal{N}\bigg(p, \sqrt{\frac{ p(1-p)}{n}} \bigg) $$ با استفاده از این تقریب، متوجه شدم که اهمیت آماری مربوط به نسبت دوم (از طریق $z$-scores) می تواند باشد. محاسبه و غیره. در حالت ایده‌آل، این معیار عددی بین ۰ تا ۱۰۰ درصد خواهد بود.
امتیاز اعتماد برای یک نسبت واحد
28716
چگونه می توانم به دنبال تشخیص هم خطی، به ویژه شاخص های شرایط و نسبت های واریانس در رگرسیون لجستیک چند جمله ای باشم؟
رگرسیون لجستیک چند جمله ای؟
28710
با توجه به اینکه $Y_1، \ldots، Y_6$ متغیرهای تصادفی عادی مستقل با میانگین $0$ و واریانس $\sigma^2$ هستند. توزیع $ T=\displaystyle\frac{Y^2_{1}+Y^2_{2}+Y^2_{3}}{Y^2_{4}+Y^2_{5}+ زیر را بیابید Y^2_{6}} دلار
توزیع نسبت مجموع مجذور متغیرهای تصادفی نرمال چگونه است؟
77345
اجازه دهید $X_1, X_2, \cdots, X_n$ یک نمونه مشابه و مستقل از $N(\mu, \sigma^2)$ باشد، تعریف کنید: $$D = \frac{1}{t}\left[\ overline{X} + \frac{1-\rho}{2} S^2\right]$$ که در آن: $t$ و $p$ ثابت هستند $\overline{X} = \frac{1}{n}\sum_{i=1}^n X_i$، یعنی میانگین نمونه $S^2 = \frac{1}{n} \sum_{i=1}^n \left( X_i-\overline{X}\right)^2$، یعنی واریانس نمونه بایاس پس توزیع نمونه $D$ چیست؟ * * * من می دانم که $\overline{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right)$ و $n\frac{S^2}{\sigma^ 2} \sim \chi^2(n-1)$، اما چگونه توزیع نمونه $D$ را استخراج کنم؟
مجموع میانگین نمونه و توزیع نمونه واریانس نمونه
92290
مرا به خاطر عدم آگاهیم ببخش. اما من با استفاده از مدل arima در نماها مشکل دارم. من نمی دانم چگونه متغیر مستقل (کنترلی) را در عبارت رگرسیون خود لحاظ کنم. مدلی که من استفاده می کنم ls Dy c beta ar(1) ar(2) ma(1) ma(2) Dx1 Dx2 Dx3 می تواند راهنمایی کند که آیا این مدل درست است یا خیر. من وب‌سایت‌ها و مقالات زیادی را جستجو کرده‌ام، اما نتوانستم نحوه بازگشت با متغیر کنترل را پیدا کنم. از شما در انتظار سپاسگزارم
مشکلات استفاده از مدل arima
77343
من یک مطالعه تجزیه و تحلیل بقا دارم و در برخورد با متغیرهای وابسته به زمان مشکل دارم. برای مقابله با متغیرهای وابسته به زمان، باید فواصل زمانی ایجاد کنم که متغیر تغییر کند. یکی از متغیرها «فصل» است که دارای مقادیر تولید مثل، پس از پرورش یا زمستان است. از آنجایی که همه مشاهدات در زمان متفاوتی شروع می‌شوند (روزهای مختلف و سال‌های مختلف)، محاسبه این فواصل کار آسانی نیست، زیرا سه تغییر در سال وجود دارد. جدول نهایی بسیار بزرگ خواهد بود، زیرا من 154 مشاهده دارم و برخی از آنها 5 سال دنبال می کنند... من از بسته بقا R استفاده می کنم. آیا کسی می تواند به من کمک کند تا راه آسانی برای مقابله با این موضوع پیدا کنم؟
متغیر وابسته به زمان چرخه تحلیل بقا
64118
در اخبار محلی [1] اطلاعاتی ارائه می شود که 58 درصد مردم برای چیزی هستند. این اطلاعات بر اساس مجموعه گزینه هایی است که از 500 نفر از 10.5 میلیون نفر در مورد آن سوال می پرسند. فاصله اطمینان برای افرادی که برای آن چیزی هستند چقدر است؟ برای حل این موضوع سعی می کنم دنبال کنم. $n$ افراد از $10^7$ برای چیزی است. من به طور تصادفی 500 مورد از آنها را انتخاب می کنم و سعی می کنم $n_1,n_2$ را پیدا کنم که: $$ n_1: \frac{\binom{n_1}{290}\binom{10^7-n_1}{210}}{\ binom{10^7}{500}}<0.05 $$ $$ n_2: \frac{\binom{n_2}{290}\binom{10^7-n_2}{210}}{\binom{10^7}{500}}>0.95 $$ اما حل این مشکل آسان نیست. بنابراین من به دنبال یک الگوریتم قابل حل هستم. [1] پیوند
ارتباط نظرسنجی (500 نفر از 10.5 میلیون نفر)
67955
مشکل به شرح زیر است: اگر من داده‌های مربوط به ریسک عملیاتی از سال 2002 تا 2005 را داشته باشم، می‌خواهم مقدار چگالی مرتبط با آن را بدست بیاورم. X # داده‌های 2002 تا 2005 است، X مقادیر [-200200] چگالی (X) # چگالی X را می‌گیرد سوال این است که چگونه می‌توان مقادیر این چگالی را بدست آورد؟ به عنوان مثال، اگر من هر مقدار X0 را در X بگیرم مثلا 109، پس چگونه می توان این مقدار را بدست آورد؟
چگونه می توان مقادیر چگالی احتمال یک داده معین را با استفاده از R بدست آورد؟ هدف بدست آوردن مقادیر تابع است نه نمودار
79611
من در حال حاضر در تلاش برای تفسیر نتایج یک تحلیل رگرسیون هستم که در آن به دنبال اثر تعدیل هستم. در حالی که اصطلاح تعامل معنادار است، تأثیر اصلی تعدیل کننده بالقوه با متغیر مستقل معنی دار نیست. آیا اثر تعدیل فقط به اثر متقابل بستگی دارد یا تأثیر اصلی تعدیل کننده بالقوه نیز باید با همان جهت قابل توجه باشد؟
تعیین اینکه آیا اثر تعدیل وجود دارد یا خیر
66314
**توضیحات:** اجازه دهید دامنه مشکل طبقه بندی سند باشد که در آن مجموعه ای از بردارهای ویژگی وجود دارد که هر کدام به 1 یا چند کلاس تعلق دارند. برای مثال، یک سند «doc_1» ممکن است به دسته‌های «ورزشی» و «انگلیسی» تعلق داشته باشد. **سوال:** با استفاده از شبکه عصبی برای طبقه بندی، برچسب بردار ویژگی چیست؟ آیا بردار تشکیل دهنده همه کلاس ها است به طوری که مقدار 0 به کلاس های غیر مرتبط و 1 برای کلاس های مربوطه داده شود؟ بنابراین اگر لیست برچسب‌های کلاس «[ورزش، اخبار، اقدام، انگلیسی، ژاپنی]» باشد، برای سند «doc_1» برچسب «[1، 0، 0، 1، 0]» خواهد بود؟
چگونه شبکه های عصبی را در مسائل طبقه بندی چند برچسبی اعمال کنیم؟