_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
70282
تست دقیق فیشر، حجم نمونه بسیار کوچک، جدول RxC، چرا کار نمی کند
112962
در زیر چند ردیف اول از داده های من است که نیاز به تجزیه و تحلیل دارند. من باید رابطه بین تعداد سال ها و میزان بقا را درک کنم. معلم آمار من به استفاده از تابع rma.glmm() در زبان R برای انجام رگرسیون poission توصیه کرد. با این حال من متوجه شدم که glmm() فقط برای دو گروه از متغیرها استفاده می شود و برای گروه واحد استفاده نمی شود. آیا کسی می‌تواند فرمول صحیح glmm() را برای مورد من که هدف به دست آوردن همبستگی بین تعداد سال‌ها و میزان بقا است، راهنمایی کند. تعداد_سال_اندازه_نمونه مطالعه با شکست مواجه شد Mohl, 1988 2 33 28 5 Aboush, 2001 2 57 49 8 Probster , 1990 2 48 47 1 Clyde , 1988 2.5 122 109 221 13 Rashid, 2003 3 70 66 4 Isidor, 1992 4 20 20 0
استفاده از rma.glmm() برای مطالعه تک گروهی اثر تصادفی
79102
در کتابچه راهنمای کاربر Stan (نسخه 2.0.1، صفحه 157) آمده است > یک مدل سلسله مراتبی مانند مدل فوق از همان نوع > ناکارآمدی رنج خواهد برد... [برای روش مونت کارلو همیلتونی] زیرا مقادیر > «بتا»، «مو_بتا» و «سیگما_بتا» در قسمت‌های پسین بسیار همبستگی دارند. سپس توصیه می‌کنند که مدل را مجدداً پارامتر کنید تا از این مشکل جلوگیری شود. من مطمئن نیستم که شهود خوبی در مورد اینکه چرا همبستگی ها مشکل ساز هستند، دارم. من فکر می کردم که تمام هدف همیلتونی مونت کارلو این است که در چرخش ثابت است. بنابراین مهم نیست که قسمت خلفی با محورها تراز است یا اینکه همبستگی ها محور اصلی را در یک زاویه قرار می دهند. بهترین حدسی که می توانم به آن دست یابم این است که، اگر همبستگی ها به اندازه کافی افراطی شوند، پسین ممکن است بسیار طولانی و باریک شود و چیزی در مورد تفاوت مقیاس ها باعث ایجاد مشکلاتی می شود. اما مطمئن نیستم که این تفسیر معقولی باشد.
هامیلتونی مونت کارلو: چرا پارامتر مجدد مورد نیاز است؟
69168
وزن حداقل مربعات برای تصحیح ناهمسانی
85412
انحراف استاندارد فراخوان، دقت، دقت و امتیاز F؟
58085
یک آغازگر خوب در مورد نحوه برخورد افراد با خودهمبستگی خوشه ای در مدل های ترکیبی؟
93308
محاسبه اهمیت نسبی متغیرهای مستقل در رگرسیون خطی و لجستیک
112961
من در حال اندازه گیری تجمع یک پروتئین برچسب فلورسنت در یک مکان خاص در یک سلول در طول زمان هستم. در آزمایش‌های قبلی که انجام داده‌ام، یک توزیع نمایی استاندارد می‌بینم که در آن شدت فلورسانس به یک فلات می‌رسد، اما در آزمایش فعلی‌ام، توزیعی را می‌بینم که در زیر نشان داده شده است: ![شرح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/dJFX7.png) بهترین مدل برای استفاده از این داده ها چیست؟ آیا باید از دو مدل نمایی مجزا استفاده کنم، یکی برای افزایش شدت تا اوج و دیگری برای فاز فروپاشی، یا مدل آماری دیگری برای این نوع توزیع وجود دارد. با تشکر
آیا یک مدل نمایی با داده های من مطابقت دارد؟
79108
در مثالی از وب سایت من در **صفحه 107** این مشکل را در مورد تست خوب بودن تناسب برای توزیع نرمال امتحان کردم. سوال در مورد تجزیه و تحلیل محتوای چربی همبرگر است. می‌دانم که باید دو بازه **-$\infty$ < x< 26** و **$40 < x<$$\infty$** را برای یافتن احتمالات کلاس فواصل 26< x <28 و 38<x<40. اما چرا باید **فرکانس های مورد انتظار دو بازه -$\infty$ <x< 26** و **$40 <x<$$\infty$** نیز **محاسبه و برای مقدار chi Squared استفاده شود** . این دو دسته در مجموعه داده‌های داده شده **نیست** هستند. آیا لازم است فواصل خود را به گونه ای بشکنیم که از بی نهایت شروع شوند و از بی نهایت به پایان برسند زیرا این یک توزیع عادی است؟
تست خوب بودن برازش برای توزیع نرمال
21595
نمونه نماینده چیست؟
13048
می‌پرسیدم، در رابطه با انتخاب مدل برای برخی از داده‌های شمارشی که با استفاده از GLM‌های پواسون به آن نگاه می‌کنم، آیا انحراف باقیمانده بالا (اندازه‌گیری پراکندگی) تغییر به مدل شبه پواسون را قبل یا بعد از حذف متغیرهای توضیحی بی‌اهمیت تضمین می‌کند؟
تحلیل پراکندگی مدل های خطی تعمیم یافته
91624
من علاقه مندم که چند نمونه برای مشاهده رابطه بین فرکانس آلل (نسبت آلل ها) و گرادیان های محیطی مانند دما و کیفیت آب مورد نیاز است. شیب های محیطی یا پیوسته هستند یا به 5-9 سطح طبقه بندی می شوند. من می‌دانم که می‌توانیم از pwr.2p.test(h =، n =، sig.level =، توان =) برای تخمین اندازه نمونه مورد نیاز هنگام مقایسه دو نسبت (مثلاً بین کنترل و درمان) استفاده کنیم. اما من می خواهم یک رابطه خطی ببینم. من متوجه شدم که کد R زیر را می توان برای تخمین اندازه نمونه در یک مدل خطی استفاده کرد: pwr.f2.test(u =، v =، f2 =، sig.level =، توان =) که در آن u و v صورت شمار هستند و مخرج درجه آزادی ما از f2 به عنوان اندازه اثر استفاده می کنیم. کد بالا به درجه آزادی صورت و مخرج نیاز دارد. من می‌دانم که درجه آزادی کسر k - 1 است، درجات آزادی مخرج N - k است که k تعداد درمان‌ها و N کل حجم نمونه است. داده های فرکانس آللی من داده های تلفیقی است. من در مجموع 18 جمعیت دارم (یعنی N=18) که هر کدام از 40 تا 50 نفر تشکیل شده است. و فرض کنید k (=تعداد سطوح محیطی) 5 باشد. کوهن مقادیر f2 0.02، 0.15، و 0.35 را نشان‌دهنده اندازه‌های اثر کوچک، متوسط ​​و بزرگ پیشنهاد می‌کند. اندازه افکت کوچک را انتخاب کردم. من اطلاعات را در کد وارد می کنم: > pwr.f2.test(u = 4، v = 13، f2 = 0.02، sig.level = 0.05، توان = ) محاسبه توان رگرسیون چندگانه u = 4 v = 13 f2 = 0.02 sig.level = 0.05 توان = 0.06317734 یک توان بسیار بسیار کم است. اگر از تعداد نمونه‌های منفرد استفاده کنم (N=~1000: این تعداد نمونه‌هایی است که استفاده کردم. یعنی ادغام نشده است.)، توان >0.95 را دریافت می‌کنم. شاید این روش درستی برای تخمین حجم نمونه نباشد، درست است؟ لطفا نظر خود را به من اطلاع دهید. آیا راه دیگری برای تخمین حجم نمونه مورد نیاز در هنگام استفاده از مدل خطی وجود دارد؟
تجزیه و تحلیل توان در یک مدل خطی - تلفیقی در مقابل نمونه های فردی
58089
من یک دانشجوی پژوهشی هستم و در نقطه ای از کارم گیر کردم و از شما کمک می خواهم. من سه متغیر مختلف برای هر گره شبکه خود دارم (انرژی، ترافیک بار و کیفیت لینک). این سه متغیر واحدهای متفاوتی دارند. من می خواهم آنها را به صورت خطی اضافه کنم تا یک درجه یا رتبه در محدوده (0،1) بدست بیاورم و آن را به یک گره اختصاص دهم. بنابراین کاری که من انجام دادم این بود که این متغیرها را در محدوده (0-1) با تقسیم آنها با حداکثر مقادیرشان عادی کردم و سپس آنها را با هم جمع کردم. میخوام بدونم درسته؟ انرژی = انرژی(i)/انرژی(حداکثر) [0،1] بار ترافیک = بار ترافیکی(i)/بار ترافیک(حداکثر) [0,1] کیفیت پیوند = کیفیت پیوند (i)/کیفیت پیوند(حداکثر) [ 0,1] درجه = انرژی + بار ترافیک + کیفیت پیوند
62075
من آزمایشی را انجام دادم و سه شرط را با 27 شرکت‌کننده در یک طرح اندازه‌گیری مکرر آزمایش کردم. از آنجایی که داده‌ها به طور معمول توزیع نمی‌شوند، از آزمون فریدمن استفاده کردم که مقدار p را 0.1 گزارش می‌کرد، که با توجه به مدت زمانی که در آزمایشگاه سپری کردم، ناامیدکننده‌ای جزئی بود. از آنجایی که ناامید بودم اما کنجکاو بودم، همچنان تست رتبه امضا شده Wilcoxon را به عنوان تجزیه و تحلیل پس از آن برای سه جفت انجام دادم. نکته جالب این است که این تست ها مقادیر p را به ترتیب 0.002، 0.004 و 0.25 گزارش کردند. حتی پس از یک - محافظه کارانه - اصلاح بونفرونی، دو عدد از p هنوز قابل توجه هستند. اکنون، علاوه بر مسائل اخلاقی/علمی پیرامون کاوش در این داده ها: چرا مقادیر p آزمون فریدمن و ویلکاکسون تا این حد از هم فاصله دارند؟ و: چگونه این یافته ها را تفسیر کنم؟ به نظر می رسد که آنها با یکدیگر در تضاد هستند.
چرا فریدمن و ویلکاکسون برای داده های من با یکدیگر تناقض دارند؟
20248
من باید تعداد زیادی از داده های پاسخ کوتاه و پاسخ رایگان را از یک مطالعه با طراحی بین گروهی طبقه بندی کنم. به منظور کاهش هزینه‌های دستی، به کدنویسی دستی یک مجموعه نمونه کوچک فکر می‌کردم، بقیه پاسخ‌ها را از طریق یک طبقه‌بندی کننده SVM اجرا می‌کردم، و سپس یک نمونه تصادفی از طبقه‌بندی‌کننده SVM را کدگذاری می‌کردم تا معیارهای آماری کلاسیک را بدست آوریم. مجموعه داده های رمزگذاری شده خودکار عنوان اصلی و بیش از حد پرمخاطب این سوال این بود: «آیا استفاده از نمونه‌گیری تصادفی برای خروجی از طبقه‌بندی‌کننده یادگیری ماشین، روشی آماری معتبر برای محاسبه فواصل اطمینان است؟» من قبلاً با یکی از دوستانم که با الگوریتم‌های یادگیری ماشینی و مدل‌سازی اتمسفری کار می‌کرد، یک بررسی عقلانی مفهومی انجام داده‌ام، اما می‌خواستم قبل از اینکه جریان کارم را حول این موضوع پایه‌گذاری کنم، آن را از روی تعدادی آمارگیر واقعی اجرا کنم. با تشکر
نمونه برداری از خروجی یادگیری ماشین برای محاسبه فواصل اطمینان
62071
هدف اصلی متدولوژی گروه جمع‌آوری یا خلاصه کردن تخمین‌ها از چندین مدل است. در برخی موارد، این شامل تخمین‌های مختلف بوت استرپ یا تخمین‌های مونت کارلو است، اما برخی دیگر شامل ترکیب تخمین‌ها از مدل‌های کاملاً متفاوت است. وقتی «روش‌های گروهی» را به‌ویژه در ESL جستجو می‌کنید، به تقویت، بسته‌بندی، ضربه زدن، جنگل‌های تصادفی و الگوریتم EM اشاره می‌کنند. سوال این است: آیا این همه آنهاست؟ یا به طور کلی تر، آیا همه متدهای به اصطلاح گروهی به نوعی در این کلاس ها قرار می گیرند؟ یا اصطلاح کلی تری وجود دارد که من آن را گم کرده ام؟ لیست تا کنون: * تقویت * بسته بندی * ضربه زدن * جنگل های تصادفی * الگوریتم EM آیا می توانید به این اضافه کنید؟
آیا یک کلاس کاملاً تعریف شده از روش های گروهی وجود دارد؟
62070
فرض کنید شما یک متغیر پاسخ و یک متغیر مستقل دارید. داده های شما در چندین سطح از یک متغیر مستقل طبقه بندی می شود. یک رویکرد در تجزیه و تحلیل این داده ها استفاده از رگرسیون خطی برای تخمین شیب در هر سطح از متغیر مستقل طبقه بندی است. این رویکردی است که من در اینجا استفاده کرده‌ام، با استفاده از مجموعه داده «sleepstudy» از بسته «R» «lme4» (من بتای هر مدل را در «lmBetas» ذخیره کرده‌ام): library(lme4); کتابخانه (plyr); library(ggplot2) lmBetas <- daply(sleepstudy، .(موضوع)، تابع(x) coef(lm(واکنش ~ روز، داده=x))[روزها]) رویکرد دیگر در تجزیه و تحلیل این داده ها استفاده از یک مدل اثرات مختلط برای تخمین شیب برای هر سطح از متغیر مستقل طبقه‌بندی که در این مورد «موضوع» است. این رویکردی است که من در اینجا اتخاذ کرده ام (من نسخه های بتا را از مدل در `lmerBetas` ذخیره کرده ام): lmerBetas <- coef(lmer(Reaction ~ Days + (روزها | موضوع)، data=sleepstudy))$Subject[ روزها] من آموخته ام که یک مدل اثرات ترکیبی منفرد، همانطور که از طریق تابع lmer در R پیاده سازی شده است، در تخمین دقیق تر است. شیب ها نسبت به یک مدل رگرسیون خطی چندگانه به داده های چند سطحی اعمال می شود. این را می توان با این نمودار بتای مدل های بالا نشان داد. بتا <- data.frame(method.betas = c(lmerBetas، lmBetas)) betas$method <- c(rep(lmer، 18)، rep(lm، 18)) ggplot(betas، aes(روش betas)) + geom_histogram() + facet_grid (روش ~ .) هیستوگرام بالا بتاها را نشان می دهد با استفاده از رگرسیون خطی تخمین زده می شود، و هیستوگرام پایین بتای تخمین زده شده با استفاده از اثرات مختلط را نشان می دهد. می‌توانید مشاهده کنید که بتاهای تخمین زده‌شده با استفاده از رگرسیون خطی نسبت به آنهایی که از طریق مدل اثرات مختلط تخمین زده می‌شوند، گسترده‌تر هستند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YtB22.jpg) بنابراین در نهایت، سؤالات من: 1. آیا دقت بالاتر یک مدل اثرات مختلط در تخمین بتا با این واقعیت مرتبط است که رهگیری ها را مدل می کند. و شیب برای هر سطح از متغیر مستقل طبقه بندی تحت یک توزیع احتمال مشترک؟ 2. به طور کلی، چرا یک مدل اثرات مختلط در تخمین بتای خود دقیق تر است؟
اثرات مختلط در مقابل رگرسیون خطی: دقت تخمین بتا
2179
چگونه با استفاده از SVM اهمیت متغیر (ویژگی) را بدست آوریم؟
اهمیت متغیر از SVM
20241
این تا حدودی با این سوال مرتبط است. من دو ماتریس رتبه کامل $A_1، A_2$ هر کدام از ابعاد $p \times p$ و یک بردار p $y$ دارم. این ماتریس ها به این معنا که ماتریس $A_2$ دارای ردیف $p-1$ مشترک با ماتریس $A_1$ است، ارتباط نزدیکی دارند. اکنون، من به بردار $\beta_2$ علاقه مند هستم، جایی که $\beta_2=(A_2'A_2)^{-1}(A_2'y)$. سوال من: آیا راهی سریع برای دریافت $\beta_2|(\beta_1,A_1,A_2,y)$ در R/matlab وجود دارد؟
محاسبه سریع / تخمین یک سیستم خطی با رتبه کامل
94530
من روی نمونه‌هایی کار می‌کنم که سعی می‌کنم آن‌ها را در توزیع‌های log-normal قرار دهم. در برخی موارد، آمار آزمون کولموگروف-اسمیرنوف چیزی شبیه به D = 0.0056 با مقدار p مربوط به 0 است. بنابراین، نمونه من انحرافات بسیار کمی را از توزیع تئوری log-normal نشان می دهد، اما با نگاه کردن به p-value، من آن را رد می کنم. فرضیه صفر که نمونه من از توزیع مرجع (log-normal) گرفته شده است. آزمون KS از طریق کد R انجام می‌شود: sample.z <- std(sample) # داده‌ها را استاندارد می‌کنم تا امکان مقایسه LN <- rlnorm(1e5, 0, 1) # تئوری lognormal با میانگین = 0 و سیگما = 1 ks فراهم شود. test(sample.z, LN) با نگاهی به طرح QQ من انحرافات قابل توجهی را در انتهای توزیع های خود مشاهده می کنم. بنابراین، من به این فکر می‌کردم که شاید این نتایج را به دلیل دنباله‌های پارتو در توزیع‌های تقریباً log-normal خود دریافت می‌کنم. در واقع، power.law.fit (نمونه) library(igraph) این فرضیه را با شناسایی یک دم پارتو پس از یک کران پایین معین (xmin) با یک آلفای خاص تایید می کند. اکنون، می‌خواهم تناسب دم پارتو خود را در طرح QQ نشان دهم. چگونه می توانم این کار را انجام دهم؟ آیا می‌توانید روش‌های دیگری برای تجسم داده‌ها برای تاکید بر حضور دنباله‌های پارتو در توزیع‌های log-normal پیشنهاد کنید؟ ![PDFs](http://i.stack.imgur.com/56yhc.jpg) ![CDFs](http://i.stack.imgur.com/BKGnm.jpg) ![خروجی fitdist](http: //i.stack.imgur.com/7PgM3.jpg)
دنباله های پارتو را در QQ-plot برای توزیع های log-normal رسم کنید
70289
چه آزمایش آماری هنگام مقایسه ضربان قلب از دستگاه های مختلف مناسب است؟
62076
دانش ریاضی من بسیار ضعیف است اما به دنبال پیشرفت در پروژه جدیدی هستم که به آن علاقه دارم. من داده هایی از هزاران مبارزه / مبارز MMA از جمله وزن، قد، رسیدن و غیره دارم و سعی می کنم محاسبه کنم. برای پیش بینی دعواهای آینده اکنون می دانم که این احتمالاً یک کار بزرگ است، اما به جای اینکه انتظار نتایج دقیق را داشته باشم، به آن بیشتر به عنوان تمرینی برای چگونگی انجام آن فکر می کنم. چگونه می توانم در مورد تجزیه و تحلیل داده ها مانند این اقدام کنم؟ چه چیزی را باید مطالعه کنم و از چه روش هایی برای یافتن الگوها در داده ها و غیره استفاده کنم؟ هر منبعی برای شروع من بسیار قدردانی خواهد شد. من می توانم از ریاضیات مدرسه خیلی کم به یاد بیاورم، بنابراین هر چه ساده تر، بهتر.
چگونه می توانم آمار و داده های MMA را برای پیش بینی های آینده تجزیه و تحلیل کنم؟
45820
حداقل حجم نمونه برای PCA زمانی که هدف اصلی برآورد اولین یا دومین جزء اصلی است؟
20243
من امسال دکترای خود را در رشته آمار شروع کرده ام و به دنبال بهترین روش ها، توصیه ها و (فراتصالحات) شما در مورد چگونگی رشد و تبدیل شدن به یک محقق دانشگاهی خوب در زمینه های آمار/ML هستم. از افکار عمومی و پیوندها استقبال می شود، اما برای شروع به کار، در اینجا مجموعه ای از سؤالات گردآوری شده از مقاله عالی مایکل استیل توصیه هایی برای دانشجویان فارغ التحصیل در آمار (اگر سوالات مهمی را از دست داده ام، یا اگر برخی از سوالات را فراموش کرده ام بی معنی هستند - لطفاً در مورد آن نیز نظر دهید): * مقالات در مقابل پایان نامه - در طول دوره دکتری خود چقدر باید روی انتشار مقالات تمرکز کرد؟ یک شخص باید به طور واقع بینانه آرزوی نوشتن چند مقاله داشته باشد؟ * برای انتشار در چه مجلاتی باید تلاش کرد؟ (سؤالات مربوطه لینک 1، پیوند 2) * چند ساعت در روز باید برای تحقیق (توسعه/برخورد با سؤال تحقیق خود) و یادگیری (خواندن مقالات جدید / شرکت در دوره‌ها) صرف شود * برای یافتن موضوع داغ به کجا مراجعه کنید. ، یا حتی بهتر از آن - به زودی موضوع داغ؟ (لینک 1، پیوند 2) * هنگامی که یک موضوع داغ پیدا شد، چگونه باید یادگیری اصول بسیاری از جنبه های مسئله را با تمرکز بر یک جنبه متعادل کرد؟ بدیهی است که این سؤالات بسیار کلی هستند و زوایای زیادی برای تفکر/پاسخ به آنها وجود دارد - امیدوارم دیدگاه شما را در مورد چگونگی تفکر در مورد این مسائل کلی بخوانم. پیشاپیش متشکرم
توصیه هایی برای دانشجویان تحصیلات تکمیلی در زمینه آمار
90305
تعیین کنید که آیا دو نسبت از یک نمونه متفاوت هستند یا خیر
45822
فاکتورسازی ماتریس در مقابل پیاده‌روی تصادفی با راه‌اندازی مجدد برای سیستم‌های توصیه‌گر
45840
نمایش های مختلف آزمون فرضیه یک طرفه / یک طرفه
37489
آیا از ماتریس همبستگی بین متغیرهای پنهان یا داده های خام به عنوان ورودی SEM استفاده کنیم؟
86291
من تعداد زیادی پروژه دارم (حدود 300). هر پروژه شامل مجموعه ای از موارد آزمایشی است. هر مورد آزمایشی می تواند منجر به موفقیت یا شکست شود. مجموعه داده به این شکل است. اصلی: پروژه، گذشت، کل، زمان، امتیاز p1، 121، 210، 13، (121/210) p2، 100، 120، 14، (100/210) p3، 100، 120، 11، (100/120) p4, 110, 310, 10, (110/310) ....p300.. من نمره پروژه را به عنوان قبولی/کل محاسبه می کنم اکنون روشی برای انتخاب موارد آزمایشی دارم که می تواند زمان صرف شده برای آزمایش را کاهش دهد. مجموعه داده از آن پس از انتخاب به این شکل خواهد بود. انتخاب شده: پروژه، گذشت، کل، زمان p1, 61, 110, 13 p2, 50, 60, 14 p3, 40, 50, 11 p4, 110, 210, 10 ....p300.. من یک مدل برای ارتباط دارم امتیاز اصلی به امتیاز انتخاب شده: `original.score = \beta_0 + selected.score * \beta_1` مقدار «R^2» خاصی به من می دهد. حالا، می‌خواهم این را با حالتی که اگر 50 درصد از تست‌ها را به‌طور تصادفی انتخاب می‌کردم، مقایسه کنم. اگر 50% موارد تست را به طور تصادفی انتخاب کرده باشم و از آن در مدل استفاده کرده باشم، چگونه R^2 را پیش بینی کنم؟ چگونه می توانم این کار را در R انجام دهم؟
چگونه می توان تناسب مدل یک درصد خاص از نمونه را پیش بینی کرد؟
20245
من در حال آزمایش فرضیه‌ای هستم که بیان می‌کند شرکت‌کنندگان پس از مداخله احتمال بیشتری دارند که خود را در معرض خطر بیماری تصور کنند. از دو پرسشنامه استفاده خواهد شد. یکی شامل 5 سوال است و حساسیت درک شده را می سنجد و دیگری شامل 7 سوال است و شدت بیماری درک شده را می سنجد. من فکر می‌کنم بهترین راه برای تجزیه و تحلیل این دو پرسشنامه که در مقیاس لیکرت 5 درجه‌ای رتبه‌بندی شده‌اند، اگرچه نامشخص است، استفاده از آزمون t$-$ است، اما من مطمئن نیستم که چگونه یا بهترین راه آن را انجام دهم. من به دنبال پیشنهادات هستم.
استفاده از آزمون t برای مقایسه پاسخ های لیکرت قبل و بعد از مداخله
83103
من در R کار می‌کردم و بالاخره کدهایی در مورد ضرایب همبستگی درون‌کلاسی کار می‌کردم. در خروجی چیزی به نام موضوع دریافت می کنم. من فکر می کردم که این مربوط به تعداد ستون های داده است، اما برای یک فایل با 20 ستون، بسته به مجموعه داده، 3 یا 4 موضوع دریافت می کنم. من دانش بسیار کمی از R دارم و در بحث آماری عالی نیستم، بنابراین آیا کسی می تواند به زبان ساده توضیح دهد که وقتی یک موضوع در خروجی R داده می شود با انجام یک همبستگی درون کلاسی تک نمره چیست؟ با تشکر
90304
من برخی از فیتینگ های سری زمانی را با کمک بسته های پیش بینی و urca انجام می دهم. من یک سوال در مورد مطابقت بین نتایج حاصل از آزمون های آماری مانند KPSS، ADF یا ERS و نتایج حاصل از روش های انتخاب خودکار مانند auto.arima از بسته پیش بینی دارم. فرض کنید در شرایطی هستیم که نتیجه آزمون KPSS این است که سری نیازی به تمایز ندارد. سپس تست ADF را اعمال می‌کنم که نشان می‌دهد سری تا یک روند (at+b) ثابت است. در آن شرایط، می‌توانم تابع auto.arima را مجبور کنم که فقط مدل‌های ARIMA را در نظر بگیرد که دارای روند خطی هستند، اما می‌توانم همه مدل‌ها (از جمله روند یا نه) را بررسی کنم و به auto.arima اجازه دهم بهترین را انتخاب کند. و مواردی وجود دارد که نتیجه با نتیجه آزمایش در تضاد است، به عنوان مثال. مدل انتخاب شده شامل یک روند نیست در حالی که آزمون توصیه می کند که یک روند را شامل شود. بهترین عمل در چنین موردی چیست؟ آیا نتیجه آزمایش باید در انتخاب مدل ARIMA رایج باشد یا بهتر است همه مدل‌های ممکن را در نظر بگیریم و بهترین را انتخاب کنیم؟ با تشکر
20247
من در حال نوشتن مجموعه‌ای از تست واحد برای تابعی هستم که اعداد تصادفی را از یک توزیع دلخواه، که به‌عنوان PDF تعریف شده است، می‌کشد (نمونه‌ای از چنین تابعی را می‌توانید در اینجا ببینید). من در مورد روش مناسب برای به دست آوردن اطمینان خوب مبنی بر اینکه خروجی تابع واقعاً از توزیع مشخص شده پیروی می کند گیج شده ام. من می دانم که اثبات برابری بسیار سخت تر از رد آن است، اما تقریب خوب انجام خواهد داد. پاسخی که در این سایت وجود دارد پیشنهاد می کند از آزمون کای دو پیرسون برای اهداف مشابه در مورد متغیر گسسته استفاده شود. در اینجا، من با متغیر پیوسته سر و کار دارم، که PDF برای آن با استفاده از بردارهای زوجی $X$ و $P$ اندازه های نهایی تعریف شده است.
آزمایش اینکه یک نمونه با توزیع دلخواه مطابقت دارد
29791
نتفلیکس و گوگل در میان دیگران از استفاده مشتری (تعداد ویدیوهای پخش شده یا جستجوهای منحصر به فرد انجام شده) به عنوان پروکسی برای ارزش یا برای تعیین اینکه کدام نسخه از یک آزمایش بهترین است استفاده می کنند. من کنجکاو هستم که آنها چگونه این را اندازه می گیرند، اما من در آمار عالی نیستم. اگر آنها پایگاه مشتریان خود را به گروه های زوج تقسیم کنند، استفاده در داخل گروه همچنان از توزیع تبعیت می کند. بنابراین اگر یک گروه بیل گیتس را در خود داشته باشد (یا شخصی که استفاده از آن بر توزیع غالب باشد، فقط مقایسه میانگین استفاده در هر گروه ممکن است گمراه کننده باشد). **از چه پروکسی هایی می توانم برای کمک به اندازه گیری مصرف این بخش از بخش دیگر استفاده کنم استفاده کنم؟** توزیعی که می خواهم اندازه گیری کنم به احتمال زیاد دارای اعداد استفاده شدیدتر از Netflix یا Google است که اعداد استفاده آنها عبارتند از محدود به تعداد ساعت در روز. آیا طرح Q-Q مناسب است؟
چگونه داده‌های استفاده را در گروه‌ها/بخش‌ها اندازه‌گیری کنیم؟
6047
بدیهی است که رویدادهای A و B مستقل هستند اگر Pr$(A\cap B)$ = Pr$(A)$Pr$(B)$. بیایید یک کمیت مرتبط Q را تعریف کنیم: $Q\equiv\frac{\mathrm{Pr}(A\cap B)}{\mathrm{Pr}(A)\mathrm{Pr}(B)}$ بنابراین A و B هستند مستقل اگر Q = 1 باشد (با فرض اینکه مخرج غیر صفر باشد). آیا Q واقعاً نامی دارد؟ احساس می‌کنم به مفهومی ابتدایی اشاره دارد که در حال حاضر از من فرار می‌کند و حتی اگر این را بپرسم احساس احمقانه‌ای خواهم داشت.
آیا این کمیت مربوط به استقلال اسم دارد؟
90308
چه آزمون های آماری را می توان در توزیع توزیع ها استفاده کرد؟
76424
آمار ترتیب: احتمال اینکه یک متغیر تصادفی معمولی در هنگام سفارش، k-امین از n باشد
81391
من یک متغیر دارم که با استفاده از مقیاس لیکرت 13 گزینه ای 4 نقطه ای به استثنای یک مورد (بله $=1$، خیر $=2)$ اندازه گیری می شود. چگونه می توانم نمره کل این متغیر را محاسبه کنم؟
محاسبه نمره کل برای مقیاسی شامل موارد چندگانه و دوگانه
40970
من روی یک الگوریتم برای یک ماژول نرم افزار کار می کنم اما تصمیم گرفتم که از فرمول ریاضی قطع شده ام بنابراین به جای برنامه نویسان اینجا پست کردم. هر سناریو دارای تیمی از افراد خواهد بود که با هم رقابت می کنند. هر تیم را می توان به عنوان مجموعه ای منحصر به فرد از بازیکنان با اندازه متغیر تصادفی در نظر گرفت. حداقل اندازه تیم 2 است. > به عنوان مثال. تیم 2 - 9 بازیکن هر بازیکن را می توان به عنوان یک تصمیم باینری در نظر گرفت... برای سادگی، اجازه می دهیم بگوییم که آنها به طور تصادفی کلاهی را برای پوشیدن بدون نگاه کردن، یک کلاه سیاه یا یک کلاه سفید برداشته اند. اگر هر فرد در تیم کلاه سیاه داشته باشد، امتیاز به آنها تعلق می گیرد. اگر یک نفر کلاه سفید بر سر داشته باشد، هیچ امتیازی به او تعلق نمی گیرد. موارد بالا برای ارائه پیشینه و زمینه به مسئله واقعی است زیرا این یک تصمیم باینری آسان در الگوریتم من است. این اتفاقی است با فرمول تا کنون. _نکته مهمی که باید به آن توجه کرد این است که یک تیم می تواند به صورت تصادفی تعداد بازیکنان داشته باشد و جوایز امتیازی همه یا هیچ هستند._ من سعی می کنم فرمولی را تعیین کنم که _به طور عادلانه چند امتیاز_ را تعیین کنم. واضح است که از نظر آماری احتمال بیشتری وجود دارد که تیم های کوچک شانس بهتری داشته باشند، بنابراین امتیاز باید کوچکتر باشد. تیم‌های بزرگ‌تر ریسک‌پذیرتر هستند، بنابراین باید پاداش‌های بسیار بیشتری دریافت کنند. نقطه شروع این است که فرض کنیم کوچکترین تیم ممکن (2 بازیکن) باید 10 امتیاز دریافت کند. _بگذارید t = 2، p = 10_. من سعی می کنم عادلانه ترین فرمول آماری و نسبت ثابت مناسبی را که می تواند در این محاسبه برای تعیین عادلانه ترین پاداش امتیاز اعمال شود، تعیین کنم. **ویرایش:** در پاسخ به یک درخواست برای اطلاعات بیشتر: 1. به معنای دقیق دادن امتیاز عادلانه چیست؟ من از این مدت کوتاه عذرخواهی می کنم، اما منصفانه در مورد من چنین چیزی اگر من بودم برای داشتن حجم نمونه کافی از تیم ها، که به طور متوسط ​​هر تیمی بدون در نظر گرفتن اندازه، از نظر آماری امتیاز مشابهی خواهد داشت. امیدوارم این واضح باشد: (به عنوان مثال تیم 1 4 بازیکن - 53 امتیاز در طول یک سال، تیم 2 9 بازیکن، 51 امتیاز در همان سال) به اعضای تیم ممکن است هر تعداد رویدادی وجود داشته باشد که تعدادی تیم در آن شرکت کنند. بسیاری از تیم ها امتیازی دریافت نمی کنند. برخی امتیاز خواهند گرفت. اگر امتیاز اعطا شود بستگی به معیارهای تصادفی بازیکن ذکر شده در بالا دارد. مقدار امتیازهای دریافت شده باید به احتمال آماری بستگی داشته باشد که هر عضو تیم یک سکه را برگرداند و سر به دست آورد. 3. «آیا برای تعیین اینکه کدام تیم در مسابقه «برنده» می شود استفاده می شود؟» واقعاً یک مسابقه نیست و آنهایی که بیشترین و کمترین امتیاز را دارند پرت هستند و برای من چندان جالب نیستند. 4. «آیا اعضای فردی می توانند در بیش از یک تیم ظاهر شوند؟» خیر. به هر حال، تیم ها حداقل در این سناریو جالب تر از بازیکنان هستند. تیم ها تعداد بازیکنان متغیری دارند و برای هر رویداد اساساً همه آنها یک سکه می زنند به این امید که همه سرها را بدست آورند. اگر جمعیت رویدادها هزاران نفر باشد، باید بتوانم حجم نمونه کافی را برای تعیین اینکه تیم هایی با تعداد بازیکنان کمتری نسبت به تیم هایی که تعداد بازیکنان بیشتری دارند مزیت آماری در کسب امتیاز ندارند به دست بیاورم. منظور من از عدالت این است.
ثابت نسبت و فرمول یک امتیاز عادلانه را در الگوریتم من تعیین کنید
29796
این مقادیر عبارتند از: 18.2 17.6 ------------------------------------------------ ------------------------------------------------ -------- 18.9 18.6 ------------------------------------------------ ------------------------------------------------ -------- 20 19.7 19.8 19.6 ------------------------------------------------ ------------------------------------------------ ---------- 21.4 20.6 21 ------------------------------------------------ ------------------------------------------------ -------- 21.9 22.1 22.2 22.2 21.6 ------------------------------------------------ ------------------------------------------------ -------- 23.1 22.6 23.2 23 22.9 23.2 23.2 23 22.5 22.5 ------------------------------------------------ ------------------------------------------------ -------- 23.8 24.1 23.8 23.6 24.3 23.7 24 24.2 24.4 23.8 23.5 ------------------------------------------------ ------------------------------------------------ -------- 24.7 24.9 25 25.4 25.1 25.3 25.3 25.2 25.2 24.7 24.6 24.5 24.5 ------------------------------------------------ ------------------------------------------------ -------- 25.6 26 25.6 25.6 25.6 25.7 25.6 26.3 26.3 26.2 26 25.9 26.2 26 ------------------------------------------------ ------------------------------------------------ -------- 27 27.2 27 27.2 26.7 27 26.6 27.3 26.8 26.6 26.9 27 26.5 ------------------------------------------------ ------------------------------------------------ -------- 28.2 27.7 28.1 27.9 27.6 27.7 28.1 28.2 27.5 ------------------------------------------------ ------------------------------------------------ -------- 28.6 29.1 28.7 29.1 ------------------------------------------------ ------------------------------------------------ ---------- 30.3 29.6 29.7 29.5 ------------------------------------------------ ------------------------------------------------ -------- 30.9 31 31 30.5 ------------------------------------------------ ------------------------------------------------ --------- 32.3 31.6 ------------------------------------------------ ------------------------------------------------ --------- این گروه ها هستند: 17.5 - 18.5 - 18.5 - 19.5 - 19.5 - 20.5 - 20.5 - 21.5 - 21.5 - 22.5 - 22.5 - 23.5 - 23.5 - 24.5 - 24.5 - 25.2 - 25.2 - 25.5 - 25.5 - 27.5 - 27.5 - 28.5 - 28.5 - 29.5 - 29.5 - 30.5 - 30.5 - 31.5 - 31.5 - 32.5 $$ \bar{x}= \frac{1}{100} \sum_{i=1}^_i=1}^_i=1 \frac{1}{100} \sum_{g=1}^{15} n_g \، y_g = 25.37 $$$$ \hat{\sigma} = \sqrt{\frac{1}{99} \sum_{g=1}^{15} n_g (y_g - \bar{x})^2 } = 3.1031 $$ اکنون اتحادیه اروپا گفته است که استاندارد این است: الف) حداقل 25 مگاپاسکال ب) حداقل 24 مگاپاسکال. تصمیم بگیرید که آیا بتن مطابق با استاندارد با قابلیت اطمینان 99٪ است. الف) فرضیه H1 این است که میانگین حداقل 25 مگاپاسکال است. ب) فرضیه H2 این است که میانگین حداقل 24 مگاپاسکال است. > نتایج عبارتند از > a) ما نمی توانیم H1 را انکار کنیم. ما نمی دانیم که آیا بتن با استاندارد > 25 مگاپاسکال مطابقت دارد یا خیر. > ب) استاندارد 24 مگاپاسکال با قابلیت اطمینان 99٪ برآورده شده است.] من می دانم چگونه نمره t را محاسبه کنم: این تفاوت بین میانگین اندازه گیری شده (25.37) و میانگین درخواستی (25) تقسیم بر انحراف استاندارد (3.103) است. ) و کل کسر در $\sqrt{n}$ (n=100) ضرب می‌شود... من بدست می‌آورم: a) t = 1.192 ب) t = 4.41 در جدول توزیع t Student برای df=99 و $\alpha=.01$، t* = 2.365 a) 1.192 < 2.365 پیدا کردم، بنابراین نمی توانم تصمیم بگیرم که آیا H1 باید رد شود یا نه . ب) 4.41 > 2.365، بنابراین می توانم بگویم که H2 قابل تعریف نیست و استاندارد 24 مگاپاسکال با قابلیت اطمینان 99٪ برآورده شده است. بنابراین، سوال من این است: چه زمانی یک فرضیه را رد کنم و چه زمانی می توانم مطمئن شوم که استاندارد رعایت شده است؟
آزمون فرضیه های آماری، آزمون t یک طرفه
112910
من در آمار خوب نیستم بنابراین به کمک شما شدیدا نیاز دارم. بنابراین من این مجموعه داده از توزیع ها را دارم و می خواهم بدانم آیا می توانم از آزمون KS بر روی آن استفاده کنم. این ایده می گوید که توزیع ویژگی 1 در مورد 1 با توزیع 2 آن در مورد 2 متفاوت است. برای مثال، اجازه دهید ویژگی اندازه را در دو حالت در نظر بگیریم: case1, case2 توزیع 1 (در مورد 1) به نظر می رسد. این: [0,0,0,0,0,0,132,33,1200,0,0,98,208,56,0,0,0,....] توزیع 2 (در مورد 2) به این صورت است: [52215,2132,933,11200,0,0,13245,4208,309,0,34000,0 و...] و به همین ترتیب، هر عدد نشان دهنده اندازه کل است. در یک ثانیه و فرض صفر این است که **توزیع 1 و توزیع 2 از توزیع یکسان پیروی می کنند** بنابراین نکته رد آن با داشتن یک کمتر از 1% به عنوان مقدار p (این چیزی است که من فهمیدم لطفا اگر اشتباه می کنم تصحیح کنید) من خواندم که KS-test روی توزیع های پیوسته اعمال می شود، آیا آن چیزی که من دارم پیوسته است؟ چگونه بفهمیم که توزیع شما پیوسته است؟ اگر من نمی توانم KS را اعمال کنم، چه چیز دیگری می توانم اعمال کنم؟ با ذکر این نکته که من با پایتون کار می کنم..
92787
نسبت های ترسیمی از x:1 تا 1:x
67647
من سعی می کنم یک مدل بیز glm را با خانواده گاوسی معکوس و لینک = هویت مطابقت دهم. با این حال، پیام زیر را دریافت می‌کنم: خطا در if (iter > 1 & abs(state$dev - devold)/(0.1 + abs(state$dev)) <: مقدار گمشده جایی که TRUE/FALSE مورد نیاز است کد من به این صورت است به شرح زیر است: age<-bayesglm(formula=y~factor(x1)+factor(x2)+factor(x3)+factor(x4)+fact‌​یا(x5), family=inverse.gaussian(link=هویت ),prior.scale=Inf,prior.df=Inf,‌​da‌ta=data) آیا کسی می‌تواند کمک کند؟
خطا در نحو برای BayesGLM در R با خانواده گاوسی
23536
ابتدا فرض می کنیم که می خواهیم از توزیع دیریکله (1،1،1،1) تولید کنیم. آیا روش زیر صحیح است؟: * از یک Uniform(0,1) سه تغییر ایجاد کنید آنها را $x_1$، $x_2$، $x_3$ صدا بزنید. * سپس، اینها را طوری ترتیب دهید که $0 \leq x_{(1)} \leq x_{(2)} \leq x_{(3)} \leq 1$ * سپس، تفاوت‌ها را به عنوان متغیر دیریکله ما برگردانید: $(x_ {(1)}، x_{(2)}-x_{(1)}، x_{(3)}-x_{(2)}، 1-x_{(3)})$ آیا این درست است؟ احساس می‌کنم درست است، اما مطمئن نیستم و به نظر نمی‌رسد که این روش با هیچ یک از روش‌هایی که در ویکی‌پدیا توضیح داده شده یا هر جستجوی دیگری که انجام دادم یکسان نیست. شاید کند باشد یا مشکلات دیگری داشته باشد، اما کنجکاو هستم که آیا درست است. با فرض اینکه این درست باشد، آیا می توان آن را به دیریکله های غیر یکنواخت، مانند دیریکله(a,b,c,d) تعمیم داد؟ **نکته اضافی**: من _نه_ به سادگی میپرسم چگونه یک دیریکله تولید کنم. در حال حاضر اطلاعات زیادی در مورد آن وجود دارد. من فقط کنجکاو هستم که ببینم آیا روش برای یونیفرم ها قابل تمدید است یا خیر. آیا روش کلی تری وجود دارد که شامل ترسیم از یک توزیع، سپس ترتیب دادن آن اعداد و سپس استفاده از شکاف ها باشد؟
تولید از توزیع دیریکله با تفاوت در یک توالی یکنواخت مرتب شده
44418
در حالت ایده‌آل، من یک آرایه یک بعدی از داده‌ها را وارد می‌کنم و تخمین‌های سه پارامتر را به‌دست می‌آورم. من با هیچ نرم افزار آماری آشنایی چندانی ندارم اما متلب دارم (و همه نرم افزارهای رایگان موجود، فکر می کنم).
73758
او با خواندن Belsey (تشخیص شرطی 1991) در صفحه 35 به روش جدیدی برای استفاده از تخت های ماتروئید وابستگی ها در X برای شناسایی چند خطی بودن اشاره می کند. http://www.sciencedirect.com/science/article/pii/016794739090108T او این تکنیک را بسیار امیدوارکننده توصیف می‌کند، اما در زمان انتشار برای او جدیدتر از آن است که بتواند آن را به طور معناداری نقد کند. او خاطرنشان می کند که این یک جهت کاملاً جدید برای تحقیق در شناسایی چند خطی است. با این حال به نظر می رسد ادبیات بعدی کمی وجود دارد. تنها چیزی که من پیدا کردم برنامه مورد استفاده در اینجا بود: http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0034410 فقط تعجب کردم که آیا کسی تجربه استفاده از این تکنیک و مزایا و معایب آن را دارد آیا نسبت به سایر معیارهای چندخطی مانند عدد شرط هستند؟ همچنین اگر این تکنیک معتبر است، چرا به ندرت در ادبیات به آن اشاره شده است؟
23531
من داده های صدکی (P10، P25، P75 و P90) برای یک متغیر دارم. من همچنین میانگین و میانه را برای هر گروه دارم: میانگین گروهی P10 P25 ​​P75 P90 1 30100 26200 19900 22500 32800 44200 2 38700 36600 28000 **H 31000 54. بر اساس این متغیرها یک تابع چگالی احتمال ایجاد کنید. 2. از آن تابع برای دادن % در فواصل گام های خاص استفاده کنید؟ (یعنی در پاسخ به این سوال: چند نفر از 100 در بازه 30000-31000 برای گروه 2 هستند؟) با تشکر.
تابع چگالی از صدک (P10، P25، P75، P90، میانگین و میانه)؟
95683
مدل های افتراقی در مقابل مولد
109863
تفاوت بین تخمین و یادگیری
1164
هنگام حل مشکلات تجاری با استفاده از داده، معمول است که حداقل یک فرض کلیدی مبنی بر اینکه آمار کلاسیک زیر پین است نامعتبر است. بیشتر اوقات، هیچ کس به خود زحمت نمی دهد این فرضیات را بررسی کند، بنابراین شما هرگز واقعاً نمی دانید. به عنوان مثال، این که بسیاری از معیارهای رایج وب «دم دراز» (نسبت به توزیع عادی) هستند، در حال حاضر آنقدر مستند شده است که ما آن را بدیهی می دانیم. مثال دیگر، انجمن‌های آنلاین - حتی در جوامعی با هزاران عضو، به خوبی مستند شده است که تا حد زیادی بیشترین سهم از مشارکت/ مشارکت در بسیاری از این انجمن‌ها به گروه کوچکی از «ابر مشارکت‌کنندگان» نسبت داده می‌شود. (به عنوان مثال، چند ماه پیش، درست پس از اینکه SO API در نسخه بتا در دسترس قرار گرفت، یکی از اعضای _StackOverflow_ تجزیه و تحلیل مختصری از داده هایی را که از طریق API جمع آوری کرده بود منتشر کرد؛ نتیجه گیری او -- کمتر از یک درصد از اعضای SO اکثر موارد را تشکیل می دهند. فعالیت در SO_ (احتمالاً پرسیدن سؤال و پاسخ به آنها)، 1-2٪ دیگر بقیه را تشکیل می دهد و اکثریت قریب به اتفاق اعضا هیچ کاری انجام نمی دهند. توزیع‌هایی از این نوع - باز هم اغلب به جای استثنا، قانون هستند - اغلب با تابع چگالی _قانون قدرت_ مدل‌سازی می‌شوند. برای این نوع توزیع ها، حتی اعمال قضیه حد مرکزی نیز مشکل است. بنابراین، با توجه به فراوانی جمعیت‌هایی مانند این که مورد علاقه تحلیل‌گران است، و با توجه به اینکه مدل‌های کلاسیک عملکرد بسیار ضعیفی در این داده‌ها دارند، و با توجه به اینکه روش‌های قوی و مقاوم برای مدتی (به عقیده من حداقل 20 سال) وجود داشته است - چرا آیا آنها بیشتر استفاده نمی شوند؟ (همچنین نمی‌دانم که چرا _I_ بیشتر از آنها استفاده نمی‌کنم، اما این واقعاً یک سوال برای _CrossValidated_ نیست.) بله، می‌دانم که فصل‌های کتاب درسی به طور کامل به آمارهای قوی اختصاص دارد و می‌دانم که (چند) بسته‌های R وجود دارد ( _robustbase_ همان چیزی است که من با آن آشنا هستم و از آن استفاده می کنم) و غیره. با این حال با توجه به مزایای آشکار این تکنیک ها، آنها اغلب به وضوح ابزار بهتری برای شغل-- ** _چرا زیاد استفاده نمی شوند_**؟ آیا نباید انتظار داشته باشیم که آمارهای قوی (و مقاوم) را در مقایسه با آنالوگ های کلاسیک به مراتب بیشتر (شاید حتی به صورت احتمالی) مشاهده کنیم؟ تنها توضیح اساسی (یعنی فنی) که شنیده‌ام این است که تکنیک‌های قوی (همانطور برای روش‌های مقاوم) فاقد قدرت/حساسیت تکنیک‌های کلاسیک هستند. من نمی دانم که آیا این واقعا در برخی موارد درست است یا خیر، اما می دانم که در بسیاری از موارد درست نیست. آخرین کلمه پیشگیرانه: بله، می دانم که این سؤال یک پاسخ کاملاً صحیح ندارد. سوالات بسیار کمی در این سایت انجام می شود. علاوه بر این، این سوال یک تحقیق واقعی است. این بهانه ای برای پیشبرد یک دیدگاه نیست - من در اینجا دیدگاهی ندارم، فقط سوالی است که امیدوارم پاسخ های روشنگرانه ای برای آن پیدا کنم.
چرا آمار قوی (و مقاوم) جایگزین تکنیک های کلاسیک نشده است؟
66514
نتیجه من یک متغیر ترتیبی است که دارای 4 سطح است. من یک رگرسیون ترتیبی انجام دادم و یک ضریب بتا جهانی برای توصیف هر تغییر سطح دریافت کردم. اگر من 3 رگرسیون لجستیک در هر تغییر سطح انجام دهم، خطای آلفای 3 * 5% (آزمایش چندگانه) دارم. بیش از حد؟
آیا آلفا در رگرسیون ترتیبی جمع می شود؟
27622
من با ماتریسی از ویژگی ها (~ 30000 ردیف) در مقابل موارد (ستون) شروع می کنم. من داده های باینری - TRUE یا FALSE - در هر سلول دارم که نشان می دهد آیا رویدادی در آن ویژگی وجود دارد یا خیر. در مرحله بعد، من هر ردیف را جمع می کنم تا تعداد کل موارد از مجموعه نمونه را که دارای یک رویداد برای هر ویژگی هستند، بدست آوریم. من برای هر ویژگی این **_c_** را صدا می زنم. بعد، فهرستی از ویژگی ها را بازیابی می کنم. چگونه می توانم آزمایش کنم که **_c_** (تعداد کل موارد دارای یک رویداد برای یک ویژگی معین) به طور قابل توجهی بیشتر از **_c_** در میان جمعیت ویژگی به طور کلی است؟ علاوه بر این، آیا راهی برای محاسبه معیار عدم قطعیت نتیجه من بر اساس این واقعیت وجود دارد که فقط ویژگی های شناخته شده مرتبط با یک فرآیند خاص در لیست وجود دارد. NB. تلاش من (احتمالا اشتباه و بیش از حد پیچیده): 1. بوت استرپ با جایگزینی 100000 بار برای دریافت 100000 نمونه هر کدام با سایز 1023 از 30000 ویژگی. 1023 ویژگی (به عنوان مثال) از جامعه ای که ویژگی های هر نمونه از آن استخراج شده است، حذف می شوند. 2. از «var.test» در سراسر **_c_** برای هر نمونه _در مقابل لیست ویژگی 1023 استفاده کنید. اگر آزمون **مقدار قابل توجهی تولید نکند، آن نمونه می تواند در مرحله 3 استفاده شود. نمونه هایی که مقدار قابل توجهی تولید می کنند دور انداخته می شوند. این کار برای برآورده کردن فرض آزمون Wilcoxon مبنی بر مشابه بودن واریانس بین دو نمونه آزمایش انجام می شود. 3. یک آزمون کولموگروف-اسمیرنوف ('ks.test') برای هر نمونه ارائه شده _در مقابل لیست ویژگی های 1023 انجام دهید. اگر آزمون **مقدار قابل توجهی تولید نکند، آن نمونه می تواند در مرحله 4 استفاده شود. نمونه هایی که مقدار قابل توجهی تولید می کنند دور انداخته می شوند. این کار برای برآورده کردن فرضیه آزمون Wilcoxon انجام می شود که توزیع بین دو نمونه آزمایش مشابه است. 4. آزمایش Wilcoxon ('wilcox.test') را برای هر نمونه ارائه شده _در مقابل لیست ویژگی های 1023 انجام دهید. اگر میانگین (یا میانه؟) مقدار p برای این تست‌ها معنی‌دار باشد، می‌توانم بگویم که **_c_** برای این مجموعه از ویژگی‌ها به طور قابل‌توجهی بیشتر از ویژگی‌هایی است که به این مجموعه تعلق ندارند.
آزمایش کنید که آیا تعداد رویدادها در فهرست ویژگی ها به طور قابل توجهی بیشتر از جمعیت ویژگی های عمومی است یا خیر
27621
من از بسته R mvpart برای ایجاد درخت رگرسیون چند متغیره استفاده کردم. این بخشی از خروجی است: CP nsplit rel error xerror xstd 1 0.02717093 0 1.0000000 1.0005358 0.03481409 2 0.01302184 2 0.945652106206. شماره 1: 3479 مشاهدات، پارامتر پیچیدگی=0.02717093 Means=12.94،0.5749،9.375،0.72،1.611،0.973،2.153،0.6209،3.307،3.702،2.42، S MSE=1305.19 سمت چپ پسر = 2 (992 obs) سمت راست پسر = 3 (2487 ​​obs) تقسیمات اولیه: Dag splits به عنوان RRLLRRR، بهبود = 0.02478172، (0 از دست رفته) Hoofdberoep به عنوان RLRLLRRLLLLRLL تقسیم می شود، بهبود به عنوان RLRLLRRLLLLRLL231310. تقسیم به عنوان RRLRRRL، بهبود=0.02191660، (0 از دست رفته) Werksituatie به عنوان LRLR تقسیم می‌شود، بهبود=0.02179270، (0 وجود ندارد) Werkuren به‌عنوان RLRRRR تقسیم می‌شود، بهبود=0.02130351، (0 از دست رفته است) (0.02478172،0.02313676،...) و چه ارتباطی با پارامتر پیچیدگی (0.02717093) دارند؟
چگونه نتیجه را از شی mvpart در R تفسیر کنیم؟
23535
من در حال کار بر روی تعیین این هستم که چرا برخی از کارمندان باعث ایجاد خطا در فرآیند یک شرکت می شوند و چرا برخی دیگر این کار را نمی کنند. من اطلاعات کارمندان، اطلاعات مربوط به خطاهایی که آنها مرتکب شده‌اند و تیم‌هایی که کارمندان در آن حضور دارند، دارم. همه کارمندان در همه تیم‌ها در یک نقطه یا نقطه دیگر باعث خطا شده‌اند. چیزی که می‌خواهم بدانم این است که آیا ویژگی‌های خاصی در مورد کارمندان خاصی وجود دارد که باعث می‌شود آنها انواع یا تعداد زیادی خطا را مرتکب شوند. حجم نمونه چند هزار در یک دوره شش ماهه است. به نظر شما بهترین رویکرد، یعنی روش خوشه بندی/ روش داده کاوی عمومی چیست؟
تقسیم بندی کارکنان
112911
در زمینه شبکه های عصبی، تفاوت بین آموزش به این صورت چیست: مشاهده foreach در مجموعه داده: compute_error(observation) update_weights() و foreach observation در مجموعه داده: compute_error(observation) update_weights() هر دو در کل مجموعه داده آموزش می بینند.
1169
من به دنبال این هستم که منطق خود را اینجا بررسی کنم. فرض کنید مقداری را در گروه A اندازه می گیرید و میانگین آن 2 است و فاصله اطمینان 95% شما بین 1 تا 3 است. سپس همان کمیت را در گروه B اندازه می گیرید و میانگین 4 را با فاصله اطمینان 95% پیدا می کنید. از 3.5 تا 4.5 با فرض مستقل بودن A و B، فاصله اطمینان 95% برای تفاوت بین گروه ها چقدر است؟ احتمالاً می‌توانید این را با استفاده از آمار t-استاندارد محاسبه کنید، اما می‌خواهم بدانم آیا می‌توان تخمینی را بر اساس CI نیز محاسبه کرد. من معتقدم که کران پایین CI اختلاف باید حداقل تفاوت معتبر بین A و B باشد. یعنی کران پایین بازه برای B (3.5) منهای کران بالایی بازه برای A (3)، که یک کران پایین را برای اختلاف 0.5 به دست می دهد. به طور مشابه، کران بالای CI تفاوت باید حداکثر تفاوت معتبر بین A و B باشد. یعنی کران بالای بازه برای B (4.5) منهای کران پایین بازه برای A (1)، که یک کران پایین را برای اختلاف 3.5 به دست می دهد. بنابراین، این استدلال یک فاصله اطمینان را برای این تفاوت ایجاد می کند که از 0.5 تا 3.5 متغیر است. آیا این منطقی است یا این موردی است که منطق و آمار از هم جدا می شوند؟
CI برای تفاوت بر اساس CIهای مستقل
14280
اثبات عملکرد بهتر قابل توجهی در پیش بینی باینری
86161
احتمال اینکه در دور دوم دوباره جفت هم تیمی داشته باشیم چقدر است؟
66512
من سعی می کنم یک سفر رفت و برگشت انجام دهم تا بررسی کنم که کد من در مورد بازیابی پارامترهای توزیع های عادی کار می کند. من از این سند در رابطه با توزیع نرمال گاما استفاده می کنم: http://www.cs.ubc.ca/~murphyk/Teaching/CS340-Fall07/reading/NG.pdf جریان اصلی تولید 100000 پارامتر میانگین و واریانس است. از گامای نرمال با پارامترهای قبلی داده شده است. سپس برای هر جفت پارامتر میانگین واریانس، به طور تصادفی 100 نمونه تولید کنید. در مرحله بعد، با استفاده از پارامترهای قبلی و داده ها، 95% فواصل معتبر برای هر یک از 100000 جفت میانگین واریانس ایجاد کنید. و در نهایت 95٪ فواصل معتبر برای توزیع پیش بینی پسین ایجاد کنید و آنها را با یک مشاهده تصادفی مقایسه کنید. نکته جالب این است که میانگین و واریانس CI هرگز در 95 درصد مواقع حاوی پارامتر واقعی نیستند، اما فاصله پیش‌بینی پسین خوب به نظر می‌رسد. آیا این انتظار می رود؟ کد R اینجاست: rm(list = ls(all = TRUE)) set.seed(115) no_of_examples = 100000 مثال = seq(1:no_of_examples) #priors m_0 = 0 k_0 = 6 a_0 = 10 b_0 = 840 به معنی = rnorm(no_of_examples, m_0, sqrt(k_0)) vars = 1/rgamma(no_of_examples, a_0, b_0) نمونه = 100 داده = ماتریس(NA, no_of_examples, نمونه ها) برای (مثال در مثال ها){ data[example, ] = rnorm(samples,means[ مثال ], sqrt(vars[example])) } # now recover پارامترهای m_n = rep(NA، no_of_examples) k_n = rep(NA، no_of_examples) a_n = rep(NA، no_of_examples) b_n = rep(NA، no_of_examples) برای (مثال در مثال ها){ n = نمونه x_bar = mean(data[e ,]) sample_mean = rep(mean(داده[مثال،])، نمونه‌ها) m_n[مثال] = (k_0 * m_0 + n * x_bar)/(k_0 + n) k_n[مثال] = (k_0 + n) a_n[مثال] = a_0 + n/2 b_n[مثال] = b_0 + 1/2*(جمع((داده[مثال،]-نمونه_میانگین)^2))+(k_0 * n * (میانگین_نمونه[1] - m_0)^2)/(2 * (k_0 + n)) } # بررسی پسین معنی conf = ماتریس (NA, no_of_examples,2) in_range = rep(NA, no_of_examples) برای (مثال در مثال ها){ conf[example,] = qt(c(0.025,0.975),2*a_n[مثال]) * sqrt(b_n[مثال]/(a_n[مثال]*k_n[مثال])) + m_n[مثال ] } in_range = ifelse(means > conf[,1],ifelse(means < conf[,2],1,0, 0) print(% میانگینها در 95% CI:) print(sum(in_range)/length(in_range)) # بررسی خلفی واریانسها ci_v = ماتریس(NA، no_of_examples , 2) برای (مثال در مثالها){ ci_v[مثال،] = (1/qgamma(c(0.975,0.025)، a_n[مثال]، b_n[مثال])) } in_range_v = ifelse(vars > ci_v[,1],ifelse(vars <ci_v[,2],1,0) , 0) print(% واریانس در 95% CI:) print(sum(in_range_v)/length(in_range_v)) # check posterior distributive predictive y_p = rep(NA, no_of_examples) ci_p = matrix(NA, no_of_examples, 2) for(مثال در مثال ها){ # ایجاد مشاهده y_p[مثال] = rnorm(1، به معنی[مثال]، sqrt(vars[مثال])) # پیدا کردن 95% CI برای پیش‌بینی‌کننده پسین ci_p[مثال،] = qt(c(0.025,0.975)،2*a_n[مثال]) * sqrt((b_n[مثال]*(k_n[ مثال] + 1))/(a_n[مثال]*k_n[مثال])) + m_n[مثال] } in_range_p = ifelse(y_p > ci_p[,1],ifelse(y_p <ci_p[,2],1,0), 0) print(% مشاهدات در CI پیش‌بینی کننده پسین:) print( sum(in_range_p)/length(in_range_p)) نتایج من عبارتند از: [1] % از میانگین در 95% CI: [1] 0.94122 [1] % واریانس در 95% CI: [1] 0.93993 [1] % از مشاهدات در CI پیش‌بینی کننده پسین: [1] 0.95123 آیا در کد من خطایی وجود دارد؟ یا من فواصل معتبر را کاملاً اشتباه متوجه شده ام؟ به‌روزرسانی: من یک خطای کوچک را در به‌روزرسانی b_n ویرایش کردم و کمی به واریانس CI نزدیک‌تر شدم، اما به نظر می‌رسد که همچنان زیر 95 درصد باشد (وقتی seed را تغییر می‌دهم). درصد میانگین‌ها و واریانس‌ها در بازه 95 درصدی معتبر به نظر می‌رسد که هر دو درست در حدود 94 درصد باشند.
فاصله معتبر برای واریانس و میانگین بیزی خلفی و پیش بینی خلفی نرمال
27554
یک نفر در آزمایشگاه من نمونه ای از 500 کودک بزرگتر دارد و می خواهد بررسی کند که چه عواملی با احتمال قلدری آنها مرتبط است. گروه ها: آزار و اذیت نه قلدر 22 28 نه 200 250 آنها یک متغیر تعاملی با استفاده از سن*نه مورد آزار و اذیت/قلدری ایجاد کردند و 14 پیش بینی دیگر را به حالت اضافه کردند. تعامل سن و قلدری مشخص است اما طرح اولیه عجیب به نظر می رسد، گروهی که مورد آزار و اذیت قرار گرفته اند شیب 0 بر اساس سن دارند و این خط با 0 شروع و به پایان می رسد. حدس من این است که گروه قلدری/قلدری برای همه افراد بسیار کوچک است. اطلاعات در مدل اگر چنین است، پارامترهای اندازه گروه یا نسبت به کل پارامترهای گروه برای رگرسیون لجستیک چیست؟ خیلی ممنونم! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zw6Gd.jpg)
پارامترهای اندازه زیر گروه رگرسیون لجستیک
40504
من این مشکل کوچک را دارم و ممنون می شوم کمک کنید. به عنوان بخشی از پایان نامه کارشناسی ارشد، من باید روندی را در یک سری زمانی تک متغیره (GDP) برای کشورهای مختلف شناسایی کنم. من باید روند و عنصر تصادفی در آن را برای هر کشور جدا کنم. من موفق به انجام این کار با انجام این کار شده ام: متغیر c @trend // برای هر کشور. و سپس یک AR(1) را روی باقیمانده های // برای هر کشور اجرا کنید. با این حال، اکنون باید شکست های ساختاری را در یکی از این کشورها شناسایی کنم. من در سراسر اینترنت و کتاب ها مطالعه و جستجو کردم و متوجه شدم که آزمونی که اکثر مردم برای شناسایی این تغییرات ساختاری از آن استفاده می کنند، تست چاو است. من می دانم چگونه آزمون را اجرا کنم، اما نتوانستم بفهمم چگونه نتایج را تفسیر کنم و تصمیم بگیرم که آیا شکست ساختاری وجود دارد یا خیر. در اینجا یک نمونه از نتایج وجود دارد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RL9Lz.jpg) چیزی که من را بیش از همه گیج می کند این واقعیت است که صرف نظر از نقطه ای که برای شکستن انتخاب می کنم سریال، من همیشه Prob را دریافت می کنم. F(2,47) 0.0016 //یا هر مقدار بسیار مهم، با همان درجات آزادی. لطفاً کسی می تواند به من کمک کند تا بفهمم چگونه باید این نتایج را تفسیر کنم تا تشخیص دهم که شکستگی ها کجاست؟
27624
من داده هایی از یک مطالعه با سه شرط دارم. متغیر مستقل درون موضوعی و درون آیتمی بود. من تجزیه و تحلیل F1 و F2 (= دو بار ANOVA اندازه گیری های مکرر) را بر اساس میانگین ها، بر اساس موضوع (شرکت کنندگان) و بر اساس آیتم (کلمات) انجام دادم. من کروی بودن را بررسی/تصحیح کردم و میانگین ها به طور قابل توجهی متفاوت است. اکنون می خواهم بدانم که این سه شرط با یکدیگر چه تفاوتی دارند. من یک کادر مقایسه های زوجی و مقادیر p دارم (من هنگام انجام تجزیه و تحلیل Bonferroni را علامت زدم). اما من مقدار t را ندارم. چگونه می توانم مقادیر t مربوطه خود را بدانم؟ یا باید تست های تی زوجی انجام دهم؟ اگر بله، این کادر مقایسه های زوجی به من چه می گوید؟ اسکرین شات کادر PC: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cM1Zn.jpg)
مقادیر t در مقایسه های زوجی من کجا هستند؟
38087
فرض کنید پاسخ ترتیبی $y:\\{\text{Bad, Neutral, Good}\\} \rightarrow \\{1,2,3\\}$ و مجموعه‌ای از متغیرهای $X:=[x_1 را داریم، x_2,x_3]$ که فکر می‌کنیم $y$ را توضیح می‌دهد. سپس یک رگرسیون لجستیکی مرتب به میزان X$ (ماتریس طراحی) روی $y$ (پاسخ) انجام می دهیم. فرض کنید ضریب تخمینی $x_1$، آن را $\hat{\beta}_1$، در رگرسیون لجستیک مرتب شده 0.5$- است. چگونه نسبت شانس (OR) $e^{-0.5} = 0.607$ را تفسیر کنم؟ آیا می گویم برای یک واحد افزایش در $x_1$، ceteris paribus، شانس مشاهده $\text{Good}$ 0.607$ برابر شانس مشاهده $\text{Bad}\cup \text{Neutral}$ است. و برای همان تغییر در $x_1$، شانس مشاهده $\text{Neutral} \cup \text{خوب}$ آیا $0.607$ برابر شانس مشاهده $\text{Bad}$ است؟ من هیچ نمونه ای از تفسیر ضریب منفی را در کتاب درسی یا گوگل خود پیدا نمی کنم.
97948
من با داده های سخت افزار شتاب سنج مختلف کار می کنم. هر سخت افزار دارای حداکثر دامنه متفاوت، وضوح متفاوتی است که در آن داده ها تغییر می کند، و حداقل تاخیر متفاوتی که پس از آن مقدار جدیدی منتشر می شود. به عنوان مثال برای یک سخت افزار، حداکثر مقداری که می تواند بدست آورد 10240 است که پس از حداقل 10000 میلی ثانیه منتشر می شود و هر بار 1.0 افزایش می یابد. برای سخت افزار دیگر، حداکثر مقدار 2 است که پس از 0 میلی ثانیه منتشر می شود و هر بار حداقل 0.038 افزایش می یابد. چگونه می توانم داده ها را عادی کنم؟ با تشکر
نرمال سازی شتاب سنج
88905
من از «lmerTest» برای اجرای مدل های مختلط خطی (LMM) برای بدست آوردن مقادیر p استفاده می کنم. با این حال، در مقالاتی که من نوشته ام، آنها هر دو `lme4` و `lmerTest` را نشان می دهند. سپس مطمئن نیستم که زمانی که فقط از «lmerTest» برای اجرای مدل‌های LMM استفاده می‌کنم، «lme4» را نیز ذکر کرده باشم. آیا نظری در این مورد دارید؟
27625
من سیگنالی با دامنه متفاوت دارم و پس از یک نقطه زمانی خاص، انتظار دارم دوره این سیگنال طولانی شود. من به دنبال راهی برای اندازه گیری طولانی شدن این دوره هستم. آیا این راهی است که بتوانم دوره لحظه ای سیگنال زیر را در هر نقطه مشخصی محاسبه کنم؟ به عنوان مثال، در شاخص 220 من انتظار دارم دوره تقریباً 40 واحد باشد، در حالی که در شاخص 50 انتظار دارم که این دوره 24 واحد باشد. تصور می‌کنم راه‌حل مربوط به تبدیل فوریه یا Match Filtering است، اما من تجربه عملی کمی در مورد هر یک از این‌ها دارم، بنابراین از هر راهنمایی قدردانی می‌کنم. من در حال حاضر از R استفاده می کنم، اما اگر می توانند به حل این مشکل کمک کنند، می خواهم ابزارهای دیگری را در نظر بگیرم. ![سیگنال](http://i.stack.imgur.com/zFxbz.png)
یافتن دوره لحظه ای یک سیگنال (یا محاسبه تنزل دوره)
97942
من در حال کار با داده های بستر (برگ های افتاده، گل ها و غیره) هستم که در زیر جنس های مختلف درختان انباشته می شوند. من سری های زمانی یک ساله برای هر جنس دارم، و من واقعاً بیشتر به مقایسه بین جنس ها علاقه مند هستم تا تلاش برای تطبیق رگرسیون با فصلی و غیره. این موجودی بستر بستر است، نه جریان ورودی های تازه. فایل های داده: همه نمونه ها و میانگین بر اساس جنس/تاریخ. در نمودار زیر، نقاط نمونه‌های جداگانه هستند و خطوط میانگین‌های جنس را به هم متصل می‌کنند. ![امتیازها نمونه های فردی هستند. خطوط میانگین‌های جنس را به هم متصل می‌کنند](http://i.stack.imgur.com/rCkn9.png) به اندازه کافی همپوشانی وجود دارد که من سعی نمی‌کنم همه مقایسه‌های زوجی را انجام دهم. دو مورد علاقه قبلی: جنس C اساساً یک کنترل است و همانطور که می بینید بستر آن بسیار کمتر است، به خصوص در پاییز. جنس E در تابستان دچار شیوع حشره شد و برگهای سبز زیادی ریخت. من علاقه مند به آزمایش هستم که آیا هر یک از اینها از نظر آماری معنی دار است. من در R کار می کنم. پیشاپیش از شما متشکرم!
چگونه چندین سری زمانی را مقایسه کنم؟
44410
با توجه به مجموعه‌ای از احتمالات $P_i$ و تابع توزیع تجمعی $X$، می‌توانید مجموعه $X_i$ از مقادیر X$ مربوط به $P_i$ را پیدا کنید. $X_i$ چندک هستند. آیا یک اصطلاح عمومی معادل برای اشاره به $P_i$ مربوط به مجموعه معینی از $X_i$ وجود دارد؟ می‌توانید به آنها به عنوان CDF اشاره کنید، اما در استفاده استاندارد که به $P_i$ مربوط به _all_$X_i$ است نه برخی از زیرمجموعه‌های مورد علاقه. در غیاب نام قبلی، احتمالاً از عبارت افتضاحی مانند احتمالات تجمعی متناظر (مخفف CCP و تلفظ soviets) استفاده خواهم کرد.
105289
آیا یک کد R برای پیاده سازی «کند» با «BIC» دارید؟ توجه داشته باشید که یک بسته R به نام parcor برای پیاده سازی **lasso** و ** lasso تطبیقی ​​با اعتبار Cross** وجود دارد. اما چیزی که من به دنبال آن هستم ** کمند با BIC ** است. میشه لطفا کمکم کنید؟
40507
تداخل اقدامات مکرر بین SNP و درمان با R
97947
من تحلیلی دارم که تغییرات سرعت نسبی را بین مناطق مقایسه می کند. من یک نمونه نماینده در زیر دارم (در واقع مناطق بیشتری وجود دارد - این برای وضوح است). فرض کنید من یک مجموعه داده با 4 منطقه دارم -- و امکان جابجایی سرعت نسبی بین هر چهار منطقه. تنها روشی که من برای تعیین این تغییر نسبی دارم، شامل فرآیندی است که یکی از مناطق را مجبور می‌کند تا یک شیفت صفر داشته باشد - و مقادیر دیگر را نسبت به آن تغییر دهد. این به این معنی است که قطع y دلخواه است، اما مقادیر y نسبی بین نقاط داده هنوز مهم است. نمودار زیر نمونه ای از کاری را که من انجام می دهم نشان می دهد: ![دو مجموعه داده](http://i.stack.imgur.com/pvcI5.png) این نمودار نتیجه یافتن شیفت های نسبی را با تنظیم متناوب اول نشان می دهد. منطقه به صفر (قرمز)؛ و آخرین منطقه به صفر (آبی). همانطور که می توانید بگویید، شیب بین دو اندازه گیری یکسان است. من همچنین برای هر نقطه ای که صفر تنظیم نشده است، یک تخمین خطا دارم. من می خواهم برای شیب در تمام مناطق مناسب باشم. سوال من این است: آیا روش آماری قوی برای ترکیب این در یک تناسب وجود دارد؟ یا برای برازش دو رگرسیون خطی با قطع y مستقل اما شیب های گره خورده؟ آیا راه دیگری برای تفکر کامل در مورد این موضوع وجود دارد؟
یک شیب در مجموعه داده با دو نقطه y پیدا کنید؟
12806
می‌خواهم بدانم که کاهش تعداد ویژگی‌ها (با انتخاب آموزنده‌ترین آنها از میان هزاران) قبل از جستجوی متغیرهای پنهان (در یک دیدگاه اکتشافی) مفید (یا شاید خطرناک) است یا خیر. یک سوال فرعی: در همین مورد، آیا انتخاب مهم‌ترین ویژگی‌ها برای هر دسته از ویژگی‌ها (اینها را می‌توان با استفاده از یک مدل موجودیت-ویژگی-مقدار که واقعاً برای داده کاوی مناسب نیست فشرده کرد) قبل از شناسایی پنهان مفید خواهد بود. متغیرها؟
انتخاب ویژگی و متغیرهای پنهان
13817
یک مثال ساده: `plot(hclust(dist(c(1:3)),method = ward))` من می خواهم بدانم کدام محاسبات (در R) می توانند فاصله 3 را از {1,2} بازتولید کنند. 1.67 باشد![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XXMs2.png) با تشکر.
27199
من قصد دارم یک سخنرانی یک ساعته برای نوجوانان در مورد آمار داشته باشم. من احتمالا فقط یک بار آنها را خواهم دید. این سناریو ممکن است بارها و بارها اتفاق بیفتد. **من می خواهم به آنها فعالیتی بدهم تا آنها آمار را تجربه کنند.** اما مجبورم این کار را با افرادی انجام دهم که چیزی در مورد احتمال، استنتاج آماری، تجزیه و تحلیل اکتشافی و غیره نمی دانند. ترفندهای تجسمی که رسانه ها گاهی از آنها استفاده می کنند و کمی آن را بی اعتبار می کنند. (لطفاً به من پیوندی به چگونه با آمار دروغ بگوییم ندهید :)) ایده دیگر این است که (همچنین) به آنها یک تکلیف برای اجرای آزمایشی برای کشف چیزی بدهید. به عنوان مثال: کشف اینکه آیا آنها می توانند تفاوت بین کوکاکولا و RC کولا را تشخیص دهند. **من به دنبال هر گونه پیشنهادی برای اینکه با آنها چه کار کنم، یا منابعی با مطالب مرتبط می گردم.** با تشکر :) (البته، تبدیل این ویکی به انجمن خوب خواهد بود)
فعالیت های کلاسی/آزمایش هایی برای آموزش مفاهیم آماری؟
86160
درک نقش توزیع کای دو در فاصله اطمینان برای واریانس
96215
آمار آزمون نسبت درستنمایی
9731
> **تکرار احتمالی:** > آستانه ضریب همبستگی برای نشان دادن اهمیت آماری > یک همبستگی در یک ماتریس همبستگی ### زمینه من در حال انجام یک مطالعه اکتشافی برای بررسی رابطه بین یک دارو هستم (در واقع به دو روش اندازه گیری می شود - توسط روش های مستقیم و غیر مستقیم) و 15 پارامتر مختلف. سه گروه از افراد وجود دارد که من آمار همبستگی را جداگانه محاسبه می کنم ($n=11$، $n=11$ و $n=24$ - دو مورد اول جفت شده اند). بدیهی است که تعداد تست های آماری زیاد است و من می خواهم برای تست های متعدد کنترل کنم. من از همبستگی اسپیرمن استفاده می کنم زیرا داده ها محدود هستند و (همیشه) از توزیع نرمال پیروی نمی کنند. من در R کار می کنم. ### سوالات * چگونه باید تعدد تست را کنترل کنم؟ این یک مطالعه فرضیه آفرین است و من ترجیح می دهم از روش های کمتر محافظه کارانه استفاده کنم. من در حال بررسی رویه بنجامینی-هوچبرگ (معروف به R به عنوان «BH» یا «fdr») بوده‌ام که امکان کنترل نرخ کشف نادرست را فراهم می‌کند. با این حال، مطمئن نیستم که آیا فرضیات وابستگی را نقض کنم یا خیر. و من مطمئن نیستم که آیا این می تواند در آمار همبستگی استفاده شود. شاید به هیچ وجه نباید خود را برای چندین تست تنظیم کنم. به نظر من، اگر هر دو روش مستقیم و غیرمستقیم ارتباط یکسانی داشته باشند، احتمال مثبت کاذب بسیار بعید است.
65898
من یک سوال در رابطه با رگرسیون و تعامل چندگانه دارم که از این موضوع CV الهام گرفته شده است: اصطلاح تعامل با استفاده از متغیرهای متمرکز تحلیل رگرسیون سلسله مراتبی؟ چه متغیرهایی را در مرکز قرار دهیم؟ هنگام بررسی اثر تعدیل، متغیرهای مستقل خود را در مرکز قرار می‌دهم و متغیرهای مرکزی را ضرب می‌کنم تا ترم تعامل خود را محاسبه کنم. سپس تجزیه و تحلیل رگرسیون خود را اجرا می کنم و اثرات اصلی و تعاملی را بررسی می کنم، که ممکن است تعدیل را نشان دهد. اگر تجزیه و تحلیل را بدون مرکزیت مجدد انجام دهم، ظاهراً ضریب تعیین ($R^2$) تغییر نمی کند اما ضرایب رگرسیون ($\beta$s) تغییر می کند. این واضح و منطقی به نظر می رسد. چیزی که من نمی‌فهمم: مقادیر p تأثیرات اصلی به‌طور اساسی با مرکزیت تغییر می‌کنند، اگرچه تعامل تغییر نمی‌کند (که درست است). بنابراین، تفسیر من از جلوه‌های اصلی می‌تواند به‌طور چشمگیری تغییر کند - فقط با تمرکز یا نه تعیین می‌شود. (در هر دو تحلیل هنوز هم همان داده است!) آیا کسی می تواند توضیح دهد؟ - زیرا این بدان معناست که گزینه مرکز کردن متغیرهای من اجباری است و همه باید این کار را انجام دهند تا نتایج یکسانی با داده های یکسان بدست آید. * * * با تشکر فراوان برای توزیع آن مشکل و توضیحات جامع شما. مطمئن باشید که کمک شما بسیار قدردانی می شود! برای من، بزرگترین مزیت مرکز دادن، اجتناب از چند خطی است. ایجاد یک قاعده، چه در مرکز قرار دادن یا نه، هنوز کاملاً گیج کننده است. تصور من این است که بیشتر منابع به مرکز پیشنهاد می‌کنند، اگرچه هنگام انجام آن «خطراتی» وجود دارد. مجدداً می‌خواهم این واقعیت را بیان کنم که 2 محققی که با مواد و داده‌های مشابه سروکار دارند ممکن است به نتایج متفاوتی برسند، زیرا یکی مرکز می‌دهد و دیگری نه. من فقط بخشی از کتابی از بورتز را خواندم (او پروفسور و به نوعی ستاره آمار در آلمان و اروپا بود) و او حتی به این تکنیک اشاره نمی کند. فقط اشاره می کند که در تفسیر اثرات اصلی متغیرها زمانی که آنها در تعامل هستند دقت کنید. به هر حال، وقتی یک رگرسیون را با یک IV، یک تعدیل کننده (یا IV دوم) و یک DV انجام می دهید، آیا توصیه می کنید که مرکز را انجام دهید یا خیر؟
چرا متمرکز کردن متغیرهای مستقل می تواند اثرات اصلی را با اعتدال تغییر دهد؟
27190
به خاطر می‌آورم که به من گفته شده بود که برای ایجاد توزیع مارشال اولکین $p$، به صورت زیر عمل می‌شود: برای $p=2$، $X_1,X_2,X_3\sim exp(\lambda)$ و سپس $(Y_1,Y_2) )\sim MMO$ که در آن $Y_1=\max(X_1,X_2)$ و $Y_2=\max(X_1,X_3)$. اما باید تعریف را اشتباه گرفته باشم زیرا به نظر نمی رسد MMO باشد (زیرا مشاهدات زیادی در امتداد $Y_1=Y_2$ وجود دارد که به خاطر نمی آورم چنین بوده است): library(matrixStats) n<- 100 p<-2 a1<-ماتریس(rexp(n*(p+1)،2)،n، p+1) a2<-cbind(rowMaxs(a1[,1:2]),rowMaxs(a1[,c(1,3)])) plot(a2) آیا کسی می‌تواند در مورد الگوریتم تولید MMO کمک کند؟
چگونه داده‌ها را از داده‌های توزیع شده چند متغیره مارشال اولکین تولید می‌کنید؟
88908
من جریانی از اعداد پیوسته واقعی دارم (شکل 1). جریان از **چپ** به **راست** جریان دارد. در $t_1$ اولین عدد وارد جریان شد. هر بار که شماره جدیدی وارد جریان می شود، بررسی می کنم که آیا تغییر ناگهانی یا تغییرات زیاد وجود دارد. چگونه می توانم «تغییر ناگهانی» یا «تغییر زیاد» را بدون استفاده از هیچ **آستانه** محاسبه کنم. تصویر زیر **فقط** و نمونه است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xMCbs.png) * * * کاری که من انجام می‌دادم این بود که به سادگی یک مقدار $Q_x = |t_4 - t_5|$ و اگر $Q_x > \delta$ سپس یک تغییر ناگهانی و یک تنوع زیاد وجود دارد. استفاده از آستانه در شرایط من اشتباه است زیرا هیچ محدودیتی برای اعداد واقعی در جریان وجود ندارد. ایده دیگری به ذهن من رسید که این است: $if\;|t_5-t_4| >|t_4-t_3| + \delta $ که در آن $\delta = [0,1]$ سپس یک تغییر ناگهانی وجود دارد. نظر شما چیست؟ متشکرم.
88902
تست‌های برازش خوب در برابر پارامترهای غیرعادی و تخمینی مقاوم است
103088
من یک سری اندازه گیری از یک مطالعه تولید ساختمانی دارم که انجام داده ام. من اساساً نرخ بازده کارگران را بر حسب خروجی/ساعت اندازه‌گیری کردم. اندازه گیری ها هر روز متفاوت بود و من یک سری میانگین روزانه به دست آوردم. بنابراین متغیر x تاریخ و متغیر y نرخ خروجی خواهد بود. من این مطالعه را تقریباً یک ماه انجام دادم، با این حال باید برخی از تجزیه و تحلیل های آماری را روی این داده ها انجام دهم. من برای نرمال بودن با استفاده از نمودار Q-Q که یک نتیجه خطی را نشان می دهد، آزمایش کرده ام تا بتوانم شروع به محاسبه فاصله اطمینان کنم. سوال من این است که آیا کاری که انجام می دهم معتبر است یا خیر؟ من در مورد آمار کاملا زنگ زده هستم و در مورد اینکه چه تجزیه و تحلیل آماری باید روی مجموعه داده های خود انجام دهم کمی متضرر هستم. هر گونه کمک یا راهنمایی در مورد اینکه چه نوع تحلیل آماری روی داده های من معتبر است عالی خواهد بود.
12805
من کاملا شیفته نسبت های احتمال به عنوان وسیله ای برای کمی کردن شواهد نسبی در تلاش های علمی هستم. با این حال، در عمل متوجه می‌شوم که نسبت احتمال خام می‌تواند به‌طور غیرقابل چاپ بزرگ شود، بنابراین من به تغییر ثبت آن‌ها روی آورده‌ام، که این مزیت جانبی خوبی دارد که نشان‌دهنده شواهدی برای/علیه مخرج به شکلی متقارن است (یعنی مطلق مقدار نسبت احتمال ورود به سیستم نشان دهنده قدرت شواهد است و علامت نشان می دهد که کدام مدل، صورت یا مخرج، مدل پشتیبانی شده است). حال، چه انتخابی از پایه لگاریتمی؟ بیشتر معیارهای احتمال از log-base-e استفاده می کنند، اما این به من به عنوان یک پایه نه چندان شهود پسند به نظر می رسد. برای مدتی از log-base-10 استفاده کردم که ظاهراً توسط آلن تورینگ مقیاس ممنوعیت نامیده شد و دارای ویژگی خوبی است که می توان به راحتی ترتیبات نسبی بزرگی شواهد را تشخیص داد. اخیراً به ذهنم خطور کرد که استفاده از log-base-2 نیز ممکن است مفید باشد، در این صورت فکر کردم مناسب است از عبارت bit برای اشاره به مقادیر حاصل استفاده کنم. به عنوان مثال، نسبت احتمال خام 16 به 4 بیت شواهد برای مخرج نسبت به صورت تبدیل می شود. با این حال، نمی دانم که آیا این استفاده از اصطلاح «بیت» معنای نظری اطلاعات متعارف آن را نقض می کند؟ هر فکری؟
آیا استفاده از اصطلاح بیت برای بحث در مورد نسبت احتمال log-base-2 مناسب است؟
8559
در رابطه با سوال قبلی من، من مجموعه داده ای از نقاط دو بعدی با یک برچسب مرتبط دارم (این برچسب می تواند 6 مقدار مختلف بگیرد). همانطور که در پاسخ به سوال دیگر من پیشنهاد شد، این می تواند به عنوان یک فرآیند نقطه علامت گذاری شده (یا 6 فرآیند نقطه مختلف) مدل شود، که امکان استفاده از ابزارهای استاندارد برای مطالعه این مجموعه داده را فراهم می کند. من می‌خواهم رویکردی را که برای اولین بار در سؤال اول خود پیشنهاد کردم، در پیش بگیرم و سعی کنم PCA را روی این مجموعه داده اعمال کنم تا ببینم آیا انواع مختلف نقاط با هم مرتبط هستند یا نه (یعنی آیا برخی از انواع همیشه با هم اتفاق می‌افتند؟). نحوه انجام این کار به این صورت است: 1. فضای دو بعدی خود را در یک شبکه تقسیم کنید. 2. برای هر سلول از آن شبکه، تعداد نقاط هر نوع را بشمارید. برای یک سلول، این به من یک امتیاز در $\mathbb{R}^6 می دهد: x_i = (N_1(A_i)، N_2(A_i)، N_3(A_i)، N_4(A_i)، N_5(A_i)، N_6(A_i ))$، که $N_k(A_i)$ تعداد نقاط فرآیند $k^{th}$ است (مرتبط با نقاط نوع $k$) در سلول $A_i$ 3. تمام $x_i$ را در یک ماتریس $X \in \mathbb{R}^{6 \times M}$ ترکیب کنید و PCA را در این ماتریس اعمال کنید. سوال من این است: چگونه شبکه را بسازم؟ به عبارت دیگر، چگونه می توانم این مجموعه داده را دوباره تفکیک کنم؟ در واقع، شدت هر فرآیند برابر نیست: برخی از انواع بیشتر از سایرین ظاهر می شوند. اگر من فقط از یک شبکه معمولی استفاده کنم (همه سلول ها دارای یک منطقه هستند)، نقاط به دست آمده دارای یک یا دو جزء خواهند بود که بر بقیه غالب است. من به این فکر می کردم که شبکه خود را طوری بسازم که هر سلول حداکثر $N$ امتیاز داشته باشد، بنابراین هنجار نقاط داده را محدود می کند، اما فکر نمی کنم این مشکل تعادل من را حل کند. هر گونه پیشنهاد، یا اشاره به ادبیات، قدردانی می شود.
چگونه می توانم داده های خود را دوباره تفکیک کنم؟
11551
آیا مرورگر/بیننده خوبی برای دیدن مجموعه داده R (فایل .rda) وجود دارد
27192
من یک متغیر شاخص دارم که به عنوان مجموع متغیرهای تصادفی $N$ محاسبه می شود: $Y = \sum_{i=1}^N x_i$. من می‌خواهم زیرمجموعه‌ای به نام $\mathcal{S}$ از $x_i$ ایجاد کنم، به طوری که $Z \equiv \sum_{i\in\mathcal{S}} x_i$ با $Y همبستگی بالایی داشته باشد. دلار تا حد امکان به طور خاص، من می‌خواهم بتوانم (الف) کاردینالیته $\mathcal{S}$ را انتخاب کنم و بالاترین همبستگی ممکن را بین $Y$ و $Z$ تعیین کنم. یا (ب) یک همبستگی مورد نظر را انتخاب کنید و تعیین کنید که مجموعه چقدر باید باشد. (منظورم این نیست که از نظر تئوری این کار را برای یک مورد کلی انجام دهم؛ من داده دارم و فقط علاقه مندم که زیرمجموعه متغیرها را برای متغیرهای خاصی که دارم پیدا کنم.) اگر $N$ کوچک بود، می توانم این کار را با brute force: فقط تمام زیرمجموعه ها و همبستگی های ممکن را محاسبه کنید. افسوس، در تنظیمات من، $N$ حدود 4000 است. من به دنبال پیشنهاداتی برای حل این هستم. من تعجب نمی کنم اگر در تنظیمات دیگری حل شود، اما نمی دانم کجا. به نظر می رسد تا حدودی با تجزیه و تحلیل مؤلفه های اصلی مرتبط باشد، بنابراین اگر راه حل شامل استفاده از بردارهای ویژه باشد، تعجب نمی کنم.
زیر مجموعه ای از متغیرهای تصادفی را تعیین کنید که بیشترین همبستگی را با کل دارند
92279
این به هیچ وجه به حوزه تخصصی من نزدیک نیست، بنابراین اگر سؤال من برای زمینه قالب بندی ضعیفی دارد، لطفاً با خیال راحت ویرایش کنید. سوال من در انتهای متن زیر است. فرض کنید من یک سکه را 5 بار ورق می زنم. آنتروپی آن 5 بیت است، صرف نظر از اینکه سکه وزن دارد. به همین ترتیب، اگر یک قالب را 5 برابر بچرخانم، آنتروپی log2(6^5) = 12.92 بیت خواهد بود (در صورت امکان می خواهم در این مورد توضیح دهم - این بیشتر حدس من است). حال فرض می کنیم وزن قالب بر اساس نتیجه چرخش سکه است. بنابراین، آیا موارد زیر کل آنتروپی را بر اساس 5 چرخش سکه و 3 رول دای به من می گوید: log2(6^(3xlog2(2^5))) = 248.156 بیت بنابراین، بطور خلاصه تر چگونه می توان آنتروپی (بر حسب بیت) را محاسبه کرد. سیستمی که در آن یک متغیر تصادفی دوم بر اساس نتایج یک متغیر اول است؟
نحوه محاسبه آنتروپی کل یک سیستم از نتایج باینری
92275
فرض کنید من یک طبقه بندی رمز و راز دارم. این یک جعبه سیاه است، من دقیقاً نمی دانم چه کاری انجام می دهد، نه مجموعه آموزشی و نه الگوریتم یادگیری استفاده شده را می دانم. چیزی که من دارم یک مجموعه تست و پاسخ های طبقه بندی کننده رمز و راز در این مجموعه تست است. از این اطلاعات، در مورد نوع الگوریتم یادگیری مورد استفاده چه می توانم بدانم؟ به طور خاص تر: (1) آیا می توانم چیزی در مورد نوع نظارتی که استفاده شده است بدانم؟ به عنوان مثال، اگر من چندین مجموعه ممکن از برچسب‌ها را برای داده‌های آزمایشی خود داشته باشم، آیا می‌توانم بدانم که کدام مجموعه از برچسب‌ها به احتمال زیاد استفاده شده است؟) \--> برای مثال، اگر فرض کنم طبقه‌بندی کننده رمز و راز یک رگرسیون لجستیک است، آیا می توانم از همان تابع هزینه مانند تابع رگرسیون لجستیک برای کمی کردن فاصله بین خروجی های یک طبقه بندی کننده نامزد و معموم استفاده کنم؟ طبقه بندی کننده؟ (2) آیا می توانم در مورد نوع کاهش ابعاد (با نظارت/بدون نظارت) که قبل از طبقه بندی استفاده شده است، اطلاعاتی داشته باشم؟ \--> آیا این درست است که مدلی که از کاهش ابعاد نظارت شده + رگرسیون لجستیک (با همان برچسب) استفاده می کند، بهتر از کاهش ابعاد بدون نظارت + رگرسیون لجستیک عمل می کند، زیرا اگر کاهش ابعاد نظارت شود، تمام اطلاعات مربوط به کار انجام می شود. وجود خواهد داشت؟ سپس، آیا می‌توانم استنباط کنم که «طبقه‌بندی‌کننده رمزآلود» من شامل کاهش ابعاد نظارت‌شده مرتبط با کار است، در صورتی که عملکرد آن بسیار بهتر از یک رگرسیون لجستیک + PCA ساده باشد، یا اینکه در صورت اجرای بسیار بدتر، مقداری کاهش ابعاد نظارت‌شده غیرمرتبط با کار را شامل می‌شود. ? من فرض می کنم این مشکل وجود دارد که الگوریتم می تواند به دلایل دیگر بهتر یا بدتر باشد ... آیا می توانم بدانم؟
محتمل ترین الگوریتم یادگیری را از مجموعه تست و خروجی یک طبقه بندی کننده انتخاب کنید؟
38086
چه تأثیری بر d.f توزیع $\chi^2$ خواهد داشت
92271
من از vowpal wabbit برای حل یک مشکل زمینه‌ای-راهزن استفاده می‌کنم. من تبلیغاتی را به کاربران نشان می‌دهم، و اطلاعات کمی در مورد زمینه‌ای که آگهی در آن نشان داده می‌شود (مثلاً کاربر کیست، در چه سایتی است و غیره) دارم. به نظر می رسد این یک مشکل راهزن متنی بسیار کلاسیک است، همانطور که جان لنگفورد توصیف کرده است. در شرایط من، 2 پاسخ اصلی وجود دارد که کاربر می تواند به یک تبلیغ داشته باشد: کلیک کردن (احتمالاً چندین بار) یا عدم کلیک کردن. من حدود 1000 آگهی دارم که می توانم از بین آنها یکی را انتخاب کنم. Vowpal Wabbit به یک متغیر هدف به شکل «اقدام: هزینه: احتمال» برای هر زمینه نیاز دارد. در مورد من، عمل و احتمال به راحتی قابل تشخیص است: عمل تبلیغی است که من برای نمایش انتخاب کردم و احتمال با توجه به خط مشی فعلی من برای نمایش تبلیغات، احتمال انتخاب آن تبلیغ است. با این حال، من در پیدا کردن یک راه خوب برای ترسیم پرداخت های خود (کلیک ها) به هزینه ها مشکل دارم. واضح است که کلیک‌ها خوب هستند، و چند کلیک روی یک تبلیغ نیز بهتر از تک کلیک روی یک تبلیغ است. با این حال، کلیک نکردن روی یک تبلیغ خنثی است: در واقع هیچ هزینه ای جز فرصت از دست رفته برای یک کلیک برای من ندارد (من در یک زمینه تبلیغاتی عجیب و غریب کار می کنم). برخی از ایده هایی که داشته ام عبارتند از: 1. هزینه = -1 * علامت (کلیک) + 0 * (کلیک نشده) 2. هزینه = -1 * کلیک + 0 * (کلیک نشده) 3. هزینه = -1 * علامت( کلیک) + 0.01 * (کلیک نشده) 4. هزینه = -1 * کلیک + 0.01 * (کلیک نشده) در مورد یک بردار عمل از `(0، 1، 5، 0)` هزینه های این 4 تابع خواهد بود: 1. «(0، -1، -1، 0)» 2. «(0، -1، -5، 0)» 3. «( 0.01، -1، -1، 0.01)» 4. «(0.01، -1، -5، 0.01)» بدیهی است که راه های زیادی برای نشان دادن آن وجود دارد کلیک = خوب و بدون کلیک = بد. آیا خوب است که منافع را به عنوان هزینه های منفی نشان دهیم، یا باید همه چیز را به گونه ای تغییر دهم که همه هزینه ها مثبت باشد؟ آیا هزینه ای برای اقدامات نسبتا خنثی خوب است یا باید هزینه مثبت کوچکی به آنها بدهم تا مدل را به سمت اقدامات مثبت سوق دهم؟
توابع هزینه برای راهزنان متنی
50429
من به دنبال ادبیاتی در مورد چیزی هستم که آن را داده‌های متناسب چند متغیره می‌نامم که در آن یک مشاهده منفرد بردار نسبت‌هایی است که مجموع آنها 1 است. برای مثال، هر فرد ترجیحات خود را برای هر یک از تعداد ثابتی از دسته‌ها وزن می‌کند به طوری که وزن کل ثابت است. به طور کلی این می تواند داده های چند متغیره با یک محدودیت خطی در Ys باشد. آیا این اصطلاح مناسب برای چنین داده‌هایی است و آیا کسی می‌تواند مرجعی را در مورد موضوع توصیه کند؟ موتورهای جستجو (به طور طبیعی) در موردی که پاسخ یک نسبت است، کلید می زنند، که کاملاً آن چیزی نیست که من به دنبال آن هستم.
داده های متناسب چند متغیره
11557
من تعجب می کنم پروژکتورهای متعامد مانند تبدیل هادامارد آمار i.i.d را تغییر می دهند. داده های تولید شده در نظر بگیرید، i.i.d. داده های تولید شده $\mathbf{X}$ به طول $N$, $$\mathbf{X}_P=\mathbf{P}\mathbf{X}$$ که در آن $\mathbf{P}$ یک پروژکتور متعامد با اندازه است $N \times N$ و $\mathbf{X}_P$ داده‌های پیش‌بینی‌شده به طول $N$ است. واضح است که $\mathbf{P}$ ماتریس کوواریانس i.i.d را تغییر نمی‌دهد. داده ها، اما من شک دارم که آیا داده های پیش بینی شده هنوز i.i.d هستند. و شکل توزیع یکسان است، به عنوان مثال، اگر $\mathbf{X}$ i.i.d. از زبان لاپلاسی تولید می شود، سپس $\mathbf{X}_P$ هنوز i.i.d است. لاپلاس؟ پیشاپیش خیلی ممنون
35766
مدخل ویکی‌پدیا در CLT در یک نقطه بیان می‌کند: «برای $n$ بزرگ ثابت، می‌توان گفت که توزیع $S_n$ نزدیک به توزیع نرمال با میانگین $\mu$ و واریانس $\frac1n\sigma^2 است. دلار. $S_n = (\sum_{i=1}^nX_n) / n$ و $X_i$ iidهایی با میانگین $\mu$ و واریانس $\sigma^2$ هستند. من کاملاً نمی‌دانم که چگونه این از تعاریف رسمی‌تر دیگر نتیجه می‌گیرد. آیا این گفته درست است و منبع / مدرک چیست؟
قضیه حد مرکزی برای میانگین متغیرهای iid
50425
tl;dr - برای رگرسیون OLS، آیا R-squared بالاتر نیز به معنای P-value بالاتر است؟ به طور خاص برای یک متغیر توضیحی منفرد (Y = a + bX + e) ​​اما همچنین علاقه مند است که برای n متغیر توضیحی چندگانه (Y = a + b1X + ... bnX + e) ​​بداند. زمینه - من رگرسیون OLS را روی طیفی از متغیرها انجام می دهم و سعی می کنم با تولید جدولی حاوی مقادیر مربع R بین تبدیل های خطی، لگاریتمی و غیره هر متغیر توضیحی (مستقل) بهترین شکل تابعی توضیحی را ایجاد کنم. و متغیر پاسخ (وابسته). این کمی شبیه به این است: نام متغیر --شکل خطی-- --ln(متغیر) --exp(متغیر)-- ...و غیره متغیر 1 ------- R-squared ----R- مربع ----R-squared -- ... و غیره... من می دانم که آیا R-squared مناسب است یا P-value بهتر است. احتمالاً رابطه‌ای وجود دارد، زیرا یک رابطه معنی‌دارتر به معنای قدرت توضیحی بالاتری است، اما مطمئن نیستم که به روشی دقیق درست باشد.
رابطه بین R-squared و p-value در یک رگرسیون چیست؟
103080
ادغام مقادیر p (یا z-scores) با مقادیر از دست رفته
32238
با توجه به ماتریس کوواریانس (PSD ها و CSD های آنها) در تولید مجموعه ای از سری های زمانی رنگی ثابت مشکل دارم. من می‌دانم که با توجه به دو سری زمانی $y_{I}(t)$ و $y_{J}(t)$، می‌توانم چگالی طیفی توان (PSD) و چگالی طیفی متقاطع (CSD) را با استفاده از تعداد زیادی در دسترس تخمین بزنم. روتین ها، مانند توابع «psd()» و «csd()» در Matlab و غیره. PSD ها و CSD ها ماتریس کوواریانس را تشکیل می دهند: $$ \mathbf{C}(f) = \left( \begin{آرایه}{cc} P_{II}(f) & P_{IJ}(f)\\\ P_{JJ}(f) و P_{JJ} (f) \end{array} \right)\;، $$ که به طور کلی تابعی از فرکانس $f$ است. اگر بخواهم برعکس انجام دهم چه اتفاقی می افتد؟ **با توجه به ماتریس کوواریانس، چگونه می توانم یک تحقق $y_{I}(t)$ و $y_{J}(t)$ ایجاد کنم؟** لطفاً هر نظریه پس زمینه ای را اضافه کنم، یا به ابزارهای موجود اشاره کنید. این (هر چیزی در پایتون عالی خواهد بود). ## تلاش من در زیر شرحی از آنچه من امتحان کرده ام و مشکلاتی که متوجه شده ام است. خواندن آن کمی طولانی است، و ببخشید اگر دارای عباراتی است که سوء استفاده شده است. اگر بتوان به آنچه اشتباه است اشاره کرد، بسیار مفید خواهد بود. اما سوال من همان سوالی است که در قسمت بالا نوشته شده است. 1. PSDها و CSDها را می توان به عنوان مقدار انتظار (یا میانگین مجموعه) محصولات تبدیل فوریه سری زمانی نوشت. بنابراین، ماتریس کوواریانس را می توان به صورت زیر نوشت: $$ \mathbf{C}(f) = \frac{2}{\tau} \langle \mathbf{Y}^{\dagger}(f) \mathbf{Y} (f) \rangle \;، $$ که در آن $$ \mathbf{Y}(f) = \left( \begin{array}{cc} \tilde{y}_{I}(f) & \tilde{y}_{J}(f) \end{array} \right) \;. $$ 2. یک ماتریس کوواریانس یک ماتریس هرمیتی است که دارای مقادیر ویژه واقعی است که صفر یا مثبت هستند. بنابراین، می توان آن را به $$ \mathbf{C}(f) = \mathbf{X}(f) \boldsymbol\lambda^{\frac{1}{2}}(f) \: \mathbf{I تجزیه کرد } \: \boldsymbol\lambda^{\frac{1}{2}}(f) \mathbf{X}^{\dagger}(f) \;، $$ کجا $\lambda^{\frac{1}{2}}(f)$ یک ماتریس مورب است که عناصر غیرصفر آن ریشه‌های مربع مقادیر ویژه $\mathbf{C}(f)$ هستند. $\mathbf{X}(f)$ ماتریسی است که ستون‌های آن بردارهای ویژه متعامد $\mathbf{C}(f)$ هستند. $\mathbf{I}$ ماتریس هویت است. 3. ماتریس هویت به صورت $$ \mathbf{I} = \langle \mathbf{z}^{\dagger}(f) \mathbf{z}(f) \rangle \;, $$ که $$ \ mathbf{z}(f) = \left( \begin{array}{cc} z_{I}(f) & z_{J}(f) \end{array} \right) \;، $$ و $\\{z_{i}(f)\\}_{i=I,J}$ سری‌های فرکانس غیرهمبسته و پیچیده با میانگین و واریانس واحد صفر هستند. 4. با استفاده از 3. در 2.، و سپس مقایسه با 1. تبدیل فوریه سری های زمانی عبارتند از: $$ \mathbf{Y}(f) = \sqrt{ \frac{\tau}{2} } \mathbf{z}(f) \: \boldsymbol\lambda^{\frac{1}{2}}(f) \: \mathbf{X}^{\dagger}(f) \;. 5 دلار. سپس سری زمانی را می توان با استفاده از روال هایی مانند تبدیل فوریه سریع معکوس به دست آورد. من یک روال در پایتون برای انجام این کار نوشته ام: def get_noise_freq_domain_CovarMatrix(comatrix, df, inittime, parityN, seed='none', N_previous_draws=0 ) : سری های زمانی نویز را با توجه به covarix آنها برمی گرداند. - کوواریانس ماتریس، Nts x Nts x Nf آرایه numpy ( Nts = تعداد سری‌های زمانی. تعداد Nf فرکانس‌های مثبت و غیر Nyquist) df --- وضوح فرکانس inittime --- زمان اولیه نویز سری زمانی برابریN --- طول سری زمانی فرد یا زوج دانه --- دانه برای مولد اعداد تصادفی N_previous_draw --- است. تعداد قرعه کشی های اعداد تصادفی برای حذف اول OUPUT: t --- time [s] n --- نویز سری های زمانی، Nts x N آرایه numpy if len(comatrix.shape ) != 3 : raise InputError , ' ماتریس‌های کوواریانس ورودی باید یک آرایه 3 بعدی numpy باشند!' if comatrix.shape[0] !=comatrix.shape[1] : raise InputError، 'ماتریس کوواریانس باید در هر فرکانس مربع باشد!' Nts , Nf = comatrix.shape[0] , comatrix.shape[2] if parityN == 'Odd' : N = 2 * Nf + 1 elif parityN == ' زوج' : N = 2 * ( Nf + 1 ) دیگری : raise InputError , parityN باید فرد یا زوج باشد! stime = 1 / ( N*df ) t = inittime + stime * np.arange( N ) اگر
شبیه سازی سری های زمانی داده شده توان و چگالی طیفی متقاطع
60561
بهترین راه برای تجسم اثر متقابل تحلیل رگرسیون لجستیک (ترجیحاً با استفاده از SPSS) چیست؟ تعامل قابل توجهی بین یک بازه (HDI) و یک متغیر باینری (قبل/بعد از فوکوشیما) و همچنین بین همان متغیر بازه ای (HDI) و متغیر فاصله ای دیگر (سهم مصرف برق غیر قابل تجدید) وجود دارد. متغیر وابسته باینری است (مزایای اکولوژیکی انرژی خورشیدی در مقاله خبری با موضوع بله/خیر ذکر شده است). در صورت عدم موفقیت در هر نوع روش خاص تری برای انجام این کار، چه مراحل کلی تری برای رسیدن به تجسم وجود دارد؟ آیا تجسم حتی ایده خوبی است؟ (برای زمینه: تا به حال من به تعاملات با استفاده از ANOVA نگاه می کردم که در آن ترسیم افکت های تعامل ساده است. این تجسم ها بسیار مفید بوده اند و من چیزی مشابه را برای این کار می خواهم.)
64668
من بردار رتبه های صدک دارم. من می خواهم آنها را به z-score تبدیل کنم، بنابراین مقیاس فاصله خواهد بود. من باید آن را در R انجام دهم، اما نتوانستم تابع یا بسته ای را پیدا کنم که بتواند این کار را انجام دهد. آیا کسی ایده ای دارد؟
55612
من یک سوال مفهومی (اما به نوعی مبهم) در مورد برازش توزیع دارم. چه تعداد مشاهدات لازم است تا هر توزیع آماری را به بهترین نحو با داده های داده شده مطابقت دهد. مثل اینکه من با داده‌های از دست دادن سر و کار دارم و در یک موقعیت، فقط سه مشاهده داشتم که هنوز می‌توانستم توزیع عادی را مطابقت دهم، که در واقعیت فکر می‌کنم پوچ است. یک داده دیگر و سناریو ممکن است تغییر کند. از این رو، آیا هیچ قاعده‌ای برای حداقل تعداد مشاهدات وجود دارد تا برازش توزیع پایدار داشته باشیم؟ پیشاپیش از آکشاتا تشکر می کنم
حداقل شماره مشاهدات مورد نیاز برای برازش توزیع آماری!
32239
همانطور که در مرلو و همکاران (J Epidem Comm Health 2006) توضیح داده شد، فاصله 95% معتبر برای MOR با استفاده از MCMC محاسبه می شود. MOR به صورت $\exp(\sqrt{2\sigma^2}\times 0.675)$ تعریف می‌شود، که در آن $\sigma$ واریانس سطح 2 وقفه تصادفی $u$ از یک مدل صفر از یک رگرسیون لجستیک سلسله مراتبی است. . آیا کسی ایده ای در مورد نحوه نوشتن برنامه ای برای یک زنجیره مارکوف مونت کارلو برای محاسبه خطای استاندارد نسبت شانس میانه (MOR) با استفاده از rjags دارد؟ متغیر وابسته من نتیجه (زنده/مرده) و متغیر خوشه بندی (سطح 2) بیمارستان است. 140 بیمارستان وجود دارد و مایلم تفاوت هایی در نتیجه بین بیمارستان ها مشاهده شود. سایر عوامل خطر بعداً به عنوان متغیرهای مستقل سطح 1 درج خواهند شد.
چگونه با استفاده از JAGS فاصله 95 درصدی را برای نسبت شانس میانه پیاده سازی کنیم؟