_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
86368
انگیزه تحقیر داده ها هنگام انجام PCA چیست؟ به من گفته شده است که این کار را انجام دهم، اما هرگز دلیل خوب و/یا شهودی برای آن نشنیده ام. آیا این موردی است که انجام آن فقط ریاضیات را آسان‌تر می‌کند یا بیشتر شبیه این است: اگر آن را انجام ندهید، پاسخ اشتباهی دریافت خواهید کرد. این چیزی است که مدتی است در مورد آن فکر می کنم. یک سوال دیگر: وقتی داده ها را تحقیر می کنید، آیا باید آن را نیز نرمال کنید (یعنی تقسیم بر انحراف استاندارد)؟
PCA داده ها را تحقیر می کند
78878
آیا مناسب است که یک مدل رگرسیون چند متغیره را با متغیرهای وابسته که مستقیماً متغیر مستقل را محاسبه می کنند، برازش دهیم؟ به عنوان مثال، من می دانم که برازش یک مدل برای پیش بینی BMI با استفاده از قد و وزن و سایر متغیرها در مدل، خیر است زیرا BMI=weight/height^2، با این حال... اگر یک مجموعه داده طولی داشته باشم چه می شود. افراد اندازه‌گیری‌های BMI را در طول زمان گزارش کرده‌اند و من می‌خواستم از یک عبارت مرتبه بالاتر با استفاده از قد و وزن استفاده کنم (مانند زمان*قد و زمان*وزن و زمان*قد*وزن)؟ آیا گنجاندن عبارت مرتبه پایین قد و وزن در مدل هنوز نامناسب است؟ آیا حتی استفاده از اصطلاحات مرتبه بالاتر که شامل قد و وزن است مناسب است؟ من از بازخورد قدردانی می کنم.
آیا زمانی که متغیرهای مستقل را مستقیماً محاسبه می کنند، قرار دادن متغیرهای وابسته در یک مدل مناسب است؟
79582
من آزمایش های زیادی با نوع داده های زیر دارم. اندازه نمونه $n\geq 1$ است. برای هر آزمون $i$ در نمونه هزینه $c>0$ و درآمد $r_i\geq 0$ است. هزینه c$ ثابت است. درآمد $r_i$ چند مقدار متفاوت را در نظر می گیرد و اغلب باید $0 باشد. میانگین درآمد را به صورت $\frac{1}{n}\cdot\sum_{i=1}^{n} (r_i-c)$ محاسبه کنید. حجم نمونه با گذشت زمان افزایش می یابد. در هر زمان، من می خواهم تعیین کنم که آیا حجم نمونه به اندازه کافی بزرگ است تا مشخص شود که آیا میانگین درآمد مثبت است یا منفی.
علامت اعتبارسنجی میانگین
58404
من در حال تجزیه و تحلیل آزمایشی هستم که با 20 شرکت‌کننده با استفاده از یک ANOVA طرح مختلط 2 دلار بار 2 دلار انجام شد. این آزمایش دارای * یک متغیر درون آزمودنی _A_ با دو سطح ( _a1_, _a2_) * یکی بین آزمودنی ها متغیر _B_ با دو سطح (_b1_, _b2_) نتایج تجزیه و تحلیل ANOVA به شرح زیر است: > B F(1,18) = 5 ,84 p<0,026493 SS=1,44 MSe=0,25 > > A F(1,18) = 11,1 p<0,003734 SS=1,25 MSe=0,11 > > B*A F(1,18) = 7,16 p<0,015412 SS=0,81 MSe=0,11 وجود دارد دلیلی برای اجرای آزمون تعقیبی در این زمینه وجود دارد؟ SPSS از متغیرهایی که کمتر از 3 سطح دارند شکایت می کند و به همین دلیل به من اجازه نمی دهد که تست های Post-hoc را اجرا کنم. **سوال** آیا در این نوع سناریوها امکان اجرای تست تعقیبی بونفرونی وجود دارد؟ اگر نه، چرا؟ اگر بله، چگونه می توان آن را در SPSS انجام داد؟
Post-hoc برای 2x2 طراحی مختلط ANOVA با استفاده از SPSS
55383
من از الگوریتم درختان مدل لجستیک LMT در برخی آزمایشات طبقه بندی استفاده کرده ام. با این حال، پس از خواندن مرجع/اسناد مربوط به الگوریتم (Niels Landwehr, Mark Hall, Eibe Frank (2005). درختان مدل لجستیک. یادگیری ماشینی. 95(1-2):161-205.) و خودم آن را پیاده سازی می کنم. هنوز نیاز به توضیح بیشتر در مورد بهترین راه برای ارزیابی درختان تولید شده، به ویژه در نحوه مشاهده/ارزیابی اینکه چگونه هر برگ می تواند در طبقه بندی خاص در اینجا مثالی از یک نتیجه آورده شده است: > ## درخت مدل لجستیک > >> : LM_1:12/12 (453) _// <\- در اینجا 1:12/12 چه خواهد شد؟ (از آنجایی که 453 تعداد نمونه است)_ > > تعداد برگها: 1 > > اندازه درخت: 1 > > LM_1: کلاس 0 : 0.45 + > > [[cue_1]] * -72.14 + > > [[cue_2] ]] * -2.71 + > > [[cue_3]] * -3.88 + > > [[cue_4]] * 54.6 + > > [[cue_5]] * -12.28 + > > [[cue_12]] * -0.57 + > > [[cue_18]] * -7.24 > > کلاس 1: -0.45 + > > [[cue_1]] * 72.14 + > > [[cue_2]] * 2.71 + > > [[cue_3]] * 3.88 + > > [[cue_4]] * -54.6 + > > [[cue_5]] * 12.28 + > > [[cue_12]] * 0.57 + > > [[cue_18]] * 7.24 اینچ در برگ بالا، اینها نشانه هایی هستند که از لیست 20 مورد در نظر گرفته شده اند. بنابراین، من فکر می کنم که اینها نشانه هایی بودند که اطلاعات قابل قبولی داشتند، درست است؟ از آنچه من درک می کنم، هر برگ نماینده یک مدل رگرسیون لجستیک است. از این نظر، مثبت ها و منفی هایی که رخ می دهند نشان دهنده وزن های مثبت یا منفی نسبت به آن طبقه خاص هستند؟ آیا نشان دهنده میزان وزنی است که یک نشانه خاص (اعم از مثبت یا منفی) برای طبقه بندی نسبت به یک طبقه یا طبقه دیگر ارائه می دهد؟ هر گونه اطلاعات در مورد موضوع بسیار قدردانی خواهد شد. پیشاپیش از هرگونه کمکی که می توانید به من قرض دهید سپاسگزارم.
ارزیابی نتایج طبقه‌بندی‌کننده LMT (درخت مدل لجستیک).
34239
من دانشجوی MBA-Business Intelligence and Data Analytics هستم. من می خواهم نام چند کتاب خوب در زمینه تحلیل رگرسیون را بدانم که از منظر تصمیم گیری تجاری نوشته شده است.
کتاب های رگرسیون برای افراد تجاری
74760
فرض کنید مشاهدات زیر را از بسیاری از توزیع‌های برنولی با p مختلف دارم (p1، p2، ​​..): مشاهدات از توزیع 1: 10 موفقیت، 100000 آزمایش، p_hat = 0.0001 مشاهدات از توزیع 2: 0 موفقیت، 100 آزمایش، p_hat = 0 مشاهدات از توزیع 3: 4 موفقیت، 60000 آزمایش، p_hat = 0.00007 می‌خواهم این توزیع‌ها را بر اساس احتمال موفقیت واقعی‌شان مرتب کنم و از شر توزیع‌هایی که احتمال موفقیت پایینی دارند خلاص شوم. با این حال، به دلیل ماهیت ذاتی این توزیع‌ها، احتمال موفقیت آنقدر کم است که اگر از فاصله اطمینان استاندارد والد و ویلسون برای توزیع‌های برنولی استفاده کنم، نتایج چندان منطقی نیستند. آیا روش آماری استانداردی برای مقابله با این نوع مشکلات وجود دارد؟ یا اینکه برای حذف توزیع هایی با احتمال موفقیت کم باید به برخی اکتشافی های تعریف شده متوسل شوم؟
فواصل اطمینان برنولی برای p بسیار نزدیک به 0
34592
> **تکراری احتمالی:** > تعیین یک ضریب تصحیح و اعمال آن در مجموعه دوم اعداد 1st- من می خواهم ضریب همبستگی/تصحیح بین دو مجموعه اعداد (سری های زمانی) را بفهمم. 2- من می خواهم آن ضریب تصحیح را در مجموعه دومی از اعداد اعمال کنم. به عنوان مثال - بگویید من دو سنسور دما دارم و آنها را دقیقاً در یک محیط قرار می دهم. حتی اگر آنها باید دمای یکسانی را بخوانند، به دلیل خطای بین سنسورها، می توانم انتظار کمی افست داشته باشم. چیزی شبیه به: سنسور 1 سنسور 2 10 10 10 9 11 11 12 11.8 13 12.9 14 13.9 بنابراین شروع کنید، در مورد بهترین راه برای کشف ضریب تصحیح مطمئن نیستم. اجرای تحلیل رگرسیون یا تحلیل همبستگی با رسم نمودار پراکندگی x y و محاسبه بهترین خط برازش بسیار آسان است. اما، من مطمئن نیستم که آیا این راه است. اما سوال اصلی این است که وقتی این ضریب تصحیح را فهمیدم، چگونه آن را روی مجموعه دوم اعداد اعمال کنم به نحوی که خطای مربوط به مجموعه اول اعداد را منعکس کند (در واقع حسگر 2 کمی کمتر از سنسور 1). برای ادامه مثال بالا، بگویید من همان دو سنسور را می‌گیرم، اما اکنون آنها را در محیط‌های مختلفی قرار می‌دهم که در معرض دماهای متفاوتی قرار می‌گیرند. حالا من مجموعه دومی از اعداد (زیر) را از همان سازها دارم اما دیگر همان دما را نمی‌خوانم. چگونه می توانم ضریب تصحیح اصلی را به مجموعه ای از اعداد از محیط های مختلف مرتبط کنم. سنسور 1 سنسور 2 10 13 11 14 12 14 12 14 13 14 از آنجایی که سنسورها اکنون در دو محیط مختلف هستند، دیگر نمی توانم فقط اعداد را به یک معادله رگرسیون خطی نوع y=mx+b متصل کنم. بنابراین چگونه می توانم برای افست شناخته شده بین دو سنسور حساب کنم؟ برای اولین مجموعه اعداد، تحلیل رگرسیون معادله y=1.0925x -1.3125 را به دست می دهد. فکر من این بود که می توانم از معادله رگرسیون از اولین مجموعه اعداد به عنوان ضریب تصحیح خود استفاده کنم و سپس آن را در مجموعه اعداد دوم اعمال کنم تا آنها را برای محاسبه خطای ذاتی حسگرها تنظیم کنم. من امیدوار بودم که مجموعه دوم داده را با افزودن مقدار رهگیری y به حسگر 2 تنظیم کنم، اما این بدیهی است که کار نمی کند. بنابراین فکر می کنم از درخت اشتباهی پارس کرده ام
تعیین یک عامل همبستگی و اعمال آن در مجموعه دوم اعداد
73757
من موارد زیر را دیده‌ام که معمولاً مورد استفاده قرار می‌گیرند: 1. متناسب کردن یک مدل با همه متغیرها، 2. در یک مرحله کاهش، همه متغیرهایی را که با برخی از معیارها مطابقت ندارند به یکباره از مدل حذف کنید، 3. کالیبره کنید. مدل کاهش یافته، در مورد من به مجموعه داده های جدید، 4. نتایج مدل را بررسی کنید و امیدوارم همه چیز خوب پیش رفت و شما بتوانید متوقف شوید. من شرط می بندم که این عملکرد بهتر از گام به گام است، به خصوص زمانی که با تقسیم داده ها استفاده می شود، اما اگر وجود داشته باشد، نامی برای این روش و شاید یک مرجع مرتبط با آن وجود داشته باشد تا بتوانم بیشتر بیاموزم. شاید آنقدر ساده/بد/بدیهی است که هیچکس اذیت نشده است؟ -WVG
برای روش کاهش متغیر زیر در رگرسیون به نام، مرجع و/یا مطالعه نیاز دارید
93672
من جدول زیر مقادیر X و Y را دارم: X Y 1 68 55 2 54 38 3 90 95 4 64 63 5 61 58 6 51 40 7 79 74 8 51 32 9 83 84 10 48 45 * زیر را دارم: با استفاده از روش حداقل مربعات رگرسیون خطی ایجاد کنید * از این مدل زمانی که X = 100 نتیجه گیری کنید * خطای استاندارد مدل را محاسبه کنید
من مطمئن نیستم که چگونه یک مدل رگرسیون خطی ساده را اجرا و تفسیر کنم که در آن Y ~ یک X منفرد است
25641
من در حال محاسبه سطوح موجودی برای دسته‌ای از SKU هستم و می‌پرسم آیا شما آماردانان توانا کارتی در آستین دارید که بتوانم آن را قرض بگیرم. معامله اینجاست: سطح خدمات به ناچار تحت تأثیر مقدار موادی که تصمیم می‌گیرم در انبار بگذارم قرار می‌گیرد. هرچه بیشتر انبار کنم، نرخ پر شدن بالاتر خواهد بود (اما البته موجودی ارزان نیست). هر چه کمتر در خدمت باشم، احتمال تسویه انبار بیشتر می شود. من باید بین هزینه های نگهداری و سطح خدمات تعادل ایجاد کنم. بر اساس فروش گذشته، من توانستم نرخ پر شدن مورد انتظار را در برابر حجم مواد موجود ترسیم کنم. آن را بررسی کنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wVMjE.png) همانطور که همه می بینید، سطح خدمات در ابتدا به سرعت افزایش می یابد، اما سپس نرخ رشد شروع به کاهش می کند. کاملا ناگهانی رفتن از 90% به 100% نیاز به 9 برابر مقدار مواد لازم دارد تا از 0% به 90% برسد. حالا، برای رسیدن به اصل موضوع، آیا راهی علمی وجود دارد که بگویم کجا باید توقف کنم؟ چگونه می توانم بفهمم که افزایش نهایی در نرخ پر شدن برای آن مقدار زیاد در حجم ذخیره شده بسیار کم است؟ من می دانم که انتخاب سطح خدمات مناسب بیشتر یک تصمیم سیاسی است، اما من واقعاً امیدوار بودم که شما بچه ها بتوانید نوعی پیشنهاد برای کمک به من در این روند ارائه دهید. من در اینجا به نوعی خارج از عنصرم هستم. بچه ها از وقتی که گذاشتید متشکرم!
آیا آمار می تواند در تصمیم گیری های مدیریت موجودی کمک کند؟
90498
آیا آزمون/روشی برای تعیین توزیع نوسانات تصادفی وجود دارد؟ به عنوان مثال، من یک راه رفتن تصادفی دارم که در آن افزایش‌ها به طور غیرعادی توزیع شده و هتروسکداستیکی هستند. من می‌خواهم مدلی را امتحان کنم که شامل نوسانات تصادفی باشد اما دلیلی برای این باور نداشته باشم که طبیعی است - و آیا اکثر مدل‌ها این را فرض نمی‌کنند؟
توزیع نوسانات
114129
من سعی می کنم نام این روش (و در نهایت یک مرجع) را پیدا کنم. روش به شرح زیر است: 1) برازش یک مدل اثر مختلط با یک وقفه تصادفی $$ E(Y_{ij})= \beta_0+\beta_1x_1+\gamma_{0j} $$ 2) از برش های تصادفی تخمین زده شده به عنوان متغیرهای پاسخ استفاده کنید در یک رگرسیون خطی جدید $$ E(\gamma_{0j})= \beta_2+\beta_3z_3 $$ هر ایده ای؟
رهگیری های تصادفی به عنوان متغیرهای پاسخ: آیا نامی برای این روش وجود دارد؟
51408
من یک سیگنال سری زمانی کوتاه دارم (مثلاً حدود 30 نمونه)، و می خواهم بررسی کنم که آیا نوسان دارد یا خیر. یکی از روش هایی که من به آن رسیدم اندازه گیری همبستگی خودکار سیگنال با خودش بود. با توجه به یک سیگنال ورودی تصادفی، انتظار خروجی 0 را دارم. با توجه به یک سیگنال نوسانی، مقداری مقدار ثابت بیشتر از 0 را انتظار دارم. دوره ای است)، اما وقتی میانگین همبستگی های خودکار را در تمام افست های ممکن در نظر بگیرم، بدون توجه به اینکه سیگنال ورودی به نظر می رسد این احتمالاً درست است (اگرچه آن چیزی نیست که من انتظار داشتم)، اما به نظر نمی‌رسد که نمی‌توانم فکر کنم چرا چنین می‌شود. آیا روش بهتر یا صحیح تری برای بررسی خودهمبستگی ها برای سنجش تمایل سیگنال به موافقت با نسخه تغییر یافته خود وجود دارد؟ چه چیزی را از دست داده ام؟
چگونه می توان خودهمبستگی متوسط یک سیگنال سری زمانی را با خودش اندازه گیری کرد
91635
من یک مدل رگرسیون هارمونیک را بر روی داده های گیاهان مختلف به صورت جداگانه به صورت زیر برازش می کنم: d1 <- c(0.03895199، 0.04048451، 0.04514816، 0.03701958، 0.04196877، 0.04196877، 0.043 <3 c(0.05928356، 0.05418038، 0.05917998، 0.06842356، 0.04053254، 0.05161718) time=c(1/6،2/6،3/6،4/6/6،5/6، منحنی data.frame(time=c(1/6,2/6,3/6,4/6,5/6,6/6), intensity=d2) STlm <- lm(شدت ~ sin(2*pi* زمان)+cos(2*pi*زمان) +sin(4*pi*زمان)+cos(4*pi*زمان)،داده=منحنی) نمودار(شدت~زمان،داده=منحنی) نقاط (شدت ~ زمان ، داده = منحنی ، pch = 20 ، lwd = 5) خطوط (شدت ~ زمان ، داده = منحنی ، lty = 2) خطوط (STlm $ fitted~ زمان ، col = 2 ، داده = منحنی) برازش خوب به نظر می رسد همانطور که در تصاویر زیر مشاهده می شود![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0Laf3.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HOMWH.png) اما من می‌خواهم یک مدل تکی بسازم. برای آنچه که تا به حال خوانده ام، به نظر می رسد که باید یک نمونه برداری تصادفی از این دو گیاه را در نظر بگیرم، و به دنبال این مرجع، سعی کردم یک مدل ترکیبی را به روش زیر برازش دهم data <- data.frame(int= c(d1, d2)، time=rep(time,2)، idx=rep(1:2,each=6)) fm1.lme <- lme(int ~ sin(2*pi*time)+cos(2*pi*time) +sin(4*pi*time)+cos(4*pi*time), data = data, random = ~ 1 idx) # model 0.0483369985 | +0.0007153365 *sin(2*pi*data$time)+ -0.0031904639*cos(2*pi*data$time)+0.0038267490*sin(4*pi*data$time)+0.0014627727* cos(4*pi*data$time) نتیجه‌ای خواندم که منطقی به نظر می‌رسد![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/lSmHI.png) من تعدادی دارم تردیدهای اولیه: آیا از کدگذاری صحیح استفاده کرده ام تا بگویم متغیر int (از گیاهان مختلف) اثر تصادفی است؟ به طور خلاصه: مدل خطی اثرات مختلط متناسب با REML داده: داده AIC BIC logLik -23.00751 -23.38614 18.50376 اثرات تصادفی: فرمول: ~1 | idx (Intercept) Residual StdDev: 0.009743065 0.00723739 جلوه های ثابت: int ~ sin(2 * pi * time) + cos(2 * pi * time) + sin(4 * pi * time) + cos(4 * pi * time) Value Std.Error DF-t-value p-value (Intercept) زمان 0.002954652 6 -1.079810 0.3217 sin(4 * پی * زمان) 0.00382675 0.002954652 6 1.295161 0.2429 cos(4 * پی * زمان) 0.07256026 0.0014 0.495074 0.6382 همبستگی: (Intr) s(2*p*t c(2*p*t s(4*p*t sin(2 * pi * time) 0 cos(2 * pi * time) 0 0 sin(4 * pi * زمان) 0 0 0 cos (4 * پی * زمان) 0 0 0 0 باقیمانده های استاندارد شده درون گروهی: حداقل Q1 Med Q3 Max -1.14446419 -0.31620917 0.01160475 0.39646718 1.37276892 تعداد مشاهدات: 12 تعداد گروه ها: 2 چرا من برای مدل تصادفی و ثابت ضریب دارم؟ معیار خوبی برای برازش، مشابه R2 برای یک مدل خطی چیست؟ من همچنین مقادیر برازش را برای متغیر idx دارم، که فقط برای اطلاع از اینکه دو گروه مختلف دارم fm1.lme$fitted fixed idx 1 0.04994394 0.04335105 2 0.04650628 0.03991339 3 0.04391339 3 0.04391339 0.049 0.047 0.05189541 0.04530252 آیا راه دیگری برای اطلاع رسانی وجود ندارد که برای مدل معنی ندارد؟ پیشاپیش از کمک متشکرم به سلامتی
تفسیر مشکل نتیجه مدل مختلط خطی - تابع R lme
114127
در درخت Hoeffding (که ویژگی‌های پیوسته را کنترل می‌کند)، نابرابری Hoeffding حداقل مقدار نمونه‌ای را پیشنهاد می‌کند که باید قبل از تعیین بهترین ویژگی تقسیم با اطمینان به آن نگاه کرد. چیزی که من دریافت نمی کنم این است که وقتی بهترین ویژگی تقسیم تعیین می شود، چگونه تضمین می شود که آستانه تقسیم (یا نقطه تقسیم) برای ویژگی انتخاب شده، بر اساس مقدار محدود نمونه، نیز بهینه باشد؟
چگونه می توان بهترین آستانه تقسیم (نقطه تقسیم) را در درخت هوفدینگ (برای ویژگی های پیوسته) تعیین کرد؟
51401
من یک مطالعه دارم که در آن 3 گروه خدمه دارم (هر گروه 4 خدمه) که در آن دو نفر (L/R) حضور دارند. هر خدمه 4 نورپردازی (D1-4) را یک بار در یک موقعیت و بار دیگر در موقعیت دیگر (F/M) تجربه کردند. هر یک از خدمه سه چیز برای مشاهده داشتند (N1-3). صرفاً برای پیچیده‌تر کردن مسائل، احتمالاً بهتر است بگوییم که Nها در داخل روش‌های نورپردازی تودرتو بودند، زیرا بسته به نوع نورپردازی کمی متفاوت بودند. D در هر خدمه است. N بین خدمه (گروه) است. پس از هر مواجهه، پرسشنامه ای با 5 گویه به آنها داده می شود. فرض من این است که 4 خدمه در شرایط یکسان باید یک تکرار در نظر گرفته شوند. بنابراین من 4 تکرار از هر ترکیب نورپردازی/N/Position دارم. یا، آیا می توانم هر خدمه را جداگانه در نظر بگیرم؟ **اولین فکر من این بود که ** L - درون - ثابت (4 سطح) N - بین - ثابت (3 سطح) تکرار - بین - تصادفی (4 سطح) موقعیت - بین - ثابت (2 سطح) ** سپس فکر کردم شاید باید در نظر داشته باشم که فقط 12 درمان منحصر به فرد (L(4) x N(3)) دارم، نه اینکه فکر کنم آنها دو عامل هستند. اما مطمئن نبودم که بتوانم این کار را در یک آنووا ساده انجام دهم، زیرا یکی بین و دیگری درون است. بنابراین به نظر می رسید یک مدل تودرتو مورد نیاز است** N - بین - ثابت N(L) - درون - تکرار ثابت - موقعیت تصادفی - ثابت N(L)*Rep N(L)*Pos N(L)*Rep*Pos Is درست است؟ و حتی اگر اینطور باشد، ... مطمئن نیستم که بفهمم چگونه با اقدامات مکرر در spss این کار را انجام دهم. اگر این کار را فقط در GLM انجام دهم چه چیزی را از دست می دهم؟ فکر من این است که میانگین‌ها را در تمام خدمه‌ها برای یک گروه N و موقعیت یکسان بگیرم. بنابراین من اساساً 6 موضوع دارم (تعریف شده توسط N آنها (3) x در چه موقعیتی هستند (2)) که معیارهای تکراری 5 (سوالات) * 4 (سطح L) = 20 ستون متغیرهای وابسته را ارائه می دهد. ; که در آن هر سلول میانگین داده های 4 خدمه است. اما به نظر می رسد این بدان معناست که شما مقداری از تغییرپذیری در تجزیه و تحلیل را که می توانید در فاکتور Rep بالا آزمایش کنید، از دست داده اید. بله؟ کمک .. کمک لطفا ... ممنون ...
مدل مخلوط اقدامات مکرر، تو در تو
61711
در این تاپیک، من یک مشکل مربوط به تطبیق مدلی را مطرح کردم که سعی می‌کند از آمارهای بیسبال جزئی برای پیش‌بینی موفقیت در سطح لیگ برتر استفاده کند (به طور کامل در تاپیک توضیح داده شده است). پس از انجام تحقیقات بیشتر در خارج از موضوع، به این نتیجه رسیده‌ام که یک مدل دوجمله‌ای منفی با تورم صفر احتمالاً بهترین تناسب است، زیرا معتقدم دو فرآیند تولید داده‌ها هستند. اولین فرآیند تعیین می‌کند که آیا یک بازیکن به مسابقات اصلی می‌رسد یا خیر و زمانی که بازیکن به مسابقات اصلی برسد، فرآیند دوم بر موفقیت آنها نظارت می‌کند (همانطور که توسط WAR اندازه‌گیری می‌شود - همچنین در موضوع مرتبط توضیح داده شده است). من مدل را اجرا کردم و به نظر می رسد مدل ZINB با توجه به نمودار تشخیصی زیر مقادیر برازش شده در مقابل باقیمانده ها (برای سهولت بازرسی بصری به دو نمودار تقسیم شده است) تناسب معقولی دارد. ![image3](http://i.imgur.com/GO28KA3.jpg) ![image1](http://i.imgur.com/6J1QGOj.jpg) ![image2](http://i.imgur .com/Qe3vmGx.jpg) **ویرایش 2: در اینجا نموداری از باقیمانده های پیرسون است.** ![image3](http://i.imgur.com/eyRBF7C.jpg/) **ویرایش 3: در اینجا نموداری از باقیمانده های پیرسون در مقابل مقادیر برازش آمده است.**![image4](http://i .imgur.com/nNsgFPl.jpg) اگرچه این پیشرفت بزرگی نسبت به مدل‌های قبلی من است، اما به وضوح یک سوگیری برای مدل وجود دارد که جنگ حرفه‌ای بازیکن را دست کم بگیرد. یعنی اکثریت باقیمانده ها بزرگتر از صفر هستند. **ویرایش: به نظر می رسد که طرح به دلیل تعداد بالای باقیمانده های همپوشانی گمراه کننده است. در واقع، تنها 10% از باقیمانده ها بزرگتر از صفر هستند.** من حدس می زنم که این ممکن است با الف) مشخصات بهتر شکل عملکردی متغیرهای کمکی یا ب) با استفاده از یک مدل متفاوت و در عین حال مشابه، به عنوان مثال، ZIP بهبود یابد. . با توجه به اینکه این نوع رگرسیون بسیار فراتر از آن چیزی است که قبلاً با آن کار کرده‌ام، از هر پیشنهادی در مورد تشخیص بیشتر که بتوانم برای آزمایش این مدل و مقایسه آن با سایرین و نحوه بهبود شکل عملکردی متغیرهای کمکی استفاده کنم قدردانی می‌کنم. تابع R که من استفاده کردم، zeroinfl (از بسته pscl)، به نظر نمی رسد که انعطاف پذیر باشد. متشکرم!
برازش رگرسیون دو جمله ای منفی با تورم صفر با R
51406
**زمینه:** اغلب در نهایت یک مقاله پی دی اف را دو بار دانلود می کنم زیرا یادم نمی آید قبلا آن را دانلود کرده باشم. یکی از راه‌های دور این است که فهرستی از چک‌سام‌ها (مثلا md5 و غیره) را بر اساس تبدیل متن ساده یک pdf حفظ کنید و اگر مطابقت یافت شد، دوباره دانلود نکنید. مشکل این است که مقالات دانلود شده آنلاین اغلب دارای یک مهر زمانی، IP یا سایر اطلاعات جاسازی شده در پاورقی یا یک صفحه شروع اضافی از سرویس دانلود هستند. این مانع از بررسی دقیق می شود. علاوه بر این، اگر pdf از تصاویر اسکن شده تشکیل شده باشد، یک مرحله پیش پردازش OCR مورد نیاز است و خروجی ممکن است هر بار کمی متفاوت باشد. حتی ابزارهای تبدیل pdf->plaintext بدون خطا نیستند و ممکن است هنگام تبدیل قالب‌بندی، معادلات، جداول و غیره مقداری نویز اضافه کنند. سر و صدا؟ یکی از گزینه‌هایی که می‌توانم به آن فکر کنم، مثلاً، طیف فرکانسی 20 کلمه رایج در هر مقاله است. اما این مستعد است که با the, a و همه کلمات رایج رقیق شود. چه چیز دیگری ممکن است ایده های خوبی برای یک نوع فازی از چکسام باشد؟ با طراحی برای md5sum و غیره، خروجی حتی برای تغییرات کوچک در ورودی به شدت تغییر می کند. من این ملک را نمی خواهم
نسخه آماری فازی یک جمع کنترلی برای امضای متن فایل
74764
من یک داده سری زمانی سالانه دارم، از سال 1980 تا 2005. داده ها به یک نمونه آموزشی و یک نمونه خارج تقسیم می شوند. نمونه خارج از نمونه شامل 6 مشاهدات اخیر است و بقیه برای نمونه آموزشی در نظر گرفته شده است. من باید یک مدل ETS را تنظیم کنم و معیارهای دقت مختلف را برای گام‌های پیش‌بینی مختلف h=1،2،3،4،5 و 6 مقایسه کنم. چیزی شبیه به این: h=1h=2h=3h=4h=5 h=6 MSE .. .. .. .. .. .... .. .. .. .... .. MASE .. .. .. .. .. ...... .. .. .. .. .... h=6: trainx<- window(x,end=1999.99) testx<- window(x,start=2000) fit<- ets(trainx) دقت (پیش‌بینی (مناسب،h=6)،testx) سؤال‌ها عبارتند از: 1. چگونه می‌توانم اندازه‌گیری‌های دقت را برای h=1،2،3،4،5 محاسبه کنم؟ به عنوان مثال، وقتی h=2، مدلی را به داده های آموزشی برازش می کنم و پیش بینی مربوط به سال های 2000 و 2001 را تولید می کنم. آیا باید فرض کنم که مشاهدات سال های 2000 و 2001 شناخته شده باشند و سپس با مدل جدیدی مطابقت داشته باشند (این بار باید مشاهدات سال های 2000 و 2001 را به مجموعه آموزشی اضافه کنم)، سپس، برای تولید پیش بینی سال های 2002 و 2003؟
اندازه گیری دقت پیش بینی برای افق های مختلف پیش بینی h در R
93099
فرض کنید یک تابع $f(x)$ داریم که فقط از طریق مقداری نویز می توانیم آن را مشاهده کنیم. ما نمی‌توانیم $f(x)$ را مستقیماً محاسبه کنیم، فقط $f(x) + \eta$ که $\eta$ مقداری نویز تصادفی است. (در عمل: من $f(x)$ را با استفاده از روش مونت کارلو محاسبه می کنم.) چه روش هایی برای یافتن ریشه های $f$ موجود است، یعنی محاسبه $x$ به طوری که $f(x) = 0$ باشد؟ من به دنبال روش هایی هستم که تعداد ارزیابی های مورد نیاز برای $f(x)+\eta$ را به حداقل برسانند، زیرا این کار از نظر محاسباتی گران است. من به ویژه به روش هایی علاقه مند هستم که به چند بعد تعمیم می دهند (یعنی حل $f(x,y) = 0، g(x,y) = 0$). من همچنین به روش هایی علاقه مند هستم که می توانند از برخی اطلاعات در مورد واریانس $\eta$ استفاده کنند، زیرا تخمینی از این ممکن است هنگام محاسبه $f(x)$ با استفاده از MCMC در دسترس باشد.
ریشه یابی برای تابع تصادفی
93096
من برخی از داده ها را دارم و سعی می کردم یک منحنی صاف را به آن برسانم. با این حال، من نمی‌خواهم بسیاری از باورهای قبلی یا پیش‌برداشت‌های خیلی قوی (به‌جز آن‌هایی که در بقیه سؤال‌ام به آن اشاره می‌شود) یا هر توزیع خاصی را روی آن اعمال کنم. من فقط می خواستم آن را با مقداری منحنی صاف تطبیق دهم (یا تخمین خوبی از توزیع احتمالی داشته باشم که ممکن است از آن حاصل شده باشد). تنها روشی که من برای انجام این کار می شناسم، تخمین چگالی هسته (KDE) است. می‌خواستم بدانم آیا مردم روش‌های دیگری برای تخمین چنین چیزی می‌دانند؟ من فقط فهرستی از آنها را می خواستم و از این طریق می توانم تحقیق خودم را انجام دهم تا بفهمم از کدام یک می خواهم استفاده کنم. دادن هر لینک یا ارجاع خوب (یا شهودی که در مورد آنها خوب است) همیشه خوش آمدید (و تشویق می شود)!
روش های ناپارامتریک مختلف برای تخمین توزیع احتمال داده ها
55386
من می خواهم از طریق رویکرد ماتریسی نمرات رایانه های شخصی را بدست بیاورم. نمرات رایانه‌های شخصی محاسبه‌شده من برای ماتریس همبستگی با نتایج «prcomp» مطابقت دارد، اما امتیازات رایانه‌های شخصی برای ماتریس کوواریانس با نتایج «prcomp» مطابقت ندارد. ممکن است به من اشاره کنید که چه چیزی را از دست داده ام؟ با تشکر **PCA در ماتریس همبستگی** # PCA در ماتریس همبستگی X <- USArrests Cor <- cor(X) EigenCor <- eigen(Cor) ECor <- EigenCor$vectors head(t(t(ECor) %*% t (مقیاس (X)))) [,1] [,2] [,3] [,4] آلاباما -0.9756604 1.1220012 -0.43980366 0.154696581 آلاسکا -1.9305379 1.0624269 2.01950027 -0.434175454 آریزونا -1.7454429 - 0.7454429 - 0.745559658 -0.826264240 آرکانزاس 0.1399989 1.1085423 0.11342217 -0.180973554 کالیفرنیا -2.4986128 -1.5274267 0.59254100 -0.3405 -0.3475 -0.9776297 1.08400162 0.001450164 PCACor <- prcomp(x = X, retx = TRUE, center = TRUE, scale. = TRUE) خلاصه (PCACor) اهمیت اجزاء: PC1 PC2 PC3 PC3 5 انحراف استاندارد 990 0.41645 نسبت واریانس 0.6201 0.2474 0.08914 0.04336 نسبت تجمعی 0.6201 0.8675 0.95664 1.00000 هد(PCACor$x) PC1 Alaba PC2 PC30 1.1220012 -0.43980366 0.154696581 آلاسکا -1.9305379 1.0624269 2.01950027 -0.434175454 آریزونا -1.7454429 - 0.7454429 - 0.745559658 -0.826264240 آرکانزاس 0.1399989 1.1085423 0.11342217 -0.180973554 کالیفرنیا -2.4986128 -1.5274267 0.59254100 -0.3405 -0.3475 -0.9776297 1.08400162 0.001450164 **PCA در ماتریس کوواریانس** # PCA در ماتریس کوواریانس Cov <- var(X) EigenCov <- eigen(Cov) ECov <- EigenCov$vectors (EC%(EC)(t) X))) [,1] [،2] [،3] [،4] آلاباما -239.7035 -46.45394 -5.873077 5.7840485 آلاسکا -267.7288 -39.91901 16.748431 -0.7178995 -0.7178995 - 0.7178995 - آریزونا. -5.065592 -0.9775376 آرکانزاس -193.2414 -41.19804 -3.167955 2.8551540 کالیفرنیا -282.3243 -80.42202 3.367729 3.367729 0.5643217 - 0.5643217 - 0.5643217 8.901219 1.6546839 PCACov <- prcomp(x = X، retx = TRUE، مرکز = TRUE، مقیاس. = FALSE) خلاصه (PCACov) اهمیت اجزاء: PC1 PC2 PC3 PC4 انحراف استاندارد 83.7324 14.21240 6.4894 2.48279 نسبت واریانس 0.9655 0.02782 0.0058 0.0058 Promulative Cus 0.0058 0.99335 0.9991 1.00000 هد (PCACov$x) PC1 PC2 PC3 PC4 آلاباما 64.80216 -11.448007 -2.4949328 -2.4079009 آلاسکا 92.82720229491459 -14. 4.0940470 آریزونا 124.06822 8.830403 -1.6874484 4.3536852 آرکانزاس 18.34004 -16.703911 0.2101894 0.520957936 0.52097936 0.52097932202020294 کالیفرنیا. 6.7458730 2.8118259 کلرادو 34.97599 13.719584 12.2793628 1.7214637
رایانه شخصی از ماتریس های همبستگی و کوواریانس از طریق محاسبات ماتریسی و prcomp امتیاز می گیرد
51403
من سعی می کنم یک سری زمانی از $n$ مشاهدات $\bf{\mathrm{v_c}}$ را به ساختار $n \times n$ واریانس-کوواریانس $\sum$ و یک سری تصادفی $\bf{\mathrm تجزیه کنم. {v}}$. بنابراین، من می‌توانم ماتریس واریانس کوواریانس $\sum$ را از تابع همبستگی خودکار $\bf{\mathrm{v_c}}$ استخراج کنم. این یک ماتریس Toeplitz خواهد بود که نیمه معین مثبت است. بنابراین، من می توانم یک ماتریس مناسب $\sum^{-\frac{1}{2}}$ را محاسبه کنم تا سری همبسته خود را به یک سیگنال تصادفی تبدیل کنم. $\bf{\mathrm{v}} = \sum^{-\frac{1}{2}}\bf{\mathrm{v_c}}$ من می‌توانم این کار را با استفاده از تابع _sqrt(m)_ در MATLAB، اما همچنین می تواند فاکتورسازی Cholesky ماتریس واریانس-کوواریانس را پیدا کند و از آن برای القای همبستگی ها استفاده کند. با این حال، با استفاده از روش‌های sqrtm و Cholesky، نتایج متفاوتی (اما تا حدودی مشابه) برای سری‌های تصادفی دریافت می‌کنم. من چندین متن را خوانده ام تا تعیین کنم که چگونه می توانم جذر ماتریس های مختلف را تعیین کنم، و به روش های تجزیه مقادیر ویژه و غیره نگاه کرده ام. من می بینم که تنها راه حل های منحصر به فرد تحت شرایط خاص وجود دارد - اما من فرض می کنم که این راه حل های منحصر به فرد هنوز هم تنها یکی از ریشه های بسیاری هستند؟ سوال من این است: آیا راهی وجود دارد که بتوان استدلال کرد که یک ریشه مربع خاص بر دیگری ارجحیت دارد. اگر نه، آیا راهی برای استخراج همه راه‌حل‌های ممکن وجود دارد، به طوری که همه توابع تصادفی ممکن به دست آیند؟
آیا جذر یک ماتریس نیمه معین مثبت یک نتیجه منحصر به فرد است؟
55965
من روی پیاده سازی PCA کار می کنم که روی مجموعه داده های بسیار بزرگ کار می کند. بر اساس درک من از الگوریتم، اولین گام این است که یک SVD از ماتریس ورودی «m x n»، «X» انجام دهیم. این SVD شبیه X = WΣVT است. خروجی «جالب» «Y» این فرآیند - از ویکی‌پدیا، «تحول PCA که ابعاد را حفظ می‌کند (یعنی همان تعداد مؤلفه‌های اصلی را به عنوان متغیرهای اصلی می‌دهد)» - با معادله زیر داده می‌شود: ![ معادله](http://i.imgur.com/orkKvMo.png) بر اساس خواندن من، اگر بتوانم مولفه W از SVD را محاسبه کنم، آنگاه من می تواند Y را به صورت زیر محاسبه کند: ![معادله](http://i.imgur.com/itBvuNY.png) نتیجه اینجا این است که من فقط باید «W» را محاسبه کنم. از نظر پیچیدگی محاسباتی و حافظه، این رویکرد به طور قابل توجهی کارآمدتر است، زیرا تنها ماتریس بالاتر و فراتر از مجموعه داده های اولیه که باید بارگذاری کنم دارای اندازه «m x m» است که (حداقل در مورد من) بسیار کوچکتر از « V`، که n x n خواهد بود. آیا دلیلی وجود دارد که این اشتقاق کار نمی کند که من نمی بینم؟
آیا این رویکرد به PCA اشکالی دارد؟
72057
آیا ادبیاتی در مورد اینکه چه دوره درون نمونه یا خارج از نمونه را باید انتخاب کنم و زمانی که «پیش‌بینی پنجره متحرک» را در نظر می‌گیرم، چه مدت باید باشد وجود دارد.
نحوه پشتیبانی از انتخاب برای دوره توقف/پیش‌بینی/اندازه پنجره در پیش‌بینی بازده سهام
9898
آیا کسی می تواند کد _R_ را برای رسم بیضی از مقادیر ویژه و بردارهای ویژه ماتریس زیر ایجاد کند. \ 0.4 و 2.8 \end{array} \right) \end{equation*}$ با تشکر
چگونه یک بیضی از مقادیر ویژه و بردارهای ویژه در R رسم کنیم؟
9895
من با استفاده از nls() در _R_ برای مدل زیر شانس زیادی دارم $$N_e = N_o\\{1-exp[\frac{(d+bN_o)(T_h N_e - T)}{(1+c N_o)}]\\}$$ که $b>0$، $c\geq 0$، $T_h>0$، و $T=72$. این کد T <- 72 NLS.Fit3 <- nls(Ne~No*(1-exp((d+b*No)*(Th*Ne-T)/(1+c*No)))، داده = داده، شروع = لیست (d = 0.01، b = 0.01، Th = 0.01، c = 0.01)، کنترل = nls.control (maxiter=50، tol=1e-05، minFactor=1/1024)) پیغام خطای زیر را می دهد: خطا در nls(Ne ~ No * (1 - exp((d + b * No) * (Th * Ne - T)/(1 + c * : گرادیان مفرد و NLS.Fit31 زیر <- nls(Ne~No*(1-exp((d+b*No)*(Th*Ne-T)/(1+c*No)))، داده = داده، شروع = لیست(d = 0.01، b = 0.01، Th = 0.01، c = 0.01)، کنترل = nls.control(maxiter=50، tol=1e-05، minFactor=1/1024)، الگوریتم = پورت، low=c(0، 0، 0، 0)) کد خلاصه (NLS.Fit31) همگرا می شود اما نتایج اشتباهی را ارائه می دهد (به شدت متفاوت از PROC NLIN) فرمول: Ne ~ No * (1 - exp( (d + b * No) * (Th * Ne - T)/(1 + c * No))) پارامترها: تخمین مقدار خطای t Pr(>|t|) d 0.008325 0.003488 2.387 0.0192 * b 0.000000 0.000064 0.000 1.0000 Th 0.000000 0.000000 0.6142020100.61420201000. 0.034439 0.600 0.5500 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 4.631 در 85 درجه آزادی الگوریتم پورت، پیام همگرایی: همگرایی نسبی (4) I' ترجیح می‌دهید این کار را در _R_ به جای _SAS_ انجام دهید و اینکه چگونه می‌توان محدودیت‌ها را تنها روی تعداد کمی قرار داد. پارامترها هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. با تشکر داده ها اینجا هستند: خیر Ne 5 0 5 1 5 1 5 2 5 2 5 2 5 2 5 3 7 0 7 0 7 1 7 1 7 2 7 2 7 2 7 3 10 1 10 1 10 2 10 2 10 3 3 10 3 10 4 10 7 ۱۵ ۱ ۱۵ ۱ ۱۵ ۳ ۱۵ ۳ ۱۵ ۴ ۱۵ ۱۵ 25 14 30 5 30 8 30 10 30 11 30 11 30 12 30 14 30 20 45 4 45 7 45 8 45 10 45 11 45 14 45 15 60 45 10 16 60 18 60 21 60 24 60 26 80 7 80 11 80 12 80 15 80 17 80 12 80 21 80 23 100 7 100 8 100 11 80 1010 26 100 33
مشکل داشتن با عملکرد nls در R
22336
آیا کسی می تواند برای من توضیح دهد: مفهوم ** شرطی سازی ** در آمار فضایی در یک زمینه نسبتاً پیشرفته؟ در اینجا یک مثال برای روشن شدن این سوال آورده شده است: **مرحله 1)** یک فرآیند نقطه دو بعدی ایجاد می کند، در اینجا 6 تحقق نشان داده شده است: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/4t2Pr. png) **مرحله 2)** یک منطقه را از یک تحقق انتخاب کنید![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vSfBe.png) **مرحله 3)** سعی کنید بقیه منطقه با همان اندازه را پر کنید، در اینجا من از همان PP استفاده کردم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/x0eZW.png) **مرحله 4) ** ناحیه همپوشانی را حذف کنید و با قسمت داده شده ادغام کنید: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LHJyn.png) **مرحله 5)** فرض کنید درست کردی ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZX6Yd.png) **مرحله 6)** اکنون سوال بپرسید: **آیا نتیجه یک PP شرطی در مجموعه ای از نقاط داده شده است ?** **مرحله 7)** منتظر بمانید و امیدوار باشید که کسی به سؤال شما به طور کامل پاسخ دهد:)
شرطی شدن در آمار مکانی چیست؟
22334
فرض کنید من دو ویژگی عددی دارم که نسبت بین آنها معنادارترین راه برای نگاه کردن به آنها است. من یک یادگیرنده NN دارم. آیا باید نسبت را به عنوان ویژگی سوم اضافه کنم یا این فقط احمقانه است؟ به عبارت دیگر: آیا منطقی است که با هر سه آنها یک انتخاب ویژگی انجام دهیم و ببینیم که آیا یک یا دو مورد از آنها کافی است؟ یا این فقط اتلاف وقت است زیرا مهم نیست که کدام ویژگی از سه تای آنها را حذف کنم؟
نسبت بین ویژگی به طور صریح یا ضمنی؟
74762
من داده های سری زمانی یک ویژگی برش را دارم، هر مرحله زمانی با 500 نقطه داده در یک شبکه فضایی. 2 اندازه گیری در سال اول، 3 اندازه گیری در سال متوالی انجام شد. من می خواهم تغییرپذیری ویژگی محصول اندازه گیری شده را با پارامترهای توپوگرافی و خاک ارزیابی کنم. این برای هر مرحله زمانی ساده است، اما برای دستیابی به یک الگوی کلی، من فکر می کنم که PCA/EOF انتخاب درستی است (درسته؟). اساساً من روندی را دنبال می‌کنم که در این مورد: انجام یک تجزیه و تحلیل مؤلفه اصلی در R ابتدا داده‌ها را به صورت دستی با «w_ph_s <- (w_ph - 0.87) / 0.11» مقیاس‌بندی کردم، که در آن 0.87 ** میانگین کل داده‌های یک سال است* * و 0.11 SD یک سال. سپس، من از «pca_w <-princomp (w_ph_s)» استفاده کردم، که 3 مؤلفه را نشان داد، که در آن اولی 82 درصد از تنوع را نشان می‌دهد. این مثال برای سال دوم با 3 اندازه گیری است. آیا باید از نمرات مؤلفه اول که بیشتر متغیرها را منعکس می کند به عنوان داده ورودی برای همبستگی با پارامترهای بیان شده استفاده کنم؟ آیا بارگذاری ها نوسانات زمانی را در نقطه خاصی منعکس می کنند؟ آیا مقیاس بندی داده ها درست است؟ آیا می توانم برای هر دو سال با مقادیر تنظیم شده همین کار را انجام دهم؟
ارزیابی داده های سری زمانی توسط PCA / EOF
93095
فرض کنید دو سری زمانی از مقادیر واقعی وجود دارد. چگونه می توان این فرضیه را آزمایش کرد که این سریال ها کاملاً مشابه هستند، اما بین آنها یک جابجایی زمانی وجود دارد؟ ببخشید، اگر سوال خیلی ابتدایی است. پیشاپیش ممنون
تشخیص سری های زمانی با جابجایی
51409
من روی شبکه های تعامل ژن-ژن کار می کنم. من یک نمودار را با افزودن یال‌هایی بین ژن‌ها (گره‌ها) می‌سازم که نشان‌دهنده تعامل آماری در پیش‌بینی یک مقدار پارامتر کمی (مثلاً حجم مغز) در یک مدل رگرسیون چندگانه است. برای ایجاد یک نمودار به خوبی به هم پیوسته، آستانه p-value عبارت تعامل مدل خطی را کاهش داده‌ام تا تا حد امکان لبه‌ها را شامل شود، بنابراین احتمالاً نسبتی از این پیوندها مثبت کاذب هستند (در واقع من دارم تصحیح مقایسه چندگانه را حذف کرد و از p<0.05 اسمی استفاده کرد. سوال من این است که اگر برخی از گره ها مرکزیت درجه بالایی از خود نشان دهند که احتمال وقوع آن در مدل تصادفی Erdős-Rényi (با نام مستعار توزیع پواسون) بسیار کم است، آیا می توانم استنباط آماری کنم که این گره از نظر بیولوژیکی با اندازه مغز مرتبط است. پارامتر زیرا بیش از یال های تصادفی دریافت کرده است، حتی اگر کل نمودار الگوی توزیع درجه Erdős–Rényi را نشان ندهد؟ بهترین آزمون برای ارزیابی آماری این فرضیه چیست و در صورت وجود، آیا انجام یک مقایسه چندگانه نیز ضروری است؟
استنتاج آماری در مورد درجه یک گره در یک شبکه ژنتیکی
55962
آیا تفاوت عمیقی بین توزیع عادی و گاوسی وجود دارد، من مقالات زیادی را دیده ام که بدون تمایز از آنها استفاده می کنند و معمولاً آنها را به عنوان یک چیز یاد می کنم. با این حال، PI من اخیراً به من گفت که یک حالت عادی، مورد خاص گاوسی با میانگین=0 و std=1 است که مدتی پیش در یک خروجی دیگر نیز شنیدم، اجماع در این مورد چیست؟ طبق ویکی‌پدیا، چیزی که آنها نرمال می‌نامند، توزیع نرمال استاندارد است، در حالی که Normal مترادف گاوسی است، اما باز هم، در مورد ویکی‌پدیا نیز مطمئن نیستم. با تشکر
تفاوت بین توزیع عادی و گاوسی چیست؟
109154
به عنوان بخشی از تجزیه و تحلیل من از سری های زمانی سنگین بازده شرکت، می خواهم بررسی کنم که آیا بازده های شدید وابستگی سریالی را نشان می دهند، به عنوان مثال آیا رویدادهای شدید با رویدادهای شدید همراه هستند یا خیر. در حال حاضر، من فقط به آزمایش سری‌های زمانی تک متغیره علاقه دارم، یعنی فقط می‌خواهم بررسی کنم که آیا بازده شدید شرکت A تأثیری بر بازده شرکت A در روزهای بعد دارد یا خیر. از آنجایی که تابع همبستگی خودکار (ACF) یک زمان به کل سری بازگشتی (نه تنها افراط‌ها) نگاه می‌کند، در ارزیابی وابستگی وابستگی بین رویدادهای شدید ارزش محدودی دارد. در جستجوی من تاکنون، مقالات اخیری در مورد extremogram (http://arxiv.org/abs/1001.1821 و http://www.uis.no/getfile.php/Konferanser/paper_RichardDavis.pdf) پیدا کرده ام. چیزی که آنها به عنوان آنالوگ با ارزش فوق العاده ACF یک فرآیند ثابت در نظر می گیرند. آنها همچنین می نویسند که اکسترموگرام شبیه ضریب وابستگی دنباله یک سری زمانی تک متغیره است. در حالی که به دنبال اطلاعات بیشتر در مورد ضریب وابستگی دم هستیم، فکر می‌کنم ضرایب وابستگی دم بیشتر در تجزیه و تحلیل حرکت‌های مشترک در دم دو توزیع استفاده می‌شود - که (فعلا) به آن علاقه‌ای ندارم. حالا در نهایت سوال من: 1. آیا روش های دیگری برای تخمین وابستگی سریال افراطی وجود دارد؟ 2. آیا اجرای اکسترموگرام در R/MATLAB موجود است؟ (توجه: من همچنین با نویسندگان تماس گرفته‌ام و پرسیدم که آیا می‌توانند کد خود را با من به اشتراک بگذارند.) (به عنوان مثال چگونه می توانم ضریب وابستگی دنباله یک سری زمانی تک متغیره را در R/MATLAB محاسبه کنم). ویرایش: نویسنده مقالات اکسترموگرام به من پاسخ داد و به من گفت هنوز اجرای رسمی اکسترموگرام در R/MATLAB وجود ندارد، اما او به من اطمینان داد که اجرای آن آسان است. سپس روی اجرای خودم برای اکسترموگرام کار خواهم کرد.
وابستگی شدید سریالی
74767
من سعی می کنم به یک بخش حسابرسی با کیفیت کمک کنم و اندازه نمونه و فواصل اطمینان و مواردی از این قبیل را تعیین کنم. حجم نمونه و سطح اطمینان (95٪) به خوبی در وب مستند شده است و من در حال بررسی آن هستم. من حتی متوجه شدم که چگونه می توانم سطح اطمینان دقیق یک نمونه دوجمله ای را انجام دهم که از آن برای شرایط عبور / شکست استفاده می کنم، اما می خواستم بفهمم چگونه می توانم یک چند جمله ای از همان نمونه را انجام دهم تا بتوانم نوعی اطلاعات در مورد آن ایجاد کنم. وضعیتی با سه احتمال: عبور / شکست (بحرانی) / شکست (غیر بحرانی). آیا کسی می تواند من را در جهت درست در اینجا راهنمایی کند؟ در نهایت می‌خواهم این را در یک برنامه برنامه‌نویسی کنم تا یک فرمول به من کمک کند، پیوندی به روشی برای برنامه‌نویسی آن یک اجرای خانگی باشد.
فاصله اطمینان چند جمله ای
25649
من سعی می کنم یک مدل مولد برای اجرای شبیه سازی مونت کارلو بسازم. داده های موجود از ترکیبی از متغیرهای گسسته و پیوسته تشکیل شده است. فرض کنید من تعدادی نفر دارم... سن جنسیت غیر سفید 21 1 1 35 1 1 من به راحتی می توانم از مخلوطی از گاوسیان برای مدل کردن این مجموعه داده استفاده کنم و فقط از EM برای تخمین ضرایب مخلوط استفاده کنم. اما من مطمئن نیستم که آیا مفروضات اساسی درست هستند یا نه زمانی که اجزای زیرین مفصل لزوما (یا اصلا) گوسی نیستند. من چند روش پیچیده‌تر را می‌شناسم، مانند استفاده از شبکه‌های بیزی یا چیزهایی که از یادگیری ماشین بیرون می‌آیند (مثلاً ماشین‌های بولتزمن)، اما شک دارم که برای مجموعه داده‌های نسبتاً کوچک من مفید باشند. من نمی‌دانم آیا روش فشرده‌ای برای ساخت مدل‌های مولد از متغیرهای طبقه‌بندی چند متغیره و همبسته وجود دارد. یا به طور کلی مخلوط گاوسی ها کافی است؟
مدل سازی مولد ترکیبی از متغیرهای پیوسته و گسسته
100982
من یک سری زمانی قیمت لحظه ای برق در یک دوره 2 ساله دارم. من می خواهم یک مدل ایجاد کنم تا با استفاده از فیلتر کالمن بدون بو، مقادیر آینده سری های زمانی را پیش بینی کنم. متوجه شدم که می توانم از الگوریتم های تخمین دوگانه استفاده کنم. سوالات من این است: 1\. آیا رویکرد (ساده تر) دیگری برای حل مشکل مدل سازی وجود دارد؟ 2\. آیا کسی می تواند یک مثال عددی دقیق از درخواست UKF به من ارائه دهد؟ ممنون از وقتی که گذاشتید.
فیلتر کالمن بدون عطر را اعمال کنید
55963
من پاسخ این سوال را در stats.stackexchange بررسی کرده ام: چه منابع خوبی برای ارائه تاریخچه آمار وجود دارد؟ در واقع، کتاب استیگلر آمار روی میز عالی به نظر می رسد و من مشتاقانه منتظر خواندن آن هستم. اما من بیشتر به توسعه مدل های مدرن ARIMA علاقه مند هستم. فکر می‌کنم به یاد دارم که شنیدم پیشرفت زیادی در تلاش برای پیش‌بینی نادرستی‌های تصادفی با اسلحه‌های توپخانه در طول جنگ جهانی دوم ایجاد شد. همچنین، البته، تا حدودی ستاره شناسان در سراسر نیمه دوم هزاره از نوعی سری زمانی برای درک حرکت اجرام آسمانی استفاده می کردند. با این حال، نمی‌توانم به خاطر بیاورم که از کجا در مورد کاربرد توپخانه سری‌های زمانی شنیده‌ام و سابقه‌ای در فیزیک دارم و واقعاً نمی‌دانم اخترشناسان با چه روش‌های آماری کار می‌کردند. بنابراین، من دوست دارم بشنوم که به نظر شما مرتبط‌ترین تأثیرات تاریخی در توسعه روش‌های سری زمانی چیست، به عنوان مثال، آیا آنها عمدتاً توسط مالی، دفاعی، زمین‌شناسی/ژئوفیزیک یا ترکیبی از همه این‌ها و موارد دیگر تحریک شده‌اند؟ آیا کتاب ها یا وب سایت های آموزنده ای در مورد تاریخچه ARIMA وجود دارد؟
چند منبع خوب برای تاریخچه تحلیل سری های زمانی چیست؟
57525
مثلاً یک نمونه تصادفی از یک متغیر تصادفی داریم، اما به ما گفته می شود که هیچ اطلاعاتی برای مقادیر کمتر یا مساوی مقداری، شاید k، در دسترس نیست. یعنی نمونه کامل را نداریم. ما فقط مقادیری را بدست می آوریم که بزرگتر از k هستند. بنابراین، چگونه این را در تابع درستنمایی حساب کنیم؟ آیا در (1 - F(k)) ضرب می کنیم یا چیزی شبیه به آن؟ هر کمکی بسیار قدردانی می شود!
MLE برای توزیع که در آن برخی از داده ها در دسترس نیست
93094
فرض کنید در حال انجام یک رگرسیون خطی $Y$ روی $X$ هستیم. یعنی: $$E[Y|X] = \beta_{0} + \beta_{1}X$$ آیا درست است که بگوییم برآوردگر $\mathbf{\hat{e}} است = (\hat{ \beta_0}، \hat{\beta_1})$؟
برآوردگر به عنوان یک بردار
9892
من سعی می کنم با کمند رگرسیون لجستیک انجام دهم. برای بخش رگرسیون لجستیک، من از «PROC LOGISTIC» استفاده می کنم، اما مطمئن نیستم که چگونه با «PROC LOGISTIC» کمند کنم. من به صورت آنلاین جستجو کردم و متوجه شدم که «PROC GLMSELECT» به ما اجازه می دهد تا کمند کنیم. اما من مطمئن نیستم که چگونه با استفاده از PROC GLMSELECT رگرسیون لجستیک را با کمند انجام دهم. **توجه:** من این سوال را در انجمن گفتگوی SAS ارسال کردم.
چگونه با استفاده از GLMSELECT رگرسیون لجستیک را با کمند انجام دهیم؟
93679
در حال حاضر Var1+Var2=VarSUM12 را اضافه می‌کنم و سپس یک رگرسیون خطی روی VarSUM12~x انجام می‌دهم تا آمار آزمایشی برای x را به‌دست آوریم و بینشی در مورد ارتباط ضعیفی که در Var1 و Var2 با x وجود دارد، بدست آوریم. من می خواهم آمار خلاصه (ضریب و خطای استاندارد) را از رگرسیون های فردی (Var1~x و Var2~x) برای به دست آوردن ضریب/se VarSUM12~x ترکیب کنم. من حدس می زنم ضریب آسان است، اما آیا می توان خطاهای استاندارد را با هم ترکیب کرد؟
ترکیب آمار خلاصه
34588
بنابراین سناریو به این صورت است: من حدود 100 یا بیشتر اقلام دارم، که هر کدام با یک عدد و کل حدس می‌زنند... این عدد حدس می‌زند که مردم فکر می‌کنند کالا چقدر ارزش دارد (از نظر پول). این عدد می تواند میانگین حدس ها یا مجموع همه حدس ها باشد. من می خواهم آنها را به (به طور کلی) _n_ گروه های ناهموار تقسیم کنم ... بنابراین برای مثال، ممکن است معلوم شود که برخی از فرمول های آماری / معادله / و غیره. متوجه می شود که موارد 1، 3، 10 و غیره در گروه 1، 4، 5 و غیره در گروه 2 قرار دارند و به همین ترتیب (تا گروه n). آیا فرمول/معادله/روشی آماری وجود دارد که بتواند به این امر دست یابد؟ من مطمئن نیستم، اما آیا تبدیل فوریه گسسته می تواند این کار را انجام دهد؟ من قبلا هرگز آن را یاد نگرفته بودم، اما شنیده ام که برای تبدیل داده ها به سینوسی استفاده می شود... مثال: شما 1000 توپ دارید که هر کدام یک رنگ منحصر به فرد دارند. از افراد تصادفی می‌خواهید که به تعدادی از توپ‌ها نگاه کنند و به آن‌ها از 1 (بد) تا 1000 (خوب) امتیاز دهید که چقدر آن را دوست دارند. در پایان این نظرسنجی، می دانید که هر توپ امتیاز متوسط ​​خود را دارد (الزاماً منحصر به فرد نیست). حالا می‌خواهید توپ‌ها را طوری تقسیم کنید که توپ‌ها مثلاً به 5 گروه تقسیم شوند (1 = بد، ...، 5 = خوب). اما نکته اینجاست: شما نمی توانید آنها را به 5 گروه مساوی تقسیم کنید. ممکن است چنین باشد که؛ اگر توپ هایی وجود داشته باشند که اختلاف عدد زیادی داشته باشند (یعنی توپ 851 دارای میانگین رای 700 است، اما توپ 852 دارای میانگین رای 800 است؟)؟ آرا اساساً در برخی مناطق متراکم تر از سایر مناطق است. من فکر می کنم این ایده اصلی است ... من مطمئن نیستم چه چیز دیگری اضافه کنم. پارتیشن داده ها **باید** سازگار و قابل تکرار باشد.
آیا روش آماری خوبی برای تقسیم مجموعه ای از داده ها به گروه های ناهموار (به طور کلی) وجود دارد؟
61715
بنابراین شنیده ام که می گویند انتخاب یک آزمون آماری بر اساس نتیجه آزمون دیگر ایده خوبی نیست. هر چند این به نظر من عجیب است. به عنوان مثال، افراد اغلب استفاده از یک آزمون غیر پارامتری را انتخاب می کنند، زمانی که آزمایش دیگری نشان می دهد که باقیمانده ها به طور معمول توزیع نشده اند. به نظر می رسد که این رویکرد به طور گسترده پذیرفته شده است، اما به نظر نمی رسد با جمله اول در این پاراگراف موافق باشد. من فقط امیدوار بودم که در مورد این موضوع شفاف سازی کنم.
انتخاب یک آزمون آماری بر اساس نتیجه دیگری (به عنوان مثال نرمال بودن)
37760
این سوال (فکر می‌کنم) ساده‌تر از سوالات مطرح شده در اینجا است، اما از توانایی من برای حل آن خارج است. من سعی می کنم احتمال نتایج مختلف را برای قرعه کشی مدرسه منشور محاسبه کنم. دو دسته از ورودی‌ها وجود دارد: دانش‌آموزانی که در غیر این صورت برای مدارسی که عملکرد ضعیفی دارند منطقه‌بندی شده‌اند و همه دانش‌آموزان دیگر. اجازه دهید x=تعداد دانش‌آموزان منطقه‌بندی شده برای مدارسی که عملکرد ضعیف دارند اجازه دهید y=تعداد دانش‌آموزانی که برای مدارسی با عملکرد ضعیف منطقه‌بندی نشده‌اند اجازه دهید z=تعداد فضاهای موجود در مدرسه را تعیین کنید. تعیین تعداد مورد انتظار دانش‌آموزان پذیرفته شده از هر کلاس، اما چگونه می توانم احتمال نتایج مختلف دیگر را تعیین کنم. به عنوان مثال، چقدر احتمال دارد که تعداد دانشجویان پذیرفته شده از یک کلاس نصف تعداد مورد انتظار باشد؟ با توجه به ارزشش، من یک معلم ریاضی هستم که هرگز یک درس ریاضی آماری، احتمالی یا مجزا نداشته ام، اگرچه اصول اولیه را به خودم یاد داده ام. اگر پیشنهادی برای مطالعه بیشتر خودراهنما دارید به احتمال زیاد از آنها ممنونم، اما در حال حاضر فقط باید این مشکل عملی را حل کنم.
نتایج مختلف در قرعه کشی با جوایز متعدد چقدر محتمل است
57521
من می خواهم محاسبه کنم که آیا احتمال ابتلای بیمار به بیماری بیشتر است یا برعکس. اگر اطلاعات زیر به من داده شود: $$P(\mathrm{بیماری})= 0.008$$$$P(+|\mathrm{بیماری})= 0.98$$$$P(-|¬\mathrm{بیماری} )= 0.97$$ برای یافتن پاسخ آیا صحیح است که این کار را انجام دهید: $$\frac{0.008 \times 0.98}{(0.008 \times 0.98)+(0.992 \times 0.03)}=0.2085$$ و سپس 1-0.2085$ را محاسبه کنید تا ببینید کدام بزرگتر است؟
محاسبه اینکه آیا یک بیماری با استفاده از قانون بیز محتمل است؟
55961
من در حال تجزیه و تحلیل برخی از داده های فیزیولوژی درخت (تعرق) در رابطه با تعدادی از متغیرهای محیطی هستم (که بسیاری از آنها پیش بینی کننده هستند مانند دما، PAR و کمبود فشار بخار). من داده های با مقیاس ریز (فاصله های 30 دقیقه) از این اندازه گیری های مختلف دارم، و دو هدف وجود دارد که سعی می کنم به آنها دست یابم: 1. از پیش بینی کننده های مختلف (glm?) استفاده کنید تا ببینید کدام یک از این ها بیشترین میزان تغییر در تعرق را توضیح می دهد. . با این حال، از آنجایی که همبستگی خودکار واضحی در این مقیاس وجود دارد (یعنی trans در زمان $t$ با ترانس $t+1$ و غیره همبستگی زیادی دارد)، من به دنبال استفاده از مدل‌های ARIMA با رگرسیون هستم. 2. من می‌خواهم یک مدل ARIMA پیش‌بینی‌کننده نهایی بسازم که بالاترین تنوع در trans را از بین همه مدل‌های کاندید مختلف توضیح دهد. تاکنون متوجه شده‌ام که نمودارهای ccf تأخیر -ve را بین trans و تعدادی از متغیرها نشان می‌دهند (درست است، به عنوان مثال، همانطور که انتظار دارید دما در زمان $t$ بر تعرق $t+1$ تاثیر بگذارد). سوالات من این است: 1. چگونه یک ARIMA را با تعرق به عنوان متغیر پاسخ و چندین رگرسیور انجام می دهید؟ 2. چگونه می دانید کدام یک از واپسگراها را کنار بگذارید؟ آیا این کار باید به صورت دستی در R انجام شود (مانند هر رگرسیور به مدل اضافه کنید و AIC حاصل را بررسی کنید)؟ 3. آیا «auto.arima» بهترین راه برای تعیین عبارت متمایز (و غیره) است؟ (به عنوان مثال، `auto.arima(trans, xreg=temp+vpd+......)`.) 4. چگونه تاخیر بین متغیر پاسخ در زمان $t$ و پیش بینی کننده ها در $t-1$ را محاسبه می کنید. ?
چگونه با استفاده از R یک رگرسیون چندگانه با ARIMA انجام دهیم؟
32322
من مشکل زیر را دارم: > با توجه به ورودی‌های $x$ ($n$-بردار بعدی) اسکالرها، اعداد صحیح مرتب شده و > اعداد صحیح نامرتب (یعنی برچسب‌ها) و یک یا چند خروجی $y$، می‌خواهم تخمین بزنم: > > 1. کدام ورودی ها بهترین خروجی ها را توضیح می دهند. > 2. تا چه حد تغییرات یک ورودی دلالت بر تغییرات خروجی ها دارد. > فرض بر این است که این به تجزیه و تحلیل عدم قطعیت و حساسیت مربوط می شود که زمینه های کاملاً گسترده ای هستند. آیا روش/منابعی با رویکردی مرتبط با مشکل من می شناسید؟
تجزیه و تحلیل عدم قطعیت و حساسیت
24993
چگونه می توان آماره R-squared ($r^2$) را در R برای خروجی تابع «لس» و/یا «پیش بینی» محاسبه کرد؟ به عنوان مثال برای این داده: cars.lo <- loess(dist ~ speed, cars) cars.lp <- predict(cars.lo, data.frame(speed = seq(5, 30, 1)), se = TRUE) «cars.lp» دارای دو آرایه «fit» برای مدل و «se.fit» برای خطای استاندارد است.
چگونه یک R-squared برای لس فیت بدست آوریم؟
100984
من می خواهم یک GMM در Matlab ایجاد کنم و سپس یک مشاهده x را برای بدست آوردن احتمال این x وارد کنم. من می دانم که معادله به صورت زیر است: $$p(x) = \sum_{k}p(C_{k})p(x|C_{k})$$ من می خواهم مقدار $p(x) را بدست بیاورم ابتدا |C_{k})$ سپس $p(x)$ را محاسبه کنید، می‌خواهم بپرسم که آیا خروجی تابع posterior در matlab برابر با $p(x|C_{k})$ است؟
نحوه استفاده از تابع پسین در متلب
25645
من به دنبال مقدمه ای ساده و خواندنی برای استفاده از MCMC با فرآیند دیریکله قبل هستم. یا شاید استفاده از MCMC در هر سناریو یادگیری ماشینی، به عنوان مثال فرآیند گاوسی. من در اطراف مقالات و آموزش های مختلف (نیل، ته، ساهو، قهرمانی، فرگوسن، اسکوبار و وست، ...) چرخیده ام، اما نمی توانم چیزی را بیابم که با عبارات رویه ای ساده توضیح دهد و به صراحت هر معادله ای را که می خواهم توضیح دهد. نیاز به پیاده سازی MCMC برای DP یا GP. ویرایش: من به اینجا رسیدم: پیشرفت mcmc dp من
مقدمه ای ساده برای MCMC با فرآیند دیریکله قبل؟
55969
من با تعداد سلول‌های بسیار کوچک کار می‌کنم، و نمی‌دانم که آیا می‌توان از آزمون دقیق فیشر به جای آزمون مجذور کای هنگام پارتیشن بندی جداول IxJ استفاده کرد. من علاقه مند هستم که آیا روند مشابهی برای پارتیشن بندی جداول قابل قبول است.
آیا می توانم جدول فرکانس را پارتیشن بندی کنم و به جای آزمون کای دو از آزمون دقیق فیشر استفاده کنم؟
57528
من مثال زیر را شبیه سازی کردم: 2000 اجرا دو جمله ای (p(Heads)=0.6). هر اجرا دارای یک حجم نمونه از 500 تا 300 0 است. ما تصور می کنیم که مقداری خطای شمارش ثابت در بین دم ها وجود دارد، سرها بیش از حد گزارش شده اند. به عنوان مثال، اگر در یک اجرا، N=2000 سکه وجود داشته باشد، تعداد واقعی سرها 1205 است، اما تعداد سرهای گزارش شده 1205 + (2000-1205) * 0.10، 0.10 خطای بیش شماری ثابت است. سوال من این است: آیا MLE می تواند p و میزان خطا (0.6 و 0.1) را در این مورد بازیابی کند؟ من سعی کردم این کار را انجام دهم، اما MLE جهانی (با آزمون و خطا) روی 0.66 است (با میزان خطا = 0). آیا می توانم MLE خود را تنظیم کنم یا از هر روش دیگری برای بازیابی 0.6 و 0.1 استفاده کنم؟
MLE برای مورد شبیه سازی شده p دوجمله ای با نرخ برچسب گذاری ثابت
22595
من تابعی در مربع واحد دارم که ارزیابی آن پرهزینه است، و می‌خواهم تخمین بزنم که در حداکثر ارزیابی‌های $N$، مثلاً 10$N$ ~ به کجا می‌رسد. با فرض مدلی از شکل paraboloid + noise، $ \qquad \text{f}( x; x_{min}, a, c, \sigma ) \approx a (x - x_{min})^2 + c + \ mathcal{N}( 0, \sigma^2 ) $ الگوریتمی برای تولید نقاط $x_0 \dots x_{N-1}$ برای نمونه f() چیست، برای بهترین برآورد $x_{min}$؟ (مشکل واقعی من 2d است، اما ممکن است ابتدا انجام 1d مفید باشد، بنابراین $ x\ x_{min}\ a\ c\ \sigma $ در صورت لزوم 1d یا 2d هستند.) پس از نمونه برداری از f() در 4 گوشه و وسط، می‌توان به طور متناوب: * یک پارابولوئید را با داده‌های تا کنون جا داد $\rightarrow x_{min}$ * نقطه نمونه بعدی $x_i$ را ایجاد کرد ... چگونه؟ اکتشافی به ذهن می رسد، به عنوان مثال. نزدیک $x_{min}$ اما نه خیلی نزدیک، اما مطمئناً این یک مشکل شناخته شده است؟ (من تصور می کنم موارد $\sigma$ شناخته شده و $\sigma$ ناشناخته متفاوت خواهند بود.) * * * اضافه شده در 11 فوریه: در جستجوی شبکه ای، فرد معمولاً f() را 5 بار در هر نقطه ارزیابی می کند (5 برابر اعتبار متقاطع). )، در یک شبکه 10 x 10، برای 500 ارزیابی در کل. 5 مقدار تخمینی از $\sigma$ را در هر نقطه ارائه می دهند، اما پس چه چیزی -- چگونه یک آماردان مقادیر 5 x 100 را ترکیب می کند؟ این سوال در جستجوی شبکه SVM 12 پارابولوئید _متفاوت_ ناهموار را نشان می دهد، اما گسترش را در هر نقطه نشان نمی دهد. همچنین، grid+search را در stats.stackexchange جستجو کنید.
حداقل یک پارابولوئید پر سر و صدای گران قیمت را پیدا کنید
63828
هنگامی که با داده ها در زمینه هایی مانند پردازش زبان طبیعی (NLP) یا تشخیص گفتار (ASR) سروکار داریم و سعی می کنیم داده ها را با استفاده از مدل پنهان مارکوف (HMM) مدل کنیم، ابتدا باید روشن کنیم که اگر داده های موجود قابل مشاهده یا غیر قابل مشاهده هستند. هنگام اعمال ویژگی مارکوف به داده ها، این است که احتمال داده فعلی در زمان T فقط به داده در زمان T-1 (یا بیشتر) وابسته است. اگر همه متغیرهای تابع احتمال در داده‌های آموزشی مشاهده شوند، داده‌های مشاهده شده نامیده می‌شوند، بنابراین می‌توان به سادگی با استفاده از معیار حداکثر درستنمایی آموزش داد. در مواردی که متغیرهایی در تابع احتمال وجود داشته باشد که در داده‌های آموزشی مشاهده نمی‌شود، آن را «متغیر پنهان» می‌نامند و بنابراین با استفاده از معیار آموزشی HMM و Expectaion-Maximization (EM) تنها با تعریف تعداد حالت‌های پنهان ، می توان آن را آموزش داد. من سعی می‌کنم به یک مورد خاص بپردازم، که در آن حالت‌های پنهان زیادی وجود دارد (مثلاً 100000 حالت پنهان) که آموزش مدل را برای EM غیرممکن می‌کند. با برخی مفروضات در مدل، با مشاهده هر نمونه آموزشی و استفاده از مفروضات، مدل می تواند مدل را به تعداد محدودی از حالت ها در بین تمام آن حالت های پنهان محدود کند، به عنوان مثال. هر نمونه به 10-20 حالت در بین 100000 حالت پنهان محدود می شود. این مورد خاص در برخی از مشکلات مانند حالت های بردار پنهان پیشنهاد شده توسط یولان هی کار شده است. آیا این حالت نیمه قابل مشاهده نامیده می شود یا فقط یک متغیر پنهان است که با برخی مفروضات ساده امکان آموزش را فراهم می کند؟ چگونه به مشکل HMM استاندارد تبدیل می شود؟ ویرایش: اگر ابهاماتی در مورد عبارات مخفی یا قابل مشاهده وجود دارد، لطفاً این آموزش در مورد مدل مارکوف پنهان توسط رابینر را بخوانید و همه این اصطلاحات را به طرز عالی توصیف می کند. EDIT2: این آموزش جالب در مورد انتظار-بیشینه سازی، توضیح خوب و مختصری در مورد «متغیرهای پنهان» نیز دارد.
فراتر از داده های قابل مشاهده و غیرقابل مشاهده، آیا اصطلاحی «نیمه مشاهده پذیر» تعریف شده است؟
26170
بنابراین، من در اینجا جدید هستم. من باید یک محاسبه حجم نمونه برای کارآزمایی بالینی انجام دهم. نمونه مورد مطالعه با توجه به معیارهای قد افراد انتخاب خواهد شد. افراد در محدوده قد خاص (زن، 1.6 متر تا 1.7 متر) برای شرکت در آزمایش دعوت خواهند شد. ما انحراف استاندارد نمونه مورد انتظار را از آزمایش قبلی می دانیم. اما نگرانی من این است که نمونه از توزیع نرمال نیست. محاسبه توان/اندازه نمونه معمولی به فرض توزیع نرمال آمار آزمون در زیر $H_0$ و $H_1$ نیاز دارد، اما در اینجا من معتقدم که توزیع نرمال را کوتاه کرده ایم. بنابراین چگونه می‌توانم «power.t.test» را تغییر دهم یا محاسبات دیگری را در R انجام دهم تا این مورد را برآورده کند؟ همکار من می‌گوید فقط به تئوری حد مرکزی تکیه کنید و با میانگین 1.65 و انحراف معیار شناخته شده نرمال را فرض کنید، اما من معتقدم این به دلیل برش اشتباه است. هر توصیه ای قدردانی خواهد شد.
محاسبه اندازه نمونه برای توزیع نرمال کوتاه شده
63821
با توجه به مجموعه داده های بسیار بزرگ، اگر هدف ما انجام استنتاج احتمالی است، مزایای اصلی یادگیری شبکه بیزی از داده ها و سپس استفاده از شبکه بیزی برای محاسبه احتمالات شرطی چیست؟ من می بینم که ما همچنین می توانیم این احتمالات را مستقیماً از مجموعه داده ها با شمارش تقریبی کنیم. علاوه بر این، اگر مجموعه داده به اندازه کافی بزرگ باشد، می‌توان از CLT/WLLN برای محاسبه بازه‌های اطمینان استفاده کرد. چرا بهتر است یک شبکه بیزی (مسئله بهینه سازی سخت) بسازیم و استنتاج کنیم (الگوریتم های ارسال پیام)؟ نوعی استدلال بیش از حد مناسب؟ با تشکر
چرا یادگیری ساختار را برای شبکه های بیزی انجام دهیم؟
24994
من به کمک نیاز دارم، زیرا مهارت ها و دانش من در آمار بسیار محدود است. با استفاده از همبستگی پیرسون دریافتم که رابطه ای بین یک باینری و یک متغیر دوم وجود دارد که مقادیر بین 1 و 4 را می گیرد. بنابراین اکنون می خواهم بفهمم که آیا تفاوت های قابل توجهی بین دو گروه تعریف شده توسط متغیر باینری وجود دارد یا خیر. 2 متغیر به شرح زیر هستند: X = (0 0 0 0 0 0 0 0 0 0 1 1 1 1) Y = (4 3 4 3 3 3 3 3 3 3 4 4 4 4) برای تعیین اینکه آیا تفاوت معنی داری وجود دارد یا خیر بین $Y_{X=0}$ و $Y_{X=1}$، من از آزمون Mann-Whitney استفاده کردم. این انتخاب درستی بود؟ آیا استفاده از آزمون K-S ترجیح داده می شود؟ و چرا تست تی نیست؟ من فعالانه به دنبال پاسخی برای این سوالات هستم.
انتخاب آزمون مناسب هنگام مقایسه دو گروه: من-ویتنی، کولموگروف-اسمیرنوف یا گروه دیگر؟
9893
زمینه: برای توصیه حداقل اندازه نمونه هنگام انجام آزمایش چند متغیره یک صفحه وب. اندازه نمونه بر اساس تعداد فاکتورهای مورد آزمایش (به عنوان مثال یک عنوان و یک تصویر) و تعداد تغییرات یک عامل (به عنوان مثال دو عنوان مختلف و سه تصویر متفاوت) متفاوت است. هدف می تواند این باشد که ببینیم کدام ترکیب باعث بیشترین خرید یک محصول شده است. بر اساس حداقل اندازه نمونه توصیه شده 100 برای یک عامل واحد با شاید دو تغییر، من سعی می کنم فرمولی را ایجاد کنم که اندازه نمونه با چندین عامل و تغییرات را توصیه کند. فرمولی که من برای اولین بار به آن رسیدم در زیر نشان داده شده است که در آن n تعداد تغییرات آن عامل است. $sizesize = 100*\left((n_{f1}-1)^{n_{f1}-1}*(n_{f2}-1)^{n_{f2}-1}*\ldots\right)$ آیا این معقول به نظر می رسد و/یا فرمول ساده تری وجود دارد که به همان اندازه معقول باشد؟ مخاطب مورد نظر صاحبان مشاغل آنلاین هستند که لزوماً در ریاضیات قوی نیستند. با تشکر برای خواندن!
فرمول اندازه نمونه توصیه شده برای آزمایش چند متغیره
32325
آیا خلاصه خوبی (بررسی، کتاب) در مورد کاربردهای مختلف زنجیره مارکوف مونت کارلو (MCMC) وجود دارد؟ من زنجیره مارکوف مونت کارلو را در عمل دیده‌ام، اما این کتاب‌ها کمی قدیمی به نظر می‌رسند. آیا کتاب های به روز بیشتری در مورد کاربردهای مختلف MCMC در زمینه هایی مانند یادگیری ماشینی، بینایی کامپیوتر و زیست شناسی محاسباتی وجود دارد؟
خلاصه های خوبی (بررسی ها، کتاب ها) در مورد کاربردهای مختلف زنجیره مارکوف مونت کارلو (MCMC)؟
100988
به تصاویر زیر مراجعه کنید. من یک شتاب‌سنج متصل به در دارم که هر بار که کسی دری را باز و بسته می‌کند، رویدادها را ثبت می‌کند. من سعی می‌کنم فردی را که در را باز یا بسته است، بر اساس نحوه اعمال نیرو به در در طول رویداد پیش‌بینی کنم. در تصاویر من نمونه هایی از 2 فرد جداگانه را آورده ام که در را باز می کنند و می توانید تغییرات جزئی در رفتار آنها مشاهده کنید. من در این مرحله در حال بررسی یک راه حل خوشه/طبقه بندی برای شناسایی افراد مرتبط با هر رویداد هستم. هر کمکی برای یافتن راه حل تقریبی عالی خواهد بود! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KpBbD.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Eghwg.png) ![ توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/BIMPD.png)
خوشه بندی رویدادهای شتاب سنج
31374
انگیزه: من چند هفته پیش به عنوان کارآموز استخدام شدم تا بفهمم آیا شرکت من نیاز به خرید ماشین های جدید از شش ماه قبل دارد یا خیر. نصب ماشین های پایگاه داده تا 4 ماه طول می کشد و 2 ماه مهلت دارد. من یک NDA را امضا کردم، بنابراین فکر نمی کنم بتوانم اطلاعات واقعی ارائه دهم. تنها اطلاعات قابل اعتمادی که اکنون دارم، اطلاعاتی در مورد تعداد ورود و ثبت نام برای یک شرکت آموزشی از سال 2002 تا 2011 است. فکر می کنم می توانم اطلاعات جدیدتری در مورد ثبت نام دریافت کنم و مردم در حال کار روی دریافت اطلاعات ورود هستند. ما ثبت اطلاعات ورود به سیستم را در سال 2011 متوقف کردیم، بنابراین وقتی می‌خواهم پیش‌بینی کنم، شکافی از داده‌ها وجود نخواهد داشت:( اطلاعات روزانه جمع‌آوری می‌شود. من یک پیش‌بینی سری زمانی از داده‌ها با استفاده از R ایجاد کرده‌ام. من از این آموزش استفاده کردم http:/ /a-little-book-of-r-for-time- series.readthedocs.org/en/latest/src/timeseries.html#arima-models برای ساخت holt winters مدل نمایی با فرکانس روزانه (فرکانس = 365) متأسفانه شکاف در داده های ورود به سیستم به این معنی است که آیا می توانم از ARIMA استفاده کنم آیا شکاف های طولانی در داده ها وجود دارد همچنین، تابع arima در R اجازه فرکانس های بیشتر از 350 را نمی دهد و به سرعت حافظه اش تمام می شود؟ من باید از یک مدل ماهانه استفاده کنم (فرکانس = 12). آیا استفاده از فرکانس هفتگی (فرکانس = 52) و حذف 31 دسامبر مشکلی ندارد؟ آیا فرکانس روزانه مجاز است؟ مثل اینکه می‌توانم از هموارسازی نمایی با فرکانس روزانه استفاده کنم، حتی اگر ۷ سپتامبر ۲۰۱۲ ممکن است یکشنبه باشد، در حالی که ۷ سپتامبر ۲۰۱۱ و ۲۰۱۰ و ۲۰۰۹ ممکن است همه روزهای هفته باشند. تقاضا و تعداد ورودها به صورت فصلی روزانه، هفتگی و سالانه وجود دارد. به عنوان مثال ساعت 6 بعدازظهر و دوشنبه و سپتامبر به طور کلی از ساعت 4 صبح و شنبه و می بارگیری بیشتری دارند. یک فصلی سالانه در تعداد ثبت نام وجود دارد. من با پیش‌بینی‌های ورود به سیستم مشکل داشتم. مشکل این است که حتی قبل از گذشت 6 ماه تغییرپذیری بسیار زیاد می‌شود. در فاصله اطمینان 80 درصد. خط طرح تا سال 2012 ادامه دارد و ناحیه نارنجی 80 درصد فاصله اطمینان است. ثبت و استفاده از هموارسازی نمایی افزایشی به من تنوع بسیار بیشتری نسبت به هموارسازی نمایی ضربی داد. این برای شرکت مفید نیست که بگوییم خب ممکن است در 6 ماه آینده 8 ژیلیون لاگین داشته باشید و ممکن است 20٪ بیشتر از سال گذشته داشته باشید. چگونه می توانم واریانس در طرح ریزی را کاهش دهم؟ http://img836.imageshack.us/img836/8460/holtwintersloginmultipl.png در نهایت به این فکر می‌کردم که پس از پیش‌بینی دقیق، لاگین‌ها و ثبت‌نام‌ها را در یک شبکه عصبی قرار دهم و چیزی شبیه انتظار متوسط ​​قرار دهم. زمان روی چند ماشین به عنوان متغیر خروجی، و من حداکثر تقاضای توان پردازشی پیش‌بینی‌شده را در ۶ ماه پیش‌بینی می‌کردم. متغیرهای دیگری نیز وجود دارند که باید در نظر گرفته شوند، مانند نسخه‌های نرم‌افزاری که تقاضای cpu را به ازای هر کاربر تغییر می‌دهند، اما من امیدوارم که شبکه عصبی وقتی این اتفاق می‌افتد، یاد بگیرد یا اینکه شناسایی و محاسبه آنها آسان باشد. من هنوز اطلاعات خوبی در مورد میانگین زمان انتظار ندارم، اما با فرض اینکه مقداری پیدا کنم، آیا این طرح خوبی است؟
تجزیه و تحلیل سری های زمانی روی داده های ورود به سیستم برای پیش بینی تقاضای CPU با استفاده از R
104601
من داده‌ای دارم که تقریباً توزیع قانون توان را نشان می‌دهد، و می‌خواهم یک تکنیک باینینگ خوب برای خلاصه کردن آمار بدانم. برای مثال داده‌های زیر را در نظر بگیرید: $$ \begin{array}{rr} \textbf{Object} & \textbf{Count}\\\ A & 82952\\\ B & 8832\\\ C & 1801\\\ D & 555\\\ E & 231\\\ F & 123\\\ G & 60\\\ H & 43\\\ I & 28\\\ J & 20\\\ K & 8\\\ L & 13\\\ M & 4\\\ N & 4\\\ O & 4\\\ P & 3 \end{array} $$ تعداد دفعاتی است که شیء X ظاهر می شود. همانطور که از Object J و به بعد می بینید، فرکانس های Object K–P بسیار پایین است. بنابراین من می خواهم شیء K-P را در یک سطل ترکیب کنم. تکنیک‌های معمولی مانند باینینگ «عرض برابر» و «فرکانس برابر» کار نمی‌کنند. من می‌توانم به صورت دستی برنامه‌ای برای انجام این کار بنویسم، اما آیا تکنیک گسسته‌سازی آماری وجود دارد که بتواند چنین الگوهایی را به‌طور مؤثر جمع‌آوری کند؟
انتخاب سطل ها برای داده های بسیار کج
58877
من چیزی که فکر می کنم یک سوال مبتدی بسیار ساده است دارم، اما هیچ آموزش رسمی یا دانشی از آمار یا طراحی آزمایش ها ندارم. فرض کنید من یک نتیجه آزمایشی بله، خیر (0،1) دارم، بگوییم آیا مشتری محصولی را با کوپن خریداری کرده است یا خیر. 5 نوع کوپن وجود دارد که هر کدام رنگ‌ها یا متن‌های متفاوتی دارند، یعنی می‌خواهیم مؤثرترین کوپن را پیدا کنیم. فرض کنید ما این داده ها را جمع آوری می کنیم: نمونه کوپن-اندازه بله-شمارش 1 2589 153 2 1789 212 3 3097 298 4 2654 281 5 2103 211 بهترین / بهترین راه برای گفتن اینکه کدام کوپن بهترین است چیست؟ به عنوان پیگیری، اگر ورودی های دو بعدی داشته باشم، مثلاً کوپن و نوع فروشگاه که در آن نوع فروشگاه می تواند یکی از 3 مقدار مختلف باشد، چه می شود. فروشگاه کوپن نوع نمونه-اندازه بله-شمارش 1 1 387 48 1 2 675 117 1 3 467 88 ... سپس بهترین / صحیح ترین راه برای گفتن اینکه کدام ترکیب کوپن و نوع فروشگاه موثرتر است چیست؟
چگونه یک نتیجه بله/خیر را با ورودی های مختلف آزمایش کنیم؟
4877
من یک دیتافایل در R وارد کرده ام. ستون های مختلفی دارد. یک ستون وجود دارد که نام سیستم عامل مربوط به آن ردیف اطلاعات است. من می خواستم سهم **درصد** هر سیستم عامل منحصر به فرد (ویندوز، لینوکس، ios و غیره) را از این ستون دریافت کنم و آن را رسم کنم. من با R بسیار تازه کار هستم و می خواهم بدانم آیا راهی برای انجام این کار در R وجود دارد یا خیر.
ایجاد نمودار برای ستون های نوع رشته در R
100324
اول: من مشتقات و قانون زنجیره را درک می کنم. من در ریاضیات عالی نیستم، اما درک دارم. آموزش های متعددی در مورد پس انتشار (بیایید از این و این استفاده کنیم) با استفاده از گرادیان نزول بیان می کنند که ما از مشتق تابع انتقال (سیگموئید یا tanh) برای محاسبه گرادیان و بنابراین مسیر بعدی استفاده می کنیم. در این آموزش ها من $(t-o)(1-o)(o)$ را به عنوان فرمول محاسبه خطا برای نورون های خروجی می بینم که به نظر می رسد مشتق محاسبه خطا $\frac{1}{2}( t-o)^2 \ بار (1-o)$. (t = target، o = output_actual) چرا مشتق تابع انتقال (با فرض سیگموید): $\dfrac{e^x}{(e^x + 1)^2}$ را در هیچ کجا نمی بینم؟ یا برای زمانی که tanh به عنوان تابع انتقال استفاده می شود: $\operatorname{sech}^2(x)$ ... که در آن x = ورودی وزنی؟ همچنین، برخی از آموزش ها از (هدف - واقعی)، (هدف - واقعی) 2 [ مجموع مربع ها - مفید برای خروجی های منفی] یا تابع خطای مربع: (1/2) (هدف - واقعی)2 استفاده می کنند. مشتق تابع انتقال کجاست و از کدام فرمول خطا استفاده کنیم؟
مشتق تابع انتقال در قاعده دلتا کجاست؟
58874
همانطور که عنوان می گوید، کاری که من می خواهم انجام دهم، معرفی گام به گام متغیرهای پیش بینی کننده به یک مدل با اثرات مختلط است. ابتدا می‌خواهم بگویم که اگر رگرسیون خطی گام به گام بود، چه کار می‌کردم، فقط برای اینکه مطمئن شوم آن بخش را درست انجام داده‌ام، و سپس مدل کاملی را که می‌خواهم یک رویکرد مشابه را برای آن اعمال کنم، توضیح می‌دهم. من یک جمعیت دانش آموزی دارم که در یک پیش آزمون، سپس یک آموزش و سپس یک پس آزمون شرکت کردند. این آموزش شامل انجام مشکلات از چندین دسته با بازخورد بود، و کاربران می توانستند کنترل کنند که مشکل بعدی از کدام دسته باشد و چه زمانی آموزش را متوقف کنند. من می‌خواهم مدلی ایجاد کنم که عملکرد پس‌آزمون را با استفاده از امتیاز پیش‌آزمون و برخی معیارهای رفتار در طول آموزش، از جمله تعداد کل مشکلات انجام‌شده، دقت و احتمال تغییر دسته‌بندی، محاسبه کند. آخرین مورد از اینها بیشترین علاقه نظری را دارد. متغیرهای دیگری نیز وجود دارند که برای سادگی به آنها اشاره نمی کنم. برای رویکرد رگرسیون خطی، من ابتدا یک رگرسیون ساده با استفاده از نمره پس آزمون به عنوان DV و شامل اثرات اصلی (فقط) نمره پیش آزمون، دقت آموزش و تعداد مسائل به عنوان پیش بینی کننده انجام دادم. سپس، احتمال سوئیچینگ را به عنوان یک پیش‌بینی‌کننده اضافی اضافه کردم و مدل به دست آمده را با مدل قبلی مقایسه کردم تا ببینم آیا قدرت توضیحی بهتری دارد یا نه. کد R که استفاده کردم در زیر آمده است. lm1 <- lm( posttestScore ~ ​​pretestScore + PracticAccuracy + PracticeNumTrials, data=subj.data ) lm2 <- lm( posttestScore ~ ​​pretestScore + pratticAccuracy + prattestNumTrials + probCategorySame, data=subj.data, m2) ? خوب، در مرحله بعد، من به یک مدل ترکیبی سوئیچ کردم تا یک عامل باینری درون موضوعی، نوع سوال تست را در آن لحاظ کنم. هم پیش آزمون و هم پس آزمون برای هر سطح از این فاکتور برای هر موضوعی مقادیری دارند. (مرتبط با «مقوله مشکل» نیست که برای آموزش ذکر کردم.) با این حال، پیش‌بینی‌کننده‌های دیگر فقط یک مقدار برای هر شرکت‌کننده دارند. سپس مدل‌های من تبدیل به کتابخانه (nlme) lm1 <- lme( posttestScore ~ ​​pretestScore + questionType + PracticAccuracy + PracticNumTrials، random=~1|sid، متد=REML، data=D) lm2 <- lme( posttestScore ~ ​​pretestScore + نوع سوال + عمل دقت + تمرین تعداد آزمایشات + probCategorySame, random=~1|sid, method=REML, data=D ) با این حال، نمی دانم چگونه آزمایش کنم که آیا مدل دوم نسبت به مدل اول بهبود قابل توجهی داشته است یا خیر. آیا این سوال درستی است که باید بپرسم و اگر بله، چگونه باید آن را انجام دهم؟
معرفی گام به گام پیش بینی کننده ها به مدل های اثرات مختلط
104609
من روی مشکلی کار می کنم که باید گروه بندی افراد را اندازه گیری کنم. من مکان تک تک افراد نمونه ام را در هر نقطه از زمان دارم. بنابراین محاسبه فواصل بین هر فرد برای یک مقطع زمانی خاص امری بی اهمیت است. آیا راهی وجود دارد که بتوانم در مورد گروه بندی با استفاده از این جفت ها فکر کنم؟ در حال حاضر من یک گروه را به عنوان دو فرد $\le$ با فاصله معینی از یکدیگر تعریف می کنم. این راهی است که من می خواهم گروه های خود را تعریف کنم. اساسا، من سعی می کنم راهی برای اندازه گیری گروهی بودن همه این شخصیت ها در یک بازه زمانی مشخص پیدا کنم. می‌دانم که _n_ 2 جفت انتخاب می‌کنند، و بنابراین می‌توانم برای هر جفت ممکن میانگین فاصله بین آنها را محاسبه کنم، اما سعی می‌کنم برای کل گروه اندازه‌گیری کنم. هر ایده ای مفید خواهد بود. با تشکر
روشی برای اندازه گیری گروه بندی با استفاده از فاصله بین افراد؟
32323
تفاوت در سه رویکرد مختلف طبقه بندی LDA برای دو گروه چیست؟ این سه عبارتند از: 1\. رویکرد فیشر 2\. رویکرد رگرسیون 3\. رویکرد بیز هنگامی که دو گروه اندازه یکسانی داشته باشند، آنها دقیقاً یکسان خواهند بود. اما وقتی اندازه آنها متفاوت است، سه رویکرد چقدر متفاوت است؟
رویکردهای مختلف تحلیل افتراقی خطی
3400
**سؤال:** از دیدگاه آماردان (یا یک پزشک)، آیا می توان با استفاده از نمرات گرایش با مطالعه مشاهده ای (*نه آزمایش**) علیت را استنباط کرد؟ لطفا، نمی خواهید جنگ شعله ای یا یک بحث متعصبانه راه بیندازید. **پیشینه:** در برنامه دکتری آماری خود، ما فقط از طریق گروه های کاری و چند جلسه موضوعی به استنتاج علّی پرداخته ایم. با این حال، برخی از محققان بسیار برجسته در بخش های دیگر (مانند HDFS، جامعه شناسی) وجود دارند که به طور فعال از آنها استفاده می کنند. من قبلاً شاهد بحث های بسیار داغ در مورد این موضوع بوده ام. قصد من این نیست که از اینجا شروع کنم. گفت: با چه مراجعی برخورد کرده اید؟ شما چه دیدگاه هایی دارید؟ به عنوان مثال، استدلالی که من علیه امتیازات تمایل به عنوان یک تکنیک استنتاج علی شنیده ام این است که هرگز نمی توان علیت را به دلیل سوگیری متغیر حذف شده استنباط کرد -- اگر چیز مهمی را کنار بگذاریم، زنجیره علّی را می شکند. آیا این یک مشکل غیر قابل حل است؟ **سلب مسئولیت:** این سوال ممکن است پاسخ صحیحی نداشته باشد -- با کلیک کردن بر روی cw کاملاً جالب است، اما من شخصاً به پاسخ‌ها علاقه زیادی دارم و از چند مرجع خوب که شامل نمونه‌های واقعی است خوشحال می‌شوم.
از دیدگاه آماری، آیا می توان علیت را با استفاده از نمرات تمایل با مطالعه مشاهده ای استنباط کرد؟
24997
با توجه به آمار بالای تصادفات، باید حدود 5 درصد باشد، درست است؟
شانس مردن در یک تصادف رانندگی در طول عمرش چقدر است؟
24995
من در سال گذشته به طور نسبتاً نزدیک روی نمونه‌گیری اهمیت کار می‌کردم و چند سؤال پایان باز داشتم که امیدوار بودم در مورد آنها کمک بگیرم. تجربه عملی من با طرح‌های نمونه‌گیری مهم این بوده است که آنها می‌توانند گهگاه تخمین‌های خارق‌العاده‌ای با واریانس کم و کم سوگیری تولید کنند. با این حال، اغلب آنها تمایل دارند تخمین‌هایی با خطای بالا تولید کنند که واریانس نمونه پایین اما بایاس بسیار بالایی دارند. من نمی دانم که آیا کسی می تواند دقیقاً توضیح دهد که چه نوع عواملی بر اعتبار تخمین های نمونه برداری اهمیت تأثیر می گذارد؟ به طور خاص، من متعجب هستم: 1) آیا برآوردهای نمونه برداری اهمیت تضمین می شود که به نتیجه صحیح همگرا شوند، زمانی که توزیع بایاس پشتیبانی مشابه توزیع اصلی داشته باشد؟ اگر چنین است، چرا به نظر می رسد که در عمل اینقدر طول بکشد؟ 2) آیا رابطه کمی بین خطا در برآورد تولید شده از طریق نمونه گیری اهمیت و کیفیت توزیع بایاس وجود دارد (یعنی چقدر با توزیع واریانس صفر مطابقت دارد) 3) تا حدی بر اساس 1) و 2) - روشی برای تعیین کمیت «چقدر» وجود دارد که شما باید در مورد یک توزیع بدانید قبل از اینکه بهتر از یک روش نمونه‌برداری مهم از روش ساده مونت کارلو استفاده کنید.
نتایج مربوط به تخمین های مونت کارلو با نمونه گیری اهمیت تولید شده است
70515
لطفاً کسی تفاوت این سه روش را به من بگوید؟ همچنین من یک داده دارم که در آن متغیر وابسته یک متغیر تعداد است. آیا به عنوان متغیر سطح 1 طبقه بندی می شود؟ یکی از همکلاسی های من سعی کرد از HLM استفاده کند و DV را به گروه ها تقسیم کرد. من واقعاً با مدل سازی سلسله مراتبی آشنا نیستم. بنابراین من واقعاً ممنون می شوم اگر کسی بتواند در این مورد به من کمک کند؟
HLM در مقابل مدل‌های مختلط خطی در مقابل مدل اثرات تصادفی
2061
هنگام سخنرانی آمار، گنجاندن ویدئوی کوتاه گاه به گاه می تواند مفید باشد. اولین افکار من عبارتند از: 1. انیمیشن و تجسم مفاهیم آماری 2. داستان های مربوط به استفاده از یک تکنیک خاص 3. فیلم های طنز که مربوط به یک ایده آماری است. 4. مصاحبه با یک آماردان یا محققی که از آمار استفاده می کند آیا ویدیویی وجود دارد که هنگام آموزش آمار استفاده می کنید یا فکر می کنید مفید باشد؟ لطفاً ارائه دهید: * پیوند به ویدیو به صورت آنلاین * شرح محتوا * به چه موضوع آماری ممکن است ویدیو مربوط باشد
ویدیوهای آنلاین کوتاهی که می تواند به سخنرانی در مورد آمار کمک کند
90869
من یک سکه مغرضانه دارم. درصدی سر یا دم را برمی گرداند. اگر آزمایشی را اجرا کنم و برگردم، مثلاً 28 هد از 40 تلنگر، چگونه می‌توانم نوارهای خطا را به بهترین نحو اضافه کنم که نشان دهد نمونه‌های زیادی ندارم، و نتایج واقعی ممکن است بالاتر یا کمتر باشد؟
نحوه تعیین نوارهای خطا با توجه به تعداد تلنگرها
79870
من این را برای mathoverflow پست کردم و هیچ کس چیزی نمی گوید. $\newcommand{\cum}{\operatorname{cum}}$ تجمع مشترک چندین متغیر تصادفی را با $\cum(A,B,C,\ldots)$ نشان دهید (به طور دقیق تر، تجمع کننده توزیع احتمال مشترک) . به طور خاص، چیزی که $n$th تجمع (توزیع احتمال) یک متغیر تصادفی $A$ نامیده می شود، $\cum(\ \underbrace{A,\ldots,A}_{\text{$n$} است. } \ )$. سپس قانون تجمع کل برلینگر (بریلینگر از این اصطلاح استفاده نکرد) (در مورد مشخص دقیقاً چهار متغیر تصادفی) موارد زیر را بیان می کند. برای هر پارتیشن از مجموعه متغیرهای تصادفی یک عبارت وجود دارد (بنابراین فقط در مورد چهار مورد از آنها عبارت‌های $15$ وجود دارد): $$ \begin{align} \cum(A,B,C,D) & = \cum(\cum(A,B,C,D\mid X)) \\\\[8pt] & \phantom{={}} + \underbrace{\cum(\cum(A,B,C\mid X),\cum(D\mid X)) + \cdots}_{\text{4 عبارت}} \\\ & \phantom{={}} + \overbrace{\cum(\cum(A,B\ mid X),\cum(C,D\mid X)) + \cdots}^{\text{3 اصطلاح}} \\\\[8pt] & \phantom{={}} + \underbrace{\cum(\cum(A,B\mid X),\cum (C\mid X),\cum(D\mid X))+\cdots}_{\text{6 اصطلاح}} \\ \\[8pt] & \phantom{={}} + \cum(\cum(A\mid X)،\cum (B\mid X)،\cum (C\mid X)،\cum (D\mid X)) \end{align} $$ و به طور مشابه برای تعداد متغیرهای تصادفی غیر از $4$، به عنوان مثال، برای شش متغیر تصادفی، $203$ شرایط وجود دارد زیرا تعداد پارتیشن‌های مجموعه شش تایی بسیار زیاد است. حال: * اگر $A,B,C,D$ مستقل از $X$ باشند، همه عبارت‌ها به جز اولی ناپدید می‌شوند و سمت راست و چپ برابری یکسان می‌شوند. و * اگر $A,B,C,D$ به طور کامل توسط $X$ تعیین شود، تمام عبارت‌ها به جز آخرین مورد ناپدید می‌شوند، که دوباره ساده می‌شود تا با عبارت سمت چپ $=$ یکسان باشد. بنابراین می توان **حدس زد** که با حرکت از یک افراطی به افراطی دیگر، با درجات مختلف وابستگی، اولین عبارت از غالب بودن به مشارکت کم، و آخرین عبارت از مشارکت بسیار کم به غالب تبدیل می شود. آماردانان جلدهای بیشماری در مورد مورد خاص $\cum(A,A)$ نوشته اند، که در آن همان $\operatorname{var}(A)$ است، بنابراین شما فقط در مورد توضیح و غیرقابل توضیح صحبت می کنید. مولفه های واریانس، نسبتی که توضیح داده می شود فقط چیزی است که معمولاً $R^2$ نشان داده می شود. اولین مورد از اصطلاحات 15 دلاری فوق، مؤلفه‌ای است که با X دلار کاملاً توضیح داده نشده است و آخرین مورد، مؤلفه‌ای است که به طور کامل توضیح داده شده است. آیا راهی برای این حدس دقیق وجود دارد؟ آیا فقط باید ضرایب حاصل از تقسیم هر جمله بر مجموع را نوعی معیار خلاصه وابستگی در نظر گرفت؟ در مورد $\cum(A,A)$، هر عدد در $[0,1]$ می‌تواند به‌عنوان ضریب $$\frac{\text{مولفه توضیح داده شده واریانس}}{\text{واریانس کل}} باشد. ،$$ و هیچ عددی $>1$ یا $<0$ نمی تواند رخ دهد. کدام 15$-مجموع اعدادی که به $1$ جمع می‌شوند می‌توانند به صورت تاپلی باشند که اجزای آن عبارت‌های سمت راست تقسیم بر یک جمله در سمت چپ هستند؟ و به طور کلی، برای تعداد متغیرهای تصادفی دیگر از $4$؟ آیا این یک مشکل سخت با مشکلات لحظه ای قابل مقایسه است؟
تأثیرات نسبی اصطلاحات در قانون تجمع کل
26175
در 50 فرد ما حضور 2 SNP (چند شکلی های تک نوکلئوتیدی) و 1 صفت را اندازه گیری کردیم. ما فرض می کنیم که SNP و صفت هر دو باینری هستند. مدل $Y_{ijk} = \text{برنولی}(p_{ij})$ را فرض می‌کنیم، که $$Y_{ijk} = 1\text{ اگر شخص }k\text{ با SNP 1 }= i \text { and SNP 2 }= j\quad (i,j\in \\{0,1\\})\text{ دارای ویژگی 1}$$ و $Y_{ijk} = 0$ در غیر این صورت. من می‌خواهم احتمال داده‌ها را بنویسم اما کاملاً مطمئن نیستم که چگونه به نظر می‌رسد. آیا این درست است که $P(Y_{ijk} = y) = p_{ij}^y(1-p_{ij})^y$، $y =0,1$، یا این اشتباه است؟ در اینترنت فقط توزیع های یک بعدی را پیدا می کنم، بنابراین فقط می خواهم بررسی کنم که آیا چگالی درست است یا خیر. پیشاپیش ممنون و با عرض پوزش بابت سوال احمقانه!
احتمال (دو متغیره؟) توزیع برنولی
108979
من باید از یک بردار تصادفی که از قانون توان دو متغیره پیروی می کند داده تولید کنم: $$ f_{X,Y}(x,y) = \frac{C}{XY} \left(\frac{X}{X_0} \right)^{-\alpha} \left(\frac{Y}{Y_0} \right)^{-\beta}، $$ که در آن $X_0,Y_0,C>0$ ثابت هستند. من می‌توانم با استفاده از یک متغیر تصادفی یکنواخت داده‌ها را از یک قانون قدرت تک متغیره تولید کنم و آن را تبدیل کنم (من از $\texttt{R}$ استفاده می‌کنم)، اما نمی‌دانم چگونه آن را برای یک بردار تصادفی انجام دهم. آیا پیشنهادی دارید؟
داده ها را از توزیع قانون توان دو متغیره در R ایجاد کنید
26176
در یک مدل خطی ساده با یک متغیر توضیحی، $\alpha_i = \beta_0 + \beta_1 \delta_i + \epsilon_i$ من متوجه شدم که حذف عبارت intercept تناسب را بسیار بهبود می‌بخشد (مقدار $R^2$ از 0.3 به 0.9 می‌رود. ). با این حال، به نظر می رسد اصطلاح رهگیری از نظر آماری معنی دار باشد. با رهگیری: > > فراخوانی: > lm(فرمول = آلفا ~ دلتا، داده = cf) > > باقیمانده ها: > حداقل 1Q میانه 3Q Max > -0.72138 -0.15619 -0.03744 0.14189 0.70305 > > ضرایب Stim: >. خطای t مقدار Pr(>|t|) > (Intercept) 0.48408 0.05397 8.97 <2e-16 *** > delta 0.46112 0.04595 10.04 <2e-16 *** > --- > Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 > > خطای استاندارد باقیمانده: 0.2435 در 218 درجه آزادی > R-squared چندگانه: 0.316، R-squared تنظیم شده: 0.3129 > F-statistic: 100.7 در 1 و 218 DF، p-value: < 2.2e-16 > بدون رهگیری: > > تماس: > lm(فرمول = آلفا ~ 0 + دلتا، داده = cf) > > باقیمانده ها: > حداقل 1Q میانه 3Q Max > -0.92474 -0.15021 0.05114 0.21078 0.85480 > > ضرایب: > برآورد Std. خطای t مقدار Pr(>|t|) > دلتا 0.85374 0.01632 52.33 <2e-16 *** > --- > Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 > > خطای استاندارد باقیمانده: 0.2842 در 219 درجه آزادی > چندگانه R-squared: 0.9259، R-squared تنظیم شده: 0.9256 > F-statistic: 2738 در 1 و 219 DF، p-value: < 2.2e-16 > این نتایج را چگونه تفسیر می کنید؟ آیا عبارت رهگیری باید در مدل گنجانده شود یا خیر؟ **ویرایش** مجموع مربعات باقیمانده در اینجا آمده است: RSS(با فاصله) = 12.92305 RSS(بدون فاصله) = 17.69277
حذف عبارت رهگیری از نظر آماری معنی دار، $R^2$ را در مدل خطی افزایش می دهد
2067
من در حال حاضر در حال اتمام مقاله هستم و از دیروز به طور تصادفی با این سوال برخورد کردم که باعث شد همین سوال را از خودم بپرسم. آیا بهتر است نمودار خود را با خطای استاندارد واقعی از داده ها ارائه کنم یا آن چیزی که از ANOVA من تخمین زده شده است؟ از آنجایی که سؤال دیروز نسبتاً نامشخص بود و سؤال من کاملاً خاص است، فکر کردم مناسب است این سؤال بعدی را مطرح کنم. **جزئیات:** من آزمایشی را در حوزه روانشناسی شناختی (استدلال شرطی) انجام داده ام که در آن دو گروه (دستورالعمل های استقرایی و قیاسی، به عنوان مثال، دستکاری بین آزمودنی ها) با دو دستکاری درون آزمودنی ها (نوع مسئله و محتوای آن) مقایسه شده است. مشکل، هر کدام دارای دو سطح عامل). نتایج به این شکل است (پانل سمت چپ با تخمین‌های SE از خروجی ANOVA، پانل سمت راست با SE برآورد شده از داده‌ها): ![متن جایگزین](http://i.stack.imgur.com/fHmrK.png) توجه که خطوط مختلف دو گروه مختلف را نشان می‌دهند (یعنی دستکاری بین سوژه‌ها) و دستکاری‌های درون سوژه‌ها روی محور x رسم می‌شوند (یعنی، سطوح عامل 2x2). در متن، من نتایج مربوط به ANOVA و حتی مقایسه‌های برنامه‌ریزی شده را برای تعامل متقاطع بحرانی در وسط ارائه می‌دهم. ** SE ها وجود دارند تا به خواننده نکاتی در مورد تغییرپذیری داده ها بدهند. ** من SE ها را به انحرافات استاندارد و فواصل اطمینان ترجیح می دهم زیرا ترسیم SDs معمول نیست و هنگام مقایسه بین و درون، مشکلات شدیدی وجود دارد. موضوعات CI (همانطور که مطمئناً در مورد SEها صدق می کند، استنتاج نادرست تفاوت های قابل توجهی از آنها چندان رایج نیست). برای تکرار سوالم: **آیا بهتر است SE های تخمین زده شده از ANOVA را رسم کنم یا باید SE های تخمین زده شده از داده های خام را رسم کنم؟** **به روز رسانی:** فکر می کنم باید کمی واضح تر باشم SE های تخمینی هستند. خروجی ANOVA در SPSS میانگین حاشیه ای تخمینی را با SE و CI مربوطه به من می دهد. این همان چیزی است که در نمودار سمت چپ ترسیم شده است. تا جایی که من متوجه شدم، آنها باید SD های باقی مانده باشند. اما، هنگام ذخیره باقیمانده ها، SD های آنها به نوعی نزدیک به SE های تخمینی نیست. بنابراین یک سوال ثانویه (به طور بالقوه خاص SPSS) این خواهد بود: **این SE ها چیستند؟** * * * **به روز رسانی 2:** من در نهایت موفق شدم یک تابع R بنویسم که باید بتواند طرحی را به عنوان من بنویسد. در نهایت آن را دوست داشتم (پاسخ پذیرفته شده من را ببینید) به تنهایی. اگه کسی وقت داره واقعا ممنون میشم اگه نگاهش کنه اینجاست.
پیگیری: در یک نمودار مخلوط درون بین ANOVA، SE های تخمین زده شده یا SE های واقعی؟
4872
حداقل مدرک ورودی برای استخدام به عنوان آمارگیر چقدر است
مدرک برای تبدیل شدن به یک آمارگیر
70513
فرض کنید دو متغیر تصادفی داریم: $X$ یک r.v پیوسته است. $Y$ یک r.v گسسته است. گرفتن مقادیر $0$ و $1$. آیا عبارت زیر درست است؟ $E[(E[X|Y])^{2}]= [(E[X|Y=1])^{2}]\بار P(Y=1)+ [(E[X|Y= 0])^{2}]\بار P(Y=0)$ ?
بیان برای انتظار شرطی
26178
من می خواهم یک جدول طبقه بندی در مورد یک متغیر پاسخ ترتیبی با سه سطح ایجاد کنم اما نمی دانم چگونه این کار را انجام دهم. با جستجو در سایت به سوال ارسال شده توسط برندون برتلسن افتادم که فقط مورد رگرسیون لجستیک باینری را پوشش می دهد (لینک در انتهای پست). آیا کسی می داند چگونه می توانم چنین جدولی را در مورد خود ایجاد کنم؟ نمی دانم مهم است یا نه، اما من از بسته rms برای اجرای olr استفاده کردم و با استفاده از دستور `predict(fit,type=fitted.ind)` جدول بعدی را با احتمال برای هر درجه مورد دریافت می کنم. = 1 درجه = 2 درجه = 3 1 0.08042197 0.28380601 0.6357720 2 0.08086877 0.28475584 0.6343754 3 0.41472656 0.40802584 0.1772476 4 0.39680650 0.41484517 0.1883483 5 0.23838425 0.3095333 6 0.13539881 0.37098177 0.4936194 7 0.12591996 0.35959459 0.5144855 8 0.50489952 0.3020 0.3020 0.50489952 NA NA 10 0.34757283 0.42969971 0.2227275 11 0.24690054 0.43539812 0.3177013 12 0.17325212 0.40529524 0.40529521 0.45795712 0.38900855 0.1530343 14 0.03594015 0.16033637 0.8037235 15 NA NA NA 16 0.50188652 0.35131394015 0.3565 0.48710163 0.37441720 0.1384812 18 0.38094725 0.42028884 0.1987639 19 0.04134659 0.17894420 0.17894420 0.17894420 0.17894420 0.17894420 0.17914201740. . 0.1548075 24 NA NA NA 25 0.31269786 0.43606610 0.2512360 26 0.20905830 0.42483513 0.3661066 224320.1010. 0.7340591 28 0.26569967 0.43759072 0.2967096 29 0.21258621 0.42621415 0.3611996 30 0.114072344545451. . . 0.4993110 38 0.32091057 0.43492411 0.2441653 39 0.45984161 0.38810515 0.1520532 40 0.55550335658 401 0.02812293 0.13122652 0.8406505 42 0.46250424 0.38681892 0.1506768 43 0.07352751 0.26852580 0.268525740 0.18541327 0.7712771 45 0.45457929 0.39061326 0.1548075 رگرسیون لجستیک: جداول طبقه بندی a la SPSS در R
جدول طبقه بندی برای رگرسیون لجستیک ترتیبی در R
58875
من تازه وارد اقتصاد سنجی هستم. من در حال مطالعه مدیریت سود در بانک ها در دوران بحران نابخرج مالی هستم. من موفق به جمع‌آوری داده‌ها از 23 بانک از سال 2005 تا 2010 هستم. چند سال از آنها گم شده‌اند، اما در نهایت به 126 مشاهده رسیدم. آیا این برای انجام یک تحلیل رگرسیون با اثرات ثابت کافی است (من نمی دانم که آیا آخرین مورد واقعاً بر تعداد حداقل مشاهدات مورد نیاز تأثیر دارد یا خیر).
چند مشاهده برای انجام رگرسیون خطی با اثرات ثابت کافی است
33493
آیا کسی تست $\chi^2$ برای مقایسه برازش مدل های لجستیکی می داند که اندازه نمونه را تعیین می کند؟ من با یک نمونه بسیار بزرگ سر و کار دارم و می ترسم که آزمون قابل توجه $\chi^2$ که هنگام اضافه کردن یک متغیر به مدل دریافت می کنم، صرفاً نتیجه اندازه نمونه باشد (بیش از 200000 مورد). من کاری را انجام می دهم که به عنوان تحلیل عملکرد آیتم های تفاضلی با رگرسیون لجستیک شناخته می شود. اساساً انگار دارم بررسی می‌کنم که آیا دادن پاسخ صحیح به یک سؤال (متغیر وابسته) به قومیت شما هنگام کنترل نمره کل امتحان بستگی دارد یا خیر. مدل 1 «Q1~TotalexamScore» مدل 2 «Q1~TotalexamScore+ Group» من اساساً از آزمون مجذور کای برای مقایسه model1 با model2 استفاده می کنم. اهمیت ضریب چندان مهم نیست، اما $\chi^2$ و گاهی اوقات $R^2$ به طور کلی برای بررسی عملکرد آیتم های تفاضلی توصیه می شود. مشکل من این است که نمونه من بسیار بزرگ است. در تئوری (برای سوالی که در نظر دارم) نباید تفاوت واقعی بین گروه‌ها وجود داشته باشد، بنابراین من گمان می‌کنم که این فقط حساسیت $\chi^2$ به اندازه نمونه باشد. من ترجیح می‌دهم از کل مجموعه داده به جای نمونه‌های تصادفی (کوچک) استفاده کنم زیرا بسیار کج است. من چیزهایی مانند Phi و Cramer's V را برای crosstabs دیده ام، اما مطمئن نیستم که قبلاً در رگرسیون لجستیک از آنها استفاده شده است یا خیر، آیا بسته های بهتری وجود دارد یا خیر (من معمولاً از Spss، Mplus، Stata، R استفاده می کنم. ).
$\chi^2$ تست برای مقایسه برازش مدل های لجستیک نمونه های بزرگ
100980
برای تست آماری به دیتا دانلود اپلیکیشن موبایل اندروید و اپل نیازمندم. من AWS (Amazon) و Infochimps را بررسی کرده ام. تا اینجای کار شانس نیاورده آیا کسی می‌تواند منابع دیگری را پیشنهاد کند یا کدی وجود دارد که بتوان از آن در Visual Studio C# برای حذف داده‌ها از Google API استفاده کرد؟ به عنوان مثال AppID، AppName، تعداد دانلودها، نوع تلفن و غیره
از کجا می توانم مجموعه داده های نمونه را برای دانلود برنامه های تلفن همراه بارگیری کنم؟
100989
من دارم در R بازی می کنم تا مقادیر «tf-idf» را پیدا کنم. من مجموعه ای از اسناد دارم مانند: D1 = آسمان آبی است. D2 = خورشید روشن است. D3 = خورشید در آسمان روشن است. من می‌خواهم ماتریسی به این صورت ایجاد کنم: Docs آبی روشن آسمان خورشید D1 tf-idf 0.0000000 tf-idf 0.0000000 D2 0.0000000 tf-idf 0.0000000 tf-idf D3 0.00000000 tf-idf، کد من tf-idf `R`: library(tm) docs <- c(D1 = آسمان آبی است.، D2 = خورشید روشن است.، D3 = خورشید در آسمان روشن است.) dd <- Corpus (VectorSource(docs)) #از یک بردار متن یک جسم پیکره بسازید #متن را پاک کنید dd <- tm_map(dd, stripWhitespace) dd <- tm_map(dd، tolower) dd <- tm_map(dd، removePunctuation) dd <- tm_map(dd، removeWords، stopwords(english)) dd <- tm_map(dd، stemDocument) dd <- tm_Ntumber(d) <- DocumentTermMatrix(dd, control = list(weighting = weightTfIdf)) as.matrix(dtm) اصطلاحات Docs Blue Sky Sun sun D1 0.7924813 0.0000000 0.2924813 0.00000000 D1.30202000. 0.0000000 0.2924813 D3 0.0000000 0.1949875 0.1949875 0.1949875 اگر من یک محاسبه دستی انجام دهم، ماتریس باید این باشد: Docs آسمان آبی روشن خورشید D1 0.2000000.000 0.0000000 D2 0.0000000 0.0880 0.0000000 0.0880 D3 0.0000000 0.058 0.058 0.058 من محاسبه می کنم مانند «آبی» به عنوان «tf» = 0. 0.477121255`. بنابراین «tf-idf = tf*idf = 0.5*0.477 = 0.2385». به این ترتیب، من مقادیر دیگر «tf-idf» را محاسبه می‌کنم. حالا من تعجب می کنم که چرا در ماتریس محاسبه دستی و در ماتریس R نتایج متفاوتی می گیرم؟ کدام نتایج صحیح را می دهد؟ آیا در محاسبه دستی کار اشتباهی انجام می دهم یا در کد R من مشکلی وجود دارد؟
تفاوت در مقادیر tf-idf در R
18475
فرض کنید شما یک جمعیت و مقداری اندازه گیری دارید که می توانید بر روی هر یک از اعضای جمعیت انجام دهید (مثلاً جمعیت می تواند همه مردم جهان باشد و اندازه گیری می تواند قد باشد). بنابراین می‌توان این اندازه‌گیری را به عنوان یک متغیر تصادفی $X$ در جامعه، با مقداری میانگین $\mu$ و واریانس $\sigma^2$ در نظر گرفت. $\mu$ شناخته شده است، $\sigma^2$ ممکن است شناخته شود یا نباشد. حالا فرض کنید شما زیرمجموعه‌ای از جامعه دارید، نمونه‌ای به اندازه $N$، و می‌خواهید بدانید که آیا این افراد با توجه به این اندازه‌گیری تفاوت قابل توجهی با جمعیت کلی دارند یا خیر. می‌توانید آنها را اندازه بگیرید و میانگین $\bar{x}$ و واریانس $s^2 = \frac 1N\sum_1^N(x_i-\bar{x})^2$ را پیدا کنید که در آن $x_i$ اندازه‌گیری‌های فردی است. از افراد نمونه شما یکی از راه‌های تعیین اهمیت اندازه‌گیری‌ها انجام موارد زیر است: اجازه دهید $X_i \sim_{\mathrm{iid}} X$ برای $i = 1, 2, \dots, N$ و اجازه دهید $Y = \frac 1N \sum_1^NX_i$. یک توزیع را برای $Y$ تخمین بزنید. بر اساس این تخمین، احتمال $P(|Y - E[Y]| > |\bar{x} - E[Y]|)$ را تعیین کنید و اگر این احتمال بزرگتر از یک آستانه از پیش تعیین شده باشد، آنگاه آن را رد می کنید. فرضیه (که در این مورد تقریباً این فرضیه را نشان می دهد که جامعه نمونه شما با جامعه کلی متفاوت نیست). سوالات من در مورد توزیع تخمینی برای $Y$ است. قضیه حد مرکزی می گوید که اگر $N$ بزرگ باشد، ممکن است فرض کنیم $Y$ به طور معمول توزیع شده است. اما اگر $N$ کوچک است، قرار است از توزیع t Student استفاده کنیم [سلب مسئولیت: مطمئنم که پیچیده‌تر از این است، اما این چیزی است که من باید به دانش‌آموزانم آموزش دهم، بنابراین باید دلیل آن را بدانم. که ممکن است این یک چیز معقول برای آموزش آنها باشد]. بنابراین اولین سوال (چند قسمتی) من این است: برش معمولی برای $N$/$N$ بزرگ چیست، چرا این برش به طور معمول پذیرفته شده است، و چرا ما همیشه از توزیع t-Student حتی برای بزرگ استفاده نمی کنیم. $N$ هنگامی که می دانیم از چه نوع توزیعی استفاده کنیم، هنوز باید پارامترها را بدانیم. دیدن اینکه $Y$ دارای میانگین $\mu$ و واریانس $\frac{\sigma^2}{N}$ خواهد بود، سخت نیست. حال اگر $\sigma^2$ شناخته نشده باشد، آن را با $\hat{s}^2 = \frac{N}{N-1}s^2$ تخمین می زنیم. بنابراین سوال بعدی من (چند قسمتی) این است: چرا دقیقاً عامل $\frac{N}{N-1}$، و آیا موردی وجود دارد که از $\hat{s}^2$ استفاده کنیم، حتی اگر $ \sigma^2$ شناخته شده بودند؟
دو سوال در مورد آزمون معناداری
26172
از من خواسته شده است که برخی از داده ها را برای آزمایشی که قبلاً انجام شده است، تجزیه و تحلیل کنم. 15 موش صحرایی در 5 گروه 3 تایی پرورش داده شدند. گروه های 2 تا 5 از نظر فیزیکی ادغام شدند (یعنی سه نمونه در هر گروه مخلوط شدند و به عنوان یک نمونه تجزیه و تحلیل شدند) تا برازش شوند. روی یک iTRAQ 8-plex منفرد، در حالی که گروه 1 ادغام نشد، بنابراین من 8 کانال دارم 1. بدون درمان 2. بدون درمان 3. بدون درمان 4. درمان با سالین (دارو شاهد از طریق سالین تحویل می‌شود) 5. درمان دارویی 6. سالین شوک (دوز بالا) 7. شوک دارویی (دوز بالا) 8. برای کسانی از شما که نمی‌دانید iTRAQ چیست، این یک توده است. روش شناسایی و کمی سازی پروتئین طیف سنجی، که لیستی از پروتئین های شناسایی شده و مقدار کمی «مطلق» تولید می کند. من می گویم مطلق، اما به معنای مطلق بی معنی است، و تنها زمانی مفید است که با مقدار کمی دیگر در همان اجرای آزمایشی مقایسه شود. بنابراین برای یک پروتئین مشخص X می توانم نسبت X در کانال 5 به نسبت X در کانال 1 یا حتی نسبت X در کانال 5 به X در گروه 1 (میانگین کانال های 1،2 و 3) را محاسبه کنم. X_5/(\sum_{n=1}^{3}X_n)/3$$ اما چیزی که می‌خواهم بدانم این است که آیا روش‌های آماری وجود دارد که بتوانم برای تعیین اینکه آیا یک پروتئین خاص استفاده کنم (X_5$) به طور قابل توجهی (از نظر مقدار) با ($X_{1,2,3}$) متفاوت است. بدیهی است که داشتن تنها سه نمونه بدون درمان به معنای ایجاد هر گونه واریانسی است، بنابراین من به این فکر می‌کردم که ممکن است یک آزمایش مبتنی بر رتبه‌بندی ناپارامتریک راه حلی باشد؟ بهترین تست برای این تنظیمات چیست؟
آزمون های آماری برای تعداد کم نمونه در هر دو گروه تورفتگی (n=3 و n=1)
102609
من در حال کالیبره کردن یک سنسور گشتاور هستم که در مقیاس کامل $(-3.78، +3.78)$ است. من یک تابع خطی استاندارد، $y= mx +b$ را انجام می‌دهم، اما خروجی صفر واقعی من $-.03$ است، چگونه می‌توانم این را در تابع خطی کامل خود حل کنم؟
چگونه صفر را در رگرسیون خطی حل کنم؟
113587
پایگاه داده UCI (پیوند) یکی از مخازن داده های متعارف است. دارای 295 مجموعه داده برای استفاده است. بسیاری دیگر وجود دارد. (پیوند) در حالی که داده ها می توانند مفید باشند، همه داده ها برای همه مشکلات مرتبط نیستند. داده های فیشر عنبیه را می توان برای آزمون طبقه بندی متعارف در نظر گرفت، اما لزوما برای برازش خط خوب نیست. می‌توان آن را هک کرد، زیرمجموعه‌ای کرد و از آن برای ایجاد تناسب سوء استفاده کرد، اما بهترین استفاده از آن طبقه‌بندی/خوشه‌بندی است. بنابراین مجموعه داده‌های کتاب درسی برای محک زدن عملکرد برآوردگرهای خطی قوی چیست؟ اگر بخواهم (دوباره) بهبود بوت استرپ تخمینگر Theil-Sen را نسبت به اجرای «کتاب درسی» آن به خودم نشان دهم، کدام مجموعه داده دقیقاً ماهیت بهبود را نشان می‌دهد و «صخره» از نظر میزان پیشرفت کجاست. واقع شده است؟ من داده های باز را ترجیح می دهم، نه بسته. اگر می خواهید به مقاله ای به عنوان مرجع اشاره کنید و بگویید از داده های x استفاده کردند و خوب بود تا زمانی که داده ها داده باز بودند خوب است. پیشاپیش از کمک شما سپاسگزارم.
مجموعه داده های متعارف مورد استفاده برای آزمایش برازش خطی قوی چیست؟
63826
اگر این آموزش را در مورد «CRF» در صفحه 4 در بخش «طبقه‌بندی» خوانده‌اید، می‌خواهد «CRF» را به «رگرسیون لجستیک» (یا «حداکثر آنتروپی» که در جامعه NLP با این نام شناخته می‌شود مرتبط کند. ). گفته می‌شود که فرمول «رگرسیون لجستیک» $ p(y|x) = \frac{1}{Z(X)}exp \\{ \lambda_y + \sum_{j=1}^{K}\lambda_ است. {y,j}x_{j}\\} $. از طرف دیگر، در صفحه ویکی‌پدیا برای رگرسیون لجستیک، فرمول $ f(t) = \frac{1}{1+e^{-t}} $ است و فرمول طبقه‌بندی کننده توضیح این فرمول است که برگرفته از تابع لجستیک سوال من این است که اولاً چگونه رگرسیون لجستیک و طبقه‌بندی کننده حداکثر آنتروپی به یکدیگر مرتبط هستند و یکسان هستند؟ دوم، آموزش CRF می گوید رگرسیون لجستیک (یا طبقه بندی کننده حداکثر آنتروپی) یک مدل ساده CRF است، چگونه؟
چگونه میدان های تصادفی شرطی و رگرسیون لجستیک می توانند یکسان باشند؟
71644
چگونه نشان دهیم که $$\mathrm{V}(\bar{y}) = \frac{\sigma^2}{n}\cdot \frac{(N-n)}{(N-1)}$$ I فکر کنید این واریانس نمونه برای نمونه گیری تصادفی ساده بدون جایگزینی است. من این را در هیچ کجا ندیده ام اما موفق شدم یک صفحه وب پیدا کنم که به نوعی آن را ذکر کرده است https://onlinecourses.science.psu.edu/stat506/node/5 اما آنها مدرکی را در آنجا نشان نمی دهند. هر گونه کمکی قدردانی خواهد شد.
نمایش $\mathrm{V}(\bar{y}) = \sigma^2/n\cdot (N-n)/(N-1)$
3407
من در حال ساخت یک برنامه اندرویدی هستم که داده‌های شتاب‌سنج را در حین خواب ثبت می‌کند تا روند خواب را تجزیه و تحلیل کند و به صورت اختیاری کاربر را در نزدیکی زمان مورد نظر در خواب سبک بیدار کند. من قبلاً مؤلفه ای را ساخته ام که داده ها را جمع آوری و ذخیره می کند و همچنین زنگ هشدار. **هنوز باید با هیولای نمایش و ذخیره داده‌های خواب به روشی واقعاً معنی‌دار و واضح مقابله کنم، روشی که ترجیحاً به تجزیه و تحلیل نیز کمک کند. به دلیل تکرار کم) در اینجا داده های فیلتر نشده، مجموع حرکت، جمع آوری شده در فواصل 30 ثانیه است. ![](http://electricsleep.googlecode.com/files/es-ss2.png) و همین داده ها، با تجلی خود من از هموارسازی میانگین متحرک هموار شده است![](http://electricsleep.googlecode.com/ files/es-ss1.png) _edit) هر دو نمودار کالیبراسیون را منعکس می‌کنند - یک فیلتر حداقل نویز و حداکثر فیلتر قطع، و همچنین یک سطح ماشه هشدار وجود دارد. white line)_ متأسفانه هیچ یک از این دو راه حل بهینه نیستند - درک اولی برای کاربر معمولی کمی سخت است و دومی که درک آن آسان تر است، بسیاری از آنچه را واقعاً در جریان است پنهان می کند. به‌ویژه میانگین‌گیری جزئیات نوک‌های حرکت را حذف می‌کند- و من فکر می‌کنم این می‌تواند معنادار باشد. پس چرا این نمودارها اینقدر مهم هستند؟ این سری‌های زمانی در طول شب به عنوان بازخورد به کاربر نمایش داده می‌شوند و بعداً برای بررسی/تحلیل ذخیره می‌شوند. صاف کردن به طور ایده‌آل هزینه حافظه (هم RAM و هم حافظه) را کاهش می‌دهد و رندر را در این تلفن‌ها/دستگاه‌های کمبود منابع سریع‌تر می‌کند. واضح است که راه بهتری برای هموارسازی داده‌ها وجود دارد - من ایده‌های مبهمی دارم، مانند استفاده از رگرسیون خطی برای کشف تغییرات شدید در حرکت و اصلاح هموارسازی میانگین متحرک من. من واقعاً به راهنمایی و ورودی بیشتری نیاز دارم قبل از اینکه با سر به چیزی که بتوانم به طور بهینه‌تری حل شود شیرجه بزنم. با تشکر
هموارسازی داده های سری زمانی
2066
آیا روش عددی پایداری برای محاسبه مقادیر توزیع بتا برای عدد صحیح آلفا، بتا (به عنوان مثال آلفا، بتا > 1000000) وجود دارد؟ در واقع، من فقط به یک فاصله اطمینان 99٪ در اطراف حالت نیاز دارم، اگر به نحوی مشکل را آسان تر کند. **افزودن**: متاسفم، سوال من آنطور که فکر می کردم واضح بیان نشده بود. کاری که می‌خواهم انجام دهم این است: من دستگاهی دارم که محصولات را روی یک تسمه نقاله بازرسی می‌کند. بخشی از این محصولات توسط دستگاه رد می شود. اکنون اگر اپراتور ماشین برخی از تنظیمات بازرسی را تغییر دهد، می‌خواهم میزان رد تخمینی را به او نشان دهم و به او اشاره کنم که تخمین فعلی چقدر قابل اعتماد است. بنابراین فکر کردم که نرخ واقعی رد را به عنوان یک متغیر تصادفی X در نظر بگیرم و توزیع احتمال آن متغیر تصادفی را بر اساس تعداد اشیاء رد شده N و اشیاء پذیرفته شده M محاسبه کنم. اگر توزیع قبلی یکنواخت را برای X فرض کنم، این یک عدد است. توزیع بتا بسته به N و M. من می‌توانم این توزیع را مستقیماً به کاربر نشان دهم یا یک بازه [l,r] پیدا کنم تا نرخ واقعی رد در این بازه با p >= باشد. 0.99 (با استفاده از اصطلاحات shabbychef) و این فاصله را نمایش دهید. برای M، N کوچک (یعنی بلافاصله پس از تغییر پارامتر)، می توانم توزیع را مستقیماً محاسبه کرده و فاصله [l,r] را تقریب بزنم. اما برای M,N بزرگ، این رویکرد ساده‌لوحانه منجر به خطاهای زیر جریان می‌شود، زیرا x^N*(1-x)^M بسیار کوچک است تا به‌عنوان یک شناور با دقت دوگانه نمایش داده شود. حدس می‌زنم بهترین شرط من این است که از توزیع بتا ساده‌ام برای M,N کوچک استفاده کنم و به محض اینکه M,N از یک آستانه فراتر رفت، به توزیع عادی با میانگین و واریانس یکسان روی بیاورم. آیا این منطقی است؟
چگونه می توانم (از نظر عددی) مقادیر تقریبی را برای توزیع بتا با آلفا و بتا بزرگ تخمین بزنم
106111
اغلب در تحقیق می‌خواهیم یک رابطه خطی بدون وقفه برقرار کنیم: $y=\beta x + \epsilon$ و نمونه دارای مشاهدات دو برابر صفر $x=0، y=0$ است. من در تعجبم که چگونه با این صفرهای زیاد کنار بیایم. از یک سو، آنها مشاهدات واقعی هستند و ما نباید آنها را حذف کنیم. از سوی دیگر، آنها در تخمین مقدار واقعی $\beta$ مشارکتی ندارند، زیرا با مشاهدات صفر-صفر، هر مقدار $\beta$ صحیح خواهد بود. نتیجه گنجاندن تمام صفر-صفر در رگرسیون خطی به $\beta$ تخمینی ختم می‌شود که قابل توجه است اما با تکیه بر تنها چند مشاهدات غیر صفر صفر. در اینجا یک مثال شدید از پاسخ $y$ و متغیر اکتشافی $x$ آورده شده است. هر دوی آنها دارای 100 صفر و تنها 2 عدد غیر صفر هستند. x <- c(rep(0,100), 5, 10) y <- c(rep(0,100), 10, 20) fit <- lm(y~x-1) خلاصه (fit) نتیجه مدل نشان می دهد که برآورد مقدار $\beta$ 2 است و تفاوت قابل توجهی با صفر دارد. ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) x 2 0 Inf <2e-16 *** Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0 در 101 درجه آزادی چندگانه R-squared: 1, Adjusted R-squared: 1 F- آمار: Inf در 1 و 101 DF، p-value: < 2.2e-16 هدف اصلی تخمین مقدار β است. در این مثال، من می‌توانم استدلال کنم که با 100 صفر-صفر، β می‌تواند هر مقداری داشته باشد، اما خروجی مدل آن را فقط بر اساس 2 مقدار غیر صفر صفر، به 2 ثابت می‌کند. در این مورد که بسیاری از مشاهدات صفر-صفر در نمونه وجود دارد، آیا راه مناسبی برای ایجاد رابطه خطی است؟
چگونه می توان x=0، y=0 را در یک مدل خطی بدون وقفه درمان کرد؟
4876
من سعی می کنم عملکرد مجموعه ای از زیرسیستم های همگن را در مقابل سیستم به عنوان یک کل ردیابی کنم. معیار عملکرد با یک مقدار متوسط ​​بر اساس مجموعه ای از وظایف انجام شده توسط یک زیر سیستم اندازه گیری می شود، به عنوان مثال، میانگین زمان انتظار قبل از زمان بندی کار. هر زیرسیستم ممکن است مسئول تعداد متفاوتی از وظایف باشد. من می توانم میانگین زمان انتظار را برای هر زیرسیستم و برای کل سیستم محاسبه کنم. سوال من این است که چگونه می توان عملکرد هر زیرسیستم را در مقایسه با میانگین کل سیستم اندازه گیری و تجسم کرد (یا شاید معیار جمع بهتری برای کل سیستم وجود داشته باشد؟) بدیهی است که پایین بودن میانگین نشان می دهد که زیرسیستم نسبتاً بهتر و بالاتر از میانگین عملکرد دارد. برعکس، و فاصله از کل سیستم نشان دهنده آن است، اما من برای به دست آوردن معنای واقعی یا ارائه یک تجسم خوب از آن تلاش می کنم. آیا راه بهتری وجود دارد؟ یا اگر در مسیر درستی هستم، چگونه می توانم معنا را به آن اختصاص دهم / متریک را تجسم کنم؟
مقایسه و تجسم نرخ زیرسیستم ها
18473
من می خواهم در مورد آزمون ریشه واحد فصلی دیکی، هازا و فولر سوال بپرسم. آیا مطلبی در وب یا شاید مقاله سه (DHF) وجود دارد که محاسبات آزمون را توصیف کند (مثلاً از چه رگرسیونی استفاده می کنیم، متغیرهای وابسته و مستقل و غیره)؟ همچنین من سعی می کنم آزمایش پیاده سازی شده در TSFS (سیستم پیش بینی سری زمانی)، رابط کاربری گرافیکی SAS-ETS را کشف کنم. این آزمون 6 احتمال را محاسبه می کند که با اعداد 0 تا 5 نشان داده شده اند. همچنین می گوید که آزمون تنها آزمون میانگین است و اعداد 0 تا 6 تاخیرهای AR هستند. آزمون میانگین واحد در آزمون اصلی دیکی فولر DYt=aYt-1+et است. TSFS کدام تاخیر فصلی (1،2،3 یا 12) را آزمایش می کند؟ من در مقاله ای دیده ام که فرضیه صفر آزمون DHF ممکن است این باشد که آیا اولین تفاوت همراه با اختلاف فصلی s (s متعلق به 1،...،12) تاخیر است یا خیر. آزمون دیگر می تواند این باشد که آیا تفاوت فصلی s (s متعلق به 1،...،12) تاخیر است یا خیر. نظری در مورد موارد فوق دارید؟
ریشه واحد فصلی
79873
در سوال زیر توانستم قسمت (i) و قسمت (ii) را محاسبه کنم، اما برای محاسبه با قسمت (iii) به سختی می‌توانم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/19FdI.jpg) تا کنون من MLE $\theta$ را محاسبه کرده ام، که $\frac{\sum_{i=1} است. ^n Y_i -n}{\sum_{i=1}^n Y_i - M} $ من سعی کردم از مفهوم زیر برای همگرایی استفاده کنم ![following concept for convergence] (http://i.stack.imgur.com/GdCIv.jpg) اما ادامه دادن به آن سخت است. هر گونه کمکی بسیار قدردانی خواهد شد.
همگرایی در احتمال