_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
67262
من یک EKF را برای ردیابی وضعیت یک وسیله نقلیه در حال حرکت به صورت سه بعدی اجرا کرده ام. سوال من دوگانه است: 1. اگر اندازه گیری (مثلاً برای سرعت $y$) کوواریانسی داشته باشد که با وضعیت فعلی و کوواریانس همپوشانی نداشته باشد چه اتفاقی می افتد؟ به عنوان مثال، اندازه گیری ممکن است مقدار 4 با واریانس 0.2 داشته باشد، اما مقدار بردار حالت برای $y$ 6 با واریانس 0.3 است. 2. دلیل اینکه من سوال 1 را می پرسم این است که مقادیر منفی در امتداد قطر در ماتریس کوواریانس خود دریافت می کنم و واریانس های منفی را نشان می دهم که به وضوح اشتباه است. من سعی کرده‌ام از معادله به‌روزرسانی فرم جوزف استفاده کنم، یعنی $ P' = (I - KH)P(I-KH)^T + KRK^T$، اما، ماتریس کوواریانس من مقادیر منفی را بعد از مرحله پیش‌بینی نشان می‌دهد، نه به روز رسانی کنید. مشکل پیش‌بینی ماتریس کوواریانس با استفاده از $P' = APA^T + Q$ است که در آن $A$ در واقع یک ماتریس ژاکوبین تابع انتقال من است. جالب اینجاست که مقاله ویکی‌پدیا این را برای EKF دارد: $P' = AP + PA^T + Q$ من ماتریس‌های خروجی اشکال زدایی خام دارم که در صورت نیاز می‌توانم پست کنم. به نظر می‌رسد که موضوع برخی از مقادیر کوواریانس منفی بین سرعت‌های خطی و چرخشی من باشد. اگر این سوال ساده است پیشاپیش عذرخواهی می کنیم. من با فیلترهای کالمن آشنا هستم، اما هرگز EKF را که قبلاً این مجموعه بود، اجرا نکرده بودم.
حالت های غیر همپوشانی و کوواریانس های اندازه گیری در فیلتر کالمن
15163
من یک متغیر مستقل طبقه بندی با دو سطح دارم (گروه 1 و گروه 2). این گروه ها در دو زمان روی 10 متغیر وابسته اندازه گیری شدند، بنابراین، من 2 مجموعه 10 متغیری برای زمان 1 و زمان 2 دارم. برای مثال، اجازه دهید Hit_1 (تست شده در زمان 1) و Hit_2 (تست شده در زمان 2) را در نظر بگیریم. 10 متغیر وابسته هستند، یعنی عملکرد یک متغیر به عملکرد متغیر دیگر بستگی دارد (آنها در واقع متغیرهای تشخیص سیگنال هستند. از یک کار حافظه مانند ضربه، رد صحیح و غیره). 10 متغیر همه فاصله هستند. برخی از متغیرها به طور معمول توزیع نشده بودند، بنابراین من یک تبدیل ریشه مربعی انجام دادم. چگونه می توانم کارهای زیر را انجام دهم: 1. آزمایش کنید که آیا تأثیری برای گروه 1 وجود دارد (یعنی تفاوت بین Hit_1 و Hit_2)؟ 2. برای تست Hit_1 آیا تفاوت معنی داری بین گروه 1 و 2 وجود دارد؟ برای هر یک از موارد فوق، چگونه می توانم یک تحلیل مقایسه چندگانه با اصلاح آلفا انجام دهم؟
چگونه می توان اثر زمان را در دو گروه بر روی ده متغیر وابسته مقایسه کرد؟
2555
در _درباره چگالی های گاوس مانند از مرتبه بزرگتر از دو_ (Willett, P. Thomas, J. B., 1987)، بخش دوم، نویسنده بیان می کند: $\mathcal{N}(x,y,\rho)=\ phi(x)\phi(y)\sum_{n=0}^{\infty}\rho^nH_n(x)H_n(y)$ کجا 1. $\phi(.)$ چگالی نرمال واحد است، 2. $H_n(.)$ چند جمله ای $n^{th}$ هرمیت است، 3. $\mathcal{N}(x,y,\rho )$ چگالی گاوسی دو متغیره با همبستگی $\rho$ است. من سعی کردم این را تکرار کنم (تقریبا، یعنی تا چند جمله‌ای هرمیت دهم) در R: library(PolynomF) x<-polynom() H<-polylist(1,x);for(n در 2:10) H[ [n+1]]<-x*H[[n]]-(n-1)*H[[n-1]] Hp<-as.function(H) #The چند جمله ای هرمیت از مرتبه 10 rho<-0.7 R<-c();for(n در 0:10) R[[n+1]]<-rho^n HPA<-function(z) prod(dnorm(z) )*sum(Hp(z[1])*Hp(z[2])*R) z<-runif(2) HPA(z) که کاملاً خارج از علامت است (یعنی برای $z=(0.65,0.63)$ من 1194 میگیرم). من چه غلطی می کنم؟
مسائل استفاده از تقریب هرمیت برای دو متغیره گاوسی در R
34030
من در حال حاضر در حال تجزیه و تحلیل داده ها از یک مقیاس لیکرت 34 سوالی هستم. من قبلاً متغیرهای منفی بیان شده را در SPSS به عنوان متغیرهای مختلف رمزگذاری مجدد کردم. من در شرف انجام تحلیل عاملی هستم. **آیا در تحلیل عاملی باید از متغیرهای اصلی استفاده کنم یا از متغیرهای کدگذاری مجدد؟**
آیا در تحلیل عاملی از اقلام با کد اصلی یا معکوس استفاده کنیم؟
13267
اگر من دو متغیر داشته باشم که از دو توزیع متفاوت پیروی می کنند و دارای انحرافات استاندارد متفاوت هستند... چگونه باید دو متغیر را تبدیل کنم تا وقتی دو نتیجه را جمع می کنم توسط یک متغیر فرار رانده نشود. برای مثال... متغیر A نسبت به متغیر B نوسانات کمتری دارد (از 0 تا 3000 می باشد) و متغیر B از آن طرف می رود. 300 تا 350. اگر به سادگی دو متغیر را با هم جمع کنید، نتیجه واضح است که توسط A ایجاد می شود.
چگونه دو متغیر را که در مقیاس های مختلف هستند جمع کنیم؟
109900
آیا کسی می تواند به من یک مستند یا حتی بهتر از آن مثالی برای عملکرد ancmg1 یا ancmg بسته WRS اشاره کند. یک پاراگراف بسیار کوتاه در کتاب Wilcox در مورد تخمین قوی وجود دارد که به طور خلاصه پارامترهایی را که باید ارائه شوند، توضیح می دهد، اما هیچ چیز در مورد روش واقعی استفاده شده یا فرضیاتی که باید برآورده شوند، نیست. به طور خاص، می‌خواهم بدانم پیام خطای simpleError در near(xm، pts[i]، fr = fr): همه معیارهای پراکندگی برابر با 0 هستند به این معنی است که اگر من یک Ancova قوی با تابع ancmg1 برای یک واحد انجام دهم. متغیر کمکی
R - Ancova قوی: مستندات/نمونه‌هایی برای تابع ancmg در بسته WRS
108367
برای نمودار qq نمایی، توزیع نظری را ثابت می کنیم که λ=1 باشد. به منظور مقایسه نقاط ترسیم شده با خط y=x، چه نوع مقیاس گذاری مجدد باید روی داده ها اعمال شود و چرا؟ Hint با این مشکل داده می شود: اگر X از توزیع نمایی با پارامتر λ پیروی کند، λX از توزیع نمایی با پارامتر 1 پیروی می کند. من نمی دانم چگونه از این اشاره در پاسخ به این سوال استفاده کنم. این یک مشکل تکلیف است. تا کنون، من نمودار ln (x) را در نظر گرفته ام اما مطمئن نیستم که با آن و اشاره چه کنم.
توزیع نمایی پرسش تکلیف طرح qq
113900
من در حال حاضر در حال تلاش برای یافتن بهترین پیکربندی مجموعه ویژگی/معماری شبکه برای یک مشکل طبقه بندی باینری هستم، با این حال به نظر نمی رسد که به آن از طریق ابزارهای معمول ساخت و آزمایش نزدیک شویم. از آنجایی که من باید چهار شکل شبکه ممکن (با لایه‌ها و اندازه‌های متفاوت) را روی دو نوع شبکه مختلف (BLSTM و MLP) آزمایش کنم، جایی که شش مجموعه ویژگی مختلف هر کدام با 36 کلاس مختلف وجود دارد، به سرعت کاملاً نامرتب می‌شود و در نتیجه 2 مورد ایجاد می‌شود. *4*6*36 = 1728 شبکه ممکن. من تصمیم گرفتم ضریب 36 را با آموزش دسته‌ای از شبکه‌ها که قابلیت طبقه‌بندی چندگانه را دارند حذف کنم و سپس شبکه‌ای را انتخاب کنم که بهترین نتایج را به‌عنوان الگو برای طبقه‌بندی‌کننده باینری من به دست می‌دهد. با این حال، من تعجب می کنم، آیا این یک رویکرد معتبر است؟ آیا برای من منطقی است که فرض کنم مجموعه شبکه/ویژگی که عملکرد بهینه را در یک مسئله چند کلاسه به من می دهد برای مورد باینری نیز کار می کند؟ اگر چنین است (یا خیر)، آیا کسی می تواند به من در جهت هر مقاله مفیدی اشاره کند؟ متشکرم!
اخلاق استفاده از یک مجموعه ویژگی چند کلاسه بهینه برای طبقه بندی باینری
41597
**تنظیمات** بسیاری از الگوریتم ها بر روی یک رابطه یا جدول واحد عمل می کنند، در حالی که بسیاری از پایگاه های داده دنیای واقعی اطلاعات را در چندین جدول ذخیره می کنند (دومینگوس، 2003). **سوال** چه نوع الگوریتم هایی از جداول چندگانه (رابطه ای) به خوبی یاد می گیرند. به طور خاص، من به الگوریتم هایی علاقه مند هستم که برای وظایف رگرسیون و طبقه بندی قابل اجرا هستند (نه الگوریتم های مبتنی بر تحلیل شبکه، به عنوان مثال، پیش بینی پیوند). * * * من از چندین رویکرد لیست شده در زیر آگاه هستم (اما مطمئن هستم که برخی از آنها را از دست داده ام): * داده کاوی چند رابطه ای (MRDM) (Dzeroski, 2002) * برنامه ریزی منطقی استقرایی (ILP) (Muggleton, 1992) * آماری یادگیری رابطه ای (SRL) (Getoor، 2007) * * * Džeroski، S. (2003). داده کاوی چند رابطه ای: مقدمه خبرنامه اکتشافات ACM SIGKDD. Getoor, Lise, and Ben Taskar, eds. مقدمه ای بر یادگیری رابطه ای آماری. مطبوعات MIT، 2007. S. Muggleton و C. Feng. القای کارآمد برنامه های منطقی. در مجموعه مقالات اولین کنفرانس تئوری یادگیری الگوریتمی، صفحات 368-381. Ohmsha، توکیو، 1990.
یادگیری از داده های رابطه ای
13262
آمار GRS Gibbons و همکاران است. (1989) آماری که آزمایش می کند که آیا رهگیری های برآورد شده از یک مدل رگرسیون چندگانه به طور مشترک صفر هستند یا خیر. سناریوی معمولی شامل یک رگرسیون پنل خطی چند متغیره است که در آن شما بازده اوراق بهادار را بر حسب مواجهه آن با سری بازده عوامل توضیح می‌دهید. از نظر تئوری، یک مدل عامل خوب دارای یک برش است که از نظر آماری از صفر قابل تشخیص نیست. چگونه می توانم آمار GRS را در R محاسبه کنم؟ متشکرم
آمار GRS در R برای آزمایش اینکه رهگیری از رگرسیون پانل چند متغیره به طور مشترک صفر است؟
68525
فرض کنید من یک کابل شبکه طولانی در زمین دفن شده‌ام و کارگران ساختمانی گاهی اوقات هنگام انجام کارهای حفاری به آن آسیب می‌رسانند. من باید احتمال شکستگی را با فرض تصادفی بودن آن تحلیل کنم. اگر بخواهم احتمال شکستن کابل را در هر نقطه مشخصی بررسی کنم، آنگاه صفر خواهد شد زیرا طول یک نقطه صفر است، بنابراین آسیب رساندن ناخواسته به کابل در یک نقطه خاص غیرممکن است. بنابراین من باید کابل را به بخش هایی برای تجزیه و تحلیل تقسیم کنم تا سپس بخش هایی با طول های غیر صفر و احتمال آسیب غیر صفر داشته باشم. چگونه طول بخش ها را انتخاب کنم و چه راه های دیگری برای محاسبه احتمال وجود دارد که با صفر بودن طول نقطه شکست سروکار دارد؟
با توجه به اینکه طول ناحیه شکستگی صفر است، چگونه می توانم مورد شکستن کابل را در هر نقطه تجزیه و تحلیل کنم؟
73514
من یک مجموعه داده با 18٪ از متغیر AGE از دست رفته دارم که یک متغیر مهم برای تجزیه و تحلیل است. 1. آیا باید انتساب رگرسیون را امتحان کنم یا باید آن مشاهدات را کنار بگذارم؟ 2. آیا حتی انتساب رگرسیون در این مورد (برای سن) معنی دارد؟؟ 3. من هم متغیر درآمد دارم اما همبستگی سن و درآمد منفی و قدرت 0.1 است چه کار کنم؟
درمان ارزش از دست رفته
67267
من 3 درمان مختلف با مشاهده 6 تکرار مختلف دارم. با این حال، همه این درمان های مختلف (گروه ها) تعداد بیماران متفاوتی دارند. گروه اول 26 بیمار، گروه دوم 28 بیمار و گروه سوم 19 بیمار. بنابراین، می توانم بگویم که اندازه های نمونه نابرابر برای آنووا اندازه گیری های مکرر دو طرفه دارم. وقتی تجزیه و تحلیل را با استفاده از SPSS انجام می دهم، مجموع مجذورات و درجات آزادی را با استفاده از حداقل حجم نمونه گروه سوم که 19 است محاسبه می کند. حل مسئله و انجام مقایسه ها با دست زمان بر است. می‌خواهم بدانم چگونه می‌توان با استفاده از رایانه با این نوع مشکل، که حجم نمونه‌های نابرابر در هر گروه است، برخورد کرد. آیا برنامه دیگری (SAS یا R؟) وجود دارد که به غیر از SPSS با آن سروکار داشته باشد که واضح است که نمی تواند؟
اندازه های نمونه نابرابر برای اندازه گیری های مکرر دو طرفه
79217
من یک توزیع پیوسته تک وجهی دارم که کج است و می‌خواهم حالت را با استفاده از بسته متوسط ​​در R تخمین بزنم. با این حال، بسته تعداد نسبتاً زیادی روش برای انجام این کار ارائه می‌دهد. چیزی که وضعیت را پیچیده تر می کند این است که برخی از این روش ها گزینه های بیشتری برای روش های مختلف تخمین حالت در یک روش خاص دارند. از آنجایی که به طور کلی در زمینه آمار نسبتاً تازه کار هستم، کمی غرق شده ام. چگونه می توانم روش مناسب را در اینجا انتخاب کنم؟ آیا فقط رسم توزیع و استفاده از روشی که مقداری را که با توجه به اطلاعات گرافیکی معقول به نظر می رسد، برمی گرداند، یک رویکرد معتبر است؟
بسته R modeest: کدام روش تخمین حالت؟
34034
من سعی می کنم یک پیش بینی از یک مدل محاسباتی را با یک آزمایش بیولوژیکی آزمایش کنم. این مدل یک وابستگی خطی بین اندازه سلول و عدم تقارن را پیش‌بینی می‌کند. من آزمایشی را انجام دادم که مشخص است بر اندازه سلول تأثیر می‌گذارد، و شیب قابل توجهی در هنگام بازگشت عدم تقارن به اندازه سلول به دست آوردم. با این حال، در زیست شناسی، به ندرت یک آزمایش کاملاً تمیز وجود دارد. برای توضیح سایر اثرات بالقوه اغتشاش، یک متغیر ساختگی برای اغتشاش به رگرسیون اضافه کردم. ضریب ساختگی معنی دار نیست (0.5=p)، اما ضریب اندازه سلول نیز دیگر معنی دار نیست (0.1=p). با فرض درستی پیش‌بینی مدل، چگونه می‌توانم، با توجه به نتایج رگرسیون خود، محاسبه کنم که چقدر اندازه‌گیری اضافی باید انجام دهم تا ضریب اندازه سلول حتی در حضور ساختگی مخدوش‌کننده نیز قابل توجه باقی بماند؟
اندازه نمونه برای رگرسیون چندگانه: به چه مقدار داده بیشتر نیاز دارم؟
76073
چگونه می توان ضرایب بتا در R را برای مدلی تفسیر کرد که دارای یک متغیر وابسته طبقه ای است که باینری نیست؟ به عنوان مثال، در مدل فرضی زیر، من B1 را هم از نظر آماری معنادار و هم مثبت تفسیر می‌کنم، اما اگر متغیر وابسته طبقه‌ای من بتواند 4 دسته داشته باشد، B1 کدام دسته را به طور مثبت پیش‌بینی می‌کند؟ یعنی اگر DV می تواند (آبی، قرمز، سبز، زرد) باشد، B1 چه چیزی را پیش بینی می کند؟ به عنوان یک طرف، من با یک نمونه بسیار کوچک سروکار دارم. bayesglm (فرمول = DV ~ B1 + B2 + B3، خانواده = دوجمله ای (پیوند = probit)، داده = داده) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.07714 0.03221 0.14180 0.25680 0.25680 0.8659 Cost. خطای z مقدار Pr(>|z|) (فاصله) -6.336e-01 1.859e+00 -0.341 0.7332 B1 2.691e+00 1.347e+00 1.998 0.0457 * B2 1.5186e 0.341+0. 0.2212 B3 6.637e-01 1.755e+00 0.378 0.7052
متغیر وابسته طبقه بندی در R
18532
شاید یک سوال احمقانه باشد، اما نیاز به راهنمایی و نظرات شما دارم. من ورودی های داده (ترکیبات) با دو مقدار Value1 و Value2 (فعالیت برای دو پروتئین) دارم. آیا ساخت منحنی ROC برای این ورودی های داده با کلاس 1 (صفر) به عنوان مقدار 1 و کلاس 2 (یک) به عنوان مقدار 2 معنادار است؟ بنابراین، اگر ROC AUC نزدیک به 0.5 باشد - به این معنی است که ما نمی توانیم بین Class1 و Class2 تمایز قائل شویم. آیا آن 2 پیشنهاد صحیح است؟ خیلی ممنونم
منحنی ROC برای ورودی های یکسان با مقادیر مختلف
76072
برای تعیین اینکه آیا کاری که انجام می دهم کافی است یا خیر به کمک نیاز دارم. من انحنا را از دو چهره انسان استخراج کرده ام (در اصل منحنی است که از یک گوش، از صورت تا چانه پایین می رود و به گوش دیگر بالا می رود). اکنون می‌خواهم یک شباهت منحنی را با یک چهره انسانی دیگر محاسبه کنم. برای اینکه سعی کنم این را نسبت به اندازه‌های مختلف منحنی ممکن تغییر دهم (از آنجایی که تصاویری که این چهره‌ها از آن‌ها گرفته شده‌اند را می‌توان از فواصل مختلف از شخص گرفت) من هر دو بعد X و Y را با کم کردن میانگین و تقسیم بر استاندارد نرمال کرده‌ام. انحراف (من مطمئن نیستم که این درست باشد). در نهایت، من از Dynamic Time Warping برای مقایسه این منحنی‌ها استفاده می‌کنم، این نوع نتیجه‌ای است که به دست می‌آورم: ![DTW on Face Curves](http://i.stack.imgur.com/Ef82s.jpg) اساساً من. من می پرسم که آیا این رویکرد منطقی به نظر می رسد؟
مقایسه انحنای صورت دو صورت انسان
108363
من به نوعی در حال تمام شدن کلمات هستم، ژنراتورهای همسو خطی واقعاً PRNG با کیفیت پایینی هستند، اما این تمام چیزی بود که برای برخی چیزهای اساسی نیاز داشتم، اکنون باید جای خالی را پر کنم و با خانواده های دیگر PRNG آشنا شوم، اما چیزی ندارم. ایده در مورد همه خانواده های موجود PRNG ها. احتمالاً کسی می تواند سلسله مراتب یا لیستی از انواع PRNG های ممکن را در آنجا بنویسد؟
چه نوع PRNG خارج از ژنراتورهای همخوانی خطی وجود دارد؟
34038
من سعی می کنم طرحی را که در نشریه ای یافتم (شهردار-فرناندز و همکاران 2012) بازتولید کنم که نرخ بیکاری را در طول زمان برای چندین منطقه نشان می دهد. این یک نقشه حرارتی (؟)، یک نمودار سری زمانی (پانل پایینی) و نمودارهای جعبه (پانل سمت راست) را ترکیب می کند. با عرض پوزش برای این سوال اساسی، اما من تازه وارد تجزیه و تحلیل داده ها و R هستم. برای درک بهتر از طرح لطفا به صفحه 7 در http://www2.dse.unibo.it/wp/WP835.pdf مراجعه کنید. جهت صحیح یا کدی را به اشتراک بگذارید؟ از کمک و وقت شما بسیار سپاسگزارم!
تجسم روند زمانی برای مناطق
96896
چگونه سطوح قیمت را در یک رگرسیون لحاظ کنیم؟ آیا ما فقط فهرست شماره شاخص قیمت را می گیریم، به عنوان مثال: شماره شاخص قیمت مصرف کننده ارائه شده توسط دفتر آمار ملی (آژانس آماری بریتانیا)؟ اگر نه، پس چگونه آن را درج کنیم؟ آیا صرفاً درج نرخ تورم به عنوان یک رگرسیون در RHS قابل قبول است؟ اگر من پس‌انداز را مدل‌سازی می‌کنم و می‌خواهم ببینم چگونه به سطوح قیمت پاسخ می‌دهد، چگونه این کار را انجام می‌دهم؟
سطوح قیمت و تورم در رگرسیون
76077
من کارهای زیادی در زمینه رگرسیون انجام داده ام (زمان ثابت) اما اکنون در حال مطالعه پیش بینی هستم. سوال من در مورد تعیین میزان تاخیر برای استفاده در یک مدل اتورگرسیو است. من فرض می‌کنم که در پیش‌بینی، از داده‌های خود تا زمان t برای آموزش مدل خود استفاده می‌کنید و سپس یک آزمایش خارج از نمونه روی داده‌ها پس از زمان t انجام می‌دهید تا عملکرد مدل خود را آزمایش کنید. آیا چیزی به نام بیش از حد برازش در مدل های اتورگرسیو وجود دارد؟ یعنی استفاده از تاخیر بیش از حد به گونه ای که مدل به خوبی به داده های خارج از نمونه تعمیم نمی یابد. یا اینکه بعد از تعداد معینی تاخیر، دیگر شاهد بهبود عملکرد نیستید؟
تعیین میزان تاخیر در یک مدل خودرگرسیون
8021
من یک سوال قبلی ارسال کردم، این مربوط است، اما فکر می کنم بهتر است یک تاپیک دیگر شروع شود. این بار، من در تعجب هستم که چگونه می توان نقاط توزیع شده یکنواخت را در کره واحد 3 بعدی ایجاد کرد و چگونه توزیع را به صورت بصری و آماری بررسی کرد؟ من استراتژی های ارسال شده در آنجا را مستقیماً قابل انتقال به این وضعیت نمی بینم. لطفا کمک کنید. با تشکر فراوان.
چگونه در توپ واحد 3 بعدی نقاط توزیع شده یکنواخت ایجاد کنیم؟
68524
در این تاپیک @whuber پاسخ مفصلی در مورد استفاده از آمار داده های آموزشی برای استانداردسازی مجموعه داده های cv داد. سوال من این است که اگر برخی از ویژگی ها چند جمله ای هستند چگونه مجموعه داده های نگهدارنده را در اعتبار سنجی متقاطع n برابر استاندارد کنیم؟ استاندارد کردن ویژگی های چند جمله ای آنها را بی فایده می کند، درست است؟ با تشکر
اعتبار سنجی و استانداردسازی متقابل
76074
فرض کنید $X$ و $Y$ دارای توزیع های شرطی هستند که توسط: \begin{align} f(x|y)&\propto ye^{-yx}\;\;\text{for}\;\;0<x <B<\infty\\\ g(y|x)&\propto xe^{-xy}\;\;\text{for}\;\;0<y<B<\infty \end{align} مطابق برای مقاله، محاسبه توزیع حاشیه ای $g(x)$ آسان نیست، اما از $B<\infty$ وجود دارد. به راحتی می توان تعیین کرد که: \begin{align} f(x|y)&= \frac{e^B}{e^B-1}ye^{-yx}\;\;\text{for}\ ;\;0<x<B<\infty\\\ g(y|x)&= \frac{e^B}{e^B-1}xe^{-xy}\;\;\text{for}\;\;0<y<B<\infty \end{align} اکنون از $f (x|y)f(y)=f(x,y)=g(y|x)g(x)$، به این معنی است که: $$\frac{f(y)}{g(x)}=\frac{g(y|x)}{f(x|y)}=\frac{x}{y}.$$ و به این ترتیب که : $$\frac{1}{g(x)}=\frac{1}{g(x)}\int_0^Bf(y)dy=\int_0^B\frac{f(y)}{g(x )}dy=\int_0^B\frac{x}{y}dy=x\ln(y)\Big|_{y=0}^{y=B}=-\infty.$$ این بدان معناست که $g(x)=0$، و با آرگومان مشابه، $f(y)=0$. من کاملاً مطمئن نیستم که از این چه باید بکنم. آیا می‌توانم نتیجه بگیرم که از آنجایی که نسبت حاشیه‌ها یک شکل نامشخص (صفر بر صفر) است، این روش محاسبه آنها در این مورد خاص با شکست مواجه می‌شود؟ و اینکه در واقع هر دو صفر نیستند. همچنین، آیا این یک تکنیک رایج برای محاسبه حاشیه ها با توجه به شرطی ها است؟ در حالی که تلاش می‌کردم ببینم چرا نمی‌توان تکنیک نمونه‌گیری گیبس را با ارزیابی (احتمالا عددی) برخی انتگرال (احتمالاً بسیار دشوار) جایگزین کرد، به آن رسیدم. در نهایت، همانطور که در بالا ذکر کردم، مقاله می‌گوید حاشیه‌ها به راحتی قابل محاسبه نیستند، که به نظر می‌رسد نشان می‌دهد که در تئوری می‌توان آنها را محاسبه کرد، چگونه این کار انجام می‌شود؟
محاسبه حاشیه ها با توجه به توزیع های شرطی
34031
ما در حال انجام نمونه برداری MCMC در فضای n بعدی با جمعیت MCMC هستیم. هدف این است که وقتی تقریباً همگرا می شوند متوقف شوند. مشکل این است که همگرایی، که به راحتی به صورت بصری دیده می شود، کدگذاری سخت است. Gelman-Rubin/Geweke معمولی به خوبی برای عملکردهایی با رفتار خوب کار می کند، اما برای برخی از توابع بد با ویژگی های عجیب و غریب، آنها نوسان می کنند یا دارای قله های تصادفی هستند که نشان دهنده همگرایی آهسته ثابت آنطور که می خواهید نیست. چه آمارهای همگرایی دیگری را می توانید توصیه کنید؟ من به دنبال استفاده از روش های سری زمانی بودم، اما هیچ مقاله ای در مورد همگرایی سری های زمانی پیدا نکردم. داشتم به این فکر می کردم که آیا می توان یک فویر گسسته گرفت و با آن کاری کرد یا .....؟ برخی قبلاً به این موارد نگاه کرده بودند: کرامر فون میزس، کولموگروف-اسمیرنوف، کویپر، رافتلی-لوئیس، هاینبرگ-ورتلی.
همگرایی MCMC برای توابع بد رفتار
68520
من در حال حاضر با یک مدل خطر زمان گسسته ضریب تصادفی کار می کنم. مفروضات زیر مشمول این نوع مدل هستند: * فرض افزودنی خطی * فرض تناسب * فرض عدم تجانس مشاهده شده اکنون می خواهم این مفروضات را به نحوی آزمایش کنم. در مقالاتی که تا به حال خوانده ام، این فرضیات همیشه به عنوان داده شده در نظر گرفته شده است و من هنوز هیچ آزمون استانداردی برای آنها ندیده ام. آیا آزمون استاندارد شده ای برای این مفروضات وجود دارد یا بیشتر مربوط به مشخصات صحیح مدل با آزمایش و مقایسه انحراف و غیره مشخصات مدل های مختلف است؟
آزمون های فرضی در مدل خطر گسسته زمان
35345
من داده‌های زیر را دارم: * تعداد ماه سالانه افراد مبتلا به مشکل کمر/گردن * تعداد افرادی که از جراحی (فیوژن کمر) به عنوان یک درمان استفاده می‌کنند، هدف محاسبه میزان استفاده از جراحی است (`= تعداد جراحی‌ها / تعداد افراد با مشکل کمر/گردن») برای هر ماه و از این رو پیش بینی ماهانه ارائه می شود. بهترین رویکرد برای مدل سازی این داده ها چیست؟ من سعی کردم فصلی بودن داده ها را کشف کنم، اما با موفقیت کمی. آیا امکان دارد که اطلاعات من فصلی نداشته باشد؟ اگر از رگرسیون پواسون استفاده کنم، آیا باید نرمال بودن را آزمایش کنم؟ یا می توانم توزیع داده ها را نادیده بگیرم. روش گام به گام درخواست می شود زیرا من در این زمینه جدید هستم. من اطلاعاتی از ژانویه 2006 تا مه 2012 دارم. تعداد من بین 1 تا 70 است. من از sas و sas jmp استفاده می کنم. در نسخه sas که من استفاده می کنم محدودیت وجود دارد. مجوز سری زمانی ندارد. * * * فصلی در تعداد با مشکل کمر/گردن وجود ندارد. بنابراین، حدس می‌زنم در تعداد جراحی‌ها نیز فصلی وجود نداشته باشد. از آنجایی که من داده های شمارشی دارم از رگرسیون پواسون برای مدل کردن تعداد جراحی ها استفاده می کنم. اما رگرسیون پواسون چند فرض قوی دارد. روش ممکن دیگر رگرسیون دو جمله ای منفی است. در حال حاضر مدل من دارای یک متغیر وابسته تاخیری (تعداد تاخیری جراحی) و عدد با درد کمر/گردن است. امیدوارم در مسیر درست باشم. یا روش بهتری را پیشنهاد می کنید؟
چگونه داده های شمارش ماهانه (تعداد جراحی های فیوژن کمر) را مدل کنم؟
35348
من دانشجوی دکترا هستم و در حال انجام تحقیق در مورد تحلیل رگرسیون هستم. سوال من این است که چگونه می توان تشخیص داد که داده ها کمی، متوسط ​​یا بسیار غیرعادی توزیع شده اند؟ * * * TQ به تمام پاسخ های سوال من. اما، ممکن است سوال من چندان واضح نباشد. بسیار خوب، بگذارید بگوییم که من مقادیر متفاوتی از چولگی و کشیدگی دارم (به عنوان مثال: چولگی = 1.5، کشیدگی = 2.0). بنابراین سوال من این است که از مقادیر چولگی و کشیدگی، نوع توزیع داده ها چیست؟ آیا نسبتاً غیر طبیعی است یا بسیار غیر طبیعی یا چه؟
چگونه تعیین کنیم که داده ها کمی یا بسیار غیرعادی توزیع شده اند؟
79210
Cramer-von Mises روش خوبی برای مقایسه توزیع ها با این موارد ارائه می دهد: $$ \int [(\hat{F}_n(x) - F_0(x)]^2dF_0(x)؛ $$ من می خواهم از چیزی شبیه به این برای مقایسه دو توزیع تجربی، آیا آمار مشابهی وجود دارد که به جای آن استفاده می‌کند: $$ \int_n[\hat{f}_n(x) - f_0(x)]^2df_0(x) یعنی آیا چیز خاصی در مورد استفاده از CDF ها بر خلاف تراکم ها وجود دارد؟
Cramer-von Mises با استفاده از pdf به جای Cdf
68522
من یک تحلیل عاملی تاییدی همزمان انجام می‌دهم تا بررسی کنم که آیا آیتم‌های یک نظرسنجی به مفاهیم زیربنایی جداگانه مورد نظر بدون بارگذاری متقاطع بر روی مفاهیم اشاره دارند یا خیر. از آنجایی که من این کار را در چارچوب یک دوره آموزشی SEM انجام می دهم، به نحوه تخمین این نرم افزار نیز توجه دارم. من یاد گرفتم که مدل نباید کمتر شناسایی شود، جایی که پارامترهای بیشتری برای تخمین نسبت به اطلاعات موجود وجود دارد، یعنی مدل پیچیده‌تر از داده‌ها است. اکنون آنچه من فکر می کنم این است که مدل من کمتر شناسایی شده است، با این حال، بسته lavaan در R مشکلی برای نصب آن ندارد و نشان می دهد که حتی 38 درجه آزادی بیشتر وجود دارد. مدل من به این شکل است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3Jpmf.png) متغیرهای دارای ستاره، متغیرهای آشکار ترتیبی هستند که به متغیرهای پاسخ پنهان پیوسته تبدیل می شوند. این مشخصات مدل در R است: TP.cfa <- 'tpeff =~ plcpvcr + plccbrg + plcarcr tpfairdis =~ plcvcrp + plcvcrc tpfairproc =~ plcrspc + plcfrdc + plcexdc fit + plcexdc همکاری =vd <prct' خلاصه cfa(TP.cfa، data=ESS5BE، ordered=c(plcvcrp،plcvcrc، plcrspc، plcfrdc، plcexdc، caplcst، widprsn، wevdct)) .cfa، fit.measures=TRUE، modin=T) اگر درست بشمارم، 25 اطلاعات موجود است: 3 برای 3 متغیر مانیفست پیوسته {k(k+1)/2}، و 22 نسبت برای متغیرهای مانیفست ترتیبی (6 مورد از آنها دارای 4 دسته پاسخ، 2 دارای 3 دسته، و برای یک متغیر ترتیبی نسبت های c-1 اطلاعات منحصر به فردی هستند. ). لاوان 53 پارامتر را برآورد می کند: 6 کوواریانس، 7 بار عاملی، 3 قطع، 22 آستانه و 15 واریانس. حال سوال من این است که آیا R می‌تواند مدل را تخمین بزند، حتی اگر کمتر شناسایی شود؟ یا واقعاً من یک مدل بیش از حد شناسایی شده با 38 درجه آزادی دارم و بعد اینها از کجا می آیند؟
درجات آزادی در تحلیل عاملی تاییدی همزمان
91344
من در مورد چگونگی انجام تجزیه و تحلیل حساسیت بر روی پیشین ها نمی دانم. بسیاری از سایت ها پاسخ های متفاوتی دارند. یک سایت نشان می‌دهد که سه پیش‌نمایش غیر آموزنده، ضعیف و شناخته شده را انجام می‌دهد. دیگری پیشنهاد می کند که مدل را با اولویت های مختلف اجرا کنید. در اینجا سؤالات من وجود دارد: من می خواهم این پارامتر A را تخمین بزنم که در آن A = mean1 + mean2 . بنابراین، پیشین‌های میانگین 1 و میانگین 2 (*در کدگذاری**) به صورت زیر فرموله می‌شوند: mean1 ~ N(u1, tau1) A ~ N (mean1, tau2) که در آن tau1 ~ گاما (آلفا1، بتا1) tau2 ~ گاما (alpha2,beta2) با فرمول بالا، چگونه می توانم تجزیه و تحلیل حساسیت را انجام دهم؟ 1. آیا باید محدوده ای از u1، tau1 و tau2 را تعریف کنم؟ اگر چنین است، رویه های سیستماتیک چیست؟ به نظر من ترکیب های مختلفی وجود دارد: تغییر u1 و ثابت کردن tau1 و tau2. یا u1 و tau2 را اصلاح کنید، tau1 را تغییر دهید. یا u1 و tau1 را با tau2 تغییر دهید. از کجا بفهمیم که پیش از استفاده صحیح کدام است؟ 2. چگونه می توانم پیش از آموزنده ضعیف را در فرمول بالا بگنجانم؟ 3. اگر تست حساسیت با تغییر مقادیر اولیه، میانگین های تخمینی متفاوت 1 و A را برگرداند، چه؟ چگونه نتیجه گیری کنیم؟ توصیه شما مورد قدردانی قرار خواهد گرفت و به من کمک می کند تا شروع کنم. متشکرم! ویرایش: یک خطا را تصحیح کردم. شما می توانید _mean2_ تخمین زده شده را از پارامترهای تخمینی _A_ و _mean1_ تخمین زده شده محاسبه کنید.
مشاوره در مورد تجزیه و تحلیل حساسیت برای پیشینیان در آمار بیزی
100443
اگر سه گروه مستقل از داده‌های بازه‌ای دارم و می‌خواهم بررسی کنم که آیا میانگین آنها تفاوت معنی‌داری دارند، باید از چه آزمون آماری استفاده کنم؟ همچنین باید توجه داشته باشم که اندازه نمونه های هر گروه متفاوت است (N1=50، N2=10، N3=13). آیا عاقلانه تر است که یکی را با دیگری مقایسه کنیم و سپس همین کار را برای دو جفت دیگر انجام دهیم؟ (G1=G2؛ G2=G3؛ G1=G3)؟ من می دانم که ANOVA یک طرفه و Tukey's post-hoc بهترین گزینه هستند، اما آیا تفاوت در اندازه نمونه مشکلی ایجاد می کند؟ متشکرم!
از چه آزمون آماری برای سه گروه با حجم نمونه متفاوت استفاده کنم؟
108361
من در تلاش برای حل یک مشکل بیزی هستم که در آن دو فرضیه متقابل منحصر به فرد و جامع دارم: $H_1$ و $H_2$. با توجه به فرمول بی: $$P(H|D) = \frac{P(H)P(D|H)}{P(D)}$$ (که $D$ داده‌های من است) من آن یکی را خوانده‌ام راه برای به دست آوردن پسین $P(H_1|D)$ و $P(H_2|D)$، ایجاد جدولی مانند این است: P(H) (قبلی) | P(D|H) (احتمال) | _________________________________________________ H1 | P(H1) | L(H1) | P(H1)*L(H1) H2 | P(H2) | L(H2) | P(H2)*L(H2) سپس با جمع کردن مقادیر در ستون سوم، ثابت _normalization_ $P(D)$ را به صورت: $$P(D) = P(H_1)L(H_1) + P(H_2) دریافت می کنم. L(H_2)$$ که برای هر فرضیه موارد پسین را به صورت زیر به دست می دهد: $$P(H_1|D) = \frac{P(H_1)L(H_1)}{P(H_1)L(H_1) + P(H_2)L(H_2)}$$ $$P(H_2|D) = \frac{P(H_2)L (H_2)}{P(H_1)L(H_1) + P(H_2)L(H_2)}$$ دانش من در آمار زیاد نیست و نتوانستم تأیید کنم این هر جای دیگر کسی می تواند به من بگوید که آیا این درست است؟
به دست آوردن پسین برای فرضیه های انحصاری و جامع
23407
در یادگیری تقویتی، تفاوت بین برنامه نویسی پویا و یادگیری تفاوت زمانی چیست؟
تفاوت بین برنامه نویسی پویا و یادگیری تفاوت زمانی در یادگیری تقویتی
57232
آیا راهی برای بدست آوردن باندهای اطمینان حول منحنی اثرات ثابت جمعیت برازش شده برای مدل‌های اثرات مختلط غیرخطی برازش شده در تابع «R» «nlme()» وجود دارد؟ من مایلم منحنی برازش میانگین جمعیت را با عدم قطعیت در برآوردها رسم کنم، با این حال، هیچ راه روشنی برای انجام این کار با در نظر گرفتن واریانس اثرات تصادفی پیدا نکردم.
باندهای اطمینان در مدل‌های اثرات مختلط غیر خطی
79216
**مشکل**: هنگام تلاش برای محاسبه واریانس مجموع سری های زمانی، من یک واریانس منفی دریافت می کنم، که بیشتر به دلیل خودکوواریانس ها در مراحل تاخیر بزرگ است. واقع بینانه به نظر نمی رسد. من یک سری زمانی دارم که از یک سری زمانی دیگر با استفاده از یک معادله رگرسیون محاسبه می شود. من می خواهم عدم قطعیت در رگرسیون به سری های زمانی نهایی را تبلیغ کنم. سپس می‌خواهم بخش‌های مختلف سری‌های زمانی را در دوره‌های زمانی مختلف جمع کنم (یا مقادیر میانگین را بگیرم) و عدم قطعیت مجموع را دریافت کنم. سری های زمانی در اصل در فرکانس 1 ساعت است و من می خواهم در دوره های 1 روزه (نمونه برداری مجدد به فرکانس روزانه) تا چندین سال جمع بندی کنم. سری‌های زمانی در زمان‌های تاخیر کوتاه به‌شدت همبستگی خودکار دارند. برای بدست آوردن واریانس مجموع (در حالتی که 3 عنصر جمع شوند): $$Var(a+b+c)= \\\ Var(a)+Var(b)+Var(c) + 2 \times (Cov(a,b) + Cov(a,c)+Cov(b,c))$$ من از `r` برای محاسبات استفاده می کنم. من واریانس‌های هر عنصر سری زمانی را به صورت $SE^2$ دریافت می‌کنم، که در آن $SE$ خطای استاندارد (`se.fit`) است که از تابع `predict()` r با استفاده از مدل رگرسیون برگردانده می‌شود. کوواریانس هایی که من از تابع اتوکوواریانس «acf()» دریافت می کنم. در اینجا تعدادی کد و مجموعه ای از داده ها وجود دارد (ببخشید کد R ناشیانه است، من با R بسیار جدید هستم): #tsY سری های زمانی پیش بینی شده از رگرسیون tsY=c است (81.4، 79.0، 83.4، 81.7، 75.7، 68.3، 62.3، 57.2، 52.6، 48.8، 45.4، 42.6، 39.9، 37.6، 35.6، 33.8، 32.2، 30.8، 29.6، 28.4، 27.3، 26.2، 25.0، 23.9). 1.60، 1.56، 1.41، 1.23، 1.09، 0.97، 0.87، 0.78، 0.71، 0.65، 0.60، 0.55، 0.51، 0.48، 0.45، 0.40، 0.40، 0.40، 0.40، . 0.34، 0.32، 0.30) tsVar=tsSE^2 #یک ماتریس از خودکوواریانس ها در زمان های تاخیر مختلف ایجاد کنید، مورب lag=0 است #ردیف ها و ستون ها شاخص هایی در سری زمانی هستند covmat<-matrix(numeric(0), length(tsY) ,length(tsY)) برای ( i in (1:(length(tsY)) ) ) { if (i == 1) { autocov<-acf(tsY, type='covariance', lag.max= length(tsY)) autocovvec<-autocov$acf[1:nrow(autocov$acf)] covmat[i: length(tsY),i]=autocovvec } else { autocov<-acf(tsY[-(1:i-1)], type='covariance', lag.max= length(tsY)) autocovvec<-autocov$acf[1:nrow(autocov$acf)] covmat[i:length(tsY),i]=autocovvec } } # مجموع ماتریس ستون‌ها، اما نه مجموع ستون‌های مورب <- rep(NA, ncol(covmat)) برای (i در (1:ncol(covmat))) { if (i == 1) { sumofColumns[i]=sum(covmat[-(1),i]) } else{sumofColumns[i]=sum(covmat[-(1 :i),i]) } } sumofCov=sum(sumofColumns) # مجموع کوواریانس (Cov(a,b) + Cov(a,c)+...) sumofVar=sum(tsVar) # مجموع واریانس های هر عنصر سری زمانی varofSum=sumofVar+2*sumofCov # واریانس مجموع سری های زمانی # از covmat واریانس منفی در رخ می دهد زمان تاخیر بزرگتر acf(tsY, type='covariance', lag.max= length(tsY)) > sumofCov [1] -1151.529 > varofSum [1] -2283.246 **بنابراین من سوالات زیر را دارم:** > 1. آیا من کاملاً انجام دادم نحوه محاسبه واریانس مجموع را اشتباه متوجه شده اید؟ > > 2. آیا بهتر است از یک برش از حداکثر تأخیرها برای در نظر گرفتن در اتوکوواریانس استفاده شود؟ اگر چنین است چگونه می توان این را تعیین کرد؟ این امر به ویژه در مورد داده های کامل که طول آن چندین هزار است مهم است. > > > > ~~3\. چرا کوواریانس در این داده های نمونه در کل منفی است؟ هنگام ترسیم tsY`plot(tsY)` به نظر می رسد که کوواریانس/همبستگی باید مثبت باقی بماند.~~ زیرا این تغییر جهت از میانگین آنها است. **ویرایش:** > نظر در مورد **سوال 2** بالا: من متوجه شده ام که استفاده از تاخیرهای n-1، مانند > بالا در کد، چندان منطقی نیست. به نظر می‌رسد که راه‌های متفاوتی برای تعیین حداکثر تاخیر وجود دارد. Box & Jenkins > (1970) n/4 و R را به طور پیش فرض 10*log10(n) پیشنهاد می کند. با این حال، این به سوال > پاسخ نمی دهد که چگونه یک برش مناسب برای جمع کوواریانس های > تعیین کنیم. > > آیا منطقی است که به خودهمبستگی جزئی (تابع pacf())، > نگاه کنیم تا تأثیر کوواریانس خودکار در عبارت جمع را بیش از حد برآورد نکنیم؟ خود همبستگی جزئی برای داده های من به طور قابل توجهی > متفاوت از صفر تنها در 1 یا 2 تاخیر است. به طور مشابه، با برازش یک مدل AR > با استفاده از تابع ()ar، مرتبه 1 یا 2 را نیز دریافت می کنم.
مجموع واریانس سری های زمانی خودهمبسته
103473
من مجموعه بزرگی از عکس‌ها از انواع مختلف دارم که با برخی برچسب‌ها برچسب‌گذاری شده‌اند، اما واقعا نمی‌توان به آن‌ها اعتماد کرد (به عنوان مثال، برخی از پرتره‌ها دارای برچسب عمودی هستند در حالی که بسیاری از آنها چنین برچسب‌هایی را برای منظره و غیره ندارند) . من می خواهم به نحوی تشخیص دهم که کدام یک از آنها دارای منظره و/یا معماری هستند (برخلاف انسان ها، چه صورت و چه تمام قد، ​​اتومبیل، غذا و غیره). من متشکرم که این موضوع پیچیده ای است و من واقعاً مهارت یا زمان لازم برای پرداختن به آن را ندارم، بنابراین فقط امیدوارم از چند کتابخانه منبع باز استفاده کنم و امیدوارم بهترین ها را داشته باشم، زیرا به دقت بالایی نیاز ندارم. - هم مثبت کاذب و هم منفی کاذب فاجعه نیست. همچنین به این که چه ساختمانی در چه تصویری است یا کدام کوه و غیره اهمیتی نمی‌دهم. ایده فعلی من این است که برخی از الگوریتم‌های تشخیص چهره موجود (شاید Haar با استفاده از OpenCV) را روی آن اجرا کنم و از همه مواردی که موارد مثبت را نشان می‌دهند صرف نظر کنم. آیا کار نسبتاً ساده دیگری وجود دارد که بتوانم برای حذف عکس افراد از پشت، بشقاب های غذا و غیره (بدون آموزش طبقه بندی کننده های خودم) انجام دهم؟ آیا فکر من در جهت درست است یا راه حل های آسان تری را از دست می دهم؟
شناسایی/تشخیص عکس های منظره و معماری
87857
من یک توزیع تجربی را به مجموعه ای از داده های سری زمانی (Y) با کد زیر در R برازش دادم: Ye=rank(Y)/(length(Y)+1) چگونه می توانیم معکوس این توزیع را پیدا کنیم؟ با تشکر
چگونه تابع تجربی را معکوس کنیم؟
23406
همانطور که در این سوال دیدیم، استراتژی توصیه شده برای ساختن درخت تصمیم، پس هرس است. دو روش برای آن عبارتند از _subtree جایگزینی_ و _subtree raising_. در هر گره، یک الگوریتم تصمیم می‌گیرد که آیا باید جایگزینی زیردرخت، بلند کردن زیردرخت را انجام دهد یا زیردرخت را همانطور که هست رها کند. * _Subtree جایگزینی_ یک زیردرخت را انتخاب می کند و آن را با یک برگ جایگزین می کند. * _افزایش درخت فرعی_ یک زیردرخت را انتخاب می‌کند و آن را با یک فرزند جایگزین می‌کند (یعنی یک زیردرخت جایگزین والد آن می‌شود) جوانب مثبت و منفی چیست، چه زمانی باید از هر کدام استفاده کنیم؟
جایگزینی زیردرخت در مقابل افزایش درخت فرعی
28656
من رگرسیون لجستیک چند جمله ای انجام می دهم. متغیر وابسته دارای 6 دسته است. 6 متغیرهای مستقل در مقیاس فاصله ای اندازه گیری می شوند (به عنوان متغیرهای کمکی در SPSS گنجانده شده است) اکنون من تست LR را تماشا می کنم. هیچ یک از متغیرهای مستقل دارای مقدار $\chi^2$ نیستند و هیچ درجه آزادی نشان داده نمی‌شود، بنابراین معنی‌داری مشخص نشده است. (به جز ثابت که قابل توجه است و 5 df دارد). یک متغیر در تخمین پارامترها اضافی است. وقتی IV اضافی را در مدل حذف می‌کنم، مقادیر $\chi^2$، df و مقادیر معنی‌داری برای متغیرهای مستقل وجود دارد. آیا مدل اول بیش از حد پارامتر شده بود یا چیزی؟ توضیح این وضعیت چیست؟ و آیا حذف یک متغیر مستقل در مدل معتبر است؟
آزمون نسبت احتمال در رگرسیون لجستیک چند جمله ای با استفاده از SPSS
35346
این سؤال حاوی یک مقدمه نسبتاً طولانی است، زیرا می خواهم انگیزه سؤال را تا حد امکان واضح توضیح دهم. ممکن است من سوال اشتباهی بپرسم (یعنی راه حل بهتری نسبت به چیزی که دارم تلاش می‌کنم وجود دارد) و از هر پاسخ خوبی در این راستا استقبال می‌کنم. من یک نقشه زمان واقعی برای یک کمیت فیزیکی بر روی یک منطقه بزرگ (یک قاره) پیاده‌سازی کرده‌ام که صدها نقطه داده را ترکیب می‌کند و از یک فیلتر کالمن برای تخمین مشترک ضرایب یک ترکیب خطی از توابع پایه (نقشه) به اضافه یک عدد بزرگ استفاده می‌کند. تعداد سوگیری های ابزاری و سایر پارامترهای مزاحم. یک مشکل در این رویکرد این است که نقاط داده به روشی بسیار ناهموار توزیع می شوند. برخی از مناطق دارای تعداد زیادی نقاط داده با فاصله نزدیک هستند و مناطق دیگر بسیار پراکنده تر هستند. از آنجایی که نقشه با مجموعه ای جهانی از توابع پایه نشان داده می شود، هیچ رسانه خوشحال کننده واقعی در انتخاب بهترین ترتیب بسط برای تابع مولد وجود ندارد. من برای نواحی پراکنده که منجر به مصنوعات جعلی می شوند، نظم بسیار بالایی دارم، یا برای مناطق غنی از داده، نظم بسیار پایینی دارم، که ساختار واقعی را که توسط داده ها پشتیبانی می شود، صاف می کنم. به منظور تطبیق بیشتر با چگالی داده های محلی، من به استفاده از نوعی رویکرد تابع پایه شعاعی (RBF) با استفاده از خوشه بندی بدون نظارت (به عنوان مثال K-means) برای توزیع مجموعه ای از مبدا تابع پایه برای مطابقت با چگالی داده های محلی فکر می کنم. . من هنوز باید از نوعی فیلتر برای تخمین پارامترهای مزاحم همراه با نقشه استفاده کنم، اما این رویکرد RBF خطی بودن سیستم را حفظ می کند تا بتوان از فیلتر Kalman استفاده کرد. من فقط باید با اشکال مختلف توابع پایه و پارامترهای آنها، تعداد توابع پایه برای استفاده و غیره آزمایش کنم. با این حال، ایده آل است که یک محدودیت صافی را نیز در نظر بگیرم، مانند مورد یک صفحه نازک. اسپلاین (TPS). این را می توان به عنوان مجموعه ای از محدودیت های خطی اضافی بر روی مقادیر نقشه در هر مبدأ پایه بیان کرد و فرمول استاندارد TPS یک راه حل شکل بسته دارد. کاری که من می‌خواهم انجام دهم این است که این محدودیت‌های خطی را در مکانیزم فیلتر، همانطور که به دلیل نویز بودن برخی از قسمت‌های سیستم لازم است، بجای حداقل کردن TPS یکباره، بگنجانم. من می توانم به طور مبهم تصور کنم که چگونه می توان این کار را انجام داد، اما مهارت های جبر خطی من در حد وظیفه استنتاج کامل آن (یا حتی نشان دادن انجام آن) نیست. بنابراین سوال من این است که آیا این رویکرد امکان پذیر است و اگر چنین است، فرم فیلتر حاصل چگونه به نظر می رسد. آیا اصطلاح خاصی وجود دارد که به اختصار آنچه را که می‌خواهم انجام دهم را توصیف کند؟ آیا نتیجه استانداردی برای این وضعیت وجود دارد؟
ترکیب یک فیلتر کالمن خطی با محدودیت های خطی اضافی؟
87854
من در تعجبم که چگونه می توان ماتریس طراحی را برای یک مدل «coxph()» با عبارت «pspline()» بازسازی کرد. به عنوان مثال، اگر من با مدل زیر مطابقت داشته باشم، fit <- coxph(Surv(t,delta) ~ pspline(x,df=0))) چگونه می توانم پیش بینی خطی را با دست برای مقدار معین x$ محاسبه کنم؟ من به طور رسمی $h(t|x) = h_0(t)\cdot e^{(X^\intercal\beta)}$ را مدل می کنم و می خواهم بدانم چگونه $X$ یا $X^\intercal را محاسبه کنم \بتا $ با دست. وقتی از عبارت pspline() استفاده می‌شود، نمی‌توانم مستندات دقیقی از نحوه ساخت ماتریس طراحی پیدا کنم. در مورد اینکه چرا من اهمیت می‌دهم، من مجموعه بزرگی از پیش‌بینی‌های جدید را از یک شی «coxph()» با عبارت «pspline()» اجرا می‌کنم. من خطر تجمعی $H_0(t)$ را ذخیره کرده ام و می خواهم بتوانم $H_0(t)\cdot e^{(X^\intercal\beta)}$ را به طور موثر محاسبه کنم. من متوجه شدم که استفاده از predict(fit, newdata=data.frame(x=x.new)، type='lp') بسیار ناکارآمد است! هر گونه راهنمایی بسیار قدردانی خواهد شد.
چگونه یک ماتریس طراحی برای coxph با عبارت pspline بسازیم؟
4200
من تعداد زیادی (صدها تا هزاران) سری زمانی پر سر و صدا دارم که مشاهدات همزمان از موضوعات مختلف را نشان می دهد. من فرض می‌کنم که بین مشاهدات برای سوژه‌های مختلف (یا گروه‌هایی از سوژه‌ها) روابط سرب- تاخیر وجود دارد. چه روش هایی را می توانم برای این در نظر بگیرم؟ ویرایش: برای روشن شدن، من به روابط زوجی نگاه نمی کنم. چیزی که من به دنبال آن هستم، روشی است که به کوهی از داده‌های در دست نگاه می‌کند و تلاش می‌کند تا روابط لید-لگ (بالقوه غیرخطی) بین گروه‌های _سرطانی_ سری و سری‌های فردی را که باید پیش‌بینی شود، کشف کند.
استفاده از روابط سرب- تاخیر برای پیش بینی سری های زمانی
73513
چگونه می توان به طور تصادفی از یک توزیع T در R نمونه برداری کرد. از آنچه من پیدا کردم، تابع «rt» در R به شما اجازه نمی دهد میانگین و انحراف استاندارد را مشخص کنید. برای توزیع نرمال به سادگی «rnorm(x,mu,sd)» است. ویرایش: برای توزیع t یک نسخه _central_ و_non-central_ وجود دارد. من می خواهم تفاوت این دو را بدانم. علاوه بر این، اگر بخواهم میانگین و انحراف معیار را مشخص کنم، آیا به طور خودکار به این معنی است که من با نسخه غیر مرکزی توزیع t سروکار دارم؟ من استفاده از توزیع t را انتخاب کردم زیرا داده‌هایی که استفاده می‌کنم نسبتاً دم چاق هستند و توزیع t با درجه آزادی کم ایده خوبی به نظر می‌رسد. چه توزیع های دیگری برای مدیریت داده های دم چربی وجود دارد؟ همچنین اگر بتوانید تابع را در R نیز مشخص کنید عالی خواهد بود.
داده ها را از یک توزیع t با میانگین و انحراف استاندارد مشخص شده تولید کنید
35347
در زمینه یک مشکل پردازش سیگنال آماری، من یک مدل سیگنال به شکل $x[n]=s[n;\theta]+w[n]$ دارم که در آن $w[n]\sim{\cal N} (0,\sigma^2)$ و $s[n;\theta]$ به صورت غیرخطی به $\theta$ بستگی دارد. $n=0،\ldots،N-1$ شاخص نمونه زمانی است. من برآورد حداکثر احتمال $\theta$ را به صورت $\theta_{\rm ML}=\underset{\theta}{\arg\min}\,\,p(x[0],x[1],\ محاسبه می‌کنم. ldots,x[N-1]|\theta)$ با به حداقل رساندن احتمال ورود به سیستم. حال سوال من این است: آیا می توانم در این مورد از توزیع $\chi^2$ برای تست خوب بودن استفاده کنم؟ اکثر کتاب های آماری که من دیده ام، آزمون $\chi^2$ را در زمینه رگرسیون خطی ارائه می کنند. من به خصوص به حالت کلی چند متغیره ($\boldsymbol{\theta}$ یک بردار است) و $\mathbf{w}[n]\sim{\cal N}(0,\mathbf{C})$ علاقه دارم. همچنین، لطفاً کسی می تواند یک کتاب خوب (در سطح کازلا و برگر) که مطالب مرتبط را ارائه می دهد، معرفی کند؟
آزمون کای دو برای رگرسیون غیرخطی
87858
من سعی کردم از بسته glmnet در R برای ایجاد یک مدل رگرسیون کمند استفاده کنم. جزئیات داده های من عبارتند از: متغیرهای وابسته $y$: 451 مشاهدات، یک مقدار برای هر مشاهده. متغیرهای مستقل $x$: 451 مشاهده، 959 مقدار برای هر مشاهده. من مقدار بهینه $\lambda$ را با به حداقل رساندن خطای میانگین مربعات متقاطع پیدا می کنم. سپس پارامترهای $\beta$ را با مقدار مربوطه $\lambda$ ایجاد کردم. تعداد پارامترهای غیر صفر حدود 20 است. در نهایت من مقادیر پیش بینی شده $\hat{y}=\sum\beta x$ را ایجاد کردم. وقتی نمودار $\hat{y}$ را در برابر $y$ می‌سازم، شیب نمودار کوچکتر از 1 است. اما اگر $y$ را در برابر $\hat{y}$ رسم کنم، شیب برابر با 1 است. سوالات من عبارتند از: 1. آیا این به این معنی است که مدل من نقص دارد؟ چرا شیب $y$ در برابر $\hat{y}$ برابر با معکوس شیب $\hat{y}$ در برابر $y$ نیست؟ 2. آیا این به دلیل غیر خطی بودن داده های من است؟ من می دانم که رابطه بین $y$ و $x$ غیر خطی است. 3. آیا این بدان معناست که مدل من را می توان با انجام مقداری تبدیل غیرخطی روی $y$ بهبود بخشید؟ من سعی کردم تبدیل سیگموید را انجام دهم زیرا شیب را تغییر نمی دهد. با تشکر فراوان.
آیا نمودار مقدار پیش‌بینی‌شده در مقابل نمودار ارزش مشاهده‌شده، شیب برابر 1 در مدل LASSO ندارد؟
103470
فیلتر کالمن پیش‌بینی‌های یک گام جلوتر در بازگشت‌ها را فراهم می‌کند. ما شروع به تخمین واریانس (ناشناخته) پارامترها می کنیم، برای مثال از طریق «MC» یا «MLE». سپس از تخمین های واریانس (به عنوان مثال میانگین) برای اجرای فیلتر کالمن استفاده می کنیم. اما، از آنجایی که قبلاً از داده‌ها برای تخمین واریانس‌ها استفاده کرده‌ایم، آیا می‌توانیم دوباره با استفاده از همان داده‌ها، پیش‌بینی‌ها را محاسبه کنیم؟ این چیزی است که من متوجه شده ام که تابع «dlmFilter» از بسته «dlm» انجام می دهد و می خواهم بدانم چرا این درست است.
درک پیش بینی ها در مدل های فضای حالت خطی
87856
من سعی می کنم داده های 2 جمعیت را با هم مقایسه کنم تا بگویم آیا تفاوت بین تیمارها از نظر آماری معنی دار است یا خیر. به نظر می رسد که مجموعه داده ها به طور معمول با تفاوت بسیار کمی بین این دو مجموعه توزیع شده اند. میانگین تفاوت 0.00017 است. من یک آزمون t زوجی انجام دادم، با این انتظار که در رد فرضیه صفر مبنی بر عدم تفاوت بین میانگین ها شکست بخورم، با این حال، مقدار t محاسبه شده من بسیار بالاتر از مقدار t بحرانی من است.
اگر میانگین اختلاف تقریباً صفر باشد، آزمون t چگونه می تواند از نظر آماری معنادار باشد؟
34033
من یک مجموعه داده حاوی سه متغیر دارم. من این سردرگمی را دارم، mse پایین یعنی همبستگی بالاتر، اینطور نیست؟ حالا وقتی mse را برای متغیر دو و سه محاسبه می‌کنم که در آن متغیر سوم حقیقت پایه من است، mse بالاتری نسبت به متغیری که با مقایسه متغیر یک و متغیر سه (صحت پایه) بدست می‌آورم، می‌گیرم. با این حال، وقتی همبستگی را با استفاده از تابع corr در متلب محاسبه می کنم، همبستگی بالاتری بین متغیر دو و سه در حدود 0.78 دریافت می کنم. از طرفی همبستگی بین متغیر یک و سه برابر 76/0 است. چرا اینطور است؟ اجازه دهید به شما بگویم که من تعداد متفاوتی از متغیرهای1-variable3 و variable2-variable3 دارم. منظورم این بود که بگویم گاهی اوقات مقادیر متغیرها گم می شوند. بنابراین در مجموع، من 1280 مجموعه متغیر1-متغیر 3 جفت و 400 مجموعه متغیر2-متغیر 3 جفت دارم. همانطور که گفتم برای مجموعه متغیر1-variable 3 mse بالاتری نسبت به مجموعه variable2-variable3 دارم که برای تعداد جفت نقاط به ترتیب 400 و 1280 محاسبه می شود. من کمی گیج هستم. هر بینش؟
سردرگمی در مورد همبستگی و mse
74568
من سعی می کنم از میانگین گیری مدل بیزی برای انتخاب متغیر با تعداد زیادی متغیر استفاده کنم. در R، بسته BMS امکان اعمال روش را با امکان استفاده از نمونه‌گر MCMC (الگوریتم Metropolis Hastings) در زمانی که تعداد متغیرهای کمکی زیاد است، می‌دهد. در اینجا یک کد نمونه وجود دارد: data(datafls) fls1 = bms (datafls, burn = 50000, iter=100000, g = BRIC, mprior = uniform, nmodel = 2000, mcmc=bd, user.int= F) result = coef(fls1) با این حال، اگر یک کد را دو بار اجرا کنید، نتایج (یعنی کد پسین) احتمالات) کاملاً متفاوت خواهد بود. آیا کسی می داند چگونه کد را تنظیم کند تا نتایج برای هر اجرا یکسان باشد؟ ممنون
میانگین‌گیری مدل بیزی برای انتخاب متغیر در R
76925
آیا می توان ضرایب را به سمت عددی غیر از صفر در یک رگرسیون پشته در R جریمه کرد؟ به عنوان مثال، فرض کنید من متغیر وابسته Y و متغیرهای مستقل X1، X2، X3 و X4 دارم. به دلیل ماهیت چند خطی ivs، رگرسیون رج مناسب است. اما بگویید من نسبتاً مطمئن هستم که ضریب X1 نزدیک به 5، X2 نزدیک به 1، X3 نزدیک به -1 و X4 نزدیک به -5 است. آیا بسته و روشی در R وجود دارد که بتوانم جریمه هایی را روی ضرایب ivs اعمال کنم که آنها را به جای 0 نسبت به آن اعداد جریمه کند؟ من دوست دارم در صورت امکان مثالی را در R با داده های مثال خود ببینم. متشکرم.
رگرسیون ریج در R که در آن ضرایب به اعدادی غیر از صفر جریمه می شوند
94062
من سعی می‌کنم از بسته‌ها برای تخمین مدل‌ها استفاده نکنم تا درک عمیق‌تری از نحوه کار کردن داشته باشم. در حال حاضر، من سعی دارم یک VAR(1) (خودرگرسیون برداری مرتبه اول) را تخمین بزنم و سوال من در مورد چگونگی ساخت ماتریس متغیرهای وابسته و مستقل است. از نظر تئوری، مدل من این است: ![model](http://latex.codecogs.com/gif.latex?%5Cbinom%7Bx_t%7D%7By_t%7D%20%3D%20 %5Cbinom%7Bc_1%7D%7Bc_2%7D%20+%20%5Cbegin%7Bpmatrix%7D%20a_%7B11%7D%20%26%20a_%7B 12%7D%5C%5C%20a_%7B21%7D%20%26%20a_%7B22%7D%20%5Cend%7Bpmatrix%7D%5Cbinom%7Bx_%7 Bt-1%7D%7D%7Bx_%7Bt-2%7D%7D%20+%20%5Cbinom%7Bu_%7B1%2Ct%7D%7D%7Bu_%7B2%2Ct%7D%7D) در مورد ماتریس متغیرهای وابسته، باید به اندازه کافی آسان باشد. من فقط باید «xt» و «zt» را پشته کنم. با این حال، من نمی دانم چگونه ماتریس متغیرهای مستقل را بسازم. من خواندم که VAR بسیار شبیه به SUR (رگرسیون های به ظاهر نامرتبط) است، بنابراین فکر می کنم که ماتریس متغیرهای مستقل باید یک ماتریس مورب بلوکی باشد، اما چگونه باید باشد؟ به خصوص اگر بخواهم یک روند ثابت و زمانی به مدل اضافه کنم؟ متشکرم.
ماتریسی از متغیرهای انباشته در رگرسیون VAR بسازید
79215
چگونه می توان مقادیر از دست رفته را هنگام محاسبه شباهت (یا فاصله ها) مدیریت کرد؟ (من مقادیر ویژگی های باینری را دارم و از ضریب تطبیق ساده استفاده می کنم، اما فکر می کنم پاسخ این سوال ممکن است کلی تر باشد) می توانم به دو گزینه فکر کنم: * مقادیر گمشده را حذف کنید * مقادیر از دست رفته را به عنوان خطا بشمارید، اما حذف مقادیر تهی باعث شده است. مشکل این است که نمره بالا را می توان تنها با یک یا چند مقدار به دست آورد (به مثال A مراجعه کنید). و شمارش گمشده به عنوان خطا این مشکل را دارد که مسابقات از دست رفته واقعی باید بیشتر از مقادیر گمشده شمارش شوند (به مثال B مراجعه کنید). آیا تکنیکی وجود دارد که هیچ یک از این کاستی ها را نداشته باشد؟ مثال A Instance1 Instance2 Feature1 از دست رفته ویژگی2 1 ویژگی از دست رفته3 0 0 Feature4 از دست رفته 1 Feature5 از دست رفته است Feature6 از دست رفته Simple-matching-similarity-REMOVE = 1/1 (دو برابر B) Simple-matching-AS-COUNT- ERROR = 1/6 مثال B Instance1 Instance2 Feature1 وجود ندارد 1 Feature2 1 0 Feature3 0 0 Feature4 1 1 Feature5 1 0 Feature6 0 missing Simple-matching-similarity-REMOVE = 2/4 Simple-matching-similarity-COUNT-AS-ERROR = 2/6 (دو برابر بیشتر از الف)
اندازه گیری شباهت با مقادیر از دست رفته
23409
با ساختن درخت کامل و هرس کردن آن پس از آن، به جای هرس پیش از هرس (یا هرس رو به جلو) یک استراتژی هرس پس از هرس (یا هرس به عقب) را اتخاذ می کنیم. پیش هرس شامل تلاش برای تصمیم گیری در طول فرآیند درخت سازی است که چه زمانی توسعه درختان فرعی متوقف شود. این جذاب است زیرا اجازه می دهد تا از تمام کارهای مربوط به توسعه زیردرخت ها اجتناب کنید و آنها را پس از آن دور بریزید. پس هرس چه فوایدی دارد؟
درختان تصمیم گیری و هرس معکوس
76927
اولین سوال من در اینجا و امیدوارم که واضح یا احمقانه نباشد. مشکل من: من تعدادی مقدار $x$ دارم ($x$ می تواند متفاوت باشد) که از توزیع نرمال پیروی می کنند. من می توانم تمام آمارهای توصیفی معمولی (حداقل، میانگین، چارک ها و غیره) را محاسبه کنم، اما این مقادیر $x$ فقط کسری کوچک از یک محدوده بالقوه بسیار بزرگتر از مقادیر را توصیف می کنند (که همچنان از همان توزیع پیروی می کند و میانگین نباید تغییر کند. زیاد). بنابراین آنچه من واقعاً می خواهم این است که حداقل مقدار توزیع کامل ناشناخته را تخمین بزنم. چیزی شبیه تخمین حداقل مقطع x یک توزیع شناخته شده با مقدار شیب و نوک داده شده. به عنوان مثال مجموعه داده استاندارد درخت را در R تصور کنید (تصویر زیر را ببینید). من نمی خواهم بدانم که مقدار حداقل مقادیر ارتفاع داده شده (60) چقدر است، اما در عوض مقدار حداقل واقعی ممکن را به دقیق ترین روش تخمین بزنم (ممکن است $height<=50$) باشد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/GJzoN.png) آیا این ممکن است یا فقط احمقانه است؟ یا من یک اصل آماری اساسی را گم کرده ام که به من امکان می دهد آن مقادیر را تخمین بزنم؟
حداقل مقادیر یک توزیع نرمال گاوسی را تخمین بزنید
4203
فرض کنید من مجموعه ای از $N$ نقاط آزمایشی به شکل \begin{equation} \\{x_i, y_i, d_i\\}, \end{equation} دارم که در آن $i=1,...,N,$ و $d_i$ نوارهای خطای $y_i$ هستند. برای برازش داده‌ها، مربع خی کاهش یافته \begin{معادله} \chi^2(p) = \sum_{i=1}^N \frac{[y_i - f(x_i,p)]^2} را به حداقل می‌رسانم. {d_i^2}، \end{equation} که در آن $f(x,p)$ یک تابع (عموما غیر خطی) است که توسط برخی از پارامترهای $p$ پارامتر شده است (ممکن است بیش از یک وجود داشته باشد. پارامتر، اما واقعاً مهم نیست). سوال من این است: با توجه به پارامتر بهینه $p_0$، یعنی $\chi^2(p)$ در $p=p_0$ حداقل است، و با فرض اینکه $y_i$ مستقل است و به طور معمول توزیع شده است، چه می توان گفت در مورد توزیع $f(x, p0)$؟
توزیع یک تابع کمینه کننده خی دو چگونه است؟
74565
از تصاویر عمق کینکت، سری‌های زمانی زیر را جمع‌آوری کرده‌ام که نشان‌دهنده ویژگی‌ها = موقعیت‌های مفصل سه‌بعدی، زوایای چهارم، تفاوت بین مفصل ران و مرکز بازوی راست (متشکل از شانه راست، مفصل آرنج راست و مچ دست راست) است. اینها مجموعه ویژگی ها در هر بازه زمانی هستند. اما اینها پر سر و صدا هستند و من باید آن فریم هایی را که در آنها داده وجود ندارد حذف کنم، موارد دور از دسترس را حذف کنم و مجموعه ویژگی ها را صاف کنم. مجموعه داده‌های من حاوی فریم‌هایی است که مقادیر آن صفر است زیرا ضبط بلافاصله شروع نمی‌شود. من برخی از روش‌ها مانند فیلترهای میانگین متحرک را دیده‌ام و در هر بعد برای صاف کردن اعمال می‌شود، بنابراین خروجی حاوی نقاط داده یکسان است. با این حال، برای حذف پرت، طول مجموعه داده ممکن است تغییر کند. در نتیجه، من باید به جای در نظر گرفتن هر سری زمانی جداگانه، روی کل مجموعه داده اعمال کنم. Q1: راه‌هایی که می‌توانم از طریق آن‌ها را برای سری‌های زمانی چندبعدی شناسایی و حذف کنم تا بتوانم فریم‌های بدی را که از فریم‌های خوب کمک نمی‌کنند حذف کنم؟ Q2: آیا پیاده سازی یا بسته هایی برای دستیابی به این امر وجود دارد؟
تشخیص و هموارسازی پرت برای سری های زمانی چند بعدی
91244
امیدوارم بتوانم یک ماتریس کوواریانس 3x3 بگیرم و آن را به یک بیضی خطا تبدیل کنم، اما تاکنون نتوانسته ام به این هدف برسم. من با R بسیار تازه کار هستم (در واقع برای حل این مشکل به آن روی آوردم) - و پس از یافتن یک نمونه کار برای یک ماتریس 2x2، نتوانستم آن را برای 3x3 با موفقیت تغییر دهم - آیا کسی می تواند به من اشاره کند لطفا جهت اینکه کدام تغییرات مورد نیاز است؟ کد کار برای ماتریس 2x2 (در اینجا در یک سوال دیگر یافت می شود) در زیر آمده است: ctr <- c(0, 0) A <- ماتریس(c(2.2، 0.4، 0.4، 2.8)، nrow=2) RR <- chol (A) زوایای <- seq(0، 2*pi، length.out=200) ell <- 1 * cbind(cos(زاویه)، sin(زوایه)) %*% RR ellCtr <- sweep(ell, 2, ctr, +) eigVal <- eigen(A)$values ​​eigVec <- eigen(A)$بردار eigScl <- eigVec %*% diag (sqrt(eigVal)) xMat <- rbind(ctr[1] + eigScl[1, ]، ctr[1] - eigScl[1, ]) yMat <- rbind(ctr[2] + eigScl[2, ], ctr[2] - eigScl[2, ]) ellBase <- cbind(sqrt(eigVal[1]) *cos(زاویه)، sqrt(eigVal[2])*sin(زاویه)) ellRot <- eigVec %*% t(ellBase) plot((ellRot+ctr)[1, ], (ellRot+ctr)[2, ], asp=1, type=l, lwd=2) matlines(xMat, yMat, lty =1، lwd=2، col=سبز) نقاط(ctr[1]، ctr[2]، pch=4، col=red، lwd=3) پیشاپیش از هرگونه کمکی متشکرم.
ترسیم خطای بیضی از ماتریس کوواریانس 3x3 در R؟
76920
من می‌دانم که یادگیری نظارت‌شده با خطایی مرتبط است که می‌تواند بین بایاس و واریانس تقسیم شود: $ MSE = b^2 + var $ به طور شهودی سوگیری و واریانس به چه معناست؟ من می‌دانم که سوگیری * معیاری برای دقت پیش‌بینی مدل است: اگر مدل آموخته‌شده در چندین مجموعه داده به طور سیستماتیک نتواند خروجی را از ورودی دیگر پیش‌بینی کند، سوگیری مهم است. * واریانس حساسیت به مجموعه داده های آموزشی مدل ها در توانایی آنها برای پیش بینی خروجی از یک ورودی جدید است. به عبارت دیگر، اگر آموزش یک مدل بر روی مجموعه داده‌های آموزشی مختلف خروجی بسیار متفاوتی برای یک مجموعه داده ورودی داده شود، واریانس بالایی وجود دارد. اگر مدلی که بر روی طیف وسیعی از ورودی‌ها آموزش داده شده نتواند پیش‌بینی کند، بیش از حد به سمت داده‌های آموزشی کشیده شده است، سوگیری دارد. تا اونجا چطور درسته؟ همچنین، اگر مدل من که بر روی برخی از داده‌ها آموزش داده شده، نتواند (سوگیری) را پیش‌بینی کند، به این معنی نیست که وقتی روی مجموعه داده‌های مختلف آموزش داده می‌شود، پیش‌بینی‌کننده‌های بسیار متفاوتی (واریانس) ارائه می‌دهد؟ آیا برای روشن شدن مطلب به مرجعی اشاره می کنید؟
مبادله سوگیری-واریانس -- تعصب یا اثر واریانس
94792
سوال تکلیف: مدل 1-d Ising را در نظر بگیرید. اجازه دهید $x = (x_1،...x_d)$. $x_i$ یا -1 یا +1 است $\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}}$ یک الگوریتم نمونه‌برداری gibbs طراحی کنید تا نمونه‌هایی تقریباً از توزیع هدف $\pi(x)$. **تلاش من:** به طور تصادفی مقادیر (یا -1 یا 1) را برای پر کردن بردار $x = (x_1،...x_{40})$ انتخاب کنید. بنابراین شاید $x = (-1، -1، 1، 1، 1، -1، 1، 1،...،1)$. بنابراین این $x^0$ است. بنابراین اکنون باید ادامه دهیم و اولین تکرار را انجام دهیم. باید 40 x مختلف را به قیمت x^1$ به طور جداگانه ترسیم کنیم. بنابراین... $x_1^1$ را از $\pi(x_1 | x_2^0,...,x_{40}^0)$ بکشید x_2^1$ را از $\pi(x_2 | x_1^1, x_3^0،...،x_{40}^0)$ ترسیم $x_3^1$ از $\pi(x_3 | x_1^1، x_2^1، x_4^0,...,x_{40}^0)$ و غیره. بنابراین بخشی که مرا به هم می زند این است که چگونه از توزیع شرطی استفاده کنیم. $\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}}$ چگونه وارد عمل می‌شود؟ شاید مثالی از یک قرعه کشی همه چیز را روشن کند.
نمونه گیری گیبس برای مدل ایزینگ
7285
### هدف من: مایلم تابعی داشته باشم که یک آدرس ایمیل می گیرد و یک عدد شبه تصادفی 1، 2، 3 یا 4 را خروجی می دهد. به این معنی که با توجه به یک جمعیت معمولی از آدرس های ایمیل، احتمال به دست آوردن مقدار 1، 2، 3 یا 4 تقریباً برابر است، و ویژگی های سیستماتیک آشکار آدرس ایمیل مانند از آنجایی که نام دامنه بر احتمال دریافت مقدار 1، 2، 3 یا 4 تأثیر نمی گذارد. من می خواهم به طور تصادفی شرکت کنندگان را به یکی از چهار گروه اختصاص دهم. در حالی که انجام این کار برای یک جلسه آسان است (من فقط می توانم از یک مولد اعداد تصادفی استفاده کنم)، به روشی برای به خاطر سپردن تخصیص در جلسات نیاز دارم. بنابراین، من فکر کردم که می توانم یک تخصیص گروهی شبه تصادفی را از ایمیل شرکت کننده استخراج کنم. من همچنین در مجموعه عملکردهایی که در اختیار دارم محدود هستم (برای لیست کامل اینجا را ببینید). توابع رشته عبارتند از: tolower upper capize concat search replaceall شامل startswith endswith substring trimright trimleft format length ارزیابی ### افکار اولیه: من در مورد تلاش برای استخراج مجموعه ای از ویژگی های آدرس ایمیل که مقدار 1، 2 را برمی گرداند، فکر کردم. 3 یا 4 با احتمالات تقریباً مساوی. سپس، می‌توانم این ویژگی‌ها را جمع‌بندی کنم و مد 4 به علاوه 1 آن را دریافت کنم. بنابراین، با فرض چیزی مانند قضیه حد مرکزی، ممکن است نزدیک شوم. ویژگی های احتمالی که به ذهن من رسید: * طول رشته * موقعیت اولین a، b، و غیره.
از یک آدرس ایمیل گرفته تا یک شماره شبه تصادفی
76922
من روی یک کار برچسب‌گذاری دنباله با استفاده از یک فیلد تصادفی شرطی کار می‌کنم. داده های آموزشی من دارای برخی خطاها است. اینها به معنای داشتن نشانه هایی که دارای برچسب های نادرست هستند، خطا نیستند. در عوض، برخی از نشانه ها دارای اشتباهات املایی هستند. جای تعجب نیست که برچسب‌گذار هنگام آزمایش بر روی داده‌هایی که حاوی اشتباهات تایپی هستند، نتایج نادرستی دریافت می‌کند. من نمی توانم تصمیم بگیرم که آیا بهتر است اشتباهات تایپی را در آنجا بگذارم یا آنها را حذف کنم. یک مزیت احتمالی حفظ اشتباهات تایپی به همان شکلی که هستند این است که داده‌های آموزشی با دقت بیشتری داده‌های دنیای واقعی را نشان می‌دهند که برچسب‌گذار روی آنها استفاده می‌شود. از سوی دیگر، من می ترسم که آموزش بر روی داده های با کیفیت پایین منجر به برچسب گذاری با کیفیت پایین تر شود. آیا روش استاندارد یا حکمت متعارفی در مورد این نوع مشکل وجود دارد؟ ببخشید این سوال برای این انجمن خیلی ذهنی تلقی می شود. من همین امروز این سایت را کشف کردم.
چگونه با داده های کثیف بدون کاهش قدرت تعمیم مدل برخورد کنیم؟
74566
من داده‌هایی دارم که رفتار را در چهار شرایط مقایسه می‌کند (اندازه‌گیری‌های مکرر) (من چندین متغیر رفتاری مختلف دارم و هر رفتار جداگانه تجزیه و تحلیل می‌شود و رفتارها در حال حاضر در قالب درصد زمان هستند). متغیرهای رفتاری حتی پس از تبدیل بسیار غیرعادی هستند. بنابراین من تست های فریدمن را برای تست های omnibus (friedman.test در R) اجرا کرده ام. برای posthocs من از فریدمن از بسته Agricolae استفاده کرده ام، اما می خواهم اندازه افکت ها را نیز گزارش کنم. من مطمئن نیستم که کدام محاسبه صحیح است، زیرا داده ها نه تنها عادی نیستند، بلکه دارای انحراف بسیار مثبتی هستند. من تابع rFromWilcox را از Field امتحان کردم اما مطمئن نیستم که برای استفاده از آن مناسب باشد. همچنین من نتایج r مانند -0.564NULL را دریافت می کنم. من برای انجام تحلیل خودم کاملاً تازه کار هستم، اما مشتاق یادگیری هستم، پس لطفاً اگر چیزی را کاملاً درست بیان نکرده ام، ناراحت نشوید. @Michael: من سعی می‌کنم تعیین کنم که آیا رفتارهای خاصی در شرایط مختلف بیشتر یا کمتر اتفاق می‌افتند و این تفاوت‌ها کجا هستند (هیچ چیز خیلی عمیق نیست). دو درمان مشابه اما متفاوت بین شرایط یک و دو و بین سه و چهار اعمال می‌شود. من پیش‌بینی می‌کنم که بین همه شرایط، به ویژه بین یک و دو، و سه و چهار، تغییرات خاصی (برخی رفتارها افزایش می‌یابد و برخی کاهش می‌یابد) وجود خواهد داشت. تست posthocs من بین تمام ترکیبات جفتی و من از یک تصحیح Bonferroni استفاده کرده ام. من در حال برنامه‌ریزی برای گزارش آمار خلاصه، برای هر شرط برای هر رفتار، آمار آزمون و مقدار p، و نتایج پس از مرگ در مواردی که فریدمن معنی‌دار است، و اندازه‌ها بر روی آن موارد پساتحکمی را گزارش می‌کردم.
محاسبه صحیح اندازه اثر پس از آزمون فریدمن در یک جمعیت کج
86001
من سعی می‌کنم یک مدل خطی با استفاده از ماتریس‌ها را در مجموعه داده‌هایم جا بدهم، حتی اگر می‌توانم از OLS استفاده کنم و آن را بدون ماتریس به عنوان یک آموزش ساده برای خودم انجام دهم تا هم «R» و هم نماد ماتریس را بهتر درک کنم. این مدلی است که من سعی می‌کنم آن را جا بزنم: $$\bf Y=X\boldsymbol\beta+\varepsilon$$ که در آن $\bf Y$ یک ماتریس $1\ برابر n$ است، $\bf X$ یک $n است. بار ماتریس k$ (که $k$ تعداد $\beta$ است که در این مورد 2 است)، $\boldsymbol \beta$ یک $k\ برابر 1$ است. ماتریس و در نهایت عبارت خطای ما $n\times 1$ است. من این بخش را درک می کنم. هنگامی که من به سادگی از دستور «lm()» برای جا دادن داده های خود استفاده می کنم، از دستور «summary()» موارد زیر را دریافت می کنم: فراخوانی: lm(فرمول = y ~ x) باقیمانده ها: Min 1Q Median 3Q Max -4.0503 -1.4390 0.4921 1.0589 3.9446 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 2.9849 0.8219 3.632 0.00191 ** x 0.5612 0.1084 5.178 6.32e-05 *** بنابراین `summary()` به من می گوید که matrix $ abeta $2 است \ برابر ماتریس 1$، با ماتریس اول عدد (که $\beta_0$) به عنوان 2.0949 و عدد دوم (که $\beta_1) $ به عنوان 0.1084 است. سوال من این است: ما می دانیم که ماتریس $\beta$ در واقع این است: $$\boldsymbol\beta=(\bf{X}^T\bf{X})^{-1}(\bf{X}^ T\bf{Y})$$ و وقتی سعی می کنم به سادگی این محاسبه را با دست با استفاده از R با استفاده از `b=(t(x)*x)^-1*t(x)*y` انجام دهم، یک عدد دریافت می کنم $1\ برابر بردار 20$ (که البته 20$ n$ است، تعداد مشاهدات). چرا من یک ماتریس $2\ برابر 1 $ آنطور که باید می گرفتم دریافت نمی کنم؟
تناسب رگرسیون خطی ساده به صورت دستی از طریق معادلات ماتریس با خروجی lm() مطابقت ندارد
43107
من نتایج دقت را از یک ویژگی واحد با استفاده از LDA محاسبه می کنم. من بسیار کنجکاو هستم که چرا یک ویژگی خاص هنگام محاسبه دقت با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری به طور مداوم در کمتر از شانس عمل می کند. من یک کلاس باینری با توزیع مساوی دارم و انجام xval های متعدد منجر به دقتی می شود که تقریباً در حدود 0.3 نوسان می کند. این بدان معناست که داده‌های آموزشی به طور مداوم مرزی را تعیین می‌کنند که وقتی در برابر آن آزمایش می‌شود، اساساً برعکس آن چیزی است که روی آن آموزش داده شده است. من این xval 10 برابری را 10 تا 20 بار انجام می‌دهم و انتظار دارم که حدود 0.5 نوسان داشته باشد، اما تقریباً در ناحیه 0.3 تا 0.4 ثابت است. با تشکر از کمک!
اعتبار سنجی متقاطع چندگانه به طور مداوم بدتر از شانس عمل می کند
81847
SurveyMonkey مراحل و نموداری برای شما دارد که بر اساس اندازه جمعیت خود، به چه حجم نمونه برای یک حاشیه خطا یا فاصله اطمینان معین نیاز دارید. اندازه نمونه SurveyMonkey آیا این نمودار به سادگی این واقعیت را نادیده می گیرد که شما یک نمونه تصادفی دریافت نمی کنید، زیرا فقط افرادی را دریافت می کنید که زحمت پاسخ دادن به نظرسنجی را می دهند؟ وقتی این را تایپ می کنم به من هشدار داده می شود که سوال ذهنی به نظر می رسد بنابراین شاید من آن را درست نمی پرسم. این واقعاً در مورد SurveyMonkey نیست، اما یک سؤال کلی تر است - آیا می توانید فواصل اطمینان را از داده های پاسخ داوطلبانه با استفاده از برخی تکنیک های پیشرفته که من درباره آنها نمی دانم محاسبه کنید؟ در نظرسنجی های خروجی یا نظرسنجی های ملی، بدیهی است که باید با این مشکل برخورد کنند. تحصیلات من تکنیک‌های نمونه‌گیری نظرسنجی را به طور عمیق پوشش نمی‌دهد، اما فرض می‌کنم که شامل جمع‌آوری داده‌های جمعیت‌شناختی و استفاده از آن برای دانستن اینکه چقدر نماینده نمونه‌ای هستید، باشد. اما جدای از آن، برای یک نظرسنجی آنلاین ساده، آیا آنها فقط فرض می‌کنند افرادی که زحمت پاسخ دادن را به خود می‌دهند، نمونه‌ای تصادفی از جامعه هستند؟
آیا SurveyMonkey این واقعیت را نادیده می گیرد که شما یک نمونه غیر تصادفی دریافت می کنید؟
28518
من سعی می کنم مشکل ردیابی را حل کنم. در مقاطع خاصی از زمان، مکان شی را دریافت می کنم و باید تصمیم بگیرم که آیا مکان شی دریافت شده متعلق به مسیر موجود است یا خیر. اگر نه، باید آهنگ جدیدی ایجاد کنم. هر آهنگ با فیلتر کالمن فیلتر می شود تا بتوانم سرعت و پسین را محاسبه کنم. چه الگوریتم یا خانواده ای از الگوریتم ها مناسب تر است؟ شاید نزدیکترین همسایه؟
ردیابی و ارتباط داده ها با فیلترهای کالمن
7286
پیاده‌روی تصادفی Metropolis-Hasitings با پیشنهاد متقارن $q(x|y)= g(|y-x|)$ دارای این ویژگی است که احتمال پذیرش $$P(accept\ y) = \min\\{1, f(y) /f(x)\\}$$ به پیشنهاد $g(\cdot)$ بستگی ندارد. آیا این بدان معناست که من می‌توانم $g(\cdot)$ را به عنوان تابعی از عملکرد قبلی زنجیره تغییر دهم، بدون اینکه بر مارکوی بودن زنجیره تأثیر بگذارم؟ برای من جالب است، تنظیم مقیاس پیشنهادی عادی به عنوان تابعی از نرخ پذیرش. همچنین اگر کسی بتواند به الگوریتم‌های انطباق مورد استفاده در عمل برای این نوع مسائل اشاره کند، بسیار سپاسگزار خواهد بود. با تشکر فراوان. [ویرایش: با ارجاعات داده شده توسط robertsy و wok شروع کردم، من منابع زیر را در مورد الگوریتم های تطبیقی ​​MH یافتم: Andrieu، Christophe، و Éric Moulines. 2006. در مورد ویژگی های Ergodicity برخی از الگوریتم های MCMC تطبیقی. The Annals of Applied Probability 16, no. 3: 1462-1505. http://www.jstor.org/stable/25442804. آندریو، کریستف و یوهانس تامز. 2008\. آموزش MCMC تطبیقی. آمار و محاسبات 18، شماره. 4 (12): 343-373. doi:10.1007/s11222-008-9110-y. http://www.springerlink.com/content/979087678366r78v/. Atchadé، Y.، G. Fort، E. Moulines، و P. Priouret. 2009. مونت کارلو زنجیره مارکوف تطبیقی: نظریه و روشها. پیش چاپ. آچاده، ایو. 2010. قضایای حدی برای برخی از الگوریتم های تطبیقی ​​MCMC با هسته های زیرهندسی. برنولی 16، شماره 1 (بهمن): 116-154. doi:10.3150/09-BEJ199. http://projecteuclid.org/DPubS?verb=Display&version=1.0&service=UI&handle=euclid.bj/1265984706&page=record. Cappé، O.، S. J Godsill، و E. Moulines. 2007. مروری بر روش های موجود و پیشرفت های اخیر در مونت کارلو متوالی. مجموعه مقالات IEEE 95، شماره. 5: 899-924. جیوردانی، پائولو. 2010. کلانشهر مستقل تطبیقی–هیستینگز با تخمین سریع مخلوط های نرمال. مجله آمار محاسباتی و گرافیکی 19، شماره. 2 (6): 243-259. doi:10.1198/jcgs.2009.07174. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.07174. لاتوسزینسکی، کریستوف، گرت او رابرتز، و جفری اس روزنتال. 2011. نمونه بردارهای تطبیقی ​​گیبس و روشهای MCMC مرتبط. 1101.5838 (30 ژانویه). http://arxiv.org/abs/1101.5838. پاساریکا، سی، و آ. گلمن. 2009. مقیاس بندی تطبیقی ​​الگوریتم متروپلیس با استفاده از فاصله پرش مربع مورد انتظار. آمار سینیکا رابرتز، گرت او. 2009. نمونه هایی از MCMC تطبیقی. مجله آمار محاسباتی و گرافیکی 18، شماره. 2 (6): 349-367. doi:10.1198/jcgs.2009.06134. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.06134. ]
آیا می توانم توزیع پروپوزال را در MH MCMC تصادفی تغییر دهم بدون اینکه بر روی Markovianity تأثیر بگذارم؟
74564
من می‌خواهم تناسب یک مدل خطی (M1) و مدل غیرخطی (M2) را مقایسه کنم: * M1: $y = b_0 + b_1x_1 + b_2x_2 + b_3x_1x_2 + \epsilon, \epsilon \sim N(0, \sigma^2) $ * M2: $y = b_0 + b_1x_1 + b_2x_2 + b_1 b_2x_1x_2 + \epsilon, \epsilon \sim N(0, \sigma^2)$ به طور خاص می‌خواهم بدانم آیا M1 تفاوت قابل توجهی با M2 دارد یا خیر. برای تخمین پارامترها، به جای اینکه احتمال را از طریق روش های MLE به حداکثر برسانم، خطاهای حداقل مربعات را به حداقل می رسانم. به طور خاص، من از تابع R nls() به صورت زیر استفاده می کنم: # ایجاد یک مجموعه داده نمونه n <- 50 x1 <- rnorm(n, 1:n, 0.5) x2 <- rnorm(n, 1:n, 0.5 ) b0 <- 1 b1 <- 0.5 b2 <- 0.2 y <- b0 + b1*x1 + b2*x2 + b1*b2*x1*x2 + rnorm(n,0,0.1) # مدل واقعی متناسب با M1 <- nls(y ~ b0 + b1*x1 + b2*x2 + b3*x1*x2, start=list(b0=1 ، b1=0.5، b2=0.5، b3=0.5)) M2 <- nls(y ~ b0 + b1*x1 + b2*x2 + b1*b2*x1*x2, start=list(b0=1, b1=0.5, b2=0.5)) من می خواهم مدل ها را با استفاده از یک معیار تناسب نسبی مانند AIC مقایسه کنم که می تواند در R به شرح زیر: AIC(M1, M2) df AIC M1 5 -88.47849 M2 4 -90.46491 زیرا $\Delta AIC \تقریباً 2$ و مدل‌ها تنها با یک پارامتر متفاوت هستند، من نتیجه می‌گیرم که هر دوی آنها به خوبی با داده‌ها مطابقت دارند. علاوه بر این، من می خواهم بدانم که آیا پارامتر $b_3$ از M1 با استفاده از یک آزمون آماری مانند F-test به میزان قابل توجهی به تناسب اضافه می کند یا خیر. این را می توان در R به صورت زیر انجام داد: anova(M1, M2) تجزیه و تحلیل جدول واریانس مدل 1: y ~ b0 + b1 * x1 + b2 * x2 + b3 * x1 * x2 مدل 2: y ~ b0 + b1 * x1 + b2 * x2 + b1 * b2 * x1 * x2 Res.Df Res.Sum Sq Df مجموع مربع F مقدار Pr(>F) 1 46 0.40843 2 47 0.40855 -1 -0.00011097 0.0125 0.9115 سوال کلی من این است: * آیا این تحلیل ها مناسب هستند؟ به طور خاص: * آیا می توانم از AIC برای مقایسه مدل های برازش حداقل مربعات استفاده کنم؟ از چند پست مانند این به نظر می رسد که AIC باید مناسب باشد. با این حال، من پست هایی مانند این را دیده ام که نشان می دهد استفاده از AIC در مدل های غیر MLE ممکن است یک مشکل باشد. من می دانم که اگر خطا به طور معمول توزیع شود، حداقل مربعات معادل MLE است، اما آیا این حتی برای مدل های غیر خطی هم صادق است؟ * آیا می توانم از آزمون F برای آزمایش اینکه آیا $b_3$ تفاوت قابل توجهی با $b_1 b_2$ دارد استفاده کنم؟ من می دانم که اگر مدل تودرتو باشد چنین F-test منطقی است، اما مطمئن نیستم که آیا در این مورد مناسب است یا خیر.
آیا زمانی که پارامترها به جای MLE با حداقل مربعات برازش می شوند AIC برای انتخاب مدل مناسب است
76765
_ قالب مطالعات من آزمایش 10 نفر در 5 شرایط و 100 بار در هر شرایط است (این یک آزمون رفتاری است) - که منجر به حدود 5000 نقطه داده خام می شود. _ من در حال حاضر از 3 روش آماری خانواده ها برای پروژه خود استفاده می کنم. اینها عبارتند از: * t-test * ANOVAa * مدل های خطی من در تعجب هستم که برای کدام یک از این روش ها تجزیه و تحلیل تمام داده های من به صورت خام مفیدتر است (این انگیزه اولیه من برای همه روش ها بود، اما ظاهراً اهمیت من را در این روش افزایش می دهد. حداقل برای برخی) و من فقط باید ابزار هر فرد را به عنوان نقطه داده در نظر بگیرم. می توانید به من کمک کنید؟ در حال حاضر من از آزمون‌های t و ANOVA برای میانگین‌های هر شرکت‌کننده و مدل‌های خطی روی داده‌های خام خود استفاده می‌کنم، اگرچه این فقط به این دلیل است که چند آزمایش نادرست و آزمون t زوجی دارم و ANOVA به خوبی با داده‌های از دست رفته مقابله نمی‌کند. اما شاید حتی برای مجموعه داده های کامل هم کار درستی باشد؟
anova، t-test، مدل های خطی: اجرا بر روی نقاط داده فردی یا به ازای هر نفر؟
91247
بگویید من در 2 رستوران مختلف می نشینم، Cheesecake Factory و Panda Express، که هیچ وجه اشتراکی در منوی آنها ندارد. من به طور تصادفی آیتم‌هایی را از منو سفارش می‌دهم و میزان شکر آن را ثبت می‌کنم و همچنین این مورد یک پیش‌غذا، غذا یا دسر است. در هر رستوران، 30 دقیقه بعد از اولین سفارشم، سفارش را متوقف می کنم. در پایان روز، من یک مجموعه داده دارم که ممکن است شبیه تصویر زیر باشد... من در تعجب هستم که چگونه درصد شکر را در سفارشاتم از Cheesecake Factory با آنهایی که در Panda Express وجود دارد مقایسه کنم؟ من می دانم که اقلام دو رستوران متفاوت هستند و ممکن است به یک معنا غیرقابل مقایسه باشند، اما اگر بخواهم به سادگی میانگین قند را از اقلام فهرست شده در منوی هر رستوران مقایسه کنم، چه باید بکنم؟ ![مقایسه محتوای شکر منو](http://i.stack.imgur.com/yiGv3.png)
مقایسه نسبت بین دو گروه بزرگ
114439
من در حال حاضر در حال گذراندن دوره ای در اقتصاد سنجی مالی هستم و یک سوال در یادداشت های سخنرانی در مورد آزمایش مجدد VaR وجود دارد که با آن مشکل دارم. اول از همه، روش آزمایش برگشتی VaR با استفاده از یک طرح رولینگ به شرح زیر است: فرض کنید که داده‌های بازگشتی $r_{t}، t=1،...، T$ را برای مقداری به اندازه کافی بزرگ $T$ داریم. ما 60 مشاهده اول را می گیریم و میانگین نمونه آنها $\mu_{1-60}$ و واریانس $\sigma_{1-60}^{2}$ را محاسبه می کنیم و سپس محاسبه می کنیم: $$\mbox{VaR}_{1-60}\left(\alpha\right)=-\mu_{1-60}+\Phi^{-1}\left(\alpha\right)\cdot\sigma_ {1-60}$$ جایی که $\alpha$ پارامتر اطمینان ما است (معمولا $\alpha=0.05$) و $\Phi^{-1}$ استاندارد معکوس نرمال است CDF. اگر $r_{61}<-\mbox{VaR}_{1-60}\left(\alpha\right)$$1$ و در غیر این صورت $0$ علامت گذاری می کنیم. ما همین کار را برای مشاهدات $2...62$ در مقایسه با $63$ و غیره ادامه می دهیم و در پایان تعداد دفعاتی را می شماریم که در آن نتیجه $1$ بود. در حالی که بر اساس فرضیه صفر انتظار داریم که نسبت دفعاتی که $1$ به دست آوردیم حداکثر $\alpha$ باشد. به ویژه مهم است که توجه داشته باشید که ما در اینجا این فرض را داشتیم که بازده ها همه به طور معمول توزیع شده اند، $r_{t}\sim N\left(\mu_{t},\sigma_{t}^{2}\right)$. حالا برای سوال واقعی، فرض کنید $r_{t}، t=1،...، T$ بازدهی با استفاده از استراتژی سرمایه گذاری WML (استراتژی معاملاتی مومنتوم) هستند. آیا روشی که در بالا توضیح داده شد برای آزمایش VaR در چنین موردی مناسب است و اگر نه چرا؟ معمولاً بیان سؤال به این موضوع اشاره می کند که در استفاده از این رویه در چنین موردی نوعی مشکل وجود دارد، اما من نمی دانم که چرا چنین می شود ... کمک بسیار قابل قدردانی است! **ویرایش**: WML مخفف Winners Minus Losers است. این یک استراتژی سرمایه گذاری است که در آن برندگان گذشته را خریداری می کنید و بازندگان گذشته را بر اساس بازده در یک دوره ارزیابی کوتاه می فروشید. به عنوان مثال، اگر 4 سهام در سبد سهام خود دارید، پس: $WML=\frac{1}{2}\left(\mbox{SmallHigh + BigHigh}\right)-\frac{1}{2}\left(\mbox {SmallLow}+\mbox{BigLow}\right)$ بنابراین به طور کلی برای سهام $n$، میانگین بازدهی بالای $n/2$ را می گیرید و میانگین را کم می کنید. از $n/2$ بازده کم.
ارزیابی مجدد ارزش در معرض خطر با استراتژی سرمایه گذاری WML
81840
من در حال حاضر در تلاش برای انجام طبقه بندی بر روی مجموعه ای از داده ها هستم. من 19 مشاهدات دسته_1 و 15 مشاهدات دسته_2 دارم. بهترین راه برای نمونه برداری از این مجموعه داده برای آموزش و آزمایش طبقه بندی کننده من چیست، یا اینکه مشاهدات کافی وجود ندارد؟
چند نمونه برای طبقه بندی مورد نیاز است
91208
اگر مدلی با متغیر طبقه‌بندی $X_1=\\{0,1,2,3\\}$ و متغیر پیوسته $X_2$ داشته باشم، و یک مدل رگرسیونی داشته باشم که شامل تعامل بین $X_1$ و $ است. X_2$، سپس تصمیم می‌گیرم که $X_1$ را در یک متغیر نشانگر جمع کنم که در آن $X_{1\text{_new}}=0$ اگر $X=0$ و $X_{1\text{_new}}=1$ اگر $X\ge1$، آیا مدل جدید من با عبارت تعاملی بین $X_{1\text{_new}}$ و $X_2$ با مدل اصلی تودرتو شده است؟
آیا یک مدل قبل از فروپاشی متغیرهای طبقه‌بندی درون خود تودرتو است؟
86810
من سعی می کنم مدل چند نمایی خود را با برخی از داده های تجربی تطبیق دهم و از یک الگوریتم بازپخت شبیه سازی شده استفاده می کنم. تابع هدف من تاکنون مجموع مربعات باقیمانده ها بوده است: $\sum_{i=1}^n (y_i - \hat{y_i})^2 = \sum_{i=1}^n e_i^2 \ :\:$ ...(1) با این حال، متوجه شدم که شاید بتوانم تابع هدف خود را مجموع مجذورهای تابع همبستگی خودکار باقیمانده ها با تاخیر $j$ تنظیم کنم: $\sum_{j=1}^m R^2_{j} = \sum_{j=1}^m \left( \sum_{i=1}^n e_i\,\overline{e}_{i-j} \right)^2 \:\:$ ...(2) آیا این منطقی است؟ به نظر می‌رسد که اجبار کردن همبستگی خودکار عبارت‌های باقی‌مانده ممکن است منجر به تخمین پارامترهای اشتباه شود. من این را به دقت ثابت نکرده‌ام، اما گمان می‌کنم که به حداقل رساندن (2) به این معنی نیست که (1) به حداقل می‌رسد. هر ایده ای؟
به حداقل رساندن مجموع مجذورهای تابع خودهمبستگی باقیمانده ها به جای مجموع مجذورهای باقیمانده
81843
من به تخمینی از میانگین مقدار $\bar{X}$ داده‌های موجود در ناحیه سایه‌دار این نمودار و فاصله اطمینان مربوط به آن نیاز دارم. ![مورد ایده آل](http://i.stack.imgur.com/4nIRV.png) در حالت ایده آل، داده ها برخی نوسانات جزئی را منعکس می کنند. من وسوسه می شوم که این را نادیده بگیرم و از $CLT$ استفاده کنم تا خطای استاندارد $SE=\frac{S}{\sqrt{N}}$ باشد که $S$ نمونه انحراف استاندارد است و $N $ تعداد کل نقاط داده در محدوده است. اما من با این رویکرد ناراحت هستم زیرا می دانم که این کاملاً صحیح نیست. اما مشکل اصلی این است که گاهی اوقات داده ها برای کل محدوده ثابت نیستند و می توانند چندین بخش ثابت را مانند شکل زیر نشان دهند. ![بدترین حالت](http://i.stack.imgur.com/SMHEV.png) این مسائل هرگونه فرض عادی بودن را باطل می کند. من در تلاش برای شناسایی یک روش مناسب برای محاسبه یک مقدار واحد برای میانگین و فاصله اطمینان برای کل محدوده داده هستم. هر ایده ای؟
چگونه می توان فاصله اطمینان میانگین نمونه یک سری زمانی غیر ثابت را تخمین زد؟
76926
بنابراین من یک تکلیف دارم و مطمئن نیستم که دقیقاً منظور آنها از تعریف یک مدل رگرسیون چندگانه چیست. خوب من می دانم که چیست اما چگونه می توانم یکی را تعریف کنم؟ من باید از CARPRICE به عنوان متغیر پاسخ و 3 پیش بینی دیگر استفاده کنم. همچنین مفروضات مدل چیست؟ با تشکر
تعریف مدل رگرسیون چندگانه؟
23403
یک مشکل رایج این است که ML کیفیت پایین داده است: خطا در مقادیر ویژگی، نمونه های طبقه بندی اشتباه، و غیره. یکی از راه های رسیدگی به این مشکل این است که به صورت دستی داده ها را مرور کنید و بررسی کنید، اما آیا تکنیک های دیگری وجود دارد؟ (شرط می بندم وجود دارد!) کدام یک بهتر هستند و چرا؟
پاکسازی خودکار داده ها
76923
من یک مجموعه 40000 عددی دارم. اگر من به طور تصادفی 2000 عدد ترسیم کنم، برای پوشش کل مجموعه به چند قرعه نیاز دارم؟ لطفا تئوری پشت پاسخ را نیز بیان کنید. مشکل به کار من مربوط می شود، من مجموعه ای از 40000 ژن دارم و فقط می توانم یک شبکه 2000 ژنی از این مجموعه بسازم. من می خواهم تمام احتمالات شبکه بین این ژن ها را پوشش دهم. بنابراین اگر بگوییم که فاصله اطمینان 95٪ مطمئن است که مجموعه داده را پوشش می دهم و p=0.01، آیا نتیجه را تغییر می دهد؟
حداقل تعداد دفعات مورد نیاز برای پوشش یک مجموعه خاص چقدر است؟
38471
من عمدتاً با افراد غیرآمار در زمینه هایی مانند پزشکی، علوم اجتماعی و آموزش کار می کنم. چه من با دانشجویان فارغ التحصیل مشورت کنم، چه به پژوهشگران در مقالات کمک کنم یا مقالاتی را برای مجلات بررسی کنم، اغلب این مشکل را دارم که شخصی (مشتری، نویسنده، کمیته پایان نامه، ویراستار مجله) می خواهد از برخی تکنیک های نسبتاً شناخته شده استفاده کند، در حالی که این روش کاملاً است. نامناسب یا زمانی که روش های بهتر اما کمتر شناخته شده وجود دارد. اغلب، من روش جایگزین را توضیح می دهم اما سپس به من می گویند همه این کار را به روش دیگری انجام می دهند. برای من جالب است که دیگران چگونه با این نوع مشکل برخورد می کنند. اضافات @MichaelChernick پیشنهاد کرد که می‌توانم داستان‌هایی را به اشتراک بگذارم، بنابراین در حال حاضر با فردی کار می‌کنم که مقاله قبلی را کپی می‌کند و یک متغیر مستقل اضافه می‌کند تا ببینم کمکی می‌کند یا خیر. مقاله قبلی، رک و پوست کنده، وحشتناک است. با داده های وابسته طوری رفتار می کند که انگار مستقل هستند. به شدت اضافه است و مشکلات دیگری نیز وجود دارد. با این حال او (مشکل من) نسخه قبلی را به عنوان پایان نامه ارائه کرد و نه تنها مدرک خود را گرفت، بلکه به طور گسترده برای تحقیق مورد تحسین قرار گرفت. _ بارها سعی کرده ام مردم را متقاعد کنم که متغیرها را دوقطبی نکنند. این موضوع اغلب در پزشکی مطرح می شود. من با حوصله به این نکته اشاره می‌کنم که دوهوتوم کردن (مثلاً) وزن هنگام تولد به وزن کم و طبیعی (معمولاً 2500 گرم) به معنای رفتار با یک نوزاد 2499 گرمی مانند یک نوزاد 1400 گرمی است. اما رفتار با نوزاد 2501 گرمی کاملاً متفاوت است. پزشک با من موافق است که این احمقانه است. سپس می گوید این کار را به این صورت انجام دهید. من مدتها پیش یک مشتری دانشجوی فارغ التحصیل داشتم که کمیته او بر تحلیل خوشه ای اصرار داشت. دانش آموز روش را نمی فهمید، روش به سؤالات مفید پاسخ نمی داد، اما این چیزی بود که کمیته می خواست، بنابراین آنها به این نتیجه رسیدند. کل رشته گرافیک آماری جایی است که برای خیلی ها «این طوری بود که پدربزرگ این کار را کرد» کافی است. سپس افرادی هستند که به نظر می رسد فقط دکمه ها را فشار می دهند. من یک ارائه را به یاد می آورم (نه توسط کسی که به او کمک کرده بودم!) که یک پرسشنامه کامل را گرفته بود و فاکتور آن را تجزیه و تحلیل کرده بود. یکی از متغیرهایی که او وارد کرد شماره شناسه بود! اوه
راهکارهایی برای معرفی آمارهای پیشرفته به مخاطبان مختلف
86819
آیا کسی می تواند این مشکل را روشن کند. به دنبال این نیستم که پاسخ را برای من بنویسید، فقط چند نکته مفید است که امیدوارم من را در مسیر درست هدایت کند. سوال اینجاست: > ما علاقه مندیم نسبت سایت های اشغال شده را تعیین کنیم. مشکل اینجاست که تشخیص کامل نیست. در حالی که تشخیص تمرکز > حیوان ما در یک سایت خاص به این معنی است که سایت اشغال شده است، عدم شناسایی > به معنای غایب حیوان نیست. مشابه مثال > در کلاس، مدل تولیدی را برای این داده حضور/غیاب بنویسید. فقط برای روشن شدن این مسئله، من این مشکل را امتحان کردم و راه حل زیر را دریافت کردم: من از P (حالا)، S (نشانه های حیوان) و D (حیوان شناسایی شده) P=1 (حیوان حاضر) P=0 (حیوان غایب) S= استفاده کردم. 1 (نشانه‌های حیوان) S=0 (بدون علامت حیوان) D=1 (حیوان شناسایی شد) D=0 (حیوان شناسایی نشد) بنابراین من با تاس انداختن این کار را انجام دادم، بنابراین: P=1 (1،2)، S=1 (1-5)، D=1 (1-3)، D=0 (6)----> حیوان موجود P=0 (3-6)، S=1 ( 1)، D=0، S=) (2-6)-----> حیوان وجود ندارد P~ برنولی (1/3) S=1/P=1~ برنولی= (5/6) D= 1/ S=1، P= 1~ برنولی= (1/2) S= 1/P=0~برنولی= (1/6) D= 0/S= 1,P=0~ برنولی=(0)
مدل‌های مولد: آمار بیزی کمک می‌کند
91241
من سعی می کنم یک بازه t برای اولین پارامتر شکل یک متغیر توزیع شده بتا بر اساس یک نمونه تصادفی ایجاد کنم. $ f(x;\theta,\beta) = \dfrac{\Gamma(\theta+\beta)}{\Gamma(\theta)\Gamma(\beta)}x^{\theta-1}(x-1 )^{\beta-1}$ با توجه به اینکه $E[X]=\dfrac{\theta}{\theta+\beta}$، من $MME(\theta) = را پیدا کردم \dfrac{\beta\overline{X}}{1-\overline{X}}$ بنابراین می‌خواهم فاصله اطمینان $(1-\alpha)*100\%$ t را با استفاده از $\dfrac{\beta محاسبه کنم. \overline{X}}{1-\overline{X}} \pm t_{\alpha/2,n-1}*SE\left[\dfrac{\beta\overline{X}}{1-\overline{X}}\right]$ به خاطر برآورد من، من خواهم بود تعمیر $\beta=4$. من سعی کرده‌ام و سعی کرده‌ام این را به طور کلی دریافت کنم، زیرا احساس می‌کنم در قلب آن تمام این کمیت نشان‌دهنده تغییر میانگین نمونه است (روش دلتا/CLT) اما تا آخر عمر نمی‌توانم هیچ کششی روی آن داشته باشم. پس از تلاش و شکست، چند شبیه‌سازی را اجرا کردم و در چند مثال، $\theta=2$، $\beta=4$، نسبت $\dfrac{Var\left[\dfrac{\beta\overline{X را تنظیم کردم. }}{1-\overline{X}}\right]}{Var(\overline{X})} \approx 81.7$ تنظیم $\theta=3$, $\beta=4$، نسبت $\تقریباً 151.5$ اینها خیلی کمکی نمی‌کنند، اما وقتی به یک نتیجه نظری رسیدم، تخمین‌هایی را به من می‌دهند تا با آنها آزمایش کنم. اگر کسی بتواند کاستی های من را روشن کند ممنون می شوم. در هر صورت، ممنون که وقت گذاشتید و نگاه کردید. کد R من برای تست نسبت های واریانس نوشتم. تست <- function(alpha=1,beta=1){ ratio <- numeric() for (j در 1:100){به معنی <- عددی() آلفا <- numeric() برای (i در 1:1000){ نمونه <- rbeta(100،آلفا،بتا) به معنی[i] <- میانگین(نمونه) آلفا[i] <- beta*mean(نمونه)/(1-mean(نمونه)) } نسبت[j] <- var(alphas)/var(means)} paste0(نسبت Var: ,round(mean(نسبت)،3) ،. نسبت SD: ,round(sqrt(mean(ratio)),3)) } نقشه برداری (تست، آلفا=1:5، بتا=4، SIMPLIFY=F)
توزیع مجانبی پارامتر توزیع بتا
6111
مشکل اینجاست: یک نظرسنجی شامل 7 سوال دودویی (پاسخ بله/خیر) است. اگر دو نفر به نظرسنجی پاسخ دهند، احتمال تطابق پاسخ آنها در 4 یا بیشتر از سوالات چقدر است؟ به عبارت دیگر، اگر چهار یا بیشتر پاسخ منطبق داشته باشیم، می‌توانیم پاسخ کلی نظرسنجی را برای هر دو نفر مشابه در نظر بگیریم.
احتمال اینکه دو نفر پاسخ های یکسانی را در مورد سؤالات نظرسنجی ارائه دهند
81849
مطالعه من یک کارآزمایی بالینی با _2 گروه درمانی_ است که بیش از _4 نقطه زمانی اندازه گیری شد... با نتایج ارزیابی شده _سطوح خون_ بود. بنابراین متغیرهای مستقل من درمان (2 گروه) و زمان (4 نقطه زمانی - با زمان یک عامل درون آزمودنی است) ... و متغیر وابسته من سطوح خون است. بنابراین...من یک **ANOVA اندازه گیری های مکرر (مدل مختلط)** را در SPSS انجام می دهم، اما فرض من مبنی بر همسویی بودن برآورده نمی شود. داده های من با فرض نرمال بودن و کروی بودن مطابقت دارد...اما نه از همگنی واریانس ها/همسانی. من نمی دانم بهترین گزینه های من ... با توجه به این محدودیت. من دگرگونی ها را امتحان کرده ام و واقعا کمکی نکرده اند. من واقعاً از هرگونه پیشنهاد / کمکی قدردانی می کنم. **ویرایش**: من امکان گزینه هایی را در مورد من درک می کنم مانند: 1\. تست های t زوجی مکرر با اصلاح بونفرونی (به قیمت از دست دادن توان) 2\. معادل های ناپارامتریک (مثلاً آزمون فریدمن) برای rmANOVA ... اما به جای طراحی علمی، کدام آزمون قوی تر است؟
نقض هوموسکداستیسیته: ANOVA با اقدامات مکرر
76768
من به کمک مردم نیاز دارم من یک r.v لجستیک دارم. $V\sim \Lambda (0, \frac {\pi^2}{3})$ و یک برنولی $Z \sim B(p_z)$ مستقل. من همچنین $c\in R$، $\tilde Z = cZ$ دارم، و باید چگالی $$U = V + \tilde Z$$ را پیدا کنم، می دانم که می توان با استفاده از dirac از روش کانولوشن استفاده کرد. تابع دلتا برای نوشتن **pmf** $\tilde Z$ به عنوان یک جمع وزنی، اما من با مهره ها و پیچ ها مشکل دارم، چیزی واضح در کتاب ها پیدا نکردم، در حالی که برخی از پست های مرتبط را پیدا کردم اینجا و در ریاضیات. SE این کار را برای من انجام نداد. $1)$ آیا $$P(\tilde Z=\tilde z) = p_z\delta (\tilde z+c) + (1-p_z)\delta(\tilde z)$$ روش صحیح نوشتن ** است pmf** از $\tilde Z$؟ و $2)$ در انتگرال کانولوشن آیا باید جایگزینی $u =v+\tilde z \Rightarrow v=u- \tilde z$ را انجام دهم و w.r.t را در $\tilde z$ یا $u =v+\tilde z \ ادغام کنم. فلش راست \tilde z=u-v$ و ادغام w.r.t در $v$؟ من احساس می کنم که این چیز بی اهمیت است، اما این بار کور شدم.
PDF مجموع یک متغیر لجستیک پیوسته و یک متغیر تصادفی برنولی
97539
من سعی می کنم احتمال تجمعی 2 رویداد مستقل را پیدا کنم (حداقل فکر می کنم احتمال تجمعی آن). در روزهای بارانی (رویداد 1) جایی که ماشین من روشن نمی شود (رویداد 2) کار را از دست خواهم داد. احتمال اینکه ماشین من در هر روز روشن نشود 20٪ است. احتمال بارندگی در هر روز معین در ماه 10 در 30 (33.3 درصد) است. این دو رویداد مستقل از یکدیگر هستند. احتمال اینکه ماشین من در یک روز بارانی روشن نشود 0.2 * 0.33 = 0.067 است در یک ماه 30 روزه انتظار دارم کار را از دست بدهم 0.67 * 30 = 2.0 روز (گرد) اما چگونه می توانم احتمال گم شدن 1 را پیدا کنم. روز، 2 روز، 3 روز ... تمام 30 روز و غیره در طول یک ماه 30 روزه؟
احتمال تجمعی 2 رویداد مستقل
74561
من داده های فصلی دارم که از آنها پیش بینی می کنم. مراحلی که من انجام می‌دهم عبارتند از: فصل‌زدایی از داده‌ها، یافتن رگرسیون خطی برای نقاط غیرفصل‌شده، پیش‌بینی چند نقطه از رگرسیون خطی و اضافه کردن فصلی به مقادیر پیش‌بینی‌شده برای به دست آوردن داده‌های پیش‌بینی. ورودی من کاملاً سینوسی است بنابراین همه چیز به خوبی کار می کند. مشکل این است که هرچه در آینده بیشتر پیش بینی کنید، خطاهای پیش بینی بیشتر می شود. من می خواهم آن را در نمودار نشان دهم، اما مطمئن نیستم که چگونه این خطاها را محاسبه کنم. من به چیزی شبیه باندهای فاصله پیش بینی برای داده های پیش بینی فکر می کردم (هر چه نامیده شود). این باندها هر چه بیشتر در آینده پیش بینی کنید افزایش خواهند یافت. در اینجا چند تصویر وجود دارد که نشان می دهد من سعی دارم انجام دهم: نمونه باند image1 نمونه باند image2 **سوال** من این است که نام این باندها چیست؟ (سپس می توانم برای آن جستجوی گوگل انجام دهم) همچنین از فرمول های مورد نیاز برای محاسبات باند قدردانی می کنم. من حدس می زنم یک انحراف معیار در آنجا وجود دارد. من به فاصله اطمینان نگاه کردم، اما به نظر می رسد که برای داده های موجود است، نه برای داده های پیش بینی.
نحوه ایجاد باندهای بازه پیش بینی داده های پیش بینی
74567
آیا مسائلی برای اجرای رگرسیون سری زمانی نیوی وست روی یک متغیر وابسته که یک احتمال است وجود دارد؟ سوگیری هایی که من با آن روبرو هستم چیست؟ من نمی توانم چیزی را در اینترنت پیدا کنم که بتواند در مورد این مشکل به من کمک کند.
احتمال به عنوان یک متغیر وابسته در رگرسیون سری زمانی
85546
اخیرا متوجه شدم که گوگل و اپل خدمات تشخیص گفتار با کیفیت بسیار بالایی دارند. من در مورد پیشرفته ترین روش ها و تکنیک هایی که آنها برای دستیابی به چنین کیفیتی استفاده می کنند تعجب می کردم. من قبلاً می‌دانم که مدل‌های پنهان مارکوف را می‌توان برای تشخیص گفتار استفاده کرد، اما می‌خواستم بدانم که آیا این تکنیک اکنون استفاده می‌شود یا خیر. چون همانطور که می دانم HMM قدیمی هستند. بسیار عالی خواهد بود اگر بتوانید به برخی از مقالات مهم اخیر پیوند دهید که می تواند روش های جدید مورد استفاده را شامل/توصیف کند.
روش های پیشرفته برای تشخیص گفتار؟
36066
محققان دو نوع آزمایش مختلف را روی گروه بزرگی از افراد انجام دادند. پس از آن، محققان شرکت‌کنندگان را در موقعیت‌هایی مانند Z قرار دادند و پاسخ آن‌ها R را یادداشت کردند. کسانی که نمرات بالایی در آزمون T2 داشتند، پاسخ خوبی داشتند. به همین ترتیب، کسانی که نمرات پایینی در آزمون T2 داشتند، پاسخ بدی داشتند. بنابراین، محققان نتیجه می‌گیرند که نمره آزمون T2 بر پاسخ R تأثیر می‌گذارد. با این حال، حقیقت اساسی این است: 1. نمره آزمون T1 بر پاسخ R تأثیر می‌گذارد. 2. واقعیت 2: امتیاز آزمون T1 بر نمره آزمون T2 تأثیر می‌گذارد. 3. واقعیت 3: نمره آزمون T2 بر پاسخ R تأثیر نمی گذارد. در اینجا، محققان به اشتباه فرض کردند که نمره آزمون T2 بر پاسخ R تأثیر می گذارد. اما این درست نیست زیرا مقصر واقعی آزمون T1 است. محققان چه خطایی مرتکب شده اند و روش آماری صحیح برای این سناریو چیست؟ به عنوان مثال، ** چه خطایی وجود دارد که فرض کنیم یک تست باعث پاسخ می شود در حالی که در واقع فقط با تست دیگری که باعث پاسخ می شود مرتبط است؟**
چه خطایی وجود دارد که فرض کنیم یک تست باعث پاسخ می شود در حالی که در واقع فقط با تست دیگری که باعث پاسخ می شود ارتباط دارد؟
36064
من به چند مدل رگرسیون ساده با استفاده از بسته R و 'statsmodels' Python نگاه می کنم. من متوجه شده ام که هنگام محاسبه ضریب تعیین، «statmodels» از فرمول زیر برای $R^2$ استفاده می کند: $$ R^2 = 1 - \frac{SSR}{TSS}~~~~~~( \text{centered}) $$ که در آن $SSR$ مجموع مجذور باقیمانده‌ها است و $TSS$ مجموع مجموع مربع‌های مدل است. (مرکز به این معنی است که میانگین از سری حذف شده است.) با این حال، همان محاسبه در R نتیجه متفاوتی را برای $R^2$ به دست می دهد. دلیل آن این است که R به نظر می رسد $R^2$ را به صورت زیر محاسبه می کند: $$ R^2 = 1 - \frac{SSR}{TSS}~~~(\text{uncentered}) $$ بنابراین، چه چیزی می دهد؟ احتمالاً دلایلی برای ترجیح یکی بر دیگری در شرایط خاص وجود دارد. من نتوانستم اطلاعاتی را به صورت آنلاین در مورد مواردی که یکی از فرمول های بالا ترجیح داده شود پیدا کنم. میشه لطفا یکی توضیح بده که چرا یکی از دیگری بهتره؟
محاسبه R-squared (ضریب تعیین) با مجموع مربع در مرکز در مقابل غیر مرکز
38479
مقاله تحقیقاتی Forecasting NBA Player Performance نوشته داگلاس هوانگ روشی را برای پیش‌بینی عملکرد بازیکن با استفاده از یک مدل زمان‌بندی آماری و توزیع Weibull-Gamma توصیف می‌کند. من از یک درک ابتدایی از آمار توصیفی و استنتاج بیزی به این موضوع می پردازم و می خواهم پیشینه ای را برای درک بهتر و به طور بالقوه یک رویکرد مشابه برای پیش بینی عملکرد فردی (خارج از عرصه ورزشی) به کار ببرم. * کدام شاخه از آمار این نوع تحلیل را در بر می گیرد؟ * مسیر معمولی که دانش‌آموزان/تمرین‌کنندگان در یادگیری نحوه طراحی و اجرای این تحلیل‌ها دنبال می‌کنند چیست؟ * آیا پیشنهادی در مورد کتاب یا منابع (تا حد امکان اعمال شده) دارید؟ یا کتابخانه های منبع باز که پیاده سازی هایی از این نوع را ارائه می دهند؟
مسیری برای درک و اجرای مدل های زمان بندی آماری
11182
آیا کسی می داند چرا افست در رگرسیون پواسون استفاده می شود؟ با این چه چیزی به دست می آورید؟
چه زمانی از افست در رگرسیون پواسون استفاده کنیم؟
73439
در قضیه بیزی، $$p(y|x) = \frac{p(x|y)p(y)}{p(x)}$$، و از کتابی که می‌خوانم، $p(x| y)$ را _احتمال_ می‌نامند، اما من فرض می‌کنم که فقط احتمال _شرط_$x$ با توجه به $y$ باشد، درست است؟ برآورد _حداکثر احتمال_ سعی می کند $p(x|y)$ را به حداکثر برساند، درست است؟ اگر چنین است، من به شدت گیج شده ام، زیرا $x,y$ هر دو متغیر تصادفی هستند، درست است؟ به حداکثر رساندن $p(x|y)$ فقط برای پیدا کردن _the_ $\hat y$ است؟ یک مشکل دیگر، اگر این 2 متغیر تصادفی مستقل باشند، $p(x|y)$ فقط $p(x)$ است، درست است؟ سپس به حداکثر رساندن $p(x|y)$ برای حداکثر کردن $p(x)$ است. یا شاید، $p(x|y)$ تابعی از برخی پارامترهای $\theta$ باشد، یعنی $p(x|y; \theta)$، و MLE سعی می کند $\theta$ را پیدا کند که می تواند $ را به حداکثر برساند. p(x|y)$؟ یا حتی اینکه $y$ در واقع پارامترهای مدل است، نه متغیر تصادفی، به حداکثر رساندن احتمال یافتن $\hat y$؟ **به روز رسانی** من در یادگیری ماشینی مبتدی هستم، و این مشکل یک سردرگمی از مطالبی است که از یک آموزش یادگیری ماشین خواندم. در اینجا با توجه به مجموعه داده مشاهده شده $\\{x_1, x_2,...,x_n\\}$، مقادیر هدف $\\{y_1,y_2,...,y_n\\}$ هستند و I سعی کنید مدلی را روی این مجموعه داده قرار دهید، بنابراین فرض می‌کنم که با توجه به $x$، $y$ دارای شکلی از توزیع به نام $W$ است که با $\theta$ پارامتر شده است، یعنی $p(y|x; \theta)$، و من فرض می‌کنم این احتمال پسین است، درست است؟ اکنون برای تخمین مقدار $\theta$، از MLE استفاده می کنم. خوب، مشکل من به اینجا می رسد، فکر می کنم احتمال $p(x|y;\theta)$ است، درست است؟ به حداکثر رساندن احتمال به این معنی است که باید $\theta$ و $y$ مناسب را انتخاب کنم؟ اگر درک من از احتمال اشتباه است، لطفا راه درست را به من نشان دهید.
مقایسه تخمین حداکثر درستنمایی (MLE) و قضیه بیز
14351
با عرض پوزش از این سوال مبهم و مبهم، من هیچ سابقه ای در آمار ندارم. من دو بردار داده سری زمانی دارم که یک دوره شش ماهه را پوشش می دهد. داده ها در فواصل روزانه (به جز آخر هفته ها) است. بردار اول شامل حجم سهام یک شرکت در هر روز است. بردار دوم شامل یک متغیر حجم خارجی (تعداد جستجوهای گوگل) است که در همان تاریخ گرفته شده است. ![شکل](http://i.stack.imgur.com/W2rqr.png) همانطور که در نمودار بالا قابل مشاهده است، (که خارج از مقیاس است و غیره) نوعی رابطه بین این دو وجود دارد. من می خواهم دو سری زمانی را برای پیش بینی مقادیر حجم سهام در آینده مدل کنم. تا کنون به طور خلاصه به موارد زیر نگاه کرده ام: * ماشین های بردار پشتیبانی برای رگرسیون: اما وقتی داده ها را روی نمودار پراکندگی رسم کردم، هیچ رابطه واضحی وجود ندارد، بنابراین این باعث شد فکر کنم که رویکرد SVM شکست خواهد خورد. * تجزیه و تحلیل سری های زمانی: این رویکرد من را گیج کرد زیرا هیچ روند آشکاری در داده ها وجود ندارد آیا کسی می تواند در مورد رویکردی که باید اتخاذ کنم توصیه ای ارائه دهد؟
پیش بینی سری های زمانی بر اساس رفتار یکی دیگر
6119
من مردم را بر اساس جریان توییترشان تجزیه و تحلیل می کنم. ما از یک مدل «کیف کلمات» از کاربران استفاده می‌کنیم، که اساساً به این معناست که تعداد دفعات ظاهر شدن هر کلمه در جریان توییتر افراد را محاسبه می‌کند (و سپس از آن به عنوان یک پروکسی برای یک «احتمال استفاده از یک کلمه معین» استفاده می‌کنیم. طول خاص متن). به دلیل محدودیت‌های بیشتر در خط لوله، نمی‌توانیم داده‌های کامل استفاده از همه کلمات را برای همه کاربران حفظ کنیم، بنابراین سعی می‌کنیم «کارآمدترین» کلمات را پیدا کنیم تا در تجزیه و تحلیل خود حفظ کنیم. به این معنا که ما سعی می‌کنیم زیرمجموعه‌ای از ابعاد را حفظ کنیم، که دانستن مقادیر آنها به یک بیننده فرضی اجازه می‌دهد تا احتمالات همه کلمات (از جمله هر کدام را که از تجزیه و تحلیل رها کرده‌ایم) با دقت بیشتری مدل‌سازی کند. بنابراین یک رویکرد از نوع تحلیل مؤلفه‌های اصلی (PCA) اولین قدم مناسب به نظر می‌رسد. (با خوشحالی در حال حاضر این واقعیت را نادیده می گیریم که PCA همچنین ما را به ابعادی می چرخاند که با هیچ کلمه خاصی مطابقت ندارد). اما من دارم می خوانم که توزیع Zipf .. مشخصه استفاده از کلمات در یک زبان طبیعی (مانند انگلیسی) است و تا آنجا که من می دانم، تجزیه و تحلیل PCA مفروضات مختلفی را در مورد داده هایی که به طور معمول توزیع می شوند ایجاد می کند. بنابراین، من متعجبم که آیا مفروضات اساسی تجزیه و تحلیل PCA به اندازه کافی دور از واقعیت است که یک مشکل واقعی باشد. یعنی، آیا PCA به نزدیک بودن داده‌ها به نرمال گاوسی متکی است تا به خوبی کار کند؟ اگر این مشکلی است که من گمان می کنم، آیا توصیه دیگری وجود دارد؟ یعنی رویکرد دیگری ارزش بررسی دارد که به نوعی با PCA برابر است اما برای داده های توزیع شده Zipf یا قانون قدرت مناسب تر است؟ توجه داشته باشید که من یک برنامه نویس هستم، نه یک آمارگیر، پس اگر اصطلاحاتم را در بالا به هم ریختم عذرخواهی می کنم. (البته از اصلاحات استقبال می شود!)
آیا تجزیه و تحلیل مؤلفه های اصلی معتبر است اگر توزیع(های) مانند Zipf باشد؟ چه چیزی شبیه PCA است اما برای داده های غیر گاوسی مناسب است؟
38476
من می خواهم عوامل تعیین کننده محدودیت های اعتباری یک شرکت را تجزیه و تحلیل کنم. من اطلاعاتی برای اعتبار رسمی و غیر رسمی دارم. من 6 دسته وضعیت محدودیت اعتباری یک شرکت برای اعتبار رسمی دارم، در حالی که فقط 2 دسته برای اعتبار غیررسمی دارم. از آنجایی که وضعیت محدودیت اعتباری به طور همزمان تعیین می شود و بازار اعتبار رسمی و غیررسمی به هم مرتبط هستند، من می خواهم عوامل تعیین کننده محدودیت های اعتباری را برای بازار اعتبار رسمی و غیررسمی به طور همزمان تخمین بزنم. مدل لاجیت/پروبیت دو متغیره ممکن است خیلی ساده باشد. آیا توسعه مدل لاجیت دو متغیره یا نوعی مدل لاجیت چند متغیره چند متغیره در Stata وجود دارد؟ پیشاپیش از شما بسیار سپاسگزارم.
ترکیبی از مدل لاجیت چند جمله ای و مدل لاجیت
32403
من سعی می کنم روشی برای استفاده از موتیف ها برای پیش بینی پیدا کنم. نقوش تعریف شده به عنوان دنباله های (زیر) مشابه را می توان با استفاده از روش های تقریبی یا دقیق پیدا کرد، به کشف دقیق موتیف های سری زمانی مراجعه کنید. مشکل من این است: هنگامی که شما نقوش سری های زمانی برچسب گذاری شده دارید، چگونه می توان از موتیف ها برای پیش بینی استفاده کرد؟
نقوش برای پیش بینی
38474
من تعداد زیادی از میکروب ها را در یک اکوسیستم «مدل رودخانه» با نمونه برداری در دو نقطه اندازه گیری می کنم. من می‌خواهم این فرضیه را آزمایش کنم که گونه‌های کلیدی بالادست بهترین پیش‌بینی‌کننده‌ها برای هر جمعیت معین در یک سایت نمونه پایین دست هستند (و می‌خواهم بهترین پیش‌بینی‌کننده‌ها را توصیف کنم). چند سوال اولی یک سوال کلی در مورد رگرسیون با نتایج بسیار است: سطح جمعیت هر یک از صدها گونه می تواند مهم باشد. بنابراین آیا باید نگران استفاده از رگرسیون خطی در همه گونه های بالادست برای پیش بینی هر بردار پاسخ گونه پایین دست باشم؟ من فکر می کنم مشکل اینجا کشف نادرست به دلیل مقایسه های متعدد است. 2) با بسیاری از ویژگی ها و پیش بینی کننده های بالقوه، بهترین روش رگرسیون برای استفاده چیست؟ من انتظار دارم که گونه‌های نزدیک به هم بهترین پیش‌بینی‌کننده‌های جمعیت‌های پایین‌دست باشند... بنابراین سبد خریدها برای ترکیب شهودی ویژگی‌ها؟ PCA / انتخاب ویژگی برای کاهش ابعاد به اجزای مرتبط؟ یا فقط اجازه دهید یک مدل خطی (glm؟) الگوی ویژگی‌های غیر مهم را حذف کند؟ 3) جزء فضایی بسیار ساده است. من انتظار دارم که فراوانی گونه های پایین دست از گونه های بالادست قابل پیش بینی باشد. بنابراین نکته جالب در اینجا احتمالاً فراوانی گونه‌ها است که نمی‌توانیم توضیح دهیم. با این حال، آیا لازم است با همبستگی بالقوه بین دو سایت مقابله کنیم؟ ترجیح من این است که فعلاً این مؤلفه را نادیده بگیرم. با تشکر از همه!
پسرفت در بسیاری از نتایج در یک مدل فضایی