_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
111435
صبح، بگویید من 5 نوع گندم دارم که تحت 2 درمان قرار می گیرند. هنگام شمارش بذر تکرارها، درصد تفاوت بین میانگین دو تیمار 10% برای رقم 1، 30% برای 2، 50% برای 3، 80% برای 4 و 90% برای رقم 5 است. چگونه می توانم نشان دهم که var 1 دارای درصد کاهش قابل توجهی بیشتر از var، 3 است اما نه var. 2 مثلا؟ هر هپ بسیار قدردانی خواهد شد. با تشکر فراوان
آیا درصد تفاوت به طور قابل توجهی با یکدیگر متفاوت است؟
107929
من یک بار جملات زیر را در مورد همبستگی در زمینه رگرسیون شنیدم. > همبستگی فقط روابط خطی را اندازه گیری می کند > > $\text{corr}(X,Y)=0$ به این معنی نیست که متغیرها به هم مرتبط نیستند! سوال من این است که چرا همبستگی نمی تواند روابط غیر خطی را اندازه گیری کند؟ دوم اینکه $\text{corr}(X,Y)=0$ به ما چه می گوید؟
همبستگی در رگرسیون خطی
8306
به عنوان عنوان، چیزی شبیه به این وجود دارد؟ من می دانم چگونه CI را برای میانگین حسابی محاسبه کنم، اما در مورد میانگین هندسی چطور؟ با تشکر
فاصله اطمینان برای میانگین هندسی
107926
مدتی است که یادگیری و طبقه بندی تحت نظارت را با پرسپترون چند لایه انجام می دهم. اما اکنون باید از یادگیری بدون نظارت برای پی بردن به وجود یک الگو استفاده کنم و به کمک نیاز دارم. این به خودی خود مشکل سختی نیست و من می توانم آن را با یادگیری نظارت شده حل کنم (با نشان دادن نمونه هایی از الگوهای ممکن)، اما می خواهم الگوریتم من بتواند بدون دادن نمونه های الگو به آن کار کند. تصور کنید که من 9 کاشی به صورت مربع 3x3 ارائه شده است که از 1 تا 9 شماره گذاری شده اند. آنها هر بار با الگوی مشخصی که برای کاربر ناشناخته است روشن می شوند. این الگو می تواند دنباله ای از هر چیزی از 2 کاشی (مثلا 3-4-3-4-3-4...) تا یک دنباله بسیار طولانی تر (مثلاً **2** -5-3-2-6-4) باشد. -6-1- **2** -5-3-2-6-4-6-1 و غیره). من به الگوریتمی نیاز دارم که بتواند الگوی (یا قاعدگی) را استنتاج کند و سپس از این دانش برای حدس زدن دقیق کاشی بعدی که باید روشن شود استفاده کنم. اگرچه نیازی به یادگیری برای همیشه نیست. می تواند این باشد: اگر فکر می کنید الگویی دارید و حداقل 10 بار تکرار می شود، فرض کنید آن را پیدا کرده اید. من در حال خواندن مقالات علمی در مورد این موضوع بودم، اما فکر می کنم برای محدود کردن تحقیقاتم ابتدا به ایده هایی نیاز دارم. با تشکر
شناخت الگوهای ساده و پیش بینی
92170
من در تلاش برای پیاده سازی تحلیل تشخیصی خطی برای تشخیص چهره هستم. من 3 کلاس دارم و هر کلاس هر کدام 10 تصویر دارد. بعد ماتریس در کلاس A، B و C 10*500 است. بنابراین هر سطر یک تصویر را نشان می دهد اگر ماتریس میانگین هر کلاس را پیدا کنم، بعد 1*500 را دریافت می کنم. یعنی من سطر را اضافه می کنم و بر 10 تقسیم می کنم. ماتریس میانگین جهانی همه کلاس ها بعد 1*500 را دریافت می کنم. درون ماتریس پراکندگی Sw= بعد ماتریس 10*10 ماتریس است. Between Scatter Matrix Sb= بعد ماتریس 1*1 است. گام بعدی این است که من باید Inverse(Sw)*Sb را پیدا کنم. اما بعد ماتریس کاملاً متفاوت است. میدونم یه اشتباهی میکنم ولی نمیدونم کجا؟ میشه لطفا کمکم کنید این مشکل رو حل کنم؟ میشه لطفا بگید ابعاد ماتریس چقدر باید باشه؟ متشکرم
بعد ماتریس تحلیل تفکیک خطی
56400
فرض کنید من یک مدل AR(2) را در یک مجموعه داده قرار می دهم و تشخیص را دریافت می کنم. اگر آمار Ljung-Box برای همه تأخیرها برای مدل سری زمانی معنادار باشد، تفسیر آن چیست؟ یعنی مدل مناسب نیست؟ به غیر از این، ACF باقیمانده ها نشان می دهد که ثابت و نرمال هستند.
آمار Ljung-Box
56402
من مشکلی دارم که ساده‌لوحانه فکر می‌کردم مشکلی نسبتاً مستقیم است که شامل تشخیص پرت برای بسیاری از مجموعه‌های مختلف داده‌های شمارش می‌شود. به طور خاص، من می‌خواهم تعیین کنم که آیا یک یا چند مقدار در یک سری داده‌های شمارش نسبت به بقیه شمارش‌ها در توزیع، بالاتر یا کمتر از حد انتظار است. عامل مخدوش کننده این است که من باید این کار را برای 3500 توزیع انجام دهم و به احتمال زیاد برخی از آنها با یک سم پراکنده بیش از حد باد شده صفر مطابقت دارند، در حالی که برخی دیگر ممکن است به بهترین وجه با یک دوجمله ای منفی یا ZINB مطابقت داشته باشند، در حالی که برخی دیگر ممکن است به طور معمول توزیع شوند. به همین دلیل، امتیازهای Z ساده یا رسم توزیع برای بسیاری از مجموعه داده ها مناسب نیستند. در اینجا نمونه‌ای از داده‌های شمارش است که می‌خواهم مقادیر پرت را تشخیص دهم. counts1=[1 1 1 0 2 1 1 0 0 1 1 1 1 1 0 0 0 0 1 2 1 1 2 1 1 1 1 0 0 1 0 1 1 1 1 0 0 0 0 0 1 2 1 1 1 1 1 0 1 1 2 0 0 0 1 0 1 2 1 1 0 2 1 1 1 0 0 1 0 0 0 2 0 1 1 0 2 1 0 1 1 0 0 2 1 0 1 1 1 1 2 0 3] counts2=[0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 صفر 14 14 15 14 14 14 14 14 14 15 14 13 14 14 15 12 13 17 13 14 14 14 14 15 14 14 13 14 13 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 15 14 1414 14 15 14 14 14 14 14 14 14 14 14 14 14 14 13 16] counts4=[0 3 1.......] و به همین ترتیب تا تعداد 3500. در ابتدا فکر کردم باید یک حلقه در پایتون یا R بنویسم که مجموعه‌ای از مدل‌ها را برای هر توزیع اعمال کند و بهترین مدل برازش را بر اساس AIC یا موارد دیگر انتخاب کند (شاید fitdistrplus در R؟). سپس می‌توانم بپرسم که افراطی‌ها برای توزیع داده‌شده چه هستند (شمارهایی که در دنباله‌ها قرار می‌گیرند، به‌عنوان مثال، آیا شمارش «4» در توزیع counts1 در بالا پرت خواهد بود؟). با این حال، من مطمئن نیستم که این یک استراتژی معتبر باشد، و به نظرم رسید که ممکن است روش ساده ای برای تعیین نقاط پرت در داده های شمارش وجود داشته باشد که من از آن آگاه نبودم. من به طور گسترده جستجو کردم و با توجه به تعداد توزیع‌هایی که می‌خواهم به آنها نگاه کنم، چیزی پیدا نکردم که برای مشکلم مناسب به نظر برسد. هدف نهایی من این است که با استفاده از مناسب ترین روش آماری، افزایش یا کاهش قابل توجه در شمارش برای هر توزیع شمارش را شناسایی کنم.
تشخیص نقاط پرت در داده های شمارش
21567
من به طور سنتی یک مرد بینایی کامپیوتری هستم و شروع به انجام برخی از خودآموزی در داده کاوی کرده ام. من در پیدا کردن مکان هایی که این 2 زمینه با هم همگرا می شوند مشکل دارم، زیرا می خواهم یک پروژه خودآموزی دریافت کنم که این دو زمینه را به هم مرتبط کند. کجا از این دو ناحیه با هم استفاده می شود؟
در کجا داده کاوی و بینایی کامپیوتری همگرا می شوند؟
110523
من می‌خواهم بتوانم انحراف معیار یک توزیع گاوسی چند بعدی با بعد $n$ را نمونه‌برداری کنم. یعنی با توجه به مقداری $\phi$، می‌خواهم $P(\sigma | \phi) \propto \frac{1}{\sigma^n} e^{-\frac{\phi}{2\ را نمونه‌برداری کنم. sigma^2}}$ برای $n$ بالا، این توزیع به شدت به اوج می رسد. برای مقاصد من $n$ در حدود 1000-3000 خواهد بود. روش کارآمد برای به دست آوردن یک نمونه واحد از این توزیع چیست؟ (یک نمونه به عنوان $\phi$ بین هر نمونه تغییر می کند.)
نحوه نمونه برداری از توزیع پارامتر مقیاس گاوسی
9930
این احتمالاً نشان دهنده عدم درک اساسی از نحوه عملکرد همبستگی های جزئی است. من 3 متغیر x،y،z دارم. وقتی z را کنترل می‌کنم، همبستگی بین x و y نسبت به همبستگی بین x و y افزایش می‌یابد زمانی که z برای آن کنترل نمی‌شود. آیا این منطقی است؟ من تمایل دارم فکر کنم که وقتی اثر یک متغیر سوم را کنترل کنیم، همبستگی باید کاهش یابد. با تشکر از شما برای کمک شما!
آیا منطقی است که یک همبستگی جزئی بزرگتر از همبستگی مرتبه صفر باشد؟
46827
من یک مجموعه داده پانل دو بعدی دارم که یک مشخصه در امتداد این خطوط است: فردی | سال | BMI 1 2005 25.3 1 2006 25.4 1 2007 24.1 2 2005 22.9 2 2006 22.1 2 2007 21.1 ... من همچنین مقادیر سالانه ای برای متغیر خارجی دیگری دارم که برای سال های 2005 سرمایه گذاری کنم یا خیر. همبستگی بین BMI افراد و V. به ویژه، من این فرضیه را دارم که همبستگی واقعی > 0 است که می خواهم آن را آزمایش کنم. سوال من این است که آیا می توانم این را با ساخت یک سری زمانی آزمایش کنم که هر مقدار BMI را با مقدار V برای سال معین جفت می کند و از r پیرسون برای آزمون فرضیه و ضرایب همبستگی استفاده می کند؟ چرا یا چرا نه؟ اگر این کار را انجام دهم، آیا نتایج اصلا مفید است؟ اگر نه، جایگزین‌هایی که نسبتاً ساده هستند کدامند؟ منظورم از ساخت سری زمانی را روشن می کنم. فرض کنید V به ترتیب 1.1، 2.2 و 3.3 برای 2005 - 2007 باشد. سپس سری زمانی ساخته شده به صورت زیر خواهد بود (مقادیر BMI از بالا): BMI | V 25.3 1.1 25.4 2.2 24.1 3.3 22.9 1.1 22.1 2.2 21.1 3.3 یک سوال مرتبط که پیدا کردم (متاسفانه تمام پاسخ هایی که به دنبالش بودم را به من نداد): آیا سری های زمانی کوتاه ارزش مدل سازی دارند؟ پیشاپیش متشکرم
آزمون فرضیه بر روی داده های پانل دو بعدی با 1 مشخصه؟
56408
بسیار خوشحال خواهم شد اگر کسی بتواند در این زمینه به من کمک کند. من از مدل رگرسیون لجستیک تعمیم یافته «gologit2» / شانس متناسب جزئی برای متغیرهای وابسته ترتیبی استفاده می کنم. متغیر وابسته اندازه شرکت را توصیف می کند و یک متغیر طبقه بندی شده با سه گروه کوچک، متوسط ​​و بزرگ است. من از margeff برای به دست آوردن میانگین ضرایب اثر حاشیه ای استفاده کردم (به زیر مراجعه کنید)، اما در درک اینکه چگونه می توانم سطح پایه را بدست بیاورم که سه ساختگی (انواع شرکت) زیر با آن مقایسه شده اند (به عنوان مثال -.1368403 + پایه) مشکل دارم. = احتمال اینکه یک نوع شرکت معین از اندازه y باشد). آیا وقتی y = 0 (کوچک) پایه به سادگی میانگین آن مقدار است؟ اگر از گزینه at(means) در margeff استفاده کنم چطور؟ به سلامتی . margeff، dummies (Iprsv* \ Ipscl* \ Icountry* \ Inace*) میانگین اثرات جزئی بعد از gologit2 y = Pr(اندازه04) ------------------------------------------------ ------------------------------ متغیر | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] ----------------------------------------------- -------------------------------- کوچک | Iprsvinn_1 | -.1368403 .0136474 -10.03 0.000 -.1635887 -.1100918 Iprsvinn_2 | -.0130166 .0185622 -0.70 0.483 -.0493979 .0233646 Iprsvinn_3 | -.0665578.0193864 -3.43 0.001 -.1045544 -.0285611
به دست آوردن سطح پایه با margeff و gologit2 در Stata
56406
من سناریوی زیر را دارم: من دو حالت دارم. من متغیرهای $n$ را که تحت تأثیر وضعیت قرار می‌گیرند اندازه‌گیری می‌کنم. حالت 0 حالت پس‌زمینه است و در این مورد انتظار دارم هر متغیر $n_i$ از توزیع نرمال $N_i$~$(\mu_i,\sigma_i)$ که قبلاً پارامترها را برای آن تخمین زده‌ام ترسیم شود. وقتی حالت 1 است، من انتظار دارم که متغیرها مقداری بالاتر از آنچه شما از مقدار پس‌زمینه انتظار دارید داشته باشند، اما هیچ اطلاعی درباره توزیع دقیق آنها ندارم. من می‌خواهم با مشاهده متغیرها محاسبه کنم که چقدر احتمال دارد در حالت 1 نسبت به حالت 0 باشم. به نظر می‌رسد که Naive Bayes راه‌حل درستی باشد، زیرا انتظار دارم متغیرها عمدتاً مستقل باشند. من می توانم احتمالات مربوط به حالت 0 را محاسبه کنم، به عنوان مثال. احتمال مشاهده وضعیت داده شده 0. با این حال، اگر من توزیع را ندانم، چگونه می توانم احتمال داده های وضعیت 1 را محاسبه کنم؟ فکر دیگری که داشتم این بود که شاید رویکرد باید متفاوت باشد، برای مثال برای هر متغیر یک z-score محاسبه کنید و آن توزیع را آزمایش کنید. حدس می‌زنم که در مرکز صفر برای حالت 0 و بالاتر در حالت 1 باشد. چگونه آن را آزمایش کنم؟ تست تی؟ هر گونه فکری پذیرفته می شود.
بیس ساده بدون مدل
25745
در Statistica می توان یک تحلیل فوریه دو سری/دو متغیره/طیف متقاطع برای بررسی همدوسی، بهره و طیف فاز در یک جفت سیگنال انجام داد. احتمالاً این یک شکست از طرف من است، اما تلاش‌های من برای استفاده از آن عبارات جستجو برای بدست آوردن مقادیر مشابه از R خالی بوده است. چه توابع/بسته هایی را باید با جزئیات بیشتری بررسی کنم؟ می توانید چند مثال ساده ارائه دهید؟
چگونه می توان تحلیل های فوریه «دو سری» را در R انجام داد؟
3676
**زمینه:** من یک محقق جوان در مؤسسه ای هستم که با مسائل منطقه ای، به ویژه در زمینه سیاست مواد مخدر سروکار دارد. تقریباً دو سال پیش، یکی از محققان ارشد ما شروع به جمع‌آوری داده‌های دستگیری در مورد یک شهر بزرگ مجاور کرد. او تا زمانی که من یک سال پیش به عضویتم در آمدم و تغییر کردم و او را متقاعد کردم که به جمع‌آوری خودکار داده‌ها روی بیاورد، به صورت دستی نوار پلیس روزنامه را رونویسی می‌کرد. ما اکنون آماده ایم تا تجزیه و تحلیل این مجموعه داده را آغاز کنیم. این شامل حدود 20 هزار رکورد بازداشت است که تقریباً هیچ مقدار گم شده یا نامعتبر وجود ندارد (من تخمین می زنم که کمتر از 100 رکورد وجود دارد و برخی از آنها فقط خطاهای تجزیه کننده هستند). این سوابق شامل نام کامل و آدرس منزل فرد دستگیر شده، افسران دستگیر شده، اتهامات دقیق و غیره است (ما حتی SSN ها را در داده ها پیدا کرده ایم). در این مرحله، ما فقط داده‌ها را بررسی می‌کنیم، اما انتظار داریم که تفاوت‌هایی در تعداد و شدت اتهامات بر اساس نژاد، محل دستگیری و مکان خانه پیدا کنیم. **سوال** مجموعه داده دارای دو متغیر است که طبق درک من، سؤالات دسته بندی چند پاسخی هستند. افسر دستگیر دو ستون است که یکی از آنها همیشه دارای ارزش و یکی از آنها ممکن است دارای ارزش باشد (برای افسر دوم حاضر در دستگیری). هزینه ها پنج ستون است که هر کدام شامل یک بار شارژ و بدون ترتیب خاصی است. برای پیچیده تر کردن ساختار، برای فردی که به بیش از پنج اتهام دستگیر شده است چندین سوابق صادر می شود. ما تا به حال چند ساعت با مجموعه داده بالا درگیر شدیم و با استفاده از ویژگی Multiple Response Set و وصل کردن آن به جداول سفارشی، توانستیم تعداد و درصدهای مفیدی را در SPSS بدست آوریم. این شروع خوبی است، اما ما می خواهیم در مقطعی به تجزیه و تحلیل دقیق تر بپردازیم. متأسفانه، هیچ یک از ما از روش های توصیه شده (یا ضد توصیه شده) برای تجزیه و تحلیل یک سؤال چند پاسخی طبقه بندی شده آگاه نیستیم. این همچنین در مورد تمایل ما برای گروه بندی اتهامات خاص (مثلاً تصرف مواد کنترل شده کمتر از 4 اونس) در دسته های گسترده تر مانند جرایم خشونت آمیز یا جرایم مواد مخدر صدق می کند. توجه داشته باشید که من در اینجا فقط به دنبال پاسخ فوری نیستم، زیرا مهلتی نداریم. من خوشحال خواهم شد که مطالعه انجام دهم، بنابراین به راحتی به من در جهت آموزش، کتاب های درسی و غیره اشاره کنید. من همچنین به SPSS وابسته نیستم - این همان چیزی است که همکارم به آن عادت کرده است. اگر استفاده از آن برای این نوع مشکلات معایب واضحی دارد، من بدم نمی آید چیز جدیدی یاد بگیرم.
تحلیل سوابق دستگیری پاسخ چندگانه.
110527
بر اساس ویکی پدیا، > همچنین امکان گسترش نمونه گیبس به روش های مختلف وجود دارد. ... می توان متغیرهایی را که متغیرهای تصادفی نیستند، اما مقدار > آنها به طور قطعی از سایر متغیرها محاسبه می شود، ترکیب کرد. اسم این تکنیک چیست؟ چه مراجع خوبی در مورد آن وجود دارد؟
ارجاع به متغیر افزوده قطعی برای نمونه گیری گیبس
110526
فرض کنید من می خواهم یک آزمون z چند نمونه ای برای نسبت ها انجام دهم. آیا راهی برای رتبه بندی آنها وجود دارد؟ چگونه می توانم بیش از دو نمونه را همزمان با هم مقایسه کنم؟
چند نمونه z-test برای نسبت ها
3672
آیا کسی می تواند معیارهای آماری را برای توصیف توزیع دندروگرام پیشنهاد کند؟ اگر من دو دندروگرام داشته باشم، چگونه می توانم تفاوت های ساختاری آنها را کمّی کنم؟
اندازه گیری برای توصیف توزیع دندروگرام
21847
من این مثال را در سخنرانی یادگیری ماشینم داشتم. > اجازه دهید $X_2,\ldots,X_n$ به طور یکسان توزیع شوند (اما نه مستقل) نسخه‌های > از $X_1$ برگرفته از $\mathcal N(0,1)$. سپس $X_n$ به $Y = -X_1$ همگرا می شود به عنوان > $n \rightarrow \infty$. هیچ توضیحی برای اینکه چرا این دنباله از متغیرهای تصادفی به $Y$ همگرا می شود وجود ندارد. همگرایی به معنای $\lim_{n \rightarrow \infty} F_{X_n}(t)$ که در آن $F_{X_n}$ CDF X_n$ است. کسی میتونه کمکم کنه؟
همگرایی متغیرهای تصادفی عادی توزیع شده یکسان
107922
من یک مقدار F مرحله اول 9 برای مدلی با 1 ابزار و 1 متغیر درون زا دارم، قانون مکانیکی 10 می گوید ابزارهای من ضعیف هستند. با این حال، من مقاله سال 2005 توسط Stock و Yogo را می خوانم که مقادیر بحرانی را جدول بندی کرده اند و تفسیر موارد زیر را در یادداشت جدول متوجه نمی شوم: حداکثر اندازه مورد نظر (r) یک آزمون والد 5٪ از β = β0 همچنین، آیا تست‌های اندرسون CC، کرگ-دونالد، یا KP برای شناسایی کمتر در یک مدل تازه شناسایی شده با تنها یک درون‌زا استفاده می‌شود. متغیر بنابراین هیچ رتبه ماتریسی برای آزمایش وجود ندارد. همچنین کسی می تواند آزمایش دیگری را پیشنهاد دهد؟
تفسیر اهمیت آماره F-Cragg-Donald برای ابزارهای ضعیف
56409
در حال حاضر من روی استادم کار می کنم که در مورد بازدهی اضافی (نسبت شارپ) REIT آسیایی است. من فقط تمام داده ها را به متغیرهایی تبدیل کردم که آماده استفاده در SPSS هستند. در داده‌های پانل مقداری از ارزش وجود دارد که دلیل آن شرکت‌هایی است که فهرستی در فهرست نداشتند. 2002 اما در 2005 انجام دهید. در این مورد من شناسه ها (کدهای cusip) را گذاشتم اما فضایی برای داده های از دست رفته دارم. قبل از انجام یک رگرسیون اثر ثابت (روش LSDV) داده ها را برای نرمال بودن، چولگی و کشیدگی بررسی می کنم. اینجاست که من گیج می شوم، زیرا برخی از متغیرها کشش بالا (38.024) و چولگی (5.480) را نشان می دهند. من با گرفتن ln همه متغیرها، آن را تبدیل کردم. نمودارهای QQ و هیستوگرام ها بهبود یافتند اما نه همه. اما آیا عاقلانه است که حتی LN را بگیرم، زیرا برخی از مقادیر منفی هستند. گرفتن LN منجر به مقادیر خالی می شود. برای بهبود چولگی و کشیدگی چه کار دیگری می توانم انجام دهم؟ ریشه مربع را نیز نمی توان از اعداد منفی گرفت و اگر درست می گویم، اگر یک متغیر تنظیم شود، همه متغیرهای مجموعه داده باید تنظیم شوند. هنگام تجزیه و تحلیل برای موارد پرت، من از قاعده برچسب گذاری پرت پیشنهاد شده توسط توکی و همکاران (1986) استفاده می کنم. مطابق با آنچه مقاله توصیه می کند، مقدار G روی 2.2 تنظیم شده است. اما این منجر به مقدار بسیار زیادی از نقاط پرت می شود. اگرچه اولیه ها نماینده نیستند، می ترسم که مجبور باشم (در برخی موارد) بیش از 20 مشاهده را حذف کنم، در حالی که میانگین مقدار هر متغیر حدود 800 است. می توانم مقدار G را کاهش دهم. آیا این درست است؟ پیشاپیش ممنون هنک
کشیدگی، چولگی و پرت بالا
9931
من مشکلی دارم که باید رگرسیون خطی را با ورود نمونه ها محاسبه کنم. آیا فرمولی وجود دارد که بتوانم از آن برای بدست آوردن رگرسیون خطی متحرک با وزن نمایی استفاده کنم؟ مطمئن نیستم که این همان چیزی است که شما آن را می نامید.
رگرسیون خطی متحرک با وزن نمایی
99964
من پیشینه آماری ندارم اما سعی می کنم با استفاده از یک مثال عملی قضیه بیز را درک کنم. در مثال خود من قصد دارم از قضیه بیز برای محاسبه تعداد دفعات قرار گرفتن دو کلمه در کنار یکدیگر استفاده کنم. من اساساً مقداری متن بزرگ دارم و قصد دارم از فرمول قبلی استفاده کنم: احتمال اینکه این به دنبال است باشد = (احتمالاً کلمه این با است همراه شود) * (احتمال کلمه این) / (احتمال کلمه است) و من احتمال یک کلمه را به این صورت محاسبه می کنم: P(word) = (#تعداد بار کلمه رخ می دهد) / (کل #کلمه) و در آخر بعد از I این را در مجموعه داده اولیه من محاسبه کنید، من قصد دارم احتمال خود را به صورت زیر به روز کنم: احتمال = (احتمال قدیمی) * (احتمال جدید) آیا این درست به نظر می رسد؟ من واقعا قدردان هر بازخوردی هستم.
کاربرد قانون بیز - رابطه بین یک جفت کلمه
24837
من سعی می‌کنم در طول زمان با داده‌ها یک رگرسیون انجام دهم، و در مواردی که گمان می‌کنم ممکن است یک مؤلفه تاخیر در رابطه بین متغیرهای وابسته و مستقل من وجود داشته باشد. من در واقع برخی از داده‌های آنلاین را در اینجا پیدا کرده‌ام که حداقل نمونه خوبی از sales<-data.frame(Quarter=1:8, Sales=c(16850, 12010, 14740, 13890, 12950, ​​15640, 14960, 13630), Newspaper =c(1000، 500، 2000، 1000، 1000، 500، 1000، 500)، تلویزیون=c(500، 500، 500، 1000، 500، 1000، 1000، 1500)، آنلاین=c(1500، 500، 500، 500، 500 500)) lm(داده=فروش، فروش ~ روزنامه+تلویزیون+آنلاین) بنابراین داده هایی که من پیدا کردم ارقام فروش در هر سه ماهه و هزینه تبلیغات منطبق است، اما من انتظار دارم که بین تبلیغات و خریدها فاصله وجود داشته باشد. چگونه می توانم آن را در این داده ها مدل کنم؟
چگونه تاخیر را در یک رگرسیون ساده در R محاسبه کنیم؟
49833
همانطور که عنوان قبلاً بیان می کند، من متعجبم که دقیقاً به چه داده هایی از «svmstruct» MATLAB نیاز است تا بتوان یک نمونه جدید را خارج از MATLAB طبقه بندی کرد، به عنوان مثال. در پایتون یا c++. من مطمئناً نیاز دارم: * خود «SupportVectors» (برای محاسبه فاصله با استفاده از تابع هسته). * تابع هسته (شامل پارامتر[ها) منتقل شد / بازنویسی شد * تعصب اکنون در مورد 'ScaleData'، 'Alpha' و 'SupportVetorindices' مطمئن نیستم... آیا آنها مورد نیاز هستند؟ آیا در اینجا فاقد درک پایه هستم؟
چه داده هایی از svmstruct MATLAB برای طبقه بندی در زبان های مختلف مورد نیاز است؟
56401
من یک سوال در مورد استفاده از فاما و فاکتور فرانسوی دارم. من در حال حاضر در حال بررسی تفاوت های احتمالی در درآمدهای غیرعادی بین انواع مختلف پرتفوی املاک و مستغلات هستم. برای مقابله با انتقاد رول (1977) در مورد استفاده از بتا برای تخمین درجه عملکرد بهتر پورتفولیو، چند رویکرد را شامل می‌شود. دو ساختار مختلف نمونه کارها استفاده می شود: 1. ارزش; 2. و به طور مساوی از چهار شاخص مختلف بازار استفاده می شود: 1. شاخص وزنی ارزش CRSP، 2. شاخص وزنی ارزش سهام CRSP / Ziman، 3. شاخص دارای سقف کوچک، 4. و شاخص S&P 500. اولین سوال من این است: **آیا می توان از فاکتورهای FF (وزن دار ارزشی) با حرکت برای تخمین عملکرد بهتر دو پرتفوی مختلف استفاده کرد، زیرا یکی از آنها دارای وزن مساوی و دیگری وزن دار ارزشی است؟** مورد دیگر چهار نمونه است؟ معیارهای مختلف سه بازده اول بر اساس سهام NYSE، AMEX و NASDAQ است، همان چهار عامل دانلود شده از کتابخانه داده Kenneth K French. با این حال، این مورد برای معیار S&P 500 صادق نخواهد بود. بنابراین، سوال دوم من این است: **آیا هنوز استفاده از این چهار عامل مفید است یا باید آنها را به صورت دستی با داده های سهام S&P 500 محاسبه کنم؟**
چگونه می توان Fama&French را با تکانه برای تخمین درجه عملکرد بهتر به درستی اعمال کرد؟
99962
من سعی می کنم با استفاده از R. Historical.stats <- ddply (تاریخی، .(شرکت، مشتری)، خلاصه، میانگین= میانگین (فروش)، حد پایین = چندک (فروش، 05) تغییرات را در فروش مشتریان از هفته به هفته مشاهده کنم. ,higherlimit = quantile (Sales,.95) pval=t.test(Sales,data=Historical)$p.value) اولین تلاش من برای انجام این کار استفاده از Quantile و سپس ادغام با داده های هفته جاری توسط شرکت و مشتری بود. سپس بررسی می‌کنم که آیا فروش این هفته بالاتر است یا پایین‌تر از چندک‌های پایین‌تر و بالاتر. dat <- merge(CurrentWeek, Historical.stats, by = c(Company,Customer)) dat$plot <- ifelse((dat$Sales< dat$lowerlimit | dat$Sales> dat$higherlimit) ,1 0) پس از انجام تحقیقات بیشتر، بهتر است از چیزی مانند تست لوین، آزمون t.test استاندارد یا نوعی ANOVA استفاده کنید. روشی برای انجام این نوع تشخیص ناهنجاری می دانم که نمی توانم فصلی یا تعطیلات را در نظر بگیرم. نمونه داده شرکت مشتری هفته فروش شرکت A مشتری 1 05/07/2014 100 شرکت A مشتری 2 05/07/2014 50 شرکت B مشتری 1 05/07/2014 200 شرکت B مشتری 2 05/07/2014 1150 مشتری A 1393/05/14 20 شرکت الف مشتری 2 2014/05/14 20 شرکت B مشتری 1 14/05/2014 100 شرکت B مشتری 2 2014/05/14 50
مقایسه میانگین 6 هفته با هفته های فعلی واقعی
25740
نسبت بهینه مورد/ شاهد در مطالعه مورد-شاهدی چقدر است؟ چرا بیشتر کتاب های درسی یا تک نگاری ها بیش از 1 است؟ آیا می تواند کمتر از 1 باشد (چه اشکالاتی دارد؟)؟ متشکرم.
نسبت بهینه مورد / شاهد در مطالعه مورد-شاهدی
26094
من با استفاده از عبارت نسبتاً استاندارد، مقداری برازش انجام داده‌ام، $$\chi^2 = \sum_i \frac{(y_{i} - F(x_{i}, \theta))^2}{\sigma_{i} ^{2}}$$ که در آن y داده های اندازه گیری شده من است، $\sigma$ عدم قطعیت تجربی و $\theta$ پارامتری است که من تخمین می زنم. من می دانم که در واقع داده های من مستقل نیستند و می توانم خطاهای مرتبط داشته باشم. آیا روش استانداردی برای توسعه مدل دقیق تر با در نظر گرفتن خطاها و خطاهای مرتبط وجود دارد؟ من نکاتی از فیزیک انرژی بالا مانند http://www.desy.de/~blobel/banff.pdf پیدا کرده ام.
$\chi^2$ برازش با خطاهای مرتبط
99967
تفاوت بین شبکه های عصبی مکرر و شبکه های هاپفیلد چیست یا آنها یکسان هستند؟
شبکه های عصبی بازگشتی در مقابل هاپفیلد
21846
من سعی می‌کنم طنین را اندازه‌گیری کنم تا بتوانم در مورد یک متغیر صحبت کنم - و تأثیر آن بر خودش در واحدهای بعدی زمان و تأثیر آن بر سایر متغیرها. برای مثال «var1» یک رویداد خواهد داشت که در آن 20 واحد در روز اول تولید می‌کند. من می خواهم تجزیه و تحلیل کنم که چه اتفاقی برای var1 در روز دوم، روز سوم و غیره می افتد. اما همچنین آنچه برای «var 2» در روز اول، روز دوم و غیره اتفاق می‌افتد. اندازه گیری های من به این صورت است: `var1: 20,19,17...`, `var2: 15,15,16...`, بهترین راه برای انجام این کار چیست؟ (هر بسته R مفیدی نیز عالی خواهد بود) * * * ویرایش: منظور من از طنین در مورد من این است. یک تبلیغ تلویزیونی در روز دوشنبه نمایش داده می شود. من می توانم تأثیر آن را اندازه گیری کنم، اما چگونه می توانم آن را در چند روز آینده مدل کنم. همچنین، زمانی که آن تبلیغ در روز دوشنبه اجرا شود، احتمالاً بازدیدهای اینترنتی بیشتری نیز وجود خواهد داشت (که من می توانم اندازه گیری کنم). چگونه می توانم رابطه با تبلیغ تلویزیونی را مدل کنم و اثر آن چقدر طول می کشد. داشتم به تحلیل بقا یا چیزی در همین راستا فکر می کردم. اما من با تجزیه و تحلیل بقا در سطح ویکی پدیا آشنا هستم. * * * ممنون
تجزیه و تحلیل طنین
64999
من یک متاآنالیز نمرات نهایی را تکمیل کرده ام (مقایسه میانگین ها در پس آزمون). با این حال، من متوجه شده ام که علیرغم تصادفی شدن، تفاوت هایی در پایه وجود دارد و یافته ها را مغرضانه می کند. آیا می‌توانم میانگین‌های تعدیل‌شده هم‌متغیر (در جایی که گزارش شده) و میانگین نمرات نهایی را در یک فراترکیب ترکیب کنم؟
چگونه تفاوت‌های میانگین استاندارد شده با متغیرهای کمکی و میانگین استاندارد تعدیل‌نشده را در متاآنالیز ترکیب کنیم؟
25748
برخی از دستورالعمل های مفید برای آزمایش پارامترها (یعنی عمق تعامل، کوچک، نرخ نمونه و غیره) با استفاده از GBM چیست؟ فرض کنید من 70 تا 100 ویژگی دارم، جمعیتی 200000 نفری دارم و قصد دارم عمق تعامل 3 و 4 را آزمایش کنم. واضح است که باید آزمایشی انجام دهم تا ببینم چه ترکیبی از پارامترها بهترین عملکرد را در خارج از نمونه دارد. آیا پیشنهادی در مورد نحوه نزدیک شدن به این طرح آزمون دارید؟
چند دستورالعمل مفید برای پارامترهای GBM چیست؟
57758
این احتمالاً یک سؤال احمقانه است، اما چگونه می توانم ANOVA را تنها با استفاده از میانگین، انحراف استاندارد و اندازه نمونه اجرا کنم؟ یعنی میانگین گروهی sd n 1: 200 5 5 2: 100 22 5 3: 150 14 5 من از نرم افزار Statsoft Statistica استفاده می کنم. من می دانم چگونه آن را با استفاده از صفحه گسترده با تمام داده ها اجرا کنم، اما هرگز این کار را فقط با استفاده از اطلاعات ذکر شده در بالا انجام نداده ام. هر گونه اطلاعات بسیار قدردانی خواهد شد.
تجزیه و تحلیل ANOVA تنها با میانگین و انحراف معیار
110522
لطفاً کسی می تواند به من کمک کند تا بررسی کنم که مدل های AR با خطاهای GARCH دارای چگالی طیفی مثبت و محدود هستند؟
آیا مدل‌های AR با خطای GARCH چگالی طیفی مثبتی دارند؟
24839
من از توزیع Zipf-Mandelbrot در کارم طبق تعریف آن در ویکی‌پدیا استفاده می‌کنم: http://en.wikipedia.org/wiki/Zipf%E2%80%93Mandelbrot_law. من می خواهم استناد مقاله یا کتابی را که آن را معرفی می کند، دریافت کنم.
استناد توزیع Zipf-Mandelbrot
21843
من یک مجموعه داده دارم که می‌خواهم آن را مدل کنم، و به نظر می‌رسد بهترین مدل به این شکل باشد: $y = (\beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3) \cdot (\beta_4 x_4 + \beta_5 x_5 + \beta_6 x_6) + \epsilon$. $\beta_4$ تا $\beta_6$ مستقل از یکدیگر هستند و یک اثر خطی روی $y$ دارند که توسط $\beta_1$ تا $\beta_3$ تعدیل می‌شوند، که مستقل از یکدیگر هستند اما اثر سایر پیش بینی کننده ها من انتظار دارم که باقیمانده های مدل بالا نسبتاً عادی باشد. اگر بخواهم این مدل را در R قرار دهم، می توانم از یک روال برازش مدل غیرخطی مانند «nls()» استفاده کنم، به نظر می رسد. اما آیا رویکرد بهتری وجود دارد؟ به نظر می رسد این مدلی باشد که ممکن است یک مورد خاص با یک نام و یک رویکرد برازش بهینه باشد. آیا این است؟
فرمول بندی و برازش یک مدل غیر خطی که شبیه محصول مدل های خطی است
96124
برای داده های متقارن دم سنگین، یک میانگین برش خورده یا دیگر برآوردگر قوی میانگین می تواند برآوردگر بهتری از میانگین نسبت به میانگین نمونه باشد. میانگین بریده شده برای توزیع اریب بایاس می شود. یک برآوردگر قوی از میانگین که برای توزیع اریب تعصب ندارد چیست؟
برآوردگر قوی میانگین برای داده های کج
114607
من می خواهم نمودارهای ون متناسب با مساحت را با 3 مجموعه داده با هر نرم افزار آنلاین رایگان ترسیم کنم. من با نرم افزار eularAPE امتحان کردم اما کار نمی کند زیرا 3 مجموعه داده های من با هم همپوشانی ندارند. داده های من عبارتند از: a =45، b=20، c=12، a∩b =9، a∩c =6، b∩c= 1، a∩b∩c= 0. آیا امکان تولید نمودارهای ون متناسب وجود دارد. وقتی a∩b∩c=0؟
آیا نرم افزاری برای ترسیم نمودارهای ون متناسب با مساحت زمانی که a∩b∩c=0 باشد وجود دارد؟
99961
یک مجموعه داده $X$ متشکل از زیر مجموعه‌های کوچک‌تر را در نظر بگیرید: $X=A \cup B \cup C$، با مجموعه‌های داده‌های جدا از $A,B,C$. به عنوان مثال: $A=\{1.0، -1.0، 0\}$، $B=\{5.0، -7.0، 2.0\}$، $C=\{1.5، -5.0، 8.0\}$ ممکن است تبدیل (مقیاس، جابجایی) $A,B,C$ به گونه ای که هرکدام به صورت جداگانه استاندارد شده اند تا میانگین=0 و std dev=1.0 داشته باشند و به طوری که $X$ نیز دارای mean=0، std dev=1.0؟
استاندارد کردن مجموعه‌های داده‌های فرعی، به گونه‌ای که کل مجموعه داده استاندارد شود
96122
با خواندن «ماشین‌های محدود شده بولتزمن برای فیلتر کردن مشارکتی» (Salakhutdinov و همکاران 2007)، نمی‌دانم که آیا کار بعدی در مورد استفاده از معماری‌های گرافیکی و/یا عمیق برای موتورهای توصیه‌کننده وجود داشته است یا خیر. این مقاله برخی پسوندهای ممکن جالب را پیشنهاد می‌کند، مانند استفاده از RBM‌های انباشته شده به جای آنهایی که تک لایه هستند. با این حال، من هیچ مقاله بعدی توسط صفحه انتشارات سالاخودینوف پیدا نکردم.
روش های گرافیکی / معماری های عمیق برای فیلتر مشترک
114601
من داده‌ها را از یک دستگاه بالینی آزمایش می‌کنم، داده‌ها با استفاده از دو روش مکمل استخراج شد. روش 1: روش موجود، 17 متغیر روش 2: روش جدید، 13 متغیر باید به صورت کمی و تصویری توضیح دهم که **محتوای اطلاعات / اطلاعات متقابل** هر دو روش یکسان است من داده های همبستگی دارم و **بعضی از متغیرها همبستگی دارند و برخی دیگر همبسته نیستند**. من به دنبال روشی شهودی برای توضیح هستم که صرف نظر از تفاوت در تعداد متغیرها بین روش‌های استخراج داده‌ها و جهت همبستگی، اطلاعات جمع‌آوری‌شده توسط روش‌ها قابل مقایسه هستند. لطفا نظرات خود را به من بگویید، پیشاپیش متشکرم!
چگونه می توان محتوای اطلاعاتی / اطلاعات متقابل بین دو مجموعه از متغیرها را ارزیابی کرد؟
96128
وقتی یک سکه پرتاب می کنید 8 سر و 2 دم به دست می آورید. چگونه تحلیل می کنید که آیا یک سکه منصفانه است؟ مقدار p چیست؟ p-value به راحتی قابل محاسبه است و 56/1024 است. با این حال من نتوانستم قسمت دوم را حل کنم. علاوه بر این، سکه های بیشتری به این آزمایش اضافه می شود. حالا شما 10 سکه دارید. شما هر سکه را 10 بار پرتاب می کنید (در کل 100 پرتاب) و نتایج را مشاهده می کنید. آیا رویکرد خود را به روشی که عادلانه بودن سکه ها را آزمایش می کنید تغییر می دهید؟
پرتاب سکه ارزش p
57755
من بیش از یک سال است که داده های سرعت باد را جمع آوری کرده ام. من می خواهم میانگین سرعت باد را با استفاده از فرمولی محاسبه کنم که در آن سرعت متوسط ​​تابع دو پارامتر ویبول و تابع گاما است. چگونه تابع گاما را در این لحظه ارزیابی کنم؟ چه چیزی را به عنوان استدلال در نظر بگیرم؟
چه چیزی را به عنوان آرگومان گاما در نظر می گیرم؟
26095
اگر هیستوگرام زیر را داشته باشیم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HxSwZ.jpg) و، بخواهید آن را بر اساس یکی از گزینه های زیر توصیف کنید، به نظر شما کدام یک درست است؟ چرا؟ 1. دارای انحراف مثبت 2. متقارن 3. هیچکدام از موارد بالا 4. دارای انحراف منفی پیشنهاد اولیه من 3. هیچ یک از موارد بالا خواهد بود. نظر شما چیست؟ با تشکر
شکل توزیع هیستوگرام
21568
من از رگرسیون SoftMax برای یک مشکل طبقه بندی چند طبقه استفاده می کنم. من برای هر یک از کلاس ها احتمال قبلی مساوی ندارم. من از رگرسیون لجستیک (رگرسیون softmax با 2 کلاس) می دانم که احتمالات قبلی کلاس ها به طور ضمنی به بایاس اضافه می شود ($\log(p_0/p_1)$). معمولاً کاری که من انجام می دهم این است که این اصطلاح را از تعصب حذف کنید. سوال من این است که اصطلاح مربوطه در بایاس رگرسیون سافت مکس چیست؟ با تشکر
سوگیری رگرسیون سافت مکس و احتمالات قبلی برای کلاس های نابرابر
9937
در یک قاب داده، من می‌خواهم فهرست ستون را با نام دریافت کنم. به عنوان مثال: x <- data.frame(foo=c('a','b','c'),bar=c(4,5,6),quux=c(4,5,6)) I می خواهم شاخص ستون نوار را بدانم. من به موارد زیر رسیدم اما بی‌ظرافت به نظر می‌رسد. آیا ساختار ساده تری وجود دارد که من آن را از دست داده باشم؟ seq(1,length(names(x)))[names(x) == bar] [1] 2
یافتن نمایه ستون با نام آن در R
64993
ما اطلاعات غربالگری هزاران بیمار را داریم که چندین سال دنبال شده اند. ما همچنین پیامدهای سرطانی آنها را داریم، خواه چنین سرطان هایی با غربالگری شناسایی شده باشند یا علائم دیگری داشته باشند. برونزا برای این سوال، این سوال است که مردم چگونه نمایش می دهند. به طور کلی این یک سوال سخت است، زیرا عوامل متعددی وجود دارد که تعیین می کند چگونه / چرا / چه زمانی افراد نمایش داده می شوند. این ایده مربوط به پیش‌بینی زمان غربالگری یک فرد مشروط به سابقه غربالگری است. معمولاً نرخ ها تنها معیاری هستند که برای توصیف چنین الگوهایی استفاده می شود. که با محاسبه مخرج کل زمان ریسک انجام می شود. اما ممکن است پیچیده تر از این باشد. همانطور که می دانیم، فرآیندهایی که زمان بین ورود را تعیین می کنند می توانند در واقع بسیار پیچیده باشند. اینکه آیا آنها وابسته هستند یا تقریباً مارکوف مهم است. علاوه بر این، مایلیم بدانیم که شکل چگالی زمان‌های بین ورود چیست و آیا ویژگی‌های متمایز مشترکی مانند دووجه بودن در آن داده‌ها وجود دارد یا خیر. با این حال، یک رویکرد پارامتریک می تواند در واقع کاملاً محدود باشد. و به نظر می رسد آزمایش ساختاری فرضیات در حین ساخت مدل های پیچیده به اندازه کافی برای تعیین تفاوت ها، خطای نوع 1 را تا حد زیادی افزایش می دهد. آیا یک مدل عمومی مارکوف یا رویکرد یادگیری بدون نظارت وجود دارد که بتوان از آن برای شناسایی خوشه‌هایی از سری‌های زمان که از یکدیگر متمایز هستند به شکل کلی‌تری نسبت به نرخ‌ها استفاده کرد؟
خوشه بندی تک متغیره برای کوهورت طولی
106325
من می خواهم فاصله جفریز- ماتوزیتا را روی 14 باند طیفی اجرا کنم. آیا کسی هست که بتواند در مورد نحوه انجام آن در R کمک کند؟ متشکرم.
فاصله جفریس ماتوزیتا برای 14 متغیر
106324
اجازه دهید $z$ یک متغیر تصادفی با PDF باشد: $f_z= Cz^{k-1}(1-\frac{z}{d})^bF(-a+k+1,b;b+1;1- \frac{z}{d})$، که $0\leq z \leq d$، $F$ تابع Hypergeometric است، $k$ یک عدد صحیح مثبت است، $-a+k+1 >0$، $C $ ثابت است و $a,b$ 2 عدد مثبت واقعی هستند. لطفاً من باید یک فرم بسته از تابع تولید لحظه $z$ را محاسبه کنم.
تابع تولید لحظه اگر PDF $f_z= Cz^{k-1}(1-\frac{z}{d})^bF(-a+k+1,b;b+1;1-\frac{ باشد. z}{d})$
3584
من یک مجموعه داده دارم که از افراد می‌پرسد آیا به مکان خاصی رفته‌اند (مثلاً A، B، C، D)، و می‌توانند بیش از یک انتخاب داشته باشند، سپس یک نمونه از بینی آنها گرفته می‌شود تا ببینند آیا آنها به برخی از مکان‌ها آلوده هستند یا خیر. بیماری. من باید خطر نسبی عفونت را برای کسی که به یک مکان خاص می رود، دریابم، در حال حاضر فقط می توانم به رگرسیون لجستیک فکر کنم، آیا پیشنهاد دیگری وجود دارد؟ با تشکر
چگونه با سوال نظرسنجی با چند پاسخ برخورد کنیم؟
106320
من از تابع R lme (بسته nlme) برای ساخت مدل های مختلط خطی، با یک اثر تصادفی منفرد (به عنوان یک برش تصادفی) و یک ساختار واریانس متغیر بر روی یک اثر ثابت (که یک عامل است) استفاده کرده ام. داده ها از یک ماهیگیری تجاری است و من به دنبال این هستم که ببینم مهمترین متغیرهایی که باید برای این ماهیگیری گزارش شوند کدامند. من 3 متغیر بیولوژیکی دارم (قد کل، وزن، نسبت ماده ها) و دو متغیر عملیاتی (تلاش و فصل) (متاسفانه نمی توانم داده هایم را به دلیل محرمانه بودن پست کنم و نتوانستم مشکلم را با داده های ساختگی بازتولید کنم) . من از AICc برای انتخاب «بهترین» مدل‌ها از فهرست مدل‌های پیشینی استفاده کرده‌ام و اکنون در حال محاسبه مقادیر مربع R از هر یک از «بهترین» مدل‌ها هستم (با استفاده از کد https://github.com/ jslefche/rsquared.glmer/blob/master/rsquaredglmm.R از پست وبلاگ http://jonlefcheck.net/2013/03/13/r2-for-linear-mixed-effects- models/ و برگرفته از Nakagawa and Schielzeth (2013) r2 for GLMMs). من 6 مدل با AICc < 10 دارم و از آن به عنوان برش استفاده کرده ام زیرا تعداد متعادلی از مدل ها را به من می دهد تا اهمیت نسبی هر متغیر مورد علاقه را با استفاده از مجموع وزن های آکایک (هدف مدل سازی) محاسبه کنم. ). با این حال، مقادیر مربع R برای «بهترین» مدل‌های من (وزن‌های Akaike بین 0.5-0.8؛ R^2$ حاشیه = 0.48) از مدلی با تمام جلوه‌های ثابت من (وزن‌های Akaike 0.00؛ R2^$ حاشیه‌ای) کمتر است. = 0.89). من دوباره انتخاب مدل را با استفاده از BIC اجرا کردم و با همان مشکل مواجه شدم. سوال من این است: آیا اکثر مدل‌های «بهترین» مدل‌هایی هستند که دارای ارزش R^2$ کمتر (و AICc کمتر) هستند یا مقادیر R2 بالاتر اما مقادیر AICc بالاتری دارند؟
«بهترین» مدل انتخاب شده با AICc دارای مربع R^2$ کمتر از مدل کامل/جهانی است.
103583
بررسی های تشخیصی باقیمانده های ARMA-GARCH از طریق تست های Box-Ljung. مطمئن نیستم که از درجات آزادی درست استفاده کنم یا نه. یک مثال دلخواه: ARMA(0,1)-eGARCH(2,1)-SkewedStudent's-t. خروجی: Estimate Std. خطای t مقدار Pr(>|t|) mu 0.000418 0.000115 3.62471 0.000289 ma1 0.013034 0.009898 1.31689 0.187877 omega -0.150288 -0.150289 0.000000 آلفا1 -0.177460 0.017078 -10.39099 0.000000 آلفا2 0.110598 0.016937 6.52996 0.000000 بتای 1 0.9820000 . 0.000000 گاما1 0.018616 0.025403 0.73284 0.463655 گاما2 0.153550 0.026689 5.75323 0.000000 0.000000 0.000000 0.919474781 0.000000 شکل 9.399434 0.795150 11.82095 0.000000 با فرض اینکه من تمام پارامترها را در مدل نگه دارم (همچنین موارد ناچیز) من می‌توانم همبستگی خودکار را در باقیمانده‌های استاندارد شده برای برخی از آزمون‌های تاخیر (e.x1-ang (e.x1-ang) آزمایش کنم. درجه آزادی (به دلیل تنها یک MA-Lag). من با استفاده از آزمون Box-Ljung با درجه آزادی 3-3 (2 ARCH-lag و 1 GARCH-lag که مجموعاً 3 می شود) خود همبستگی را در باقیمانده های استاندارد شده مربع برای برخی تاخیرها (مثلاً 5،10) آزمایش خواهم کرد. ). آیا از df استفاده شده موارد صحیحی است؟ یا باید تمام 5 پارامتر مدل eGARCH و 2 پارامتر را برای توزیع در نظر بگیرم؟ اگر برخی از پارامترهای ناچیز را صفر کنم، آیا این روی df تأثیر می گذارد؟ فقط توصیه هایی برای موارد ساده مانند GARCH (1،1) با نوآوری های معمولی در ادبیات یافت شده است. خیلی ممنون!!!
درجات آزادی Box-Ljung برای بقایای مدل پیشرفته GARCH مانند
21844
من یک کد جاوا دارم که یک رگرسیون خطی را روی مجموعه ای از داده ها با استفاده از حذف Gauss-Jordan انجام می دهد. توابع خطی، درجه دوم و مکعبی را با استفاده از روش حداقل مربعات محاسبه می کند. مشکل من انتخاب تابعی از بین سه تابعی است که داده های من را به بهترین شکل مدل می کند. این البته بدون ترسیم منحنی است. بنابراین فرض کنید من مجموعه‌ای از داده‌های «{x:1،2،3،4} {y:3،8،910}» دارم و یک تابع خطی، درجه دوم و مکعبی برای آن با استفاده از روش حداقل مربعات دریافت می‌کنم. چگونه می توانم مدل مناسب برای داده های من را انتخاب کنم؟
انتخاب بهترین مدل بر اساس برازش خطی، درجه دوم و مکعبی داده ها
106328
من در حال انجام یک پروژه روانشناسی هستم و با آمار (SPSS) به خصوص در مورد تجزیه و تحلیل مدیتیشن درگیر هستم. من تمام یادداشت هایم را از مدرک لیسانس خود جستجو کرده ام، اما هیچ چیزی در مورد تحلیل های مدیتیشن وجود ندارد. تقریباً هیچ مرحله ای نشان داده نشده است، فقط نتایج در تمام مجلاتی که از وب آو ساینس خوانده ام ارائه شده است. من همچنین در مورد وارد کردن متغیرها گیج شده ام (تغییرات زیادی وجود دارد). من از بخش خود کمک خواستم، اما کمک های ارائه شده در هنگام نمره گذاری در نظر گرفته می شود.
کمک به تجزیه و تحلیل میانجی SPSS
57752
من کاربر جدید تحلیل مولفه اصلی (PCA) هستم و شک بزرگی دارم. من 32 مشاهده با 45 متغیر دارم و می دانم که نمی توانم از PCA ساده برای این تحلیل استفاده کنم (n < p). با این حال، من می خواهم از این 32 مورد (افراد) برای یک سال استفاده کنم (مثلاً 2008) و سپس می خواهم یک جدول با همان 32 مورد اما برای سال های 2009، 2010، 2011 و 2012 ایجاد کنم. بنابراین، آیا می توان آن را ساخت تجزیه و تحلیل خوبی از PCA انجام آن؟ و همچنین، آیا می توانم مدل را هر سال فقط با اضافه کردن 32 مورد جدید برای هر سال بهبود یا بازسازی کنم؟ یا چیکار میتونم بکنم
PCA با موارد مشابه در دوره های زمانی مختلف
106321
من علائم حیاتی زیادی را از بیماران بخش اورژانس جمع‌آوری می‌کنم و می‌خواهم ارزیابی کنم که آیا ویژگی‌های مختلف توزیع‌های قابل توجهی متفاوتی دارند یا خیر. به عنوان مثال برای ضربان قلب من 888.424 اندازه گیری (ذخیره شده در all_hr) برای همه بیماران و 321.357 اندازه گیری برای بیماران سالمند (ذخیره شده در g_hr) دارم. بازده آمار خلاصه: خلاصه (all_hr$hr) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 2.00 74.00 87.00 88.56 101.00 242.00 خلاصه (g_hr$hr) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 2.00 72.00 85.00 87.77 100.00 207.00 هنگام ترسیم ecdfs برای این نمونه‌ها می‌توانم: برای استفاده از Kolgomorov-Smirnov ks.test() تابع در R برای این: ks.test(all_hr$hr,g_hr$hr,alternative=two.sided) داده های آزمون کولموگروف-اسمیرنوف دو نمونه: all_hr$hr و g_hr$hr D = 0.0289، p-value < 2.2e-16 فرضیه جایگزین: دو طرفه هشدار: در ks.test(all_hr$hr، g_hr$hr، جایگزین = دو طرفه) : مقادیر p در حضور پیوندها تقریبی خواهد بود بنابراین تا آنجایی که من این آزمون را درک می کنم، این فرضیه که نمونه ها از توزیع های مختلف هستند درست است؟ اکنون، من نیز رویکرد مشابهی را امتحان کرده ام، اما در عوض بیماران را بر اساس بخش های تخصصی گروه بندی کرده ام. به عنوان مثال این دو ecdfs دو توزیع نمونه 6000 تصادفی برای بیماران عصبی و گوارشی است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PqV3k.png) با این حال، هنگام اجرای ks.test در این دو نمونه، من نیز همان نتیجه را دریافت می کنم ks.test(N.vs.hr.rs$hr,S.vs.hr.rs$hr,alternative=two.sided) دو نمونه داده های آزمون کولموگروف-اسمیرنوف: N.vs.hr.rs$hr و S.vs.hr.rs$hr D = 0.6307، p-value < 2.2e-16 فرضیه جایگزین: دو طرفه Warninf: در ks.test (N.vs.hr.rs$hr، S.vs.hr.rs$hr، جایگزین = دو طرفه) : مقادیر p در حضور پیوندها تقریبی خواهند بود بنابراین، به طور خلاصه.. آیا این آزمون روشی معتبر برای اثبات تفاوت در توزیع هاست؟ و آیا نباید با این واقعیت که دو نمودار ecdf بسیار متفاوت نتایج ks.test یکسانی به دست می‌دهند، مناقشه‌ای نداشته باشم؟
کولموگروف-اسمیرنوف از دو نمونه ضربان قلب
99969
یک مقاله چهار سوال تحقیقاتی می‌پرسد که با اندازه‌گیری صفت نهفته _x_، یک متغیر پیوسته که از طریق یادگیری یا تمرین به دست می‌آید، و سرعتی که با آن دانش یا مهارت می‌تواند در گروه بزرگی از شرکت‌کنندگان مورد استفاده قرار گیرد ($n) می‌پرسد. = 500 دلار). دو سؤال اول تحقیق عبارتند از: 1. آیا تفاوتی در زمان پاسخگویی بین گروه‌های با صفت x متفاوت وجود دارد؟ 2. چه ارتباطی بین زمان پاسخ و صفت x_ وجود دارد؟ آزمودنی ها بر اساس عملکرد آنها در آزمون _ صفت x_ به گروه های مرجع در RQ1 _post hoc_ اختصاص داده می شوند. به نظر من اگر بین زمان پاسخ و صفت x_ همبستگی وجود داشته باشد، می توان همیشه گروه بندی را به گونه ای پیدا کرد که از نظر آماری تفاوت معنی داری بین گروه ها وجود داشته باشد. بنابراین، سؤالات من عبارتند از: 1. آیا کسی می تواند به من توضیح دهد که چرا هر دو سؤال باید پرسیده شوند؟ 2. آیا یک اشتباه آماری اساسی در اینجا وجود دارد یا من در تفکرم بیش از حد ساده هستم؟ ویرایش ### این ویژگی می‌تواند هر ویژگی نهفته اندازه‌گیری شده از نظر روان‌سنجی باشد، اما من اغلب دیده‌ام که این دو سؤال به طور همزمان در مقالات مختلفی ظاهر می‌شوند، جایی که چیزی از طریق یادگیری یا تمرین، مانند آموزش یا زبان‌شناسی کاربردی، به دست آمده است. در این مثال، ممکن است چیزی بی‌اهمیت باشد، مانند توانایی انتخاب صحیح نام یک فرد مشهور در یک عکس از لیست نام‌های احتمالی. با توجه به آنچه من متوجه شدم، یکی از مشکلات اصلی در مورد سوال اول، گسست دلخواه یک متغیر پیوسته (خصلت _x_) است که منجر به از دست دادن اطلاعات و سوگیری احتمالی از طریق بن‌ها/آستانه‌های دلخواه ایجاد می‌شود. آیا این درست است؟ آیا مشکلات دیگری در اینجا رخ می دهد؟ ### مثال زندگی واقعی من در ارائه یک مثال_واقعی مردد بوده‌ام، زیرا پاسخ‌ها معمولاً بر جزئیات تمرکز دارند، در حالی که من سعی می‌کردم تعمیم دهم، اما اینجا یکی است. دو سوال تحقیق وجود دارد: 1. حجم واژگان دانش آموزان اول دانشگاه چقدر است و درک مطلب آنها چقدر خوب است؟ 2. آیا دانش واژگان و دانش محتوایی دانشجویان دانشگاه بر درک مطلب آنها تأثیر می گذارد؟ محقق آزمون درک مطلب، اندازه واژگان و دانش محتوا را اجرا می کند. نادیده گرفتن RQ1 دو لول، تا اینجا بسیار خوب است. اما این قسمتی است که من نمی توانم بفهمم (که شبیه به سوال انتزاعی تر من در بالا است): تجزیه و تحلیل شامل: تحلیل همبستگی متغیرها دانش واژگان دانش محتوا ----------------- ----- -------------------- ----------------- درک مطلب .70** 0.41** دانش واژگان 0.22** **p <.01 (دو دنباله) مقایسه گروه ها بر اساس عملکرد آزمون اندازه واژگان درک مطلب دانش محتوا میانگین SD t df میانگین SD t df ------- ---------------------------------- ----------------------- بالا (n = 83) 20.34 6.18 12.25** 244 30.10 4.31 2.06 192 زیر (n = 163) 11.23 ** 5.82 5.15 . p ≦ 0.01 و a مدل رگرسیون چندگانه مجموع مربعات df میانگین مربع F ---------- -------------- ---- ------------ ------- رگرسیون 6719.39 2 154.91 154.91** باقیمانده 5270.35 243 21.67 کل 11989.74 245 توجه. R2 = 0.56 ** p < 0.01 من به سادگی نمی توانم بفهمم که چگونه آزمون دوم (آزمون _t_) حتی توجیه می شود، زیرا گروه ها از متغیری ایجاد می شوند که قبلا نشان داده شده است که با DVs در آزمون های _t_ مرتبط است. . آیا این یک نتیجه گیری قبلی نیست؟ _note:_ متوجه می شوم که مطالعه به خصوص خوب نیست و با توجه به رگرسیون چندگانه، هم آزمون _t_ و هم همبستگی حتی در اینجا مرتبط نیستند، اما این صرفاً یک _مثال_ از پدیده ای است که من در مورد آن سوال می کنم. یعنی اگر قبلاً بین دو متغیر همبستگی برقرار شده باشد، آیا منطقی است که یکی از متغیرها را به صورت دلخواه در گروه‌ها قرار دهیم و تفاوت بین گروه‌ها را آزمایش کنیم. من اغلب تغییراتی را در این موضوع می بینم و نمی توانم بفهمم چرا توجیه شده است.
چرا همبستگی و تفاوت های گروهی را با استفاده از یک متغیر آزمایش کنیم؟
3586
من سعی می کنم خطر نسبی مثبت بودن آزمایش را برای افراد بالای 25 یا <=25 محاسبه کنم و نتیجه اینجاست. $data منفی مثبت مجموع >25 115 11 126 <=25 117 3 120 مجموع 232 14 246 $measure نسبت ریسک با 95% C.I. تخمین پایین بالا > 25 1.0000000 NA NA <=25 0.2863636 0.08189025 1.001391 $ p.value دو طرفه midp.exact fisher. chi.square دقیق >25 NA NA NA <387189025 0.03500415 $correction [1] FALSE attr(روش) [1] MLE بدون قید و شرط و تقریب نرمال (Wald) CI یکی از چیزهایی که من را بسیار متحیر کرد این است که چرا از مربع chi یک نتیجه از نظر آماری معنادار دریافت می کنم (I از تست دقیق فیشر استفاده نکنید زیرا هیچ یک از مقادیر مورد انتظار کوچک از 5 نیست)، اما نسبت ریسک شامل 1، چگونه می توانم توضیح دهم؟ با تشکر ### تصحیح با عرض پوزش برای اشتباه، من داده ها را دوباره بررسی کردم و هیچ یک از سلول های مورد انتظار کوچکتر از 5 نیست.
ناسازگاری بین تخمین کای اسکو و CI با استفاده از آزمون والد
106327
اجازه دهید توزیع‌های احتمال زیر را در نظر بگیریم X P Q Kullback Kullback_divergence 1 0.526810511 0.6557 -0.166341349 11.97922287 2 0.213080233 0.0357 0.5263019 0.5263019 0.8491 -0.130769473 4 0.088595233 0.934 -0.301057372 5 0.546739097 0.6787 -0.170539661 6 0.280595237 0.28057372 0.082491531 0.7431 -0.261600315 8 0.106326487 0.3922 -0.200222185 9 0.92608417 0.6555 0.46116969876 0.4616969876 2.028853203 11 0.122989593 0.706 -0.310072991 12 0.782494583 0.0318 3.615893457 13 0.03018272806 13 - 0.0301827280651510. 0.580645161 0.0462 2.120337307 15 0.632129887 0.0971 1.708443428 16 0.118564409 0.8235 -0.33515176 0.6948 0.501651889 18 0.139591662 0.3171 -0.165238155 19 0.668691061 0.9502 -0.338953731 20 0.83920.8392 3.868023675 می‌خواهم بدانم این عدد چه چیزی را به ما نشان می‌دهد؟ آیا این اطلاعات در مورد توزیع دوم بیان می‌کند؟ یا فاصله بین دو توزیع چقدر است، زیرا می‌دانم اگر از 1$ دور باشد، به این معنی است که آنها واقعاً متفاوت هستند، اما کدام است خوب و واقعی؟ لطفا به راهنمایی شما نیاز دارم
واگرایی KLDIV Kullback-Leibler یا Jensen-Shannon بین دو توزیع
105785
من مجموعه ای از داده ها دارم که میانگین سالانه حداقل و حداکثر دماهای ماهانه 32 ایستگاه در سراسر کشور از سال 1948 را دارد. طول و عرض جغرافیایی ایستگاه ها نیز آورده شده است. از من خواسته شده است که مجموعه داده ها را عمیقاً بررسی کنم و تا آنجا که می توانم تجزیه و تحلیل کنم. هدف اصلی درک روند و احتمالاً پیش‌بینی ارزش‌های آینده است. من تجربه کمی برای کار با چنین مجموعه داده ای دارم. من معمولاً دوست دارم از R استفاده کنم. من به طور خاص سه سؤال دارم. 1) می توانم ببینم که طول و عرض جغرافیایی یک ایستگاه به ترتیب 25.72 و 89.26 است. مختصات Y و X مربوطه به صورت 844822.3 و 426172.9 محاسبه می شود. من نمی فهمم آنها این را چگونه محاسبه کرده اند. کسی میتونه توضیح بده؟ 2) چه مدلی را باید در داده ها قرار دهم تا بتوانم پیش بینی خوبی از مقادیر آینده داشته باشم؟ از آنجایی که از سال 1948 داده ها را دارم، ممکن است از مدل سری زمانی استفاده کنم، اما در اینجا اطلاعات طول و عرض جغرافیایی را نیز دارم. بنابراین آیا مدلی وجود دارد که بتواند از این اطلاعات نیز استفاده کند؟ آیا بسته خاصی در R وجود دارد که برای من مفید باشد؟ 3) آیا می توانم از R برای یافتن نمودارهای جالب یافته های خود یا آمار خلاصه های مختلف در نقشه کشور استفاده کنم؟ برخی از طرح های دو بعدی یا سه بعدی برای من عالی خواهند بود. پیشاپیش از پاسخ محبت آمیز شما سپاسگزارم.
تجزیه و تحلیل داده های مکانی در طول زمان و مکان
3589
در مسئله‌ای که روی آن کار می‌کنم، دو متغیر تصادفی دارم، X و Y. باید بفهمم این دو تا چه حد با هم مرتبط هستند، اما ابعاد متفاوتی دارند. رتبه فضای ردیف X 4350 است و رتبه فضای ردیف Y در ده ها هزار نفر از نظر قابل ملاحظه ای بزرگتر است. هر دو X و Y تعداد ستون های یکسانی دارند. من به معیاری از همبستگی بین دو متغیر نیاز دارم، و r پیرسون مستلزم آن است که X و Y ابعاد مساوی داشته باشند (حداقل R مستلزم این است که دو r.v باشند). آیا من امیدوار هستم که بین این دو ارتباط برقرار کنم یا باید راهی برای هرس مشاهدات از Y پیدا کنم؟
همبستگی بین دو متغیر با اندازه نابرابر
105439
آیا می‌توانیم از پیش‌بینی‌کننده‌های ترتیبی/چندسطحی مستقیماً در مدل رگرسیون لجستیک باینری استفاده کنیم؟ من حدس می زنم نه. ما معمولاً در اینجا آنها را به چندین پیش بینی کننده تبدیل می کنیم تا مقادیر 1/0 برای هر دسته داشته باشیم. همچنین اگر متغیری با مثلاً 20 سطح داشته باشیم (مثلاً بخش هایی مانند «انرژی» «IT» «تلکام») یا فاکتورها، آیا باید برای هر نوع 20 متغیر با مقادیر 1/0 ایجاد کنیم یا راه بهتری وجود دارد؟
آیا می‌توانیم از پیش‌بینی‌کننده‌های ترتیبی یا چندسطحی مستقیماً در رگرسیون لجستیک استفاده کنیم؟
102832
من مطالعه ای انجام دادم که در آن می خواستم ببینم که آیا مداخله آموزشی بر یادگیری دانش آموزان تأثیر دارد یا خیر. دانش‌آموزان را به‌طور غیرتصادفی به دو گروه کنترل و آزمایش تقسیم کردم و در ابتدای کلاس یک پیش‌آزمون و در پایان یک پس‌آزمون گذاشتم. از آنجایی که فاکتورهای بین گروهی و درون گروهی وجود دارد، من آزمون t را انجام ندادم، بلکه آزمایشی مختلط انجام دادم (قطعات تقسیم شده-ANOVA). آیا این درست است؟ خیلی ممنون.
Split plot ANOVA یا t-test
75017
من 2 میلیون (_user_, _item_, _category_, _score_) تاپل دارم که کاربران به آیتم هایی که به دسته ها تعلق دارند امتیاز 0/1 می دهند. من می‌خواهم اینها را به مجموعه‌ای از تاپل‌های ( _user_، _category_، _affinity_)، با استفاده از آیتم‌هایی که یک کاربر و یک دسته را پیوند می‌دهند، برای محاسبه آن وابستگی تبدیل کنم. دو احتمال: * نسبت امتیازات مثبت به کل امتیازات: $a_{uc} = \frac{\sum{scores}}{|scores|}$ * میانگین بیزی: $b_{uc} = \frac{C\,\ bar{a}_{uc}\,+\,\sum{scores}}{C\,+\,|امتیازات|}$ که $C$ میانگین یا میانه تعداد مورد است امتیازات هر جفت (_user_, _category_). من به میانگین بیزی متمایل هستم، زیرا با داده های پراکنده بهتر سروکار دارد - یک رای مثبت منفرد نباید به قرابت بالاتر از نه مثبت و یک منفی منجر شود - اما می توانم از برخی تحقیقات منتشر شده در مورد این مشکل برای توجیه بیزی استفاده کنم. به طور خاص میانگین، یا برای یافتن سایر اندازه گیری های ممکن. آیا شرایطی وجود دارد که باید به دنبال آن باشم که با این مشکل برخورد کند؟
با توجه به امتیازات آیتم کاربر برای موارد طبقه بندی شده، چگونه می توان وابستگی های دسته کاربر را محاسبه کرد؟
106329
اجازه دهید $X(t)$ یک فرآیند تصادفی وابسته به زمان پیوسته غیر ثابت با یک مدل شناخته شده اما پارامترهای ناشناخته باشد. می‌خواهم بدانم آیا می‌توان پارامترهای $X(t)$ را نه با استفاده از مشاهدات مختلف یک اجرا در لحظه‌های مختلف $t$، بلکه با مشاهده اجراهای مختلف در لحظه‌های مختلف $t$ تخمین زد. آیا به همین سادگی است؟ به نظر من خیلی واضح نیست. آیا خاصیتی وجود دارد که بتوانم به آن استناد کنم؟ فرآیند تصادفی مورد بحث، انتگرال زمانی یک فرآیند Ornstein-Uhlenbeck است، اگر این مهم باشد.
برآورد پارامترهای فرآیند تصادفی غیر ثابت با استفاده از اجراهای مختلف
64991
موضوعات متعددی در CrossValidated با موضوع انتخاب مدل و اعتبارسنجی متقابل وجود دارد. در اینجا چند مورد وجود دارد: * اعتبارسنجی متقاطع داخلی و خارجی و انتخاب مدل * پاسخ برتر @DikranMarsupial به انتخاب ویژگی و اعتبارسنجی متقابل با این حال، پاسخ‌های این رشته‌ها نسبتاً عمومی هستند و بیشتر مسائل مربوط به رویکردهای خاص اعتبارسنجی متقابل و مدل را برجسته می‌کنند. انتخاب برای اینکه همه چیز تا حد امکان **بتن ریزی** باشد، مثلاً بگویید که ما با یک SVM با هسته RBF کار می کنیم: $K(x, x' ) = (\gamma \, \vert x - x'\vert) ^2$، و اینکه من مجموعه داده ای از ویژگی های **X** و برچسب های **y** دارم، و می خواهم 1. **بهترین مقادیر ممکن مدل خود را بیابم ($\gamma$ و $C$** ) 2. **آموزش SVM با مجموعه داده من (برای استقرار نهایی)** 3. **خطای تعمیم و عدم قطعیت (واریانس) را در اطراف این خطا تخمین بزنید** برای انجام این کار، من شخصا این کار را انجام می دهم. جستجوی شبکه ای، به عنوان مثال من هر ترکیب ممکنی از $C$ و $\gamma$ را امتحان می کنم. برای سادگی، می‌توانیم محدوده‌های زیر را در نظر بگیریم: * $C \in \{10, 100, 1000\}$ * $\gamma \{0.1, 0.2, 0.5, 1.0\}$ به طور خاص با استفاده از مجموعه داده کامل من من کارهای زیر را انجام می دهم: 1. برای هر جفت ($C$,$\gamma$)، تکرارهای مکرر را انجام می دهم (مثلاً. 100 تکرار تصادفی) اعتبار سنجی متقاطع $K$-fold (به عنوان مثال $K=10$)، در مجموعه داده من، یعنی SVM خود را روی تاهای $K-1$ آموزش می‌دهم و خطا را در سمت چپ ارزیابی می‌کنم، در تمام $ها تکرار می‌شود. K$ تا می شود. به طور کلی، من 100 x 10 = 1000 خطای تست را جمع آوری می کنم. 2. برای هر جفت ($C$,$\gamma$)، من میانگین و واریانس آن 1000 خطای تست $\mu_M, \sigma_M$ را محاسبه می‌کنم. اکنون می‌خواهم بهترین مدل (بهترین پارامترهای هسته) را انتخاب کنم که از آن برای آموزش SVM نهایی خود بر روی مجموعه داده کامل استفاده کنم. درک من این است که انتخاب مدلی که **کمترین میانگین خطا و واریانس** $\mu_M$ و $\sigma_M$ را داشته باشد، انتخاب درستی است و اینکه $\mu_M$ این مدل $\sigma_M$ است بهترین انتخاب من است. برآورد سوگیری و واریانس خطای تعمیم مدل هنگام آموزش با مجموعه داده کامل. اما، پس از خواندن پاسخ‌ها در تاپیک‌های بالا، این تصور را به دست می‌آورم که این روش برای انتخاب بهترین SVM برای استقرار و/یا برای تخمین خطای آن (عملکرد تعمیم)، ناقص است و راه‌های بهتری برای انتخاب وجود دارد. بهترین SVM و گزارش خطای آن. اگر چنین است، آنها چه هستند؟ من به دنبال پاسخ دقیق هستم لطفا. با چسبیدن به این مشکل، چگونه می توانم **بهترین مدل** را انتخاب کنم و **خطای تعمیم آن را به درستی تخمین بزنم**؟
انتخاب مدل و اعتبارسنجی متقابل: راه درست
104787
علیرغم خوانش‌هایم (در پشته 1، 2، یا در ادبیات (کاولی، 2010؛ جاپکوویچ، 2011))، روش روشنی برای تنظیم و ارزیابی یک مدل در یک کار طبقه‌بندی پیدا نمی‌کنم. من می‌خواهم یک **انتخاب ویژگی‌ها/پارامترها (مدل تنظیم)** را انجام دهم و پس از آن، یک **ارزیابی مدل** را با اعتبارسنجی متقاطع (k=10) روی کل مجموعه داده انجام دهم. بهترین استراتژی چیست؟ به طور مستقیم، من این مراحل را انجام می دهم: 1. مجموعه داده را در **validation_train** (60%)، **validation_test** (20%) و **test** (20%) تقسیم کنید. 2. تنظیم مدل را روی **validation_train** و **validation_test** پردازش کنید. 3. (2) را تکرار کنید تا به دقت خوبی برسید. 4. در نهایت، یک CV-10 برابر روی کل مجموعه داده پردازش کنید (validation_train، validation_test و test). یا، این استراتژی به یک امتیاز خیلی خوش بینانه منجر می شود؟ ## مرجع: * Cawley, G. C. & Talbot, N. L. در مورد تناسب بیش از حد در انتخاب مدل و سوگیری انتخاب بعدی در ارزیابی عملکرد مجله تحقیقات یادگیری ماشین، JMLR. org، 2010، 11، 2079-2107. * N. Japkowicz و M. Shah، ارزیابی الگوریتم های یادگیری: دیدگاه طبقه بندی، انتشارات دانشگاه کمبریج، 2011
تنظیم مدل و ارزیابی مدل در یادگیری ماشین
113075
من در تلاشم تا میزان مرگ و میر را برای مردان و زنان در دو گروه بیماری مختلف (دیابت نوع 1 و 2) محاسبه کنم. در تحلیل‌های اولیه‌ام فراموش کردم از جنسیت مربوطه به عنوان جمعیت پس‌زمینه استفاده کنم و در عوض از کل جمعیت استفاده کردم. اکنون مسئله این است که وقتی جمعیت پیشینه را در زنان و مردان برای دیابت نوع 1 و 2 تقسیم می کنم و از این جمعیت های مرجع (به جای کل جمعیت) استفاده می کنم، نرخ بروز برای نوع 1 به شدت تغییر می کند در حالی که حتی یک اعشار در نوع تغییر نمی کند. 2 میزان مرگ و میر آیا این حتی قابل قبول است؟ واقعاً از همه کمکی که می توانم دریافت کنم سپاسگزارم!
در نظر گرفتن نرخ‌های بروز استاندارد شده براساس سن: آیا تغییر جمعیت مرجع، نرخ‌های بروز را تغییر می‌دهد
57757
من روی پروژه ای کار می کنم تا یک مقدار حفاظت از تشعشع به نام DDREF را تخمین بزنم که نسبت دو ضریب رگرسیون است. به طور خاص: $DDREF$ $=$ $a/B$ که در آن $E$ ~ $a*D+B*D^2$ $D$ دوز است و $E$ برخی از نتایج است، مانند بقا. $a$ و $B$ ضرایبی هستند که با رگرسیون تعیین می شوند. من برآوردهای مستقلی از DDREF از بسیاری از مطالعات دارم و می خواهم آنها را در یک تخمین واحد ترکیب کنم. اما من مطمئن نیستم که چگونه این کار را انجام دهم زیرا نسبت دو ضریب رگرسیون به طور معمول توزیع نشده است. آیا کسی می داند چگونه می توان یک متاآنالیز بر روی متغیرهایی که نسبت توزیع شده اند انجام داد؟ یا شاید بهتر است این سوال کلی تر را بپرسیم که چگونه می توانم یک متاآنالیز را برای تولید یک تخمین مرکزی از متغیرهایی که به طور معمول توزیع نشده اند اعمال کنم؟
چگونه می توانم یک متاآنالیز بر روی متغیرهایی که به طور معمول توزیع نشده اند انجام دهم؟
58913
من تجزیه و تحلیل رگرسیون چندگانه انجام دادم و یک مشکل کوچک در مورد تفسیر خروجی دارم. McFadden R-Square به چه معناست، اگر 0,196 باشد. چه چیزی را به من نشان می دهد؟ آیا مک فادن بهترین راه حل است یا باید دیگرانی مانند ناگلکرکه یا کاکس و اسنل را تماشا کنم. تفاوت بین این سه مورد (در کنار ارزش) چیست؟ با تشکر
میدان مک فادن آر
104789
من مدل زیر را دارم: $$ |X| = B_0 +B_1 \cdot y + B_2 \cdot z ، $$ که $z$ و $y$ معمولاً متغیرهای تصادفی توزیع شده اند و $B_1$ و $B_2$ نشان دهنده ضرایب هستند. متغیر وابسته من حاوی مقادیر مثبت یا منفی X$ است. مقادیر مثبت و منفی $X$ با هم معمولاً با میانگین و میانه حدود صفر توزیع می شوند. به دلایل آماری می خواهم مقادیر مثبت و منفی را جداگانه آزمایش کنم. این سمت چپ و راست متغیر معمولی توزیع شده $X$ را تقسیم می کند. این به وضوح فرض نرمال بودن مورد استفاده برای مدل های رگرسیون خطی را نقض می کند. اگر بخواهم گروه ها را با هم مقایسه کنم، از یک نوع آزمون ناپارامتریک استفاده می کنم، اما در این مورد می خواهم معادل یک رگرسیون خطی را اجرا کنم. آیا این امکان پذیر است؟
متغیر مطلق به عنوان متغیر وابسته
113079
من یک مجموعه داده بیولوژیکی با 30000 ویژگی (ژن) و 1000 نقطه داده (سلول) دارم. اساساً من دو کلاس اصلی سلول دارم: 1 و 0 با توزیع 90/10. اکنون سعی می کنم با استفاده از اعتبارسنجی متقاطع تودرتو این موارد را به درستی طبقه بندی کنم. اولین کاری که من سعی کردم کاهش دستی تعداد ویژگی ها با در نظر گرفتن زیرمجموعه های مرتبط بیولوژیکی از کل مجموعه ویژگی ها (کاهش به 20 ویژگی) بود که نتایج معقولی به من می دهد (0.7 امتیاز F2). با این حال، نمی‌دانم که آیا از کل مجموعه ویژگی‌ها استفاده می‌کنم یا خیر، زیرا نقاط داده بسیار کمتری نسبت به ویژگی‌ها دارم. آیا این درست است که اگر از کل مجموعه ویژگی استفاده کنم، داده های خود را بیش از حد مناسب می کنم؟ و اگر چنین است، آیا راهی برای کاهش مجموعه ویژگی ها بدون دانش زیستی قبلی وجود دارد؟ خیلی ممنون تومی
با استفاده از SVM مجموعه بزرگی از ویژگی ها را مدیریت کنید
113078
من مجموعه ای از نقاط گسسته روی یک سطح دو بعدی دارم و باید یک نقشه حرارتی یا توزیع چگالی نقاط ایجاد کنم. با این حال، من همچنین باید چگالی/توزیع را با اعمال نوعی هسته (مثلاً هسته گاوسی) صاف کنم. من می‌دانم توزیع گاوسی چیست، و نمی‌دانم چگونه هسته گاوسی را به صورت ریاضی روی نقاط دوبعدی اعمال کنم تا بتوانم توزیع یا چگالی نقطه‌ها را صاف کنم. من می دانم که توابعی در Wolfram برای انجام این کار وجود دارد، اما این بیشتر شبیه یک مشکل تحقیقاتی است، بنابراین باید تئوری آن را درک کنم. من یک فرد تئوری هستم و نیازی به برنامه نویسی ندارم. من فقط باید ریاضیات اساسی آن را درک کنم. لطفاً آن را برای من توضیح دهید، احتمالاً با یک مثال، یا مرا به وب سایتی ببرید که بتوانم در مورد آن مطالعه کنم. * * * من این پاسخ را دریافت کردم، اما هنوز در تلاش برای درک آن هستم: > از آنجایی که نقاط گسسته هستند، شما به سادگی هسته را به هر نقطه ترجمه کنید > و آن را بر اساس ارتفاع (مقدار) در آن نقطه مقیاس کنید، و سپس جمع کنید. نتایج > > $$f(x,y)=\sum_i \sum_j p_{i,j} f(x−x_i,y−y_j)$$ که در آن $f(x,y)$ هسته من است > و $p_{ i,j}$ مقدار نقطه $(x_i,y_j)$ است. نتیجه صاف خواهد بود زیرا مجموع محدودی از توابع صاف است. با این حال، اگر ارتفاع را در هر نقطه با $f(x−x_i,y−y_j)$ ضرب کنیم، آیا اصلاً بر چگالی تأثیر می‌گذارد؟ بگویید، اگر $f(x−x_i,y−y_j) > f(x−x_p,y−y_q)$ برای دو نقطه خاص $(x_i,x_j)$ و $(x_p,x_q)$، آنگاه این تغییر خواهد کرد. چگالی اولیه نسبی در $(x_i,x_j)$ و $(x_p,x_q)$. فکر می کنم اشتباه می کنم، اما نمی توانم بفهمم چرا اشتباه می کنم. شاید چیزی در خود تابع $f(x−x_i,y−y_j)$ باشد که من اشتباه متوجه شده ام. هر گونه توضیح یا پیوند به مستندات / آموزش بسیار قدردانی می شود!
نحوه اعمال هسته گاوسی برای صاف کردن چگالی نقاط در دو بعدی (از لحاظ نظری)
104788
من داده های زیر را دارم: رتبه بندی document1 document2 5 برخی کلمات برخی کلمات 3 برخی کلمات برخی کلمات 2 برخی کلمات برخی کلمات ستون اول رتبه بندی کاربر است و دو مورد دیگر بازخورد کاربر است که یک سند است. همچنین، «دسته» فهرستی از -1 و 1 است که مخفف منفی و مثبت برای هر ردیف است. من می خواهم پیش بینی رده را انجام دهم. من به ماتریس سند-اصطلاح فکر می کنم، پس نمی دانم چگونه رتبه بندی را نیز در پیش بینی دخالت دهم؟ کسی هست راهنماییم کنه؟ خیلی ممنون
چگونه می توان با متن کاوی و امتیاز رتبه پیش بینی کرد؟
112382
بگویید من 10 سوژه دارم که از سه گروه می آیند. در هر موضوع دو اندازه گیری می کنم (یکی در سمت چپ، یکی در سمت راست). شناسه <- rep(1:10، 2) myData <- data.frame(ID) myData$Group <- rep(c('A','B'), 10) myData$Measurement <- rnorm(20، میانگین = 10، sd = 1) myData$MeasurementLocation <- c(rep('Left', 10), rep('Right', 10)) myData <- myData[with(myData, order(ID)),] با استفاده از تابع 'gee()' از بسته 'gee' در R، می توانم 'Measurement' را با ' مقایسه کنم هنگام کنترل همبستگی درون موضوعی با استفاده از «gee()»: gee(Measurement ~ Group, id = ID, data = myData) می خواهم تعیین کنید که اندازه گیری از کجا آمده است (یعنی راست در مقابل چپ). به من گفته شده است که در SPSS می‌توانید یک آرگومان «WITINSUBJECT» (که فرض می‌کنم «myData$MeasurementLocation» در داده‌های من باشد) مشخص کنید. آیا راهی برای انجام این کار با استفاده از «gee()» وجود دارد؟ اگر نه، آیا تابع/بسته دیگری وجود دارد که این امکان را فراهم کند؟
اندازه گیری های مکرر GEE: تعیین شناسه اندازه گیری
102835
این شبیه به یک سوال قبلی است که هرگز پاسخ داده نشده است... تفسیر تعاملات بین داده های طبقه بندی شده... و بسیار کوتاهتر است، بنابراین اگر بخواهید به جای آن بخوانید/به آن پاسخ دهید، مشکلی نیست: من آزمایشی را انجام می دهم که در آن وجود دارد. متغیر یک پارامتر (گام زمانی [ **tt** ] - فاکتور، 5 سطح: ساعتی، 3 ساعته، 6 ساعته، 12 ساعته، روزانه)، اضافه شده در چند متغیر کمکی (محل انتشار [ **موقعیت** ]، ماه انتشار [ **m** ]) - تا اینجای کار ساده - و دارای یک متغیر پاسخ (جایی که شروع به پیچیده شدن می کند). من سعی می‌کنم ببینم که چگونه گام زمانی بر مسیر ذره‌ای که در طول زمان ردیابی می‌شود، تأثیر می‌گذارد، اما فراتر از آن، حداکثر گام زمانی را پیشنهاد می‌کنم که می‌تواند با کمترین تأثیر بر سرنوشت ذره استفاده شود. سرنوشت ذرات مفهوم پیچیده ای است که در جهت و فاصله پس از انتشار متفاوت است، بنابراین من یک متغیر پاسخ ایجاد کرده ام که در حال حاضر یک مقایسه متحرک است - یعنی فاصله از موقعیت گام زمانی روزانه، در روز (به عنوان مثال زیر [ **day_3**) ]). این به من امکان می‌دهد روز ردیابی را از آزمون حذف کنم که کمی به موضوع سری‌های زمانی/همبستگی خودکار می‌پردازد، اما می‌دانم که باید مراقب باشم و به یاد داشته باشم که در زمان‌های مختلف به ذرات مشابه نگاه می‌کنم و احتمالاً الگوها گم می‌شوند. در طول زمان به دلیل تأثیر فزاینده عوامل تصادفی. من تصور می کنم که یک مشتق ANOVA/ANCOVA آزمون مناسبی است زیرا من به دنبال تفاوت بین گروه های نمونه هستم، بنابراین من یک lm را در R اجرا کرده ام تا از ANOVA خاص سطح عامل آن استفاده کنم - در اینجا یک نمونه خروجی آمده است: > summary( lm (day_3 ~ tt + m * مکان)) تماس: lm (فرمول = روز_3 ~ tt + m * مکان) باقیمانده ها: حداقل 1Q میانه 3Q Max -6.7523 -0.3392 -0.0836 0.2803 2.4548 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 10.7602 0.7272 14.796 < 2e-16 *** tt3 -0.1765 0.4719 -0.374 0.710065 tt6 -0.4822 tt6 -0.4822 0.4023 -0.4719 -0.4719 -1.8280 0.4719 -3.874 0.000345 *** m4 0.3378 0.9438 0.358 0.722087 m7 -9.1490 0.9438 -9.694 1.36e-9.694 1.36e-12 -12 -80 *** 1.36e-12 -40 *** 1.54e-07 *** location180 -5.2777 0.9438 -5.592 1.25e-06 *** location270 -8.6343 0.9438 -9.149 7.82e-12 *** location360 -7.3264 -7.3264 - 0.76 0.9 *** m4:location180 -4.8520 1.3347 -3.635 0.000710 *** m7:location180 5.5768 1.3347 4.178 0.000133 *** m10:location180 ** 4.1863 4.1863 180 4.1863 701. m4:location270 -0.5704 1.3347 -0.427 0.671166 m7:location270 10.3842 1.3347 7.780 7.21e-10 *** m10:location270 8.831166 8.8340 1.3347 7.21e-10 *** m4:location360 -1.8426 1.3347 -1.381 0.174234 m7:location360 6.5613 1.3347 4.916 1.22e-05 *** m10:location360 ** 3.1767 1.034-3.034. Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.335 در 45 درجه آزادی. آمار: 19.37 در 18 و 45 DF، p-value: 1.724e-15 در این مثال، از تمام مراحل زمانی، می توانید ببینید که رهگیری (ساعتی) و tt12 (12hrly) مهم است که من آن را به عنوان ساعتی متفاوت از روزانه (که یک رهگیری خواهد بود) تفسیر می کنم. صفر)، 3 ساعت و 6 ساعت هیچ تفاوتی با ساعتی ندارند و 12 ساعت با ساعتی متفاوت هستند. اما این به من نمی گوید که آیا 12 ساعت با روزانه متفاوت است؟ من دوباره تست را با مرتب کردن مجدد سطوح انجام دادم به طوری که 12hrly سطح مرجع باشد و خروجی زیر را دریافت کردم: > summary(lm(day_3 ~ tt + m * location)) Call: lm(formula = day_3 ~ tt + m * location ) باقیمانده ها: Min 1Q Median 3Q Max -6.7523 -0.3392 -0.0836 0.2803 2.4548 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 8.9322 0.7272 12.283 5.69e-16 *** tt1 1.8280 0.4719 3.874 0.000345 *** tt3 1.67015 0.4 0.67015 0.3 0.4 tt6 1.3458 0.4719 2.852 0.006538 ** m4 0.3378 0.9438 0.358 0.722087 m7 -9.1490 0.9438 -9.694 1.36 0.3378 - 12 *** -6.207 1.54e-07 *** location180 -5.2777 0.9438 -5.592 1.25e-06 *** location270 -8.6343 0.9438 -9.149 7.82e-12 *** موقعیت360 -7.394 -7.326 7.64e-10 *** m4:location180 -4.8520 1.3347 -3.635 0.000710 *** m7:location180 5.5768 1.3347 4.178 0.000133 *** m103:4.181. 0.003011 ** m4:location270 -0.5704 1.3347 -0.427 0.671166 m7:location270 10.3842 1.3347 7.780 7.21e-10 *** m10:locati
تفسیر برهمکنش سطح متغیر طبقه ای در یک مدل خطی / ANOVA
105437
آیا توصیه می شود در صورت ناقص بودن پاسخ ها، موارد را از پایگاه داده حذف کنید؟ آیا درصدی وجود دارد که بتوان آن را در نظر گرفت؟ (مثلاً حذف یک مورد در صورتی که بیش از 50 درصد موارد پاسخ داده نشده باشد).
پرسشنامه های ناقص
105430
![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/z71AL.jpg) داده های من از یک ستون دمای واقعی و یک ستون از دمای محاسبه شده تشکیل شده است. من یک عدد واحد می‌خواهم که سوگیری را در دمای واقعی کمیت کند. اساساً، اگر بیشتر نقاط داده من در زیر خط رفرنس قرار داشته باشند، باید انتظار یک سوگیری منفی را داشته باشم، و اگر آنها بالای خط قرار بگیرند، انتظار سوگیری مثبت را خواهم داشت. و این تعصب با گسترش در نمودار پراکندگی کمیت یافت. بهترین آمار برای تعیین کمیت این چیست؟ هر گونه کمکی بسیار قدردانی خواهد شد. ویرایش ها: هدف از این پروژه به دست آوردن تخمینی از تعصب در دمای تابستان به دلیل توزیع نابرابر زمین در نیمکره شمالی و جنوبی است. نیمکره شمالی حدود 68 درصد از کل خشکی روی زمین را دارد، در حالی که نیمکره جنوبی کمتر از نیمی از زمین های نیمکره شمالی (~32 درصد) را دارد. داده های دما در اینجا از شبیه سازی GCM به دست آمده است. Temp_Real از شبیه سازی با زمین واقعی و Temp_symmetric از شبیه سازی GCM با استفاده از مدل زمین متقارن به دست می آید. با مقایسه آب و هوای زمین واقعی و زمین متقارن، می‌خواهم تعصب ناشی از عدم تقارن در زمین واقعی را محاسبه کنم. این طرح پراکندگی برای نیمکره شمالی است.
محاسبه سوگیری از داده های دو متغیره
83401
آیا راهی برای بدست آوردن واریانس پیش بینی برای مدل رگرسیون خطی در R وجود دارد؟ واریانسی که من نیاز دارم $s_f^2=s^2\left(1+\frac{1}{n}+\frac{(x_{n+1}-\bar{x})^2}{\ است sum_{i=1}^n (x_i-\bar{x})^2}\right)$.
واریانس پیش بینی در R
105433
من به دنبال کمک برای تعریف مشکل خود هستم. اساساً، من دو فرآیند داده دارم (هر دو متغیر اقتصاد کلان پیوسته: $x$ و $y$). شواهدی از علیت دو طرفه بین $x$ و $y$ وجود دارد که با آزمون علیت گرنجر اثبات شده است. چیزی که من اکنون ادعا می کنم این است که $x$ و $y$ باعث یکدیگر نمی شوند، بلکه هر دو توسط یک فرآیند سوم، $z$ ایجاد می شوند، که دلیل ایجاد علت بین $x$ و $y$ است. . بنابراین، $x$ و $y$ در واقع باعث یکدیگر نمی شوند، اما هر دو به سادگی توسط $z$ ایجاد می شوند. من در مورد آن به این صورت فکر می‌کنم: $x$ و $y$ برای GC یکدیگر ظاهر می‌شوند، زیرا برخی رویدادهای $x$ قبل از رویدادهای $y$ و بالعکس می‌شوند. اما اگر یک فرآیند $z$ وجود داشته باشد که رویدادهای آن همیشه مقدم بر $x$ و $y$ باشد، $x$ و $y$ لزوما باعث یکدیگر نمی شوند. در حال حاضر، من سعی می کنم این مشکل را به درستی چارچوب بندی کنم، یعنی به دنبال تعریف آن هستم. من نتوانستم ادبیاتی در مورد این نوع خاص از مشکل پیدا کنم، اما مطمئن هستم که باید برخی از آنها وجود داشته باشد. من فرض می کنم که من به سادگی به دنبال عبارات صحیح نیستم. از این رو، سؤال ساده من (امیدوارم) این است که این پدیده چگونه نامیده می شود؟ (البته من از هر پیشنهادی در مورد ادبیات نیز استقبال می کنم)
به دنبال تعریف: علیت گرنجر با فرآیند توضیحی مشترک
58910
من در حال اجرای kmeans برای مطالعه تحقیقات بازار هستم، و چند سوال دارم: 1. آیا باید داده های خود را استاندارد کنم، و اگر چنین است، چگونه؟ به عنوان مثال، یک متغیری که من دارم تقاضای محصول است که در مقیاس هفت درجه ای اندازه گیری می شود. از طرفی من یک متغیر سنی هم دارم که مقیاس بسیار متفاوتی است. آیا باید اینها را استاندارد کنم و چگونه؟ 2. آیا می توانم از متغیرهای طبقه بندی در kmeans استفاده کنم؟ به طور خاص، من می خواهم از جنسیت و قومیت استفاده کنم. اگر ممکن است، چگونه این داده ها را برای تجزیه و تحلیل خوشه ای آماده کنم؟ فکر می‌کنم اعدادی را به آنها اختصاص می‌دهم، اما چگونه می‌توانم آنها را با سایر داده‌هایم استاندارد کنم؟ 3. من نرم افزار متن باز Cluster 3.0 را دانلود کردم. آیا این برای استفاده خوب است؟
Kmeans: آیا باید استاندارد شود؟ آیا می توانید از متغیرهای طبقه بندی استفاده کنید؟ آیا Cluster 3.0 مناسب است؟
99036
یک جمعیت $D$ وجود دارد که در آن هر نقطه داده دارای دو ویژگی $X$ و $Y$ است که به طور تصادفی توزیع شده اند. در حالی که احتمالاً دقیقاً به طور معمول توزیع نشده اند، تصور می کنم خیلی آسیب شناسی نیستند. من ابزار آنها و $s.d.$ را نمی دانم، اما احتمالا تا حدودی شبیه به هم هستند. من همچنین نمی دانم که آیا $\mu_X$ یا $\mu_Y$ بزرگتر است. من همچنین نمی دانم که آیا $X$ و $Y$ همبستگی دارند یا خیر. مجموعه دیگری از داده‌ها $D'$ وجود دارد، با دو ویژگی مشابه، اما کمی متفاوت توزیع شده است: $X'$ و $Y'$ توزیع شده‌اند. $ که در آن $c1$ و $c2$ ثابت اما ناشناخته فرض می شوند. من می توانم مستقیماً از $X$ (بدون دانستن $Y$) یا از $Y$ (بدون دانستن $X$) نمونه برداری کنم. و همچنین می‌توانم از $max(X', Y')$ نمونه‌برداری کنم که در آن شناسه‌هایی دریافت کنم که نشان می‌دهد آیا هر مقدار از $X'$ یا Y'$ می‌آید، به عنوان مثال، آیا $x' > y'$ یا $y' > x'$ برای این نقطه داده. اگرچه متغیرها اعداد واقعی هستند، اما به دلیل روش نمونه گیری گرد می شوند. در نتیجه، $x'$ و $y'$ می توانند با هم گره بخورند و در این صورت شناسه به طور تصادفی $X'$ یا $Y'$ را گزارش می کند. دو تا سوال دارم بهترین راه برای آزمایش چیست: 1. آیا $X' > X$ و $Y' > Y$؟ 2. آیا $max(X', Y')$ > $max(X, Y)$؟
چگونه می توان در برابر توزیع مختلط آزمایش کرد؟
112388
تمام ادبیات مدل‌سازی توزیع گونه‌ها نشان می‌دهد که هنگام پیش‌بینی حضور/غیاب گونه‌ای با استفاده از مدلی که احتمالات را به دست می‌دهد (به عنوان مثال، جنگل‌های تصادفی)، انتخاب آستانه احتمالی که براساس آن واقعاً یک گونه را به عنوان حضور یا غیاب طبقه‌بندی کنیم، مهم است و فرد باید همیشه به پیش فرض 0.5 تکیه نکنید. در این مورد به کمک نیاز دارم! کد من اینجاست: library(randomForest) library(PresenceAbsence) #build model RFfit <- randomForest(Y ~ x1 + x2 + x3 + x4 + x5, data=mydata, mytry = 2, ntrees=500) #در نهایت اعمال خواهم کرد این برای (پیش‌بینی برای) داده‌های جدید است، اما برای اولین بار من بازگشت به داده‌های آموزشی را برای مقایسه مشاهده‌شده با پیش‌بینی‌شده پیش‌بینی می‌کنم. RFpred <- predict(RFfit, mydata, type = prob) #قرار دادن مشاهده شده در مقابل پیش بینی شده در همان قاب داده ObsPred <- data.frame(cbind(mydata), Predicted=RFpred) #create auc.roc plot auc. roc.plot(ObsPred, threshold = 10, xlab=1-Specificity (false positives), ylab=Sensitivity (true positives), main = ROC plot , color = TRUE, find.auc=TRUE, opt.thresholds = TRUE, opt.methods = 9) از اینجا مشخص کردم که آستانه ای که می خواهم استفاده برای طبقه بندی حضور از روی احتمالات پیش بینی شده 0.7 است، نه پیش فرض 0.5. من کاملاً نمی دانم با این اطلاعات چه کنم. آیا هنگام ایجاد نقشه ای از خروجی خود به سادگی از این آستانه استفاده می کنم؟ من به راحتی می‌توانم یک خروجی نقشه‌برداری شده با احتمالات پیوسته ایجاد کنم، سپس به سادگی آنهایی را که دارای مقادیر بیشتر از 0.7 هستند، و آنهایی را که مقادیر کمتر از 0.7 وجود ندارند، دوباره طبقه‌بندی کنم. یا، آیا می‌خواهم این اطلاعات را بگیرم و با استفاده از پارامتر برش، مدل‌سازی تصادفی جنگل‌هایم را دوباره اجرا کنم؟ پارامتر قطع دقیقاً چه کاری انجام می دهد؟ آیا رای حاصل را تغییر می دهد؟ (در حال حاضر می گوید اکثریت است). چگونه از این پارامتر قطع استفاده کنم؟ من مستندات را نمی فهمم! با تشکر
چگونه آستانه طبقه بندی را در جنگل های تصادفی R تغییر دهیم؟
113387
من یک مجموعه داده با مقادیر گسسته/گرد در آن دارم. در نتیجه، هنگامی که من یک نمودار Q-Q تولید می کنم، یک الگوی پله-مورد ظاهر می شود. آیا هنوز هم می توانم این را درست مانند یک نمودار Q-Q معمولی تفسیر کنم، حتی اگر انجام آن بسیار سخت تر باشد؟ آیا محدودیتی برای تفسیر طرحی مانند این وجود دارد؟
آیا هنوز می توانم نمودار Q-Q را که از داده های گسسته/گرد استفاده می کند تفسیر کنم؟
113072
نمرات آزمون مرد 58 54 61 64 60 60 45 44 53 54 32 56 43 69 69 72 66 45 63 49 48 53 نمرات امتحان زنان 71 55 42 49 514 60 5 41 24 43 48 57 79 73 53 53 64 54 59 73 47
کدام آزمون آماری برای تعیین اینکه آیا تفاوت معنی داری در نمرات امتحانات 2 گروه (توزیع غیرعادی) وجود دارد مناسب است؟
102788
به عنوان مثال برای داده های سری زمانی 30 ساله (زمانی که معادلات هم انباشتگی متفاوتی را در آزمون هم انباشتگی یوهانسن ارائه می دهند) به کدام آزمون تکیه کنیم؟ تست ردیابی یا حداکثر مقدار ویژه؟ تست ردیابی می گوید 8 معادله هم انباشته وجود دارد. آیا این عددی است که هنگام تخمین VECM در کادر تعداد cointegrating وارد می کنیم؟ اگر عدد 1 را بگذاریم تفاوت زیادی ایجاد می کند؟ با تشکر
آزمون ردیابی یا حداکثر مقدار ویژه در آزمون همجمعی یوهانسن؟
105432
سوال من واقعاً ساده است، اما آنهایی هستند که واقعاً مرا متوجه می‌کنند :) من واقعاً نمی‌دانم چگونه ارزیابی کنم که آیا یک سری زمانی خاص قرار است با استفاده از یک روش تجزیه ضربی یا افزایشی تجزیه شود. من می دانم که نشانه های بصری برای جدا کردن آنها از یکدیگر وجود دارد، اما آنها را نمی فهمم. به عنوان مثال این سری زمانی را در نظر بگیرید: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/02pCs.png) چگونه آن را توصیف می کنید؟ پیشاپیش از کمک شما سپاسگزارم
تجزیه افزایشی در مقابل تجزیه ضربی
81616
فرض کنید من سه مدل مختلف $M_1، M_2$ و $M_3$ دارم، این مدل ها به گونه ای تو در تو هستند که $M_1 \subseteq M_2 \subseteq M_3$. من دو تست نسبت درستنمایی انجام می‌دهم، M_1$ در برابر M_3$ و M_2$ در برابر M_3$. در این مورد چگونه نرخ خطای خانوادگی را کنترل می‌کنید (با خیال راحت تصور کنید که یک زنجیره طولانی از مدل‌های تودرتو وجود دارد)؟ به طور شهودی به نظر می رسد که این آمار تست وابسته خواهد بود، زیرا $M_1$ و $M_2$ تو در تو هستند و هر دو با یک مدل $M_3$ تست می کنند. آیا مفهوم یا مقاله ای وجود دارد که این وضعیت را توصیف کند؟
چگونه FWER را هنگام آزمایش چندین مدل تو در تو با آزمون‌های نسبت درستنمایی کنترل می‌کنید؟
58918
من داده های طراحی متقاطع 3 (درمان) x3 (دوره) x6 (توالی) دارم. من از روش SAS PROC MIXED استفاده کرده ام و نتایج را با کد زیر دریافت کردم: data cross; توالی دوره درمان شناسه بازده ورودی. کارت؛ 72 1 1 1 1 73 1 2 2 1 77 1 3 3 1 75 2 2 1 2 78 2 3 2 2 70 2 1 3 2 75 3 3 1 3 77 3 1 2 3 73 3 1 2 2 68 4 3 2 4 71 4 2 3 4 80 5 2 1 5 72 5 1 2 5 80 5 3 3 5 74 6 3 1 6 76 6 2 2 6 70 6 1 3 6 58 7 1 1 4 6 7 2 3 4 64 8 2 1 5 56 8 1 2 5 60 8 3 3 5 72 9 3 1 6 69 9 2 2 6 66 9 1 3 6 76 10 2 1 2 79 10 3 2 2 65 10 10 1 1 11 2 2 1 60 11 3 3 1 71 12 3 1 3 72 12 1 2 3 75 12 2 3 3 ; PROC MIXED data=cross; توالی دوره درمان شناسه کلاسها. بازده مدل = دوره درمان دوره توالی * درمان / محلول. شناسه تصادفی (دنباله)؛ *lsmeans period/alpha=0.05 cl diff adjust=tukey; اجرا؛ نتایج: اثر DF DF F Value Pr > F دنباله 5 6 0.88 0.5479 دوره 2 16 0.24 0.7863 درمان 2 16 7.23 0.0058 درمان*دوره 4 16 3.32 0.0368 R'n'l` زیر نتایج: کد R: anova(متقاطع <- lme(بازده ~ توالی + درمان + دوره + دوره*درمان، داده = متقاطع، تصادفی = ~1| شناسه/توالی، همبستگی=NULL، روش = REML)) نتایج: numDF denDF F-value p-value (Intercept) 1 16 1086.7422 <.0001 توالی 5 6 0.5755 0.7196 درمان 2 16 7.2270 0.0058 دوره 2 16 0.2441 0.7863 درمان: دوره 4 16 3.3186 0.0368 نتایج درمان بین دوره و دوره درمان متفاوت است، اما نتایج برای دوره درمان متفاوت است. و نمیدانم چرا؟ کسی ایده ای دارد؟
نتایج متفاوت از روش SAS PROC MIXED و عملکرد R lme
75018
به طور معمول، یک فرآیند Lévy، $X_t$، برای $t\geq 0$ تعریف می شود، بنابراین $t_0=0$. من یک تبدیل روی شاخص زمان اعمال می کنم تا به جای صفر از یک مقدار منفی شروع شود. حال، آیا می توان فرآیند Lévy را با $t_0<0$ تعریف کرد؟ اگر بله، آیا می‌توانیم با این فرآیند تصادفی جدید دقیقاً مانند فرآیند Lévy همانطور که در اینجا تعریف شده است رفتار کنیم؟ آیا مرجعی وجود دارد که چنین فرآیند لوی را توضیح دهد؟ خیلی ممنون.
فرآیند لوی با شاخص زمان شروع منفی
59219
من سعی می کنم با استفاده از G*Power یک محاسبه توان انجام دهم. من به $\eta_P^2$ نیاز دارم، اما بسته ez برای R به من $\eta_G^2$ می دهد. من دلایل انجام این کار را می‌دانم، اما هنوز به $\eta_P^2$ برای محاسبه توان برای یک تکرار نیاز دارم. آیا راهی وجود دارد که بتوانم $\eta_P^2$ را از خروجی ezANOVA محاسبه کنم یا $\eta_G^2$ خود را به $\eta_P^2$ تبدیل کنم؟
محاسبه $\eta_P^2$ از $\eta_G^2$ eta عمومی برای G*Power
102785
من نتایج عجیبی در رگرسیونی دارم که سعی می کنم اجرا کنم و امیدوارم کسی بتواند در تفسیر آنها به من کمک کند. اصولاً ابتدا متغیر وابسته خود را روی مجموعه ای از رگرسیون ها که همه معنی دار بودند رگرسیون کردم، سپس یک کنترل اضافه کردم و برخی دیگر معنی دار نشدند. تا اینجا خوب بود، من آن را با یک سوگیری متغیر حذف شده توضیح دادم. مشکل این است که وقتی یک برهمکنش بین دو رگرسیور را اضافه می‌کنم، ضرایب دوباره معنی‌دار می‌شوند، در حالی که ضریب تعامل اصلاً معنی‌دار نیست. چگونه می توان این را توضیح داد؟ خیلی ممنون برای کمک!!
تعامل ناچیز متغیر مورد علاقه را معنادار می کند
27879
من یک نمونه (200=n) دارم که داده های پرسشنامه را از آن جمع آوری کرده ام. هر شرکت کننده 5 پرسشنامه را تکمیل می کند که رفتارهای مختلف را نشان می دهد و همه 5 پرسشنامه من بین 10 تا 27 مورد را شامل می شود. من قصد دارم از SEM برای ساخت مدلی استفاده کنم که بررسی کند آیا نمرات 4 پرسشنامه من (IVs) نمرات پرسشنامه پنجم (DV) را پیش بینی می کند یا خیر. IVs و DV به عنوان متغیرهای پنهان در مدل، هر کدام با تعدادی نشانگر متصل می شوند. با این حال، از آنجایی که پرسشنامه‌های من موارد زیادی دارند، می‌خواهم نوعی فرآیند کاهش را درگیر کنم تا شاخص‌های کمتری در SEM خود داشته باشم. من تعجب می کنم که منطق من چگونه است، زیرا من تازه وارد این کار هستم. آنچه من در حال حاضر در نظر دارم انجام یک تحلیل عاملی اکتشافی و سپس تحلیل عاملی تاییدی بر روی هر یک از 5 پرسشنامه به طور جداگانه برای استخراج چند عامل توسط آیتم ها است (مثلاً بگوییم که به طور جادویی هر پرسشنامه دارای 3 عامل اساسی است) . سپس نمرات مواردی را که با هر یک از 3 عامل مرتبط هستند به طور جداگانه جمع می‌کنم، بنابراین هر شرکت‌کننده اکنون 3 امتیاز از هر پرسشنامه به جای 1 نمره کل دارد. سپس 3 امتیاز، 3 شاخص مورد استفاده در مدل نهایی پیش بینی SEM را تشکیل می دهند. در مدل SEM پیش‌بینی من، 5 متغیر پنهان دارم که هر کدام روی 3 نشانگر بارگذاری می‌شوند. حدس می‌زنم سوال اصلی این است: اگر بیش از 10 مورد مرتبط با یک متغیر پنهان دارید، آیا استفاده از امتیازهای عامل مشتق شده به‌عنوان شاخص در SEM به جای موارد اصلی قابل قبول است؟
خرده مقیاس ها (نه موارد) به عنوان شاخص های متغیرهای نهفته در SEM
102786
بر اساس $N$ تحقق دو متغیر تصادفی $X \sim N(0,\sigma_X^2)$ و $Y \sim N(0, \sigma_Y^2)$ با همبستگی $\rho$، من یک روش ساده انجام دادم. رگرسیون خطی $Y = \beta_0 + X\beta_1 + \epsilon$. با استفاده از توزیع های شناخته شده $X$ و $Y$، همبستگی آنها $\rho$ و تعداد تحقق $N$، سعی می کنم توزیع نمونه ضرایب رگرسیون را بیابم. تخمین ضرایب را می توان به صورت زیر محاسبه کرد: $\hat \beta_1=r\frac{s_Y}{s_X}$ که $r$ تخمینی از $\rho$ و $s_X است، s_Y$ تخمینی از $\sigma_X است، \sigma_Y$ $\hat \beta_0=\overline{Y} - \hat \beta_1 \overline{X}$ کجا $\overline{X}، \overline{Y}$ برآوردی از میانگین $X$ و $Y$ هستند. با این حال، پس از چند فکر اضافی، دیگر مطمئن نیستم. ترسیم توزیع $\beta_1$ از 10000 اجرای آزمایشی با $N=12، \sigma_X^2=1، \sigma_Y^2=2، \rho =0.6$ (سیاه) در مقابل توزیع نرمال برازش، انحراف از نرمال توزیع دیده می شود. این همچنین در مورد تکرارهای بیشتر است (من تا 100000 را آزمایش کردم) که توزیع نرمال باید کاملاً پایدار باشد. برای جزئیات بیشتر در مورد آزمایش، زیر را ببینید. ![توزیع $\\beta_1$ از 10000 اجرای آزمایشی \(سیاه\) در مقابل توزیع عادی برازش](http://i.stack.imgur.com/CDFjN.png) یافتن توزیع خاص $\beta_0، \beta_1$ - اگر یکی باشد - تنها مرحله دوم است. در مرحله اول سعی می کنم مقدار مورد انتظار و واریانس ضرایب رگرسیون را بیابم. واضح است که $E[\hat \beta_0]= 0$ و $E[\hat \beta_1] = \rho \frac{\sigma_Y}{\sigma_X}$. با این حال، من در استخراج واریانس هر دو پارامتر مشکل دارم. من تعاریفی برای واریانس ضریب در ادبیات پیدا کرده ام. $Var[\hat \beta_0] = \frac{s_\epsilon^2\sum x_i^2}{N \sum (x_i - \overline{x})^2}$ و $Var[\hat \beta_1] = \frac{s_\epsilon^2}{\sum (x_i - \overline{x})^2} = \frac{s_\epsilon^2}{N \sigma_X^2}$. با این حال، همانطور که توسط whuber به درستی بیان شده است، این تعاریف مشروط به X$ هستند. بنابراین محاسبه فقط برای موارد خاص امکان پذیر است و بنابراین تعاریف برای مورد استفاده من قابل اجرا نیستند. در ادبیات، متوجه شدم که محدودیت در $X$ ثابت به فیشر بازمی گردد (به عنوان مثال کار او توزیع مجانبی تخمینگر رگرسیون کاهش رتبه تحت شرایط عمومی از سال 1922). با این حال، من در متون جدیدتر موردی با X$ تصادفی پیدا نکردم. من فقط ارجاعاتی به توزیع (غیر مرکزی) Wishart پیدا کردم. من مطمئن نیستم که آیا و چگونه توزیع Wishart می تواند در مورد استفاده من استفاده شود. به طور کلی، من کاملاً در مورد چگونگی استخراج واریانس در مورد توصیف شده گیر کرده ام، $Var[\hat \beta_0]، Var[\hat \beta_0]$ با $X، Y$ که متغیرهای تصادفی هستند. برای مواردی با شرطی شدن روی X$، من پاسخ های مختلفی در مورد چگونگی استخراج واریانس ضرایب رگرسیون پیدا کرده ام، به عنوان مثال http://stats.stackexchange.com/a/89155/48067. با این حال، از آنجایی که نه تنها $\epsilon_i$ یک متغیر تصادفی است، رویکرد توضیح داده شده در پاسخ به راحتی به مشکل من قابل انتقال نیست. با توجه به اینکه $\hat \beta = r \frac{cov(X, Y)}{s_X^2}= r \frac{s_Y}{s_X}$، فرض می‌کنم که توزیع‌های $r، s_Y، s_X$ ممکن است به دلایلی برای محاسبه واریانس مشکل ساز باشد. من متوجه شده ام که $s_X^2، s_Y^2$ از توزیع گاما پیروی می کنند. بنابراین $s_X، s_Y$ باید از یک توزیع گامای تعمیم یافته پیروی کنند، که دارای یک واریانس خوب تعریف شده است. با این حال، من در مورد ضریب دو متغیر تصادفی توزیع شده گامای تعمیم یافته مطمئن نیستم. $r$ یک توزیع اریب دارد که می توان از تبدیل فیشر استفاده کرد - اما مطمئن نیستم که آیا این به محاسبه واریانس کمک می کند یا خیر. در نهایت، کوواریانس نمونه توزیع عجیبی دارد، تقریباً مانند توزیع گامای جابجا شده. به طور کلی، من قبلاً اطلاعاتی در مورد توزیع ویژگی های نمونه ها به دست آورده ام. با این حال، من راهی برای استفاده از این اطلاعات برای استخراج واریانس ضرایب نمونه در مورد استفاده خود پیدا نکرده‌ام. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟ -- برخی از جزئیات بیشتر در مورد شبیه سازی من، همانطور که درخواست شده است: * نمونه هایی با اندازه N (به عنوان مثال N=12) از $X \sim N(0, \sigma_X^2)$ و $Y \sim N(0) گرفته شده است. ,\sigma_Y^2)$ (به عنوان مثال $\sigma_X^2 = 1$, $\sigma_Y^2 = 2$) به طوری که نمونه ها دارای یک ویژگی خاص باشند همبستگی $\rho$ (به عنوان مثال $\rho = 0.6 $). این با استفاده از دو متغیر تصادفی غیر همبسته $A, B \sim N(0,1)$ و ساخت یک متغیر جدید (همبسته) به صورت $C = \rho^2 A + \sqrt{1- \rho^2 به دست می‌آید. } B$ و تصحیح واریانس $A$ و $C$ به منظور داشتن $X$ و $Y$ * رگرسیون $Y$ در $X$ اجرا می شود که منجر به ضرایب $b_0$ و $b_1$ * مراحل یک و دو تکرار می شوند (مثلا 10000 بار) * توزیع حاصل از $b_0$ و $b_1$ حاصل از اجراها تجزیه و تحلیل می شود توزیع های حاصل از آخرین مرحله توزیع های برای که من می خواهم
توزیع نمونه گیری از ضرایب رگرسیون برای متغیرهای تصادفی با توزیع نرمال
112387
من سعی می کنم یک مدل SV را با قیمت های یورو/دلار اجرا کنم. برای کسانی که با SV آشنایی ندارند، این یک مدل نوسان است که در آن هر نقطه پارامتر نوسان خود را $h_t$ با 3 پارامتر اصلی که با استفاده از شبیه‌سازی مونت کارلو (MCMC) به دست می‌آید، دریافت می‌کند، * $\mu$ = میانگین نوسانات در سراسر کل مجموعه نمونه * $\phi$ = وزنی که نوسانات آخرین نقطه در نوسانات بعدی (پیش بینی شده) دارد * $h_t$ = جدیدترین - {time نوسانات interval}. * $\sigma$ = نوسانات نوسان هنگامی که $\mu$، $\phi$، و $h_t$ داشته باشیم، می‌توانیم $h_{t+1}$ را پیش‌بینی کنیم، یعنی نوسانات پیش‌بینی‌شده نقطه بعدی، توسط $h_{t+1} \sim \text{Normal}(\mu+\phi(h_t-\mu)، \sigma)$. نمی‌دانم که آیا قسمت بعدی را به درستی انجام می‌دهم: برای عملی کردن این موضوع، هر 5 دقیقه یک MCMC اجرا می‌کنیم، آن متغیرها را جمع‌آوری می‌کنیم و $h_{t+1}$ را پیش‌بینی می‌کنیم. این منجر به نموداری مانند این می شود، برای قرارداد آتی CME 6EU4 (یورو سپتامبر) با BBand های 5 دوره ای نیز نمایش داده می شود. اشکالی که در نمودار ظاهر می شوند را نادیده بگیرید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QrNaj.jpg) به نظر نادرست است، بنابراین مطمئن نیستم که کار اشتباهی انجام می دهم یا خیر. آیا من فرآیند را به درستی درک کردم؟ 'phi' برای نیمه اول روز حدود 0.55 است، سپس به 0.95 می‌پرد و همانجا می‌ماند، که اشتباه به نظر می‌رسد، اما حدس می‌زنم با توجه به داده‌ها، خیلی تعجب‌آور نیست... بسته R's stochvol در حال مراقبت از تخمین پارامتر، بنابراین فرض کنید که خود اعداد دقیق هستند. آیا باید قیمت‌های میانگین وزنی حجمی 5 دقیقه‌ای را اینجا بچسبانم؟ یک مجموعه داده نسبتا طولانی است. من آن را ویرایش می کنم تا این کار را انجام دهم.
نوسان تصادفی یک قدم جلوتر برای قیمت های VWAP 5 دقیقه ای
113380
من در حال بررسی برخی از مقالات مرتبط با عملکرد مدرسه با پیشینه اقتصادی-اجتماعی هستم: * http://archive.treasury.gov.au/documents/1421/HTML/docshell.asp?URL=05%20How%20much%20of%20the%20 تنوع%20در%20سواد%20و%20حساب%20میتوان%20میباشد%20توضیح%20با%20مدرسه%20عملکرد.htm * http://www.bristol.ac.uk/cmpo/publications/papers/2012/wp287.pdf * http://datatopics.worldbank.org/hnp/files/edstats/KHMimp09b.pdf این مقالات از رگرسیون کوارتیک برای قدرت توضیحی تحلیل رگرسیون آنها را افزایش می دهد، اما به نظر نمی رسد که بگوید چرا یک کوارتیک یک انتخاب طبیعی است. چرا این نویسندگان به طور خاص از یک رابطه چهارگانه استفاده می کردند؟ البته این می‌تواند یک انتخاب متعارف برای این حوزه مطالعاتی خاص باشد، اما من نمی‌توانم بلافاصله ببینم که این مورد است. من علاقه مند هستم که چه زمانی باید روابط چهارگانه به طور کلی بررسی شود.
توجیه پیشینی برای استفاده از رگرسیون کوارتیک
113384
من می‌خواهم کل انرژی مصرفی را بر اساس وزن و جنسیت کاهش دهم. آیا بهتر است جنسیت را به عنوان یک متغیر ساختگی در نظر بگیریم یا معادلات رگرسیونی جداگانه برای مردان و زنان پیدا کنیم؟
رگرسیون با استفاده از متغیر ساختگی
99030
من اغلب در استنباط بیزی به این موضوع برخورد می‌کنم که برای تشویق پراکندگی، باید توزیع احتمال دم سنگین را به عنوان قبلی انتخاب کنیم. AFAIK، در توزیع دم سنگین، احتمال بیشتری وجود دارد که یک متغیر تصادفی مقادیر بزرگ یا شدید به خود بگیرد. اکنون برای یک متغیر تصادفی چند متغیره $\bf{x}$، برای پراکندگی آن به این معنی است که بیشتر ورودی‌های $\bf{x}$ باید $0 باشد، پس چگونه می‌تواند یک توزیع سنگین کار کند؟ آیا به این معنی است که برای هر ورودی در $\bf{x}$ (مستقل از یکدیگر) یک توزیع سنگین وجود دارد و احتمال مشترک اکثر ورودی ها $0$ زیاد است؟ اگر چنین است، چرا یک توزیع معمولی گاوسی مناسب نیست؟
توزیع دنباله دار منجر به متغیر تصادفی پراکنده می شود؟
27872
من در حال مطالعه یک دوره یادگیری ماشین هستم و اسلایدهای سخنرانی حاوی اطلاعاتی هستند که به نظر من با کتاب توصیه شده در تضاد است. مشکل به شرح زیر است: سه طبقه‌بندی کننده وجود دارد: * **طبقه‌بند A** عملکرد بهتری را در محدوده پایین‌تر آستانه‌ها ارائه می‌کند، * **طبقه‌بند B** عملکرد بهتری را در محدوده بالاتر آستانه‌ها ارائه می‌کند، * ** طبقه‌بندی‌کننده C** چیزی که با چرخاندن یک p-coin و انتخاب از بین دو طبقه‌بندی به دست می‌آوریم. ** عملکرد طبقه‌بندی‌کننده C، همانطور که در منحنی ROC مشاهده می‌شود، چگونه خواهد بود؟** اسلایدهای سخنرانی بیان می‌کنند که فقط با چرخاندن این سکه، ما می‌خواهیم *بدنه محدب** جادویی طبقه‌بندی‌کننده A را بدست آوریم و منحنی ROC B. من این نکته را نمی فهمم **فقط با ورق زدن یک سکه، چگونه می توانیم اطلاعات کسب کنیم؟** **اسلاید سخنرانی**![اسلایدهای سخنرانی](http://i.stack.imgur.com/Scvo3.png) ** کتاب می گوید** کتاب توصیه شده ( _داده کاوی... نوشته ایان اچ ویتن، ایبه فرانک و مارک ای. هال_) از سوی دیگر بیان می کند که: > برای دیدن این موضوع، یک مورد خاص را انتخاب کنید. برش احتمالی برای روش A که به ترتیب نرخ مثبت و نادرست tA و fA را می دهد و برش دیگر > برای روش B که tB و fB را می دهد. اگر از این دو طرح به صورت تصادفی > با احتمالات p و q استفاده کنید، که در آن p + q = 1، آنگاه نرخ مثبت صحیح و > نادرست p را دریافت خواهید کرد. tA + q. tB و p. fA + q. fB. این نشان دهنده > نقطه ای است که روی خط مستقیم قرار دارد و نقاط (tA, fA) و (tB, fB) را به هم می پیوندد، > و با تغییر p و q می توانید کل خط بین این دو نقطه > را ردیابی کنید. در درک من، آنچه کتاب می‌گوید این است که برای به دست آوردن اطلاعات و رسیدن به بدنه محدب، باید کاری پیشرفته‌تر از ورق زدن یک سکه p انجام دهیم. AFAIK، راه صحیح (همانطور که در کتاب پیشنهاد شده است) به شرح زیر است: 1. ما باید یک آستانه بهینه Oa برای طبقه بندی A پیدا کنیم. 2. باید یک آستانه بهینه Ob را برای طبقه بندی B پیدا کنیم. < Oa، از طبقه بندی A با t * اگر t > Ob، از طبقه بندی B با t استفاده کنید * اگر Oa < t < Ob، بین طبقه بندی A با Oa و B با Ob توسط احتمال به عنوان یک ترکیب خطی از جایی که ما بین Oa و Ob قرار داریم. **آیا این درست است؟** اگر بله، چند تفاوت کلیدی در مقایسه با آنچه که اسلایدها پیشنهاد می کنند وجود دارد. 1. این یک چرخش سکه ساده نیست، بلکه یک الگوریتم پیشرفته تر است که به نقاط و انتخاب های دستی نیاز دارد که بر اساس منطقه ای که در آن قرار می گیریم. 2. هرگز از طبقه بندی A و B با مقادیر آستانه بین Oa و Ob استفاده نمی کند. **می توانید این مشکل را برای من توضیح دهید** و **در صورتی که درک من درست نبود راه صحیح درک آن چیست**؟ ** چه اتفاقی می‌افتد اگر به سادگی یک p-coin را مانند اسلایدها ورق بزنیم؟ ** من فکر می‌کنم که یک منحنی ROC بین A و B داشته باشیم، اما هرگز بهتر از بهتر نیستیم. در یک نقطه معین تا جایی که من می بینم، من واقعاً نمی فهمم که چگونه اسلایدها می توانند درست باشند. محاسبه احتمالی سمت چپ برای من منطقی نیست. **به روز رسانی:** مقاله نوشته شده توسط نویسنده اصلی که روش بدنه محدب را اختراع کرده بود پیدا کردم: http://www.bmva.org/bmvc/1998/pdf/p082.pdf
ترکیب طبقه بندی کننده ها با چرخاندن یک سکه