_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
32673
فرض کنید من در حال آزمایش اثربخشی یک ماشین جدید هستم. میزان موفقیت دستگاه فعلی 20 درصد است، یعنی به ازای هر صد ویجت تولید شده، 20 ویجت قابل فروش است. اکنون یک نمونه اولیه جدید توسعه داده ام و می خواهم بدانم که آیا عملکرد بهتری دارد یا خیر. علاوه بر این، سرمایه گذاری در ماشین جدید تنها زمانی منطقی است که 10٪ بهتر باشد، یعنی 22٪ میزان موفقیت. بنابراین من آزمایشی را تنظیم کردم و این داده ها را جمع آوری کردم: ماشین موفق می شود --------------------------------- n1 k1 اصلی نمونه اولیه n2 k2 فرض کنید * `alpha` = 5% * `beta` = 20% * من می خواهم از کوچکترین اندازه نمونه ممکن استفاده کنم. درک من این است که به طور معمول من یک آزمون تفاوت نسبت‌های دو دنباله می‌خواهم. اما این آزمایش فقط به من می‌گوید که آیا این دو ماشین عملکرد متفاوتی دارند، نه اینکه یکی 10٪ یا بیشتر بهتر است. چگونه می توانم تعیین کنم که از چه اندازه نمونه استفاده کنم، آزمون(های) مناسبی که باید استفاده شود کدام است، و چگونه می توانم میزان تفاوت را گزارش کنم؟
روش صحیح تعیین میزان اختلاف بین دو نسبت چیست؟
62229
من سعی می کنم بفهمم از کدام نوع ICC برای محاسبه خطای اندازه گیری MY با استفاده از یک ابزار ارزیابی خاص استفاده کنم: پس زمینه و داده ها: فقط فاز امکان سنجی PhD. 10 جفت ویدیو از افرادی که کارهای روزانه را انجام می دهند. برای ارزیابی خطای اندازه‌گیری، ویدیوها 3 بار امتیاز گرفتند. برای کاهش اثر یادگیری، ویدئوها به‌طور تصادفی امتیازدهی شدند. یک رتبه دهنده وجود دارد (من). هر جفت کار = یک ارزیابی کامل برای هر نفر. داده های خطی از یک ارزیابی که دو مقیاس را به دست می دهد (نمرات خام به نرم افزاری می رود که از تجزیه و تحلیل راش استفاده می کند و داده ها را به لاجیت تبدیل می کند). نمرات خام (36 مهارت با امتیاز 1،2،3 یا 4) می تواند مورد استفاده قرار گیرد، اما نه به تنهایی، برای تکمیل مناسب است. من زمان محدودی برای جمع آوری داده ها دارم، بنابراین 10 تنها کاری است که می توانم انجام دهم. من به دنبال چیزی ساده، مناسب و دقیق هستم. من خوشحالم که 2 یا 3 آمار مختلف را برای اندازه گیری دقیق ثبات امتیازی خود انجام می دهم. من مطالعات قابلیت اطمینان درون ارزیاب را خوانده ام که مشابه هستند، اما فقط یک بار، (و نه دو بار، همانطور که من انجام داده ام)، با استفاده از ICC 1 و ICC 1،2، همچنین مطالعات با چندین ارزیاب و امتیازدهی ویدئویی 5 بار که از ICC استفاده شده است، مجددا آزمایش کرده ام. نسخه 3.1 ثابت پاسخ ها و توصیه ها با سپاس و قدردانی دریافت شد.
قابلیت اطمینان درون ارزیاب و خطای ارزیابی - از کدام نوع ICC استفاده شود؟ ارزیاب مفرد
100140
این سوال بعدی است چگونه بسته های آیتم را در SPSS Amos ایجاد کنیم؟ سوال من این است که چگونه می توان بسته های اقلام را برای فاکتوری که یک بعدی نیست ایجاد کرد. چندین مقاله ذکر کرده اند که انجام بسته بندی اقلام تنها زمانی انجام می شود که عامل یک بعدی باشد. من EFA را اجرا کردم و متوجه شدم که این فاکتور سه بعدی است. تعداد کل اقلام 10 است. هدف اصلی از انجام بسته بندی اقلام، ساخت مدل صرفه جویی است. بنابراین، اگر تک‌بعدی ضروری است، ممکن است لازم باشد راه دیگری برای ساده‌تر کردن مدل پیدا کنم.
چگونه بسته های اقلام را برای فاکتوری که تک بعدی نیست ایجاد کنیم؟
32677
من باید بابت عدم تجربه ام عذرخواهی کنم اما امیدوارم کسی بتواند مسائل را برای من روشن کند. من علاقه مندم که به تغییر در عملکرد روانی اجتماعی در طول زمان نگاه کنم و آن را بین افراد مبتلا به اختلال شخصیت مرزی، اختلال شخصیت دیگر و بدون اختلال شخصیت مقایسه کنم. تمرکز اصلی من بر عملکرد روانی اجتماعی (PF) است، اما همچنین می‌خواهم نشان دهم که بهبودی کامل (رفع علائم به علاوه بهبود عملکرد) سخت‌تر از بهبودی علائم به تنهایی است. بنابراین من قصد داشتم ANOVA اندازه گیری های مکرر را انجام دهم. مجموعه داده من از متغیرهای زیر تشکیل شده است: * PF در 4 نقطه زمانی اندازه گیری می شود (PF1، PF2، PF3 و P4). * علائم در 4 نقطه زمانی (S1، S2، S3، S4) اندازه گیری می شود. * سپس می توانم متغیر نتیجه دیگری را در زمان 4 محاسبه کنم که بازیابی است (بله یا خیر). * و یک متغیر نتیجه دیگر برای بهبودی (بله یا خیر). سه گروه وجود دارد: BPD، OPD و NPD. برای آزمایش **فرضیه اول** خود قصد داشتم آنالیز واریانس با اندازه گیری های مکرر را انجام دهم تا ببینم آیا تغییر در PF برای گروه BPD کمتر از سایر گروه ها است یا خیر. این به اندازه کافی ساده به نظر می رسد. با این حال، **هدف دوم** من این است که کجا گم می شوم. من در مورد اینکه چگونه می توانم میزان بهبودی کمتر از میزان بهبودی را آزمایش کنم و گروه ها را در این مورد مقایسه کنم گیر کرده ام. من فرض می‌کنم که دستیابی به بهبودی برای گروه BPD دشوارتر از بهبودی خواهد بود (یعنی نرخ‌ها به‌طور قابل‌توجهی متفاوت خواهد بود)، در حالی که گروه NPD نرخ بهبود و بهبودی مشابهی خواهد داشت، و OPD جایی در این بین خواهد بود. من نمی دانم که چگونه می توان بدون استفاده از رویکرد مدل های ترکیبی به این امر دست یافت. متأسفانه به دلایلی که خارج از کنترل من است (و تحت کنترل سرپرستانم) نمی توانم آن مسیر را طی کنم، اما با این وجود نمی توانم. باید تا جایی که می توانم تحلیل را ساده نگه دارم.
اندازه گیری های مکرر ANOVA
74586
من قبلاً این سؤال را اینجا پرسیدم، اما مطمئن نیستم که کجا بهتر است آن را بپرسم؟ این ممکن است یک سوال احمقانه به نظر برسد اما من واقعاً در مورد آن گیج هستم. طبق قانون بیز ما موارد زیر را داریم: $$p(\theta|X)=\frac{p(\theta)p(X|\theta)}{\int{p(\theta)p(X| \theta)d\theta}}$$من می‌دانم که تابع چگالی احتمال به طور کلی می‌تواند بزرگ‌تر از یک باشد، اما به نظرم می‌رسد زیرا جمع‌های مجزای انتگرال مخرج وجود دارد که بزرگ‌تر از نام‌گذار است، بنابراین تابع چگالی احتمال خلفی نمی تواند در هر نقطه ای بزرگتر از یک باشد. این درسته؟! برای توضیح جزئی تر استدلال: فرض کنید ما به $p(\theta=\theta_0|X)$ علاقه مندیم و می دانیم که: $$\int{p(\theta)p(X|\theta)}d \theta\approx\sum\limits_{n}{p(\theta_i)p(X|\theta_i)}$$ اما اکنون فقط جمع بندی هایی را در نظر بگیرید که شامل $p(\theta_0)p(\theta_0|X)$. سپس مخرج آشکارا بزرگتر از مخرج خواهد بود.
آیا توزیع پسین برای یک متغیر پیوسته می تواند بزرگتر از یک باشد؟
100145
من دو مدل مختلف برای اندازه گیری ریسک (متغیر طبقه بندی) یک متغیر خاص دارم. من می خواهم این دو روش را از نظر آماری با هم مقایسه کنم تا بفهمم چقدر در محاسبات ریسک آنها تفاوت دارند. بنابراین، برای مثال، من فقط سه متغیر خواهم داشت، A (که ریسک برای آن محاسبه می شود)، متغیر B و C (متغیر طبقه بندی برای ریسک از دو مدل). B & C دارای مقادیر High، Low و Medium خواهد بود. آیا می توانید مدل های آماری خوبی برای انجام این کار در صورت امکان پیشنهاد دهید؟
مقایسه دو مدل مورد استفاده برای محاسبه ریسک یک متغیر؟
77580
من تعدادی تابع هدف دارم مانند: y1 = a11* x11 + a12*x11*x11+ a13*x12+....... y2 = a21* x21 + a22*x21*x21+ a23*x22+...... ::::: :::: ::::: اینها توابع چندگانه هستند. با این حال، محدودیت های توابع هدف به یکدیگر وابستگی دارند. چیزی شبیه به x11+ x21 + x22 <const1 x12 + x21 > const2 ::::: ::::: راه بهینه سازی چنین سیستم معادلاتی چیست؟ من در حالت ایده آل می خواهم از R برای انجام همین کار استفاده کنم؟ y1 = 0.32 x1 + 0.21 x1*x1 + 0.49 x2... y2... y3. . . معادلاتی که من دارم یک تابع غیر خطی است. اینها معادلات رگرسیون غیر خطی یا مدلهای غیرخطی ترکیبی بازار هستند. x عبارتند از هزینه تلویزیون، هزینه دیجیتال و غیره. من می‌خواهم همه این مدل‌ها را «شامل» کنم، از برخی محدودیت‌ها برای آنها استفاده کنم و هزینه‌ها را در همه مدل‌ها با توجه به محدودیت‌هایی مانند...x1 (خرج تلویزیون) < 100، تلویزیون بهینه کنم. + هزینه دیجیتال < 500. من می خواهم بتوانم بگویم که از مقدار 100 باید خرج کنم، 30 برای مدل 1، 20 برای مدل 2 (معادله 2) و غیره
بهینه سازی توابع هدف چندگانه با محدودیت ها
76775
چگونه برای داده های نامتعادل انتخاب مدل انجام دهیم؟ چند نقطه داده از کل مجموعه داده باید برای انتخاب مدل انتخاب شود؟ چند تا برای آموزش و تست؟
انتخاب مدل برای داده های نامتعادل
6170
من سعی می کنم داده های فروش آینده را برای محصولاتی که حجم فروش بسیار پایینی دارند مدل کنم. من یک برنامه نویسی هستم که در آمار و ارقام ضعیفی دارم، بنابراین اگر این سوال ساده لوحانه است پیشاپیش عذرخواهی می کنم! سوال من این است که کدام توزیع برای پروفایل فروش من مناسب تر است و آیا می توان توزیع را تأیید کرد. چارچوب دقیق مشکل این است که ممکن است محصولی داشته باشیم که مثلاً 6 واحد موجودی داشته باشد و ممکن است 8 واحد در سال با انحراف استاندارد 5 واحد بفروشیم (یعنی فروش یکجا است، بنابراین ما یک انحراف استاندارد را محاسبه می کنیم، اما واقعاً توزیع عادی نیست)... می خواهیم با احتمال مشخصی بگوییم چند روز از موجودی ما باقی مانده است. برای محصولات با حجم بالا، می‌توانیم توزیع نرمال را فرض کنیم و پس‌انداز کردن موجودی روزهای باقی مانده بسیار آسان است. با این حال، برای محصولات کم حجم، نمی‌توانیم توزیع نرمال را در نظر بگیریم (چون بدیهی است که محدود به این واقعیت است که ما نمی‌توانیم کمتر از 0 فروش داشته باشیم). من به پواسون نگاه کرده ام، اما مطمئن نیستم که مناسب ترین است یا خیر. آیا کسی می تواند منابعی را به من معرفی کند که به من کمک کند مدل/تکنیک مناسب برای استفاده را شناسایی کنم؟ ممنون، مایک
توزیع/روش مناسب برای تخمین نقاط داده
32678
من تا حدودی تصور معقولی از اینکه معنی های جهت دار در زمینه آمار فضایی چیست دارم، اما از استفاده از این اصطلاح در بخش روش های این مقاله زیست شناسی محاسباتی (تاکید از من) گیج شده ام: > مقادیر ES خام برای محاسبه نرمال شده اند. برای تعداد متغیر shRNA ها > در ژن های مختلف با تقسیم ES خام بر **میانگین جهت** > یک توزیع تهی مطابق با اندازه تولید شده توسط 100000 جایگشت تصادفی > یک مجموعه سنجاق سر با همان اندازه. برای جمع‌بندی بخش مربوطه: فرض می‌شود که میانگین جهت توزیع به‌دست‌آمده از مجموعه‌ای از امتیازات (بدون بردار) محاسبه شود. چگونه می توان میانگین جهت را از مجموعه ای از مقادیر (یا تابع چگالی مرتبط) دریافت کرد؟ **ویرایش:** یک بخش از اطلاعاتی که _می تواند مرتبط باشد: مقادیر امتیازی که توزیع آنها رسم می شود و میانگین جهت آنها قرار است استخراج شود، از طریق یک آزمون خوب بودن برازش اعمال می شود که برای زیرمجموعه ای از موارد استفاده می شود. مقادیر (مجموعه سنجاق سر) از کل لیست رتبه بندی شده (داده های ریزآرایه، تبدیل به لیستی از مقادیر بیان دیفرانسیل). من همچنین شک دارم که جنبه فضایی داده های ریزآرایه بتواند نقشی در اینجا ایفا کند (این مدت طولانی است که از طریق پیش درمان حذف شده است).
معنی جهت دار در این زمینه چه می تواند باشد؟
24601
اگر باقیمانده‌های Martingale نشان می‌دهد که پیش‌بینی‌کننده X$ فرض خطرات متناسب را نقض می‌کند، اما باقیمانده‌های Schoenfeld نشان می‌دهد که اینطور نیست... به کدام یک باید اعتماد کنید؟
باقیمانده های Martingale و باقیمانده های Schoenfeld
35324
من یک سری زمانی نسبتاً طولانی از فراوانی سالانه ($N_t$) گونه حیات وحش (73 سال فراوانی) دارم. برای پیش بینی مسیر جمعیت، از مدل سازی ARIMA استفاده کرده ام. بررسی ACF و PACF سری‌های زمانی متفاوت مرتبه اول نشان داد که یک چرخه 10 ساله وجود دارد. بنابراین من از یک فاصله فصلی 10 برای توضیح این الگوی دوره ای استفاده کردم. بنابراین، متغیر پاسخ این بود: $$ Y_t=(\sqrt{N_t}-\sqrt{N_{t-1}})-(\sqrt{N_{t-10}}-\sqrt{N_{t-11 }}) $$ به طور معمول، من از تبدیل لگاریتمی استفاده می‌کردم، اما منجر به باقیمانده‌های ناهمسان شد. بررسی ACF و PACF $Y_t$ یک ساختار فصلی ضربی را نشان داد، بنابراین من با مدل مطابقت دارم: $$ ARIMA(0,1,1)(0,1,1)_{10} $$ با استفاده از بسته پیش‌بینی در ` R`....`کتابخانه(پیش بینی)`. کد مثال برای برازش مدل: m1=Arima(y,order=c(0,1,1),seasonal=list(order=c(0,1,1), period=10), include.mean=FALSE) باقیمانده‌های این مدل به طور معمول توزیع شده‌اند، همبستگی خودکار ندارند و هم‌سیداست. من از مدل برازش شده از بالا برای کارهای شبیه‌سازی اضافی با استفاده از تابع «شبیه‌سازی.آریما» استفاده کرده‌ام. با این حال، من می‌خواهم شبیه‌سازی را با یک سری زمانی متفاوت آغاز کنم. تابع arima.sim این اجازه را می دهد، اما به نظر نمی رسد تابع arima.sim مدل های فصلی ARIMA را مدیریت کند. با تابع «simulate.Arima» می‌توان از گزینه «future=TRUE» برای شبیه‌سازی مقادیر «آینده به داده‌ها و مشروط به داده‌ها» در مدل «m1» استفاده کرد. آیا می توان داده های موجود در شی مدل «m1» را به سادگی جایگزین کرد تا شبیه سازی مشروط به داده های مختلف ایجاد شود؟ به عنوان مثال: # یک شی مدل جدید برای شبیه سازی ایجاد کنید. m.sim=m1 # داده های موجود در شی مدل را با داده های جدید جایگزین کنید. m.sim$x=new # شبیه سازی مشروط به داده های جدید. sim.forecasts=replicate(1000,simulate.Arima(m.sim,future=TRUE,bootstrap=TRUE))
شبیه سازی های ARIMA را با سری های زمانی مختلف راه اندازی کنید
76779
در اینجا یک مشکل فرضی مشابه با مشکلی وجود دارد که من با آن مشکل دارم: بیوپسی های سرطان پروستات بر اساس الگوی گلیسون (0-10) نمره گذاری می شوند. مقیاس ترتیبی است. بیش از 7 ضمانت جراحی دارد. بیماران در معرض خطر سرطان پروستات با بیوپسی های سریالی در فواصل نامنظم دنبال شدند. داده‌های ما شامل یک سری بیوپسی (تاریخ و نتیجه) برای بسیاری از بیماران (یعنی 1000 نتیجه برای 100 بیمار)، همراه با ویژگی‌های بیمار است که ممکن است بر خطر تأثیر بگذارد مانند جنسیت، تاریخ تولد (یعنی سن)، نژاد و غیره. چه مدل‌هایی را می‌توان تخمین زد. با این داده ها می توان احتمال گلیسون > 7 را در بیوپسی بعدی پیش بینی کرد؟ یا اگر ساده تر باشد، چه مدلی می تواند امتیاز گلیسون را در بیوپسی بعدی پیش بینی کند؟ به طور شهودی باید آخرین نتایج بیوپسی، زمان پس از آخرین بیوپسی و سایر خصوصیات بیمار را در بر گیرد. من به طور کلی از R استفاده می کنم. از مقالات، بسته ها و غیره مربوطه قدردانی می شود. پیشاپیش ممنون
مدل پیش بینی از داده های پانل ترتیبی
24604
در https://github.com/OpenMDAO/OpenMDAO-Framework/issues/599 بیان شده است که طراحی آزمایشی لاتین Hypercube غیر مربعی به خوبی تعریف نشده است (من فرض می کنم که برای ابعاد بالاتر، یعنی هایپرمکعب باید در هر یک طول یکسان داشته باشد. بعد). من تعجب می کنم که چرا اینطور است. آیا نمی توان مثلاً یک طرح LHC داشت که در آن هر ردیف در هر بعد دارای _یک یا چند_ نمونه باشد، و فضای نمونه نسبتاً یکنواخت نمونه برداری شده باشد، بدون همبستگی بین متغیرها؟ من حدس می‌زنم که این در واقع ساخت یک ابرمکعب از یک ابرمستطیل است، اما آیا دلیلی وجود دارد که کار نکند؟ به عنوان مثال، من یک سری پارامتر دارم که می خواهم آنها را در یک مدل فیزیکی تغییر دهم. برخی 4 ایالت دارند، برخی فقط دو ایالت. آیا می توانم یک ابر مکعب بسازم که در آن پارامترهایی که فقط دو حالت دارند فقط آن حالت ها را تکرار کنند (به طوری که با هر یک از این دو حالت دو مدل اجرا شود)؟ در مورد انجام همین کار با پارامترهای 4-، 3- و 2-state چطور؟ آیا می توانم یک طرح LHC بسازم که در آن طول هر بعد برابر با کوچکترین مضرب مشترک تعداد حالات برای هر پارامتر (یعنی 12) باشد؟
آیا هایپرمکعب لاتین غیر مربعی قابل اجرا هستند؟
55251
به من گفته شده است که متغیر وابسته را در رگرسیون کوتاه نکنم، اما نمی دانم چرا. منطقی است که من نباید نمونه خود را بر اساس نتیجه انتخاب کنم، اما این چه فرضی را نقض می کند؟ آیا آنها دلیلی نظری دارند که چرا من نباید این کار را انجام دهم؟ با تشکر به روز رسانی: منظور من از تر و تمیز کردن است. در سمت راست معمول است (حداقل در اقتصاد مالی) که مشاهدات را با 0.5٪ تا 1٪ در هر دو دنباله کنار بگذارید یا کوتاه کنید. به من گفته شده است که انجام همین کار در سمت چپ تابو است. اما دقیقاً دلیل آن را نمی دانم. من مشکل خاصی در ذهن ندارم، فقط متوجه شدم که _چرا_ واقعی را نمی‌دانم، غیر از اینکه شما نباید بر اساس نتیجه انتخاب کنید.
چرا نمی توانم متغیر وابسته را در یک رگرسیون برش دهم؟ یا می توانم؟
74589
اجازه دهید $X_1, \dots , X_n \sim \mathrm{N}(\mu,\sigma^2)$. $\sigma^2$ شناخته شده است. ما می خواهیم $\mathrm{H}_0: \mu = 0$ در مقابل $\mathrm{H}_1: \mu > 0$ را آزمایش کنیم. برای نسبت احتمال دریافت کردم: $\Lambda_1 = \exp(\frac{n(\mu_0^2 - \mu_1^2)}{2 \sigma^2}) \cdot \exp(\frac{\mu_1 - \ mu_0}{\sigma^2} \cdot \sum x_i)$. جایی که جمله اول ثابت است. امیدوارم این درست باشد. اکنون می دانیم که برای مقدار مورد انتظار نمونه تصادفی معمولی $T(X_{1:n} = \sum X_i)$ یک آمار کافی است. من باید $\Lambda_1$ را به عنوان تابعی از $T$ بازنویسی کنم که به من $\Lambda_2$ می دهد. آیا اکنون می توانم $\sum x_i$ را در $\Lambda_1$ با $T$ مبادله کنم؟ سوال دیگر این است که در مورد منطقه رد $\Lambda_1$ و $\Lambda_2$ چه می توانم بگویم، با توجه به اینکه $\mu$ صفر یا بزرگتر است. نمیدونم منظور اینجا چیه...
نسبت احتمال برای توزیع نرمال
79023
برای محاسبه حجم نمونه برای تست 1 نسبتی در Minitab، باید توان و نسبت مقایسه را وارد کرد. لطفاً کسی می تواند تعریفی برای نسبت مقایسه ارائه دهد؟
مقایسه p در محاسبه اندازه نمونه برای آزمون 1 نسبت در Minitab چیست؟
77583
برای حل مشکل زیر به راهنمایی نیاز دارم. حرکت یک ربات خاص با HMM مدل سازی می شود. ربات در یک مسیر دایره ای حرکت می کند و در هر مرحله زمانی، یا با احتمال $\epsilon$ در همان مکان می ماند یا با احتمال $1-\epsilon$ (CCW) به مکان بعدی حرکت می کند. هر مکان راهرو از $1$ تا $N$ برچسب گذاری شده است و ربات دارای یک حسگر است که نشان می دهد مکان فعلی دارای برچسب اصلی است یا خیر. سنسور با احتمال $\delta$ به درستی کار می کند. مشخص است که ربات از یک مکان غیر اصلی شروع به کار می کند. با توجه به احتمال قرائت صحیح حسگر $\ از من خواسته می شود که میانگین تعداد مراحل را برای چگالی فیلتر $p(x_i|y_{1:i})$ برای رسیدن به حداکثر مقدار (حالت) مساوی یا بزرگتر از %90 بیابم. دلتا = 0.99 دلار. من با این مشکل گیر کرده‌ام، اما یک راه تحلیلی ممکن برای حل آن که به ذهن من می‌رسد این است که میانگین تعداد مراحل $i$ را بررسی کنم که در آن $p(x_i|y_{1:i})$ به حالت $0.9$ می‌رسد. یا بزرگتر به عنوان یک متغیر تصادفی. سپس محاسبه مقدار مورد انتظار $i$، یعنی $E[i]$ باید پاسخ من را بدهد. مشکل این است که من مطمئن نیستم که آیا این را می توان با این روش حل کرد یا خیر و من مشکوک هستم که راه بسیار آسان تری برای حل آن وجود دارد که من نمی بینم. من به دنبال هر نکته یا نظری در مورد درستی یا نبودن طرز فکرم هستم. این یک سوال تکلیف است و بنابراین من فقط به دنبال نکات هستم. پیشاپیش ممنون
مدل پنهان مارکوف: میانگین مراحل لازم برای رسیدن به تراکم فیلترینگ به یک مقدار معین
38986
من 60000 داده دارم و حدود 45 درصد از آنها گم شده و مقادیر از دست رفته تصادفی هستند. آیا می توانم به سادگی از حذف لیستی یا جفتی استفاده کنم یا باید از imputation استفاده کنم؟ اگر انتساب توصيه مي شود، كدام تخصيص بهترين است؟
آیا باید از مقدار گمشده با استفاده از روش‌های حذف یا حذف لیستی یا زوجی استفاده کنم؟
77584
من باید یک مدل را با استفاده از اعتبارسنجی مدل خارجی تأیید کنم و یک سوال دارم در مورد تصمیم گیری در مورد اینکه چه زمانی کاهش R^2$ در مقایسه با $R_{prediction}^2$ قابل توجه است. **افشای**: این یک سوال تکلیف نیست. من به دنبال توضیح در مورد چیزی هستم که در کتاب درسی است که برای کلاس رگرسیون کاربردی استفاده می کنم (کتاب درسی: دوره دوم آمار: تحلیل رگرسیون). من مدلی دارم که هدف آن پیش‌بینی $y$ از مجموعه‌ای از متغیرهای کمکی است. مدل قبلاً مناسب بوده است و من می‌خواهم مدل را با استفاده از داده‌های جدید تأیید کنم. کتاب درسی من موارد زیر را بیان می‌کند: **از کتاب درسی من** یک تکنیک ساده این است که درصد تغییرپذیری در داده‌های جدید را که با مدل توضیح داده شده است محاسبه کنیم، که نشان داده شده $R_{prediction}^2$، و مقایسه آن با ضریب تعیین $R^2$ برای برازش حداقل مربعات مدل نهایی. اجازه دهید $y_1، y_2، ...، y_n$ مشاهدات $n$ مورد استفاده برای ساخت و برازش مدل رگرسیون نهایی را نشان دهند و $y_{n+1}، y_{n+2}، ...، y_{n +m}$ مشاهدات $m$ را در مجموعه داده جدید نشان می دهد. سپس $$R_{prediction}^2= 1 - \left(\frac{\sum\limits_{i=n+1}^{n+m}\left(y_i - \hat{y_i}\right)^2 }{\sum\limits_{i=n+1}^{n+m} \left(y_i - \bar{y} \right)^2}\right)$$ کجا $\hat{y_i}$ مقدار پیش‌بینی‌شده برای $i$th مشاهده با استفاده از تخمین $\beta$ از مدل برازش شده است و $\bar{y}$ میانگین نمونه داده‌های اصلی است. اگر $R_{prediction}^2$ با کمترین مربعات مناسب با $R^2$ مقایسه شود، ما به سودمندی مدل اطمینان بیشتری خواهیم داشت. با این حال، اگر کاهش قابل توجهی در $R^2$ مشاهده شود، باید در مورد استفاده از مدل برای پیش‌بینی در عمل محتاط باشیم. (صفحه 316) **سوال من** متأسفانه، این تمام کتاب درسی در مورد استفاده از این تکنیک است و من نمی دانم چگونه می توانم تعیین کنم که آیا افت قابل توجهی رخ داده است یا خیر. برای مدل من R^2$ 0.8283 است و با استفاده از تکنیک توضیح داده شده در متن، R_{prediction}^2$ محاسبه شده از 0.7444 دارم. آیا کسی می تواند من را به سمت منابع دیگری راهنمایی کند که بتوانند روش تعیین اینکه آیا این کاهش قابل توجه است یا خیر ---من چندین جستجو در گوگل انجام دادم اما نتایج هیچ چیز مفیدی پیدا نکردند. ممنون از اینکه وقت گذاشتید و سوال من را خواندید.
اعتبار سنجی مدل خارجی با استفاده از داده های جدید برای پیش بینی: افت R^2$ چقدر قابل توجه است؟
77586
تفاوت بین شهود پشت توزیع گاما و وایبول چیست؟ آیا رابطه ای بین دو تراکم وجود دارد؟ لطفا کمک کنید.
توزیع Weibull v/s توزیع گاما
24600
آیا تابعی در R برای محاسبه دترمینان تعمیم یافته یک ماتریس منفرد وجود دارد؟ (مشابه 'ginv()' که برای محاسبه معکوس تعمیم یافته استفاده می شود)
تعیین کننده تعمیم یافته مور-پنروز
24607
آیا راه خوبی برای اندازه گیری همواری یک سری زمانی در R وجود دارد؟ به عنوان مثال، -1، -0.8، -0.6، -0.4، -0.2، 0، 0.2، 0.4، 0.6، 0.8، 1.0 بسیار هموارتر از -1، 0.8، -0.6، 0.4، -0.2، 0، 0.2، است. -0.4، 0.6، -0.8، 1.0 اگرچه میانگین و استاندارد یکسانی دارند انحراف اگر تابعی وجود داشته باشد که در یک سری زمانی به من نمره صاف بدهد، خیلی خوب خواهد بود.
چگونه صافی یک سری زمانی را در R اندازه گیری کنیم؟
77585
من در حال کار برای تقریب، برای برون یابی مقادیر یک تابع از چند مقدار شناخته شده هستم. این چیزی است که من دارم: 1. کمتر از 100 جفت ورودی/خروجی شناخته شده. 2. یک همبستگی مثبت یکنواخت.en 3. چیزی که دقیقاً دوجمله ای گوسی، پواسون یا معکوس نیست. در حال حاضر می توانم بین الگوریتم ژنتیک و شبکه عصبی مصنوعی یکی را انتخاب کنم. اگر از یک الگوریتم ژنتیک استفاده کنم، از آن برای تقریب رابطه با یک چند جمله ای یا یک تابع گویا استفاده خواهم کرد. اگر از شبکه عصبی استفاده کنم، به سادگی اولین نتیجه Google را برای یک کتابخانه C++ NN پیدا خواهم کرد (مگر اینکه به من توصیه دیگری شده باشد). اینجا سوالات من است. فرض کنید من به مدت زمان طولانی (حداکثر 1-2 هفته) و همچنین قدرت محاسباتی عالی (خوشه های دانشگاهی) دسترسی دارم. 1. آیا می توانم با یک GA یا یک ANN به تقریب نزدیک تری دست پیدا کنم؟ 2. کدام یک سریعتر خواهد بود؟ 3. برای متخصصان ANN: من با دنیای فناوری ANN آشنا نیستم. اگر من به دنبال قابلیت حمل، برنامه ریزی، سرعت و سازگاری برای چنین برون یابی هستم، کدام جعبه ابزار C++ را پیشنهاد می کنید؟ متشکرم.
GA یا ANN و پیشنهادات
22736
من کارشناس آمار نیستم اما به اعتبار استدلال زیر علاقه مند بودم. کسی استدلال کرد که بسیاری از افراد حرف J را در حروف اول خود دارند. آیا کسی می‌تواند درباره اعتبار روش زیر و نحوه بهبود آن نظر دهد، به ویژه اینکه فهرستی از نام‌های اصلی که بر اساس محبوبیت مرتب شده‌اند، از چه توزیع احتمالی پیروی می‌کنند؟ * * * طبق ویکی‌پدیا، متداول‌ترین نام‌های کوچک مردان در ایالات متحده بر اساس سرشماری سال 1990، به ترتیب عبارتند از: > > 'جیمز'، 'جان'، 'رابرت'، 'مایکل'، 'ویلیام'،' دیوید، «ریچارد»، «چارلز»، «جوزف»، > و «توماس» بیایید از یک توزیع احتمال تقریبی استفاده کنیم (آیا راه بهتری؟) که احتمالات این نام ها را بر اساس ترتیب آنها می دهد (از 0 شروع می شود) به شرح زیر: > P(name_i) = 0.15 / (i + 2) این یک توزیع احتمال برای حداقل 1000 نام (مجموع) است. به 1)، و به این صورت شروع می شود: > 0.0749، 0.0499، 0.0374، 0.0299، 0.0249، ... یعنی کسی 7.49 درصد احتمال دارد که جیمز نامیده شود. مجموع احتمالات داشتن نامی که با J شروع می شود از این لیست 14% است (P(James)+P(John)+P(Joseph))، اجازه دهید آن را _Pj_ بنامیم. البته Pj در واقع بالاتر است زیرا تعداد نام‌های بیشتر از این 8 تا در لیست 1000 تایی ممکن است با J شروع شود. حالا فرض می‌کنیم به یک کودک سه اسم داده می‌شود، احتمال اینکه حداقل آنها با J شروع شوند pj **36 است. %**!! (از (1-(1-pj)^3)). بنابراین هر بار که با یک شخص جدید ملاقات می کنید، یک سوم شانس دارید که او را با یک J در کارت ویزیت خود ببینید. بیایید این احتمال را pIj بنامیم، احتمال حداقل یک اولیه که با J شروع می شود. با این حال، وقتی می گویید اکثریت قاطع، فرض کنیم منظور شما 8 از 10 است. احتمال این که از 10 نفری که در یک ردیف ملاقات می کنید، 8 نفر دارای یک نامی که با J شروع می‌شود، با استفاده از توزیع دوجمله‌ای، فقط **0.5%** می‌ترسم، توسط comb(10,8) _pIj^8_ (1-pIj)^2. با این حال، اگر با 5 ما از 10 تسویه حساب کنید، شانس شما به **16٪ ** افزایش می یابد. * * * FYI سوال اصلی و پست را می توانید در اینجا پیدا کنید.
احتمال ملاقات با افرادی که حروف اول آنها دارای J است
52522
من یک سوال سریع دارم: اگر نمودارهای تشخیصی را با یک رگرسیون R رسم کنم، چند نفر از آنها Standardized Residuals را به عنوان محور y خود دارند مانند این نمودار: ![توضیح تصویر را اینجا وارد کنید](http://i .stack.imgur.com/kZwaM.png) سوال من این است: ** باقیمانده ها روی چه مواردی استاندارد شده اند؟** یعنی فرض کنیم در مدل من وجود دارد 100 مقدار پیش بینی شده از این رو 100 باقیمانده. 1. باقیمانده استاندارد شده $e_i$ به صورت $(e_i - \bar e)/s_e$(باقی مانده تحقق یافته - میانگین تمام 100 باقیمانده تحقق یافته)/(انحراف استاندارد همه 100 باقیمانده تحقق یافته) تعریف می شود؟ 2. از آنجایی که هر $e_i$ باقیمانده خود یک مقدار محقق شده از توزیع تحقق های ممکن برای این باقیمانده $e_i$ است، آیا این باقیمانده $e_i$ با میانگین $\bar e_i$ و واریانس $\text{ نرمال می شود. Var}(e_i)$ (بر خلاف میانگین و واریانس سایر مقادیر 1 تا 100 همانطور که در بالا توضیح داده شد)؟ من سعی کردم اسنادی را پیدا کنم که این تمایز را روشن کند، اما نتوانستم اسنادی را بیابم که شک و تردید وجود داشته باشد. هر گونه کمکی برای پاسخ به این سوال و ارائه نکاتی در مورد چگونگی یافتن چنین پاسخ هایی از طریق مستندات در آینده بسیار قدردانی خواهد شد.
باقیمانده های استاندارد شده در خروجی lm R
38987
در شکل می بینیم (رجوع کنید به _کمترین زاویه_ p30، Efron، Hastie، Johnstone، Tibshirani - پیوند: رگرسیون کمترین زاویه) که رابطه مستقیمی بین: * LASSO T هنجار مطلق $\beta$: $T(\ بتا) = \sum_j\vert\beta_j\vert$ * و تعداد مراحل $k$ محاسبه شده توسط LARS. من سعی می کنم یک رابطه ریاضی یا حداقل مستقیم بین هر دو LASSO T و LARS k پیدا کنم، مانند $A = B$ یا $A = x \Rightarrow B = f(x)$.
رابطه بین LASSO T و LARS تعداد مراحل k
4527
من در حال بررسی استفاده از تابع survreg در R برای تجزیه و تحلیل آزمایش فعلی خود هستم. آیا کسی می داند که ستون Value در خروجی تابع چیست؟
خروجی Value Survreg در R چیست؟
77634
من در حال تدریس یک درس آمار پایه هستم و امروز تست کای دو استقلال دو دسته و تست همگن را پوشش می دهم. این دو سناریو از نظر مفهومی متفاوت هستند، اما می توانند از آمار و توزیع آزمون یکسانی استفاده کنند. در آزمون همگنی، مجموع نهایی برای یکی از دسته‌ها به عنوان بخشی از خود طرح فرض می‌شود - آنها تعداد آزمودنی‌های انتخاب شده برای هر گروه آزمایشی را نشان می‌دهند. اما از آنجایی که آزمون مجذور کای حول شرطی کردن همه مجموع‌های حاشیه‌ای می‌چرخد، هیچ پیامد ریاضی برای تمایز بین آزمون‌های همگنی و آزمون‌های استقلال با داده‌های مقوله‌ای وجود ندارد - حداقل زمانی که از این آزمون استفاده می‌شود هیچ نتیجه‌ای وجود ندارد. سوال من این است: آیا هیچ مکتبی از تفکر آماری یا رویکرد آماری وجود دارد که تحلیل های متفاوتی را به همراه داشته باشد، بسته به این که آیا ما برای استقلال (که در آن همه حاشیه ها متغیرهای تصادفی هستند) یا یک آزمون همگنی (جایی که یک مجموعه از حاشیه ها هستند) آزمایش می کنیم. تنظیم شده توسط طراحی)؟ در حالت پیوسته، بگویید که ما $(X,Y)$ را در یک موضوع مشابه مشاهده می کنیم، و استقلال را آزمایش می کنیم، یا $(X_1، X_2)$ را در جمعیت های مختلف مشاهده می کنیم و اگر آنها از توزیع یکسانی هستند، روش را آزمایش کنید. متفاوت است (تحلیل همبستگی در مقابل آزمون تی). چه می شود اگر داده های طبقه بندی شده از متغیرهای پیوسته گسسته آمده باشند؟ آیا آزمون های استقلال و همگنی باید قابل تشخیص نباشد؟
تست استقلال در مقابل تست همگنی
52525
من از یک نظرسنجی برای جمع آوری اطلاعات در مورد صدمات متحمل شده در حین تمرین و رقابت در ژیمناستیک استفاده کردم. من داده های شمارشی در مورد آسیب ها دارم که چیزی شبیه به این است: حلقه های طاق طبقه ... سر 33 45 7 گردن 43 19 17 شانه 21 39 25 ... ... ... ... انگشتان پا 16 9 3 می خواستم ببینید آیا رابطه ای بین قسمت آسیب دیده بدن و تجهیزات مورد استفاده وجود دارد یا خیر. فکر می‌کردم که استفاده از تست مربع کای برای استقلال کارساز باشد، اما فکر می‌کنم به مشکل برخوردم. وقتی شرکت کنندگان نظرسنجی را پر کردند، توانستند پاسخ های متعدد را بررسی کنند. به عنوان مثال، اگر شخصی در حین اجرای خرک مجروح می شد، می توانست هم سر و هم گردن خود را آسیب ببیند و هر دو در شمارش آسیب دیده می شدند. بنابراین یک آسیب به دو سلول کمک کرد. من انجام آنالیزهای جداگانه برای هر قسمت از بدن را در نظر گرفته ام اما فکر نمی کنم دقیقاً به سؤال من پاسخ دهد. آیا راه دیگری برای مقابله با این مشکل یا آزمون آماری متفاوتی وجود دارد که ممکن است کارساز باشد؟
تست استقلال متغیر با داده های شمارش و نقض فرض
38983
اگر «X» یک متغیر تصادفی غیرمنفی است که نشان‌دهنده عمر یک جزء دارای تابع توزیع «F» است، و S تابع بقا است و «T» یک متغیر تصادفی غیرمنفی است که نشان‌دهنده زمان تا یک رویداد گونه‌ای است. نتیجه این انتگرال چیست؟ $$ \int_0^x \int_0^t S(u) du dt + \int_x^\infty \int_t^\infty S(u) du dt $$
انتگرال تابع بقا
31804
فرض کنید $X_1$ ~ $uni(0,1)$ $X_2$ ~ $uni(0,1)$ $X_3$ ~ $uni(0,1)$ و $Y=0.1X_1+0.3X_2+0.6X_3 $ F(Y)$ (یعنی CDF) چیست؟
مجموع توزیع های یکنواخت
24605
من می خواهم یک مجموعه مدل آب و هوا ایجاد کنم، با استفاده از روش هایپرمکعب لاتین، 5 پارامتر (واقعی، توزیع یکنواخت بین دو مقدار) را آزمایش کنم. مشکل این است که من مطمئن نیستم چند تکرار می خواهم انجام دهم. آیا انجام یک هایپرمکعب لاتین از 20 نمونه و سپس دیگری از 10 نمونه قابل اجرا است؟ چگونه می توانم مطمئن شوم که 30 نمونه به طور نسبی توزیع شده اند؟ یا آیا می توان LHC های 10 اندازه و چندتایی انجام داد؟ یعنی 3 یا 4 نمونه LHC با اندازه 10 انجام دهید، مطمئن شوید که هر LHC مستقل از بقیه است؟
حجم نمونه مطالعه Hypercube لاتین را افزایش دهید؟
34885
من یک مجموعه داده بزرگ دارم که به دلایل زیر وزن دارد: 1. احتمال متناسب با اندازه نمونه، و 2. طبقه بندی نامتناسب. من می خواهم میانگین ها را برای دو حوزه مختلف در یک نمونه با استفاده از میانگین وزنی و برآوردهای واریانس مقایسه کنم. فکر می‌کنم می‌توانم با استفاده از تقریب دلتا واریانس تابعی از متغیرهای تصادفی ادامه دهم: $$ {\rm V}(\mu_1 - \mu_2) = {\rm V}(\mu_1) + {\rm V}(\ mu_2) - 2{\rm Cov}(\mu_1, \mu_2) $$ اما من نمی‌توانم هیچ سابقه‌ای یا راه‌حل متفاوتی برای این مشکل در ادبیات پیدا کنم. همچنین نتوانستم سؤال دیگری در این انجمن پیدا کنم که به این مشکل خاص بپردازد.
آزمون فرضیه تفاوت میانگین دامنه با داده های وزنی
17137
آیا کسی می تواند یک کتاب درسی را معرفی کند که همان موضوعات احتمال و آمار نوشته مایکل جی ایوانز و جفری اس. روزنتال را پوشش دهد؟ به نظر من این کتاب درسی خاص بسیار ضعیف و مختصر نوشته شده است.
جایگزینی برای کتاب احتمالات و آمار چیست و همان مطالب را در بر می گیرد؟
104131
من در تلاش برای درک مدل احتمال Fellegi-Sunter برای مشکل پیوند رکورد هستم. من پایان نامه را در آدرس زیر دنبال می کنم: http://www.inf.ed.ac.uk/publications/thesis/online/IM080663.pdf تا در مورد مدل بیاموزم. با توجه به درک فعلی من، این مدل مسئله پیوند را به عنوان یک مسئله طبقه بندی کنترل می کند که در آن جفت های رکورد $(a,b)$ داریم که فاصله آنها به عنوان بردار فاصله $\gamma(a,b)=(\gamma_1(a, b)،...،\gamma_K(a,b))$ و $M(a,b)$ به عنوان متغیر باینری که نشان می دهد آیا جفت $(a,b)$ مطابقت صحیحی دارد یا خیر. اگر من تمام مکانیسم را به درستی درک کنم، باید چیزی شبیه به مشکل طبقه بندی ساده بیز باشد. من سعی کردم آن را با استفاده از یک شبکه بیزی مدل کنم، جایی که ما رکوردهای $N$ داریم، $q$ یک احتمال قبلی کوچک برای هر $M_i$ برای نشان دادن تطابق صحیح است و $\theta_1،...،\theta_K$ عبارتند از بردارهای پارامتر با پیشین های یکنواخت، برای هر فاصله $\gamma_1،...\gamma_K$. مدل به شکل زیر است: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/R20PQ.png) از آنجایی که داده ها دارای برچسب های تطابق ناسازگاری با $M_i$ نیستند، باید کد را اجرا کنیم. الگوریتم EM به منظور تخمین حداکثر احتمال برای پارامترهای $\theta_1,...,\theta_K$. سوال من این است که آیا این مدل برای این مشکل اتصال رکورد درست است؟ من نتوانستم یک مدل گرافیکی مناسب برای این مشکل پیدا کنم بنابراین برای پاسخ به اینجا مراجعه کردم. پیشاپیش ممنون
یک مدل گرافیکی برای پیوند رکورد Fellegi-Sunter
70001
فرض کنید من یک سری زمانی دارم که تعداد بازدیدکنندگان یک وب سایت را نشان می دهد، بنابراین هر مقدار غیر منفی است. به عنوان مثال: [100، 120، 40، 200، 1000، 1400، 1300، 1500] در این مورد مشخص است که وب سایت در روزهای گذشته شلوغ تر بوده است. به طور مشابه، [2000، 1000، 100، 100، 50، 70، 20، 30، 20، 30] نشان می دهد که ترافیک در وب سایت در حال کاهش است. روش خوبی برای محاسبه مقداری در محدوده [0، 1] برای نشان دادن این موضوع چیست؟ علاوه بر این، با فرض اینکه این دو سریال متعلق به دو سایت مختلف هستند، چگونه می توانم یکی را با دیگری مقایسه کنم؟ (من فرض می کنم نوعی نرمال سازی باید روی نتایج انجام شود، آیا این درست است؟) پیشاپیش متشکرم.
شناسایی فعالیت جاری یک سری زمانی
22731
**روش:** به 15 شرکت کننده کلیپ های سمعی و بصری ارائه کردم. شش کلیپ مختلف ارائه کردم و برای هر کلیپ ناهماهنگی احساسی بین اطلاعات دیداری و شنیداری وجود داشت. این ترکیب ها عبارت بودند از: * منفی دیداری با مثبت شنیداری * منفی بصری با شنیداری خنثی * مثبت بصری با منفی شنیداری * مثبت بصری با خنثی شنیداری * خنثی بصری با منفی شنیداری * خنثی بصری با مثبت شنیداری از شرکت کنندگان خواستم قضاوت عاطفی داشته باشند. کلیپ شاد، عصبانی یا خنثی بود. پنج بار تکرار شد. **سوال تحقیق**: آیا شرکت کنندگان هنگام تماشای نمایش هایی با اطلاعات احساسی نامتجانس توسط اطلاعات دیداری یا شنیداری در انتخاب های احساسی خود هدایت می شوند؟ **تحلیل پایه:** چون هیچ پاسخ درست فی نفسه برای محرک های ناسازگار وجود نداشت، من تمایل به پاسخ صحیح را زمانی که احساسات به صورت شنیداری یا بصری ارائه می شد محاسبه کردم. این تمایل با کم کردن نسبت پاسخ‌های «صحیح شنیداری» از نسبت پاسخ‌های «صحیح بصری» برای شش شرط ناسازگار برآورد شد. به عنوان مثال، اگر نمایشگر نامتجانس منفی دیداری را با اطلاعات مثبت شنیداری ترکیب کند و شرکت کنندگان پاسخ دهند که این یک تعامل منفی است، آنگاه به عنوان پاسخ بصری محاسبه می شود. شاخص های تخمین زده شده از 1 (شرکت کنندگان همیشه به اطلاعات بصری به درستی پاسخ می دادند) تا -1 (شرکت کنندگان همیشه به اطلاعات شنیداری به درستی پاسخ می دادند) متفاوت بود. در زیر یک شکل تولید شده در R است که میانگین امتیازات تمایل را با نوارهای خطای استاندارد نشان می دهد. داده ها در اینجا موجود است - ستون ها شرایط، ردیف ها - امتیازات گرایش را برای هر شرکت کننده نشان می دهند. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/9cAsP.png) اکنون، برای رسیدن به نقطه، دو سوال دارم: > **سوال 1: ** بهترین راه برای تفاوت های مهم بین آن کلیپ های مختلف را بررسی کنید؟ من می دانم که می توانم به سادگی یک سری از 30 تست t زوجی را اجرا کنم، اما به نظر نمی رسد راه حل خوبی باشد. فکر نمی‌کنم بتوانم از ANOVA در اینجا استفاده کنم - نمی‌دانم چگونه می‌توانم سطوح را برای همه آن شرایط ناسازگار تعریف کنم. شاید بتوانم این داده ها را به روش دیگری سازماندهی کنم، اما واقعاً مطمئن نیستم که چه خواهد بود. > **سوال 2:** آیا راه بهتری برای تجسم این موضوع وجود دارد؟ من طرح فوق را دوست ندارم - در واقع واقعاً آن را دوست ندارم. خواندن افسانه بزرگ بسیار سنگین است، و همچنین الگوهایی که هر شرایط را متمایز می کنند. من می توانم به جای آن از رنگ استفاده کنم، اما صادقانه بگویم کمی کور رنگ هستم، بنابراین ترجیح می دهم از آن اجتناب کنم. **ویرایش** _سوال 1_ من تصمیم گرفتم فقط 6 جفت را که نوع اطلاعات ناهمخوان یکسانی داشتند با استفاده از آزمون t زوجی مقایسه کنم. برای به دست آوردن تفاوت ها به نوعی خوب کار می کند. _سوال 2_ توسط @AndyW و @gung به خوبی پاسخ داده شده است - من تصمیم گرفتم از نوارهای SE خالص با جهت عمودی محور x استفاده کنم. با استفاده از `segplot()` در R انجام شد - من باید جزئیات را تغییر دهم، اما تقریباً ایده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9wvAN.png)
تجزیه و تحلیل و تجسم پاسخ شرکت کنندگان به شرایط خاص
70008
من تعدادی سری زمانی دارم که از همان داده های اساسی مشتق شده اند. با این حال، داده‌ها در هر یک از منبع متفاوتی می‌آیند، بنابراین ممکن است کمی عقب مانده یا غنی شده باشند، اما اساساً همان داده‌های اساسی را نشان می‌دهند. آیا می توان فهمید که یکی از این سریال ها عجیب و غریب و با تاخیر شدید یا خارج از خط است؟ به عنوان مثال، تصور کنید که مشترک داده‌های بازار برای یک سهام از 5 ارائه‌دهنده مختلف هستید و سعی می‌کنید بفهمید کدام یک به روشی پویا کند است. با این حال، قیمت سهام بسیار قطعی است، بنابراین مشکل کمی ساده‌تر می‌شود. در مورد من، من روی داده‌هایی کار می‌کنم که منبع واحدی برای بررسی ندارند.
تعیین سری زمانی فرد
70006
در رشته من، سایکوفیزیک/روانشناسی تجربی، گاهی برای هر موضوعی معیارهای زیادی جمع آوری می شود. سپس برای هر آزمودنی یک مدل برازش داده می شود و با پارامترهای تخمین زده شده گاهی یک آزمون سراسری مانند آزمون t یا ANOVA برای رسیدن به نتیجه انجام می شود. به نظر می رسد که این رویکرد گاهی نتیجه گیری های اشتباهی را به همراه دارد و من می خواستم مراجعی را بدانم که قبلاً به این نکته اشاره کرده اند. در زیر یک مثال اسباب‌بازی: فرض کنید می‌خواهم بدانم رنگ یک شی (قرمز یا سبز) روی دید آن تأثیر می‌گذارد یا خیر. برای اندازه‌گیری دید، یک شی کوچک را در صفحه کامپیوتر ارائه کردم و از سوژه خواستم گزارش دهد که آیا می‌تواند یا نمی‌تواند شی را ببیند. پس از پاسخ او، من یک شی کوچک دیگر و غیره را نمایش می دهم. من از چهار سایز مختلف و دو رنگ استفاده کردم و آنها را به صورت تصادفی ارائه کردم. هر سایز و رنگ 50 بار ارائه شده است. این یک نتیجه احتمالی آزمایش است: ![نمونه اسباب بازی نتایج](http://i.stack.imgur.com/3ou12.jpg) هر پانل داده های یک موضوع را نشان می دهد. محور y فراوانی گزارش‌های «بله، دیدم» است. منحنی‌ها توزیع‌های نرمال تجمعی هستند که با استفاده از مدل‌های خطی تعمیم‌یافته برازش می‌شوند و خطوط عمودی میانگین تخمینی توزیع‌های زیربنایی هستند. فواصل اطمینان از تناسب نشان می دهد که رنگ بر روی دید برای هر موضوع تأثیر می گذارد. برای سوژه های 1،2 و 3 رنگ سبز آسان تر است. برای سوژه های 4،5 و 6 قرمز راحت تر است. با توجه به اینکه رنگ به طور یکسان روی هر موضوعی تأثیر نمی گذارد، ممکن است اگر از میانگین توزیع های برازش شده برای انجام آزمون t استفاده کنم، معنی دار نباشد. بنابراین گاهی اوقات در رشته من، بر اساس نتایج آزمون t، به این نتیجه می رسد که رنگ بر روی دید تأثیر نمی گذارد. تجزیه و تحلیل فردی برای هر موضوع انجام و بحث نمی شود. بنابراین من به دنبال منابعی (مقالات/کتاب) هستم که این مشکل را نشان دهد. زیر کد نمونه اسباب بازی در R: library('plyr') library('ggplot2') set.seed(100) n<-50 size<-1:4 prob<-c(0.1,.3,.5 ,.7) variables1<-expand.grid(subject=1:3,color=c('red','green')) df1<-ddply(variables1,.(subject,color),function(d){ if (d$color=='red') nyes<-rbinom(4,n,prob) if (d$color=='سبز ') nyes<-rbinom(4,n,prob+.2) data.frame(size,nyes,nno=n-nyes,p=nyes/n) }) variables2<-expand.grid(subject=4:6,color=c('red','green')) df2< -ddply(variables2,.(subject,color),function(d){ if (d$color=='green') nyes<-rbinom(4,n,prob) if (d$color=='red') nyes<-rbinom(4,n,prob+.2) data.frame(size,nyes,nno=n-nyes,p =nyes/n) }) dat<-rbind(df1,df2) منحنی<-ddply(dat,.(موضوع،رنگ)، تابع(d){ model<-glm(cbind(nyes,nno)~size,binomial(probit),d) x<-seq(0,5,. 1) y<-predict(model,data.frame(size=x),type='response',se.fit=T) data.frame(x,y=y$fit,ymin=y$fit-y$se.fit,ymax=y$fit+y$se.fit) }) به معنی<-ddply(dat,.(موضوع,رنگ ),function(d){ model<-glm(cbind(nyes,nno)~size,binomial(probit),d) coe<-coef(model) m<- -coe[[1]]/coe[[2]] data.frame(m) }) q<-ggplot()+ facet_wrap(~subject)+ geom_point(data=dat,aes(x=size,y=p ,color=color))+ geom_line (داده=منحنی ها,aes(x=x,y=y,color=color))+ geom_ribbon(data=منحنی ها،aes(x=x،ymin=ymin،ymax=ymax،fill=color)،alpha=.3)+geom_linerange(data=means،aes(x=m،color=color)،ymin= 0,ymax=.5) q t.test(m~color,data=means,paired=T)
برازش مدلی از هر موضوع و انجام آزمون t بر روی پارامترهای برآورد شده
31800
آیا کسی می‌تواند یک مرجع **بررسی** خوب (الزاماً PDF رایگان آنلاین) برای بررسی آمارهای سطح کالج پیشنهاد کند؟ من به چیزی نگاه می کنم که معمولاً اولین دوره در آمار را پوشش می دهد که به طور ایده آل شامل موارد زیر است: * مبانی مطلق (میانگین، واریانس و غیره) * نمونه های بزرگ * تست اطمینان * تست فرضیه (نرمال، t، chi، F) * رگرسیون خطی/همبستگی من نیازی به مرجع کتاب ندارم من به چیزی مانند یک بررسی سریع نیاز دارم که جنبه های مهم را بررسی کند. هر چیزی به صورت رایگان انجام می شود: ارائه، یادداشت های سخنرانی یا موارد دیگر. من فقط نیاز دارم که مختصر باشد. عمق بسیار قدردانی می شود.
مرجع آنلاین بررسی مطالب آمار مقدماتی
104135
این سوال کمی شرم آور است، اما من تجربه زیادی از تجزیه و تحلیل آماری ندارم. مشکلی که من دارم این است که تحلیلی که از نتایج مقاله خود انجام می دهم بسیار ناچیز است. نتایج من از رگرسیون اثرات ثابت اساساً شامل تأثیر یک یا دو متغیر توضیحی مرکزی است. من می توانم در مورد علامت، اهمیت و بزرگی آنها اظهار نظر کنم. شاید بتوانم در مورد اینکه آیا مشکل سوگیری متغیر حذف شده در مدل وجود دارد بحث کنم. آیا کار دیگری وجود دارد که بتوانم انجام دهم؟ در حال حاضر، تجزیه و تحلیل حتی یک صفحه طولانی نخواهد بود. دانش من محدود است و از هر نوع مشاوره یا ورودی در اینجا قدردانی می کنم. سوال تحقیق بسیار محدود است: آیا صرفه جویی در مقیاس در مراقبت های بهداشتی در سطح ایالت/شهرستان وجود دارد؟ من یک معیار هزینه را به عنوان متغیر وابسته و تعداد رویدادهای مراقبت پزشکی و مراجعه به پزشک را به عنوان متغیرهای توضیحی که اندازه مراقبت های بهداشتی را نشان می دهند، دارم. سپس سعی می کنم موقعیت جغرافیایی، جمعیتی و اجتماعی-اقتصادی را کنترل کنم. یک مشخصات محدود می تواند به این صورت باشد: $$ \text{Cost}_{it} = \beta_0 + \beta_1 \text{number_of_visits}_{it} + \\\beta_2 \text{number_of_events}_{it} + \ beta_3 \text{percentage_age65}_{it} + \\\beta_4 \text{area}_i + \beta_5 \text{taxable_come}_{it} + \\\beta_6 \text{percentage_private_healthcare}_{it} + \epsilon_{it} $$
تجزیه و تحلیل نتایج رگرسیون
4523
کد زیر: داده های مورد نیاز (zoo) <- read.csv(file=summary.csv,sep=,head=TRUE) cum = zoo(data$dcomp, as.Date(data$date)) داده = باغ وحش (داده $فشرده، as.Date(data$date)) داده <- aggregate(داده، هویت، دم، 1) cum <- aggregate(cum, هویت, sum, 1) days = seq(start(data), end(data), day) data2 = na.locf(merge(data, zoo(,days))) pdf(file=' timeseries.pdf',width=9,height=5) par(bty = 'n') plot(data2,xlab='',ylab='انتروپی (بایت)'، محور=FALSE) محور (سمت = 2، at=c(991، 20000، 40000، 53048)) محور (سمت = 2، at=c(10000، 30000)، برچسب ها = FALSE) خطوط (cum,type=h,lwd=0.3,col=rgb(0.64,0.08,0.00)) axis.Date(side = 1, days, at=c(2007-07-25, 2008- 01-01، 2009-01-01، 2010-01-01، 2010-06-21)) نمودار زیر را نشان می دهد: ![متن جایگزین](http://i.stack.imgur.com/k3Yei.png) سوالات (همه مربوط به محور پایین) عبارتند از: 1. چگونه می توانم کاری کنم که '2007/07' و '2010/06' در برچسب های آغاز و پایان نمایش داده شود؟ 2. چگونه می توانم تیک های جزئی را به طور خودکار به ماه ها (بدون برچسب) اضافه کنم؟
بهینه سازی ویژگی های محور در نمودار سری زمانی
79025
من مجموعه ای از حدود 300 هزار نمونه متن دارم. همانطور که در عنوان ذکر شد، هر نمونه حداقل یک برچسب دارد و تنها 100 برچسب منحصر به فرد ممکن وجود دارد. من با استفاده از فضاهای نام، به عنوان مثال، این مشکل را به طبقه بندی باینری برای Vowpal Wabbit کاهش داده ام. از: میوه سالم | موز پرتقال جک میوه ایول میمون | ارگانیسم دوپا خانواده پسر ... به: 1 |موز سالم پرتقال جک میوه 1 |موز میوه میوه پرتقال جک میوه 0 |موز شیطانی پرتقال جک میوه 0 |موز میمون پرتقال جک میوه 0 |ارگانیسم دوپا سالم خانواده پسر خانواده ارگانیسم دوپا 0 |میوه خانواده ارگانیسم دوپا پسر 1 | ارگانیسم دوپا شیطانی پسر خانواده 1 | مرد خانواده ارگانیسم دوپا میمون ... من از گزینه های پیش فرض ارائه شده توسط VW استفاده می کنم (که فکر می کنم SGD آنلاین است، با تابع تلفات مربعی). من از باخت مجذور استفاده می‌کنم زیرا شباهت زیادی به ضرر همینگ دارد. بعد از آموزش، هنگام تست کردن روی همان مجموعه آموزشی، متوجه شدم که همه نمونه‌ها با برچسب '0' پیش‌بینی می‌شوند... که حدس می‌زنم یکی از راه‌های به حداقل رساندن ضرر است. در این مرحله، من مطمئن نیستم که چه کار کنم. من به استفاده از طبقه‌بندی حساس به هزینه یک در برابر همه فکر می‌کردم تا بین کلاس‌ها تعادل ایجاد کنم، اما کاهش چند برچسب به چند کلاس غیرممکن است زیرا 2^100 ترکیب برچسب وجود دارد. میخوام بدونم کسی پیشنهادی داره
مقابله با عدم تعادل طبقاتی در طبقه بندی چند برچسبی
70004
آزمون کولموگروف-اسمیرنوف فرضیه صفر را در سطح $\alpha$ رد می کند اگر $$\sqrt{n}D_n>K_\alpha$$ که $$D_n=\sup_x |{F}_n(x)-F(x) | $$ و $$\operatorname{Pr}(K\leq K_\alpha)=1-\alpha$$، که $K$ از توزیع کولموگروف پیروی می‌کند. جدول هایی برای $K_\alpha$ وجود دارد، اما این وب سایت فرمول $K_\alpha$ را برای $n$ بزرگ ارائه می دهد. برای مثال، می‌گوید، اگر $n$ بیش از 50 باشد، $K_{\alpha=0.01} = 1.63 $$$$K_{\alpha=0.05} = 1.63$$ $$K_{\alpha=0.01} = 1.36$$$$K_{\alpha=0.1} = 1.22$$$$K_{\alpha=0.15} = 1.14 $$ $$K_{\alpha=0.2} = 1.07 $$ چگونه می توان به چنین عددی رسید؟
چگونه توزیع کولموگروف $K_\alpha$ را برای n بزرگ استخراج کنیم؟
31807
آیا غیر نرمال بودن در استفاده از رگرسیون برای پیش بینی اهمیت دارد؟ سلام به همه، در نمودار Q-Q باقیمانده ها پس از رگرسیون خطی، باقیمانده ها به شدت غیر گاوسی هستند. بیشتر نقاط (95%) زیر خط مستقیم 45 درجه قرار دارند. و آنهایی که زیر خط مستقیم قرار دارند همه در سمت پایین قرار دارند. شکل منحنی شبیه $f(x)=x^{1/5}$ برای $x$ در $[0, 1]$ است. (نقاط 5% در وسط این منحنی بالای خط مستقیم 45 درجه قرار دارند). به نظر می رسد که متغیر وابسته $y$ داده هایی دارد که بسیار غیر گاوسی هستند. همه آنها در $[0, 1]$ هستند، اما عمدتاً در حدود $1 $ خوشه‌بندی می‌شوند. بنابراین راه های مختلفی را برای تبدیل $y$ امتحان کردم. آخرین موردی که من پیدا کردم این بود که $y_{new} = y^7$ را انجام دهم. با استفاده از این تبدیل، داده‌های $y_{new}$ بسیار متقارن‌تر از قبل می‌شوند، اما هنوز به هیچ وجه در هیستوگرام گاوسی به نظر نمی‌رسند. از آنجایی که بسیار ناامید شده ام، دیگر سلاحی در کیفم ندارم... در عوض، شروع به تعجب کردم که آیا هدف نهایی من فقط به دست آوردن $\hat{y}$ است، یعنی پیش بینی داده ها در یک مجموعه داده های گسترده تر، آیا غیر عادی بودن حتی از نظر دقت برای پیش بینی اهمیت دارد؟ لطفا کمی برای من روشن کنید. متشکرم! * * * داده $y$ بسیار شبیه به داده های تولید شده با استفاده از اسکریپت زیر است: mydata=rt(10000, df=5) mydata=mydata[mydata<0.8] mydata=(mydata-min(mydata))/( حداکثر(mydata)-min(mydata)) hist(mydata, 100)
آیا غیر نرمال بودن در استفاده از رگرسیون برای پیش بینی اهمیت دارد؟
79026
من با ML تازه کار هستم و تصمیم گرفتم با شناسایی اعداد با استفاده از زیر مجموعه MNIST در kaggle شروع به یادگیری کنم http://www.kaggle.com/c/digit-recognator تصاویر 28x28 پیکسل خاکستری از ارقام 0 هستند به 9، با ~34000 در مجموعه آموزشی و 28000 در مجموعه تست. جنگل تصادفی با استفاده از تصویر خام و 2000 درخت امتیاز 0.96829 را می دهد. من برخی از پیش پردازش تصاویر را برای استخراج ویژگی های بیشتر انجام دادم و روی زیرمجموعه هایی با اندازه مساوی از داده های آموزشی آموزش / آزمایش کردم. در مقایسه با جنگل تصادفی معمولی برای زیرمجموعه‌های حدود 1000 - 3000، من حدود 3-4٪ پیشرفت داشتم (به عنوان مثال 94٪ در مقابل 90٪ برای RF) پس از تمرین با کل مجموعه آموزشی برای 200 درخت، امتیاز 0.97557 (~0.7٪) را کسب کردم. بهبود در RF). با این حال، با افزایش به 2000 درخت، امتیاز 0.97457 (0.1٪ کمتر) را کسب کردم. * آیا این بدان معنی است که ویژگی ها اشباع هستند؟ یعنی هر سود یا زیان عملکرد جزئی فقط نوسانات تصادفی است؟ * آیا چیزی وجود دارد که بتوانم (به غیر از ویژگی های بیشتر) برای بهبود نتیجه امتحان کنم؟ * آیا راهی وجود دارد که برخی ویژگی ها را بیشتر از سایرین وزن کنیم تا احتمال ارزیابی آنها بیشتر باشد؟
جنگل تصادفی: درختان بیشتر نتایج بدتری دادند
4528
من سعی کرده‌ام تشخیص دهم که خروجی «coef» و «(exp)coef» coxph دقیقاً به چه معناست. به نظر می رسد که (exp)coef مقایسه اولین متغیر در مدل با توجه به گروه اختصاص داده شده در دستور باشد. تابع coxph چگونه به مقادیر coef و (exp)coef می رسد؟ علاوه بر این، coxph چگونه این مقادیر را زمانی که سانسور وجود دارد تعیین می کند؟
تفاوت بین خروجی coef و (exp)coef coxph در R چیست؟
70002
من یک سردرگمی در مورد نماد انتظار دارم. موارد زیر را در نظر بگیرید: $$E_x(x^2) = \sum_x x^2p(x)$$ $E_x(x|y) = \sum_x xp(x|y)$$ بنابراین همان نماد در اینجا متفاوت است یعنی درست نیست؟ تا به حال فرض می‌کردم که $E_x$، $p(x)$ را گرفته و انتظارات را محاسبه می‌کردم. با این حال، پس از نگاه کردن به $E_x(x|y) = \sum_x xp(x|y)$، کمی گیج شدم
سردرگمی مربوط به نماد انتظار
77638
از من خواسته شده است که نمودارهای کنترلی را برای شرکت خود ایجاد کنم - یا ابزار دیگری برای شناسایی سریع زمانی که فروش بلیط خارج از کنترل است و نه فقط یک تصادف تصادفی. داده های مورد نظر ما فصلی با روند مثبت (درآمد فروش) هستند. پیشنهاد شده است که از نمودار میانگین متحرک با وزن نمایی (EWMA) استفاده کنم، اما درک (محدود) من این است که این نمودارها فقط برای استفاده روی داده‌هایی با میانگین ثابت مناسب هستند. غریزه من این است که یک مدل ARIMA را به کار ببرم و ارزیابی کنم که آیا مشاهدات در محدوده اطمینان حاصل از آن قرار می گیرند یا خیر... اما من به اندازه کافی مطمئن نیستم که مطمئن شوم این رویکرد درست است. بنابراین سوال من این است: 1. آیا استفاده از نمودارهای کنترلی برای نظارت بر فروش درآمد مناسب است؟ .
نمودارهای کنترل داده های فصلی
22735
من یک سوال دارم. > برای تست نسبت درستنمایی بهتر است از انحراف استفاده کنیم یا - 2 Log L؟ یا > اساساً یکسان هستند؟ SAS گاهی اوقات انحراف را برمی گرداند. اما من فقط از مقدار -2 Log L برای تست نسبت درستنمایی استفاده می کنم (مثلاً Log L -2 را برای دو مدل کم کنید تا آنها را با هم مقایسه کنید). آیا این اشکالی ندارد؟
- 2 Log L در مقابل Deviance
70147
من مجموعه داده ای برای حساب های تلفن همراه دارم و سعی می کنم پیش بینی کنم که آیا یک حساب با توجه به برخی ویژگی های ورودی لغو می شود یا خیر. یکی از این ویژگی ها تعداد دستگاه هایی است که یک حساب در اختیار دارد. من سعی می کنم بفهمم که آیا این یک ویژگی پیش بینی است یا خیر. من فکر می‌کردم که یکی از راه‌های انجام این کار محاسبه میانگین تعداد دستگاه‌ها برای همه مثال‌های مثبت (اکانت‌هایی که لغو نمی‌شوند) و مثال منفی (اکانت‌هایی که لغو می‌شوند) است. سپس من یک آزمون فرضیه برای میانگین ها انجام می دهم تا مشخص کنم که آیا آنها تفاوت معنی داری دارند یا خیر. بنابراین من فقط به این فکر می کنم که آیا این یک رویکرد معتبر برای انتخاب ویژگی است.
ارتباط بین انتخاب ویژگی و آزمون فرضیه
36001
من می دانم که راهی برای توزیع مجدد فرکانس های یک متغیر وجود دارد همانطور که در اینجا بیان شد: اسلاید شماره 14 و 15 در مورد توزیع مجدد و اینجا: کتاب دوریان پایل فصل 7 بخش 2 پاراگراف 3 (7.2.3): > ساده ترین راه برای تنظیم چگالی توزیع به سادگی جابجایی نقاط پرتراکم بالا در مناطق کم چگالی است تا زمانی که همه نقاط در چگالی میانگین > برای متغیر چنین فرآیندی با توزیع مستطیلی > ختم می شود. برای نشان دادن این قسمت، شکل هایی مانند این وجود دارد: ![شکل های 7.7 و 7.8](http://i.stack.imgur.com/4cQpc.png) در هر دو مرجع، مشکل روشن و حل شده است، اما اطلاعات کافی برای نوشتن ارائه نمی کند. یک الگوریتم و به طور خاص نحوه محاسبه جابجایی (روش حرکت فرکانس ها در سمت چپ یا راست مرکز توزیع) را بیان نمی کند. لطفا کمکم کنید تا بفهممش؟؟
توزیع مجدد فرکانس متغیر
5292
آیا رابط کاربری گرافیکی برای R وجود دارد که شروع یادگیری و برنامه نویسی در آن زبان را برای یک مبتدی آسان تر کند؟
رابط کاربری گرافیکی خوب برای R مناسب برای مبتدی که مایل به یادگیری برنامه نویسی در R است؟
30508
من در حال مطالعه رگرسیون متعامد برای پیاده سازی احتمالی در یکی از مجموعه داده های خود هستم. سوال من به محاسبه خطاهای پیش‌بینی به‌عنوان «میانگین خطاهای پیش‌بینی -MPE» یا «میانگین خطاهای پیش‌بینی مطلق-MAPE» در رگرسیون متعامد مربوط می‌شود که در آن متغیرهای وابسته و مستقل من (هر دو در یک واحد اندازه‌گیری می‌شوند) ممکن است خطاهای مشابهی نداشته باشند. ممکن است از منابع مختلف باشد. در حداقل مربعات نرمال که متغیر وابسته بر روی متغیر مستقل رگرسیون می شود، MPE یا MAPE را می توان از میانگین پیش بینی شده - مشاهده شده گرفت. چگونه می توان MPE یا MAPE را در سناریو محاسبه کرد وقتی هر دو متغیر دارای خطا هستند. این ممکن است ساده باشد اما برای من واضح نبود. امیدوارم سوال به اندازه کافی واضح باشد. وی جی
خطاهای پیش بینی در رگرسیون متعامد
27986
باشه من به تازگی خواندم که یک شی نقطه شکست با NA به این معنی است که نقطه شکست ساختاری قابل توجهی پیدا نشده است، که به اندازه کافی منصفانه است. اما اگر شما summary() را روی آن شی نقطه شکست فراخوانی کنید، نقطه شکست را گزارش می دهد. چه کسی را باور کنیم؟! همچنین متغیر مستقل من زمان نیست. من به دنبال تغییر در رابطه با یک متغیر مستقل هستم، بنابراین اصطلاح تاریخ شکست نامناسب است. من می توانم با آن مقابله کنم. من به سادگی مقدار n را از بردار مرتب شده متغیر مستقلی که نقاط شکست بر روی آن ساخته شده اند استخراج می کنم. اما Fstat در آن مقدار (تا آنجا که من می توانم بگویم) در حداکثر نیست. من فکر می کردم بهترین نقطه شکست در مقدار با حداکثر F stat قرار می گیرد. آیا اینطور نیست؟ با تشکر، Eric EDIT: در اینجا من گیج شدم. من به دنبال نقاط شکست در مدل Y~X هستم، که در آن X دارای محدوده تقریباً 0 تا 150 است. summary() می گوید یک نقطه شکست در مشاهده 511 (از 910 داده) وجود دارد که مطابق با تاریخ شکست 0.56 است. اما مقدار X[511] 120 یا بیشتر است. بنابراین، من فرض کردم (اوه) که باید از شماره مشاهده استفاده کنم نه از تاریخ شکست. و این زمانی بود که آن نقطه شکست با حداکثر آمار F از Fstats مطابقت نداشت. (اما نقطه شکست در 0.56 نیز وجود ندارد). به نظر می رسد یک بررسی مشابه در مورد مدلی که در آن پیش بینی X محدوده ای بین 0 تا 1 دارد، خروجی های قابل فهم تری به دست می دهد. به نظر می رسد تاریخ شکست گزارش شده (که به عنوان مقدار پیش بینی تفسیر می شود) با حداکثر FStat مطابقت دارد. آیا این یک تصادف خطرناک است، یا breakpoints() به چیزی از متغیر پیش بینی کننده آن نیاز دارد؟ و متأسفم، من نمی دانم چگونه می توانم یک مجموعه داده را برای بازتولید آن پیوست کنم. :-(
تفسیر strucchange::breakpoints در R
33185
من قبلاً با طبقه‌بندی‌کننده **Naive Bayes** سروکار داشتم. من اخیراً در مورد **Multinomial Naive Bayes** مطالعه کرده ام. همچنین **احتمال پسین = (قبل * احتمال)/(شواهد)**. تنها تفاوت اصلی (هنگام برنامه‌نویسی این طبقه‌بندی‌کننده‌ها) بین Naive Bayes و Multinomial Naive Bayes این است که **Multinomial Naive Bayes** احتمال محاسبه یک عدد کلمه/token** (متغیر تصادفی) و **Naive را محاسبه می‌کند. Bayes** احتمال اینکه دنبال شود را محاسبه می کند: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/4Q5L1.png) **اگر اشتباه می کنم تصحیح کنید!**
تفاوت بین بیز ساده لوح و بیز ساده لوح چند جمله ای
33189
این سوال در ادامه سوال قبلی است. * * * اساساً من می خواستم مطالعه کنم که در چه شرایطی وقتی باقیمانده ها را به $x_1$ برگردانیم، $\small R^2$ 20٪ بدست می آوریم. به عنوان اولین قدم برای حمله به این مشکل، سوال من این است که چگونه $\small R^2$ را به شکل ماتریس بیان کنم؟ سپس سعی می کنم $\small R^2$ باقیمانده رگرسیون را به $x_1$ با استفاده از فرم ماتریس بیان کنم. همچنین چگونه می توانم وزن های رگرسیون را به عبارت اضافه کنم؟
چگونه می توانم R مربع را به شکل ماتریس نشان دهم؟
36005
فرض کنید من مخلوطی از تعداد محدودی از گاوسیان با وزن، میانگین و انحراف معیار شناخته شده دارم. وسایل برابر نیستند. البته می توان میانگین و انحراف استاندارد مخلوط را محاسبه کرد، زیرا ممان ها میانگین وزنی گشتاورهای اجزا هستند. مخلوط توزیع نرمال نیست، اما چقدر از نرمال فاصله دارد؟ ![مخلوط گاوسی ها که با 2 انحراف استاندارد در مقابل گاوسی با میانگین و واریانس یکسان از هم جدا شده اند](http://i.stack.imgur.com/kJ841.png) تصویر بالا چگالی احتمال یک مخلوط گاوسی را با میانگین اجزا نشان می دهد. با انحراف استاندارد $2$ (مؤلفه ها) و یک گاوسی منفرد با میانگین و واریانس یکسان جدا شده است. ![مخلوط گاوسی ها با 1 انحراف استاندارد در مقابل گاوسی با میانگین و واریانس یکسان](http://i.stack.imgur.com/VGtsR.png) در اینجا میانگین ها با انحراف استاندارد $1$ از هم جدا شده اند و جدا کردن مخلوط از گاوسی با چشم سخت تر است. * * * **انگیزه:** من با برخی افراد تنبل در مورد برخی از توزیع های واقعی که آنها را اندازه گیری نکرده اند و فرض می کنند نزدیک به نرمال است مخالفم، زیرا این امر خوب است. من هم تنبلم من هم نمی‌خواهم توزیع‌ها را اندازه‌گیری کنم. من می خواهم بتوانم بگویم فرضیات آنها ناسازگار است، زیرا آنها می گویند که مخلوط محدودی از گاوس ها با ابزارهای مختلف یک گاوسی است که درست نیست. من فقط نمی‌خواهم بگویم که شکل مجانبی دم اشتباه است، زیرا اینها فقط تقریبی هستند که قرار است فقط در عرض چند انحراف استاندارد از میانگین دقیق باشند. می‌خواهم بتوانم بگویم که اگر اجزا به خوبی با توزیع‌های معمولی تقریب داشته باشند، مخلوط اینطور نیست، و من می‌خواهم بتوانم این را کمیت کنم. * * * من فاصله درستی از نرمال بودن را برای استفاده نمی دانم: حداکثر تفاوت بین CDF ها، فاصله $L^1$، فاصله حرکت دهنده زمین، واگرایی KL، و غیره. هر یک از اینها یا سایر اقدامات من خوشحال خواهم شد که فاصله تا گاوس را با همان میانگین و انحراف معیار مخلوط یا حداقل فاصله با هر گاوسی بدانم. اگر کمک می کند، می توانید به این مورد محدود کنید که مخلوط 2 دلاری گاوسی باشد به طوری که وزن کوچکتر از 1/4 دلار بیشتر باشد.
فاصله بین یک مخلوط گاوسی محدود و یک گاوسی چقدر است؟
36006
اغلب شنیده ام که داده ماینرها در اینجا از این اصطلاح استفاده می کنند. به‌عنوان آماردانی که روی مسائل طبقه‌بندی کار کرده‌ام، با اصطلاح «آموزش یک طبقه‌بندی‌کننده» آشنا هستم و فرض می‌کنم «یادگیری یک مدل» به همین معنی است. من از اصطلاح تربیت یک طبقه بندی مهم نیست. به نظر می رسد که این ایده برازش یک مدل را به تصویر می کشد زیرا از داده های آموزشی برای بدست آوردن تخمین های خوب یا بهبود پارامترهای مدل استفاده می شود. اما یادگیری به معنای کسب دانش است. در زبان انگلیسی ساده یادگیری یک مدل به این معنی است که بدانیم آن چیست. اما در واقع ما هرگز مدل را نمی دانیم. مدل ها واقعیت را تقریبی می کنند اما هیچ مدلی درست نیست. مانند این است که باکس گفته است: هیچ مدلی صحیح نیست، اما برخی از آنها مفید هستند. من علاقه مند به شنیدن پاسخ داده کاوی هستم. این اصطلاح چگونه به وجود آمد؟ اگر از آن استفاده می کنید، چرا آن را دوست دارید؟
اصطلاح یادگیری یک مدل از کجا آمده است
77637
من واقعاً با Granger Causality تازه کار هستم و به سرعت با این تابع MATLAB آزمایش می کنم: granger_cause(x,y,alpha,max_lag) http://www.mathworks.com/matlabcentral/fileexchange/25467-granger-causality- test من دارم دو سری x و y که باید علیت را بررسی کنم. باید بررسی کنم که آیا y در یک تاخیر 180 نمونه با x رابطه علی دارد یا خیر. بر اساس آزمایش‌هایم، متوجه شدم که اگر مقادیر آلفا و تاخیر را تغییر دهم، می‌توانم متوجه شوم که تقریباً هر چیزی با x همبستگی دارد (مانند مجموعه‌ای تصادفی از داده‌ها). آیا کسی می تواند به من بگوید که چگونه باید مقادیر آلفا و تاخیر را تغییر دهم؟ متوجه شدم که اگر آلفا را 0.8 قرار دهم، پاسخ خوبی برای x و y می‌گیرم، اما نه برای داده‌های تصادفی. با این حال، با توجه به اینکه منابع دیگر به من می گویند که آلفای 0.01 یا بیشتر داشته باشم، من در این مورد مشکوک هستم. کسی میتونه اینجا به من کمک کنه؟
انتخاب سطح اهمیت آلفا و max_lag برای علیت گرنجر
85859
من می خواهم مقالات منتشر شده یا فصل های کتاب را مرور کنم (بنابراین بتوانم به طور رسمی به آنها مراجعه کنم) که به صورت گرافیکی روابط پارامتریک بین خانواده های توزیع تک متغیره را نشان می دهد. مقالات لارنس ام. لیمیس معروف هستند، به عنوان مثال نگاه کنید به. اینجا برای نسخه های 1986 و 2008. این مقاله دو نمودار دیگر را ارائه می‌کند و دو منبع دیگر را برای خلاصه‌های گرافیکی منتشر شده قبلی ذکر می‌کند: Nakagawa, T. and Yoda, H. (1977) روابط بین توزیع‌ها. معاملات IEEE در مورد قابلیت اطمینان، 26(5)، 352-353. کوتز، اس. و جوگن رنه ون دورپ (2004) فراتر از بتا - سایر خانواده‌های مستمر توزیع‌ها با پشتیبانی محدود و برنامه‌های کاربردی، جهانی علمی، نیوجرسی، ص. 251. در اینجا پیوند دیگری به مقاله ای با مشارکت احتمالی اصلی وجود دارد. آیا حذف مفیدی در لیست بالا وجود دارد؟ آیا مقاله ای وجود دارد که خلاصه های گرافیکی مختلف از روابط شناخته شده بین توزیع های تک متغیره را بررسی کند؟
خلاصه های گرافیکی روابط بین توزیع های تک متغیره
93071
من در حال مطالعه شبکه های عصبی هستم و سعی می کنم تصمیم بگیرم که چرا به نظر می رسد انتخاب پیش فرض تابع هزینه برای یک نورون منفرد از دست دادن درجه دوم است: $$\sum_i(y_i-f_i)^2،$$ به جای: $$ -\prod_ip_i^{y_i}(1-p_i)^{1-y_i}، $$ بر اساس رگرسیون لجستیک. جایی که $f_i$ و $p_i$ تابع سیگموئید (فعال سازی) هستند. من می‌دانم که نورون به ازای هر گفته طبقه‌بندی نمی‌کند، اما در عوض خروجی را بر اساس عملکرد فعال‌سازی خود تعدیل می‌کند، به طوری که وقتی بسیاری از نورون‌ها به یکدیگر متصل می‌شوند تا شبکه را تشکیل دهند، طبقه‌بندی فقط باید روی گره خروجی با استفاده از مقداری برش انجام شود. کاهش ارزش با این وجود، اگر هدف ما طبقه‌بندی باشد، به نظر می‌رسد که انتخاب صحیح تابع هزینه باید آن چیزی باشد که قدرت شلیک را مستقیماً به احتمال شلیک در صورتی که فقط با قدرت کامل شلیک می‌کرد یا اصلاً شلیک نمی‌کرد، مرتبط کند. و انجام این کار به گونه ای که اگر نورون را چندین بار با استفاده از این احتمال به عنوان احتمال شلیک اجرا کنیم، آنگاه مقدار مورد انتظار شلیک نورون برابر با قدرتی است که هر بار با به حداقل رساندن تابع هزینه ما شلیک می کند. (با عرض پوزش ممکن است آن را ضعیف بیان کرده باشم) آیا دلیلی وجود دارد که تابع هزینه رگرسیون لجستیک انتخاب پیش فرض نیست؟
چرا انتخاب تابع هزینه پیش‌فرض از دست دادن نورون درجه دوم است؟
104136
من اخیراً شروع به آزمایش برنامه نویسی ژنتیک به عنوان یک ابزار بهینه سازی کرده ام. من هنوز در مورد چگونگی کاهش بیش از حد برازش در این چارچوب کمی سردرگم هستم. چند تکنیکی که در مورد آنها خوانده ام 1. محدود کردن تعداد نسل ها 2. محدود کردن اندازه درخت (ژنوم) 3. افزودن جریمه پیچیدگی به تابع تناسب اندام 4. گنجاندن اعتبار سنجی متقاطع در تابع تناسب اندام از روش های بالا، 4 است. برای من جذاب ترین/گیج کننده ترین من این پست را در SO چگونه می توان هنگام استفاده از اعتبارسنجی متقاطع در الگوریتم های ژنتیک جلوگیری کرد، خوانده ام، اما بینش زیادی در مورد پیاده سازی واقعی به من نداد. فرض کنید من سعی می کنم اعتبار متقاطع را در عملکرد تناسب اندام خود پیاده کنم. من می توانم پزشک عمومی خود را در یک دوره زمانی (مثلا 2000-2010) تمرین کنم و تناسب اندام آن را در دوره زمانی دیگر (مثلا 2010-2014) ارزیابی کنم. با این حال، آیا این فقط بیش از حد در دوره زمانی 2010-2014 را معرفی نمی کند. GP فقط به سمت یافتن برنامه های خوب در دوره زمانی آزمایش گرایش خواهد داشت. از طرف دیگر، می توانید بگویید که برنامه ای می خواهید که در سال های 2000-2010 (عملکرد P1) و 2010-2014 (عملکرد P2) عملکرد خوبی داشته باشد. فرض کنید عملکرد تناسب اندام شما مستلزم آن است که عملکرد پزشک عمومی در آن دو دوره زمانی بالا و مشابه باشد (یعنی تناسب اندام = (P1 + P2) * 1/(P1 + P2))، اما آیا این یکسان نیست. فقط تست تناسب اندام در کل دوره 2000-2014؟ من حدس می‌زنم که می‌پرسم آیا امکان دارد یک شکل اعتبارسنجی متقاطع را در عملکرد تناسب اندام خود پیاده‌سازی کنید. GP یک الگوریتم پارامتری مانند kNN، SVM، یا رگرسیون خطی ساده نیست، بنابراین من در مورد اینکه اعتبار متقاطع حتی در این تنظیمات چگونه کار می‌کند سردرگم هستم. من همیشه می‌توانم خروجی پزشک عمومی ساده‌لوح را روی داده‌های آزمایشی ارزیابی کنم، اما در آزمایش‌هایم عملکرد خوبی پیدا نکردم، به دلیل تمایل GP به بیش از حد مناسب بودن.
بیش از حد برازش در برنامه ریزی ژنتیک
5299
من به دنبال ارجاعات کاربردی برای افزایش داده ها هستم (ترجیحا با کد نوشته شده). در هر صورت منابع آنلاین کتاب عالی خواهد بود. من این کتاب را به صورت آنلاین پیدا کردم: http://www.amazon.com/Bayesian-Missing-Data-Problems- Biostatistics/dp/142007749X/ref=sr_1_1?ie=UTF8&s=books&qid=1291905761&sr=1-1 اما بدون بررسی در خرید آن مردد هستم با تشکر ویرایش: من دو متغیر X و Y دارم. فرض کنید X از ترکیبی از نرمال ها پیروی می کند و یک رابطه لجستیک بین X و Y وجود دارد. هنگام مشاهده X خطای اندازه گیری وجود دارد. ما 100 جفت X Y را مشاهده می کنیم و باید تابع بین X را تخمین بزنیم. دو نویسنده در کتابی در مورد خطای اندازه‌گیری (John P. Buonaccorsi)، تقویت داده‌ها را برای تخمین توصیه می‌کند (من معتقدم متغیرهای معرفی‌شده به معنای X واقعی هستند). با این حال جزئیاتی ارائه نشده است. من به دنبال مثال های ساده (کد R اما واقعاً مهم نیست) برای شروع هستم.
مثال های افزایش داده ها
71358
من 70000 مشاهده برای متغیر وابسته خود دارم. من 12 متغیر مستقل دارم. پس از حذف مقدار صفر و خطا و مقدار از دست رفته از مجموعه داده های من، داده های من به 4000 کاهش یافت. آیا هنوز هم می توانم رگرسیون خطی چندگانه را با این مجموعه داده انجام دهم؟ من فکر می کنم 4000 داده برای 12 متغیر مستقل بیش از اندازه کافی است، اما مطمئن نیستم که آیا حذف تقریباً 90٪ مشاهدات به رگرسیون من آسیب می رساند یا خیر؟
پاکسازی داده برای مجموعه داده های نمونه بزرگ در رگرسیون خطی چندگانه
70009
با رگرسیون تک متغیره بسیار آسان است که ببینیم آیا همبستگی خطی است یا غیر آن، اما در یک رگرسیون چندگانه، همه چیز می تواند بسیار پیچیده به نظر برسد، چند جمله ای یا همبستگی های دیگر را می توان با تعامل بین متغیرها پنهان کرد. می‌دانم که می‌توانید از اصطلاحات قدرت در متغیرها استفاده کنید، اما رابطه با متغیر وابسته هنوز باید خطی باشد. چگونه بفهمم رگرسیون چندگانه مناسب است؟
چگونه خطی بودن یک رگرسیون چندگانه را بررسی می کنید؟
5290
من یک سری زمانی با میانگین متحرک نمایی دارم و می‌خواهم بازده متحرک EMA را در آخرین دوره‌های m محاسبه کنم (چیزی شبیه بازده متحرک هموار). فرض کنید: Y(t) مقدار سری زمانی در دوره زمانی t است. دوره ها: R(t) = S(t) / S(t-m) - 1 سوال من این است: محاسبه EMA باید از چند دوره زمانی برای m معین استفاده کند؟ دقیقاً، اگر EMA با استفاده از S(t) = آلفا * Y(t) + (1-alpha) * S(t-1) محاسبه شود و آلفا با 2/(N+1) تنظیم شود، پس N چگونه باید بستگی داشته باشد. در متر؟ من فرض می کنم که N باید به اندازه کافی کمتر از m باشد تا از همپوشانی مقادیر Y که در محاسبه S(t) و S(t-m) استفاده می شوند، جلوگیری شود. آیا نظریه یا بهترین روش در این مورد وجود دارد؟
بازگشت متحرک میانگین متحرک نمایی - انتخاب آلفا
5293
اسم من توهین است. هنگامی که در حال تجزیه و تحلیل در R بودم، با چند سوال مواجه شدم. من یک تحلیل رگرسیون لجستیک در R انجام دادم و سعی کردم بررسی کنم که مدل چقدر با داده ها مطابقت دارد. اما، من گیر کردم زیرا نتوانستم مقدار مربع R شبه را برای مدل بدست بیاورم که می تواند ایده ای در مورد تغییرات توضیح داده شده توسط مدل به من بدهد. لطفاً من را در مورد چگونگی دستیابی به این مقدار راهنمایی کنید (مربع R شبه برای تحلیل رگرسیون لجستیک). همچنین اگر بتوانید راهی برای بدست آوردن آمار Hosmer Lemeshow برای مدل نیز به من نشان دهید مفید خواهد بود. من متوجه یک تابع تعریف شده توسط کاربر برای انجام آن شدم، اما اگر راه سریعتری وجود داشته باشد، واقعا مفید خواهد بود. اگر بتوانید پاسخ سوالاتم را در اختیار من قرار دهید بسیار سپاسگزار خواهم بود. مشتاقانه منتظر پاسخ شما هستم. با احترام
مقدار مربع R شبه را برای تحلیل رگرسیون لجستیک پیدا کنید
83925
فرمول (در صورت وجود) برای واریانس نمونه / فاصله اطمینان یک چندک / صدک از توزیع نرمال چیست؟ به عنوان مثال، صدک 5 برای توزیع استاندارد جمعیت نرمال 1.64- است، اما اگر من یک نمونه n=1000 داشته باشم، فاصله اطمینان یک طرفه 95٪ چقدر است؟ یعنی به طور متوسط ​​صدک پنجم نمونه نرمال استاندارد 64/1- و 95 درصد مواقع صدک پنجم نمونه 1000=n زیر 54/1- خواهد بود (تقریباً از شبیه سازی). به نظر می رسد نوعی فرمول وجود دارد زیرا یک گزینه در SAS («CIQUANTNORMAL») است و من فکر می کنم ممکن است مربوط به Probit باشد اما توضیحی پیدا نکرده ام.
فاصله اطمینان چندک / صدک توزیع نرمال
71352
من می خواهم بدانم چرا نمودارهای باقیمانده با باقیمانده ها در برابر متغیر پیش بینی شده y ترسیم می شوند و نه در برابر y؟
نمودارهای باقیمانده از متغیر باقیمانده در مقابل پیش بینی شده
71356
در سوال قبلی، در مورد مقایسه قدرت آزمون t با آزمون من ویتنی در شرایط مختلف پرسیدم. یکی از پاسخ‌ها اشاره می‌کند که بدترین کاری که من ویتنی می‌تواند نسبت به آزمون t انجام دهد این است که تا زمانی که مجموعه داده‌ها، به داده‌های 1/0.864 برابری نیاز دارد تا قدرت آزمون t را بدهد. در حال مقایسه از یک توزیع بودند. حدس می‌زنم در مورد اینکه چگونه می‌توان قدرت را بین این دو آزمون مقایسه کرد، با توجه به اینکه آنها فرضیه‌های صفر متفاوتی را آزمایش می‌کنند، گیج شده‌ام. به عنوان مثال، اگر من توان یک آزمون t را با استفاده از اندازه اثر برابر با 20٪ اختلاف بین میانگین ها 0.9 تخمین بزنم، آنگاه برای آزمون t منطقی است. اما آزمون من ویتنی تفاوت بین میانگین ها را آزمایش نمی کند. اگر توزیع ها یکسان بود، تفاوت بین میانه ها را آزمایش می کرد. آیا من درست فکر می کنم که آزمون من ویتنی به 1/0.864 برابر بیشتر داده نیاز دارد تا تفاوت 20٪ در میانه ها با توان 0.9 را تشخیص دهد؟
وقتی فرضیه های صفر متفاوت هستند، چگونه توان آزمون t و من ویتنی قابل مقایسه است؟
71357
هنگامی که شخصی یک پارامتر را برای دریافت خطای استاندارد بوت استرپ می کند، توزیعی از پارامتر را دریافت می کنیم. چرا از میانگین آن توزیع به عنوان نتیجه یا تخمین پارامتری که می خواهیم بدست آوریم استفاده نمی کنیم؟ آیا توزیع نباید تقریبی با واقعی باشد؟ بنابراین، می‌توانیم تخمین خوبی از ارزش واقعی بدست آوریم؟ با این حال، ما پارامتر اصلی را که از نمونه خود دریافت کرده‌ایم گزارش می‌کنیم. چرا اینطور است؟ با تشکر
چرا میانگین توزیع بوت استرپ را گزارش نمی کنید؟
71353
من طبقه‌بندی‌کننده‌ای دارم که تصمیمات خود را به‌عنوان تخمین احتمال می‌دهد: برای هر داده مجموعه‌ای از احتمالات $p_j$ را برای هر کلاس شناخته شده $j$ برمی‌گرداند: $p_j(\vec{x})=P(c_{real}=j |\vec{x})$. من یک مجموعه داده آموزشی دارم که بر روی آن طبقه بندی کننده را آموزش دادم و یک مجموعه داده آزمایشی برای آزمایش آن دارم. در هر دو مجموعه داده، من داده‌ها را به شکل $(\vec{x_i}، y_i)$ دارم، که $\vec{x_i}$ بردار ویژگی هر مبنا است، و $y_i$ کلاس اختصاص داده شده توسط انسان است. هر مبنا (هر داده می تواند فقط یک کلاس راست اختصاص داده شود). من به راحتی می‌توانم کیفیت طبقه‌بندی را با منحنی‌های PR و ROC ارزیابی کنم، اما می‌خواهم کیفیت تخمین‌های احتمال را نیز ارزیابی کنم، که طبقه‌بندی کننده من را می‌سازد. اکنون از روش بعدی استفاده می‌کنم: 1) همه $p_j$ را در 10 bin توزیع می‌کنم: $(0 \dots 0.1)، (0.1 \ldots 0.2)، \ldots، (0.9 \ldots 1.0)$. 2) سپس برای هر سطل نگاه می‌کنم، چه تعداد تصمیم در هر سطل قرار می‌گیرد و چه تعداد از آنها تصمیمات درستی هستند: $P_{bin}=\frac{right-decisions-in-bin}{total-decisions-in- bin}$ 3) با داشتن منحنی احتمال اندازه‌گیری شده، من فقط به مجموع انحرافات مجذور آن از $f(x)=x$ در هر نقطه نگاه می‌کنم و سعی می‌کنم زمانی که چنین مجموعی حداقل است، یک طبقه‌بندی کننده داشته باشم. ** اما من فکر می کنم که بهترین راه برای چنین ارزیابی از تخمین احتمال نیست. آیا نمی توانید چیزی قابل اعتمادتر به من توصیه کنید؟ شاید، چند تکنیک استاندارد وجود دارد؟** P.S. برخی از منحنی‌های احتمال، به روش من اندازه‌گیری شده‌اند: ![برخی منحنی‌های احتمال، به روش من اندازه‌گیری شده‌اند](http://i.stack.imgur.com/4w1sA.png) علامت‌های نوشتاری روی نمودار نشان می‌دهند (#تصمیم‌های درست در bin / #تصمیمات در bin) برای یکی از توابع احتمال اندازه گیری شده.
چگونه می توان کیفیت تخمین احتمال را ارزیابی کرد؟
33180
به نظر می رسد این به قدری ساده است که نمی توانم باور کنم پاسخ را در راهنمای SPSS یا آنلاین پیدا نکرده ام - حتماً چیزی را گم کرده ام. من دو متغیر مقیاس دارم، بیایید آنها را $X$ و $Y$ بنامیم. آنها متغیرهای مقیاس لیکرت هستند که توافق با اظهارات نگرش را برای دو آیتم که تصور می‌شود ساختار یکسانی را اندازه‌گیری می‌کنند، اندازه‌گیری می‌کنند. این دو سؤال جداگانه از یک ابزار است که به یک نمونه (که از همان جامعه گرفته شده است) داده می شود. (*) این دو متغیر دارای توزیع هایی هستند که مقداری همپوشانی دارند. سوال من این است که چگونه فرضیه متفاوت بودن یا نبودن این دو توزیع (در سطح 05/0p<) را آزمایش کنیم؟ (من فکر می کنم که می تواند به این معنی باشد که آیتم ها واقعاً ساختار یکسانی را اندازه گیری می کنند.) به نظر می رسد که برای مقایسه اینکه آیا میانگین $\mu_X$ و $\mu_Y$ دو توزیع برابر هستند یا خیر، نیاز به آزمون t دارد. فرضیه: $\mu_X=\mu_Y.$ اما من مستندات مقایسه میانگین ها، نمونه های مستقل T-Test و Paired را بررسی کردم. نمونه T-test را در SPSS، هم در رابط کاربری گرافیکی و هم در دستور، و من نمی توانم نحوه انجام این نوع تست را پیدا کنم. من باید چیزی را از دست بدهم؟ (*) من می دانم که در مورد اینکه آیا باید متغیرهای مقیاس لیکرت را به عنوان متغیرهای ترتیبی یا مقیاسی در نظر گرفت، اختلاف نظر وجود دارد، اما برای این تحلیل اولیه، من راحت آنها را به عنوان مقیاس در نظر می گیرم.
چگونه می توانم ببینم که آیا توزیع های دو متغیر در SPSS همپوشانی دارند؟
83921
یک آزمون t تک نمونه ای را فرض کنید، که در آن فرض صفر $\mu=\mu_0$ است. سپس با استفاده از نمونه انحراف استاندارد $s$، آمار $t=\frac{\overline{x}-\mu_0}{s/\sqrt{n}}$ است. در تخمین $s$، مشاهدات را با میانگین نمونه $\overline{x}$ مقایسه می‌کنیم: $s=\sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i- \overline{x})^2}$. با این حال، اگر یک $\mu_0$ داده شده را درست فرض کنیم، می‌توان انحراف معیار $s^*$ را با استفاده از $\mu_0$ به جای میانگین نمونه $\overline{x}$: $s^*= تخمین زد. \sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i-\mu_0)^2}$. به نظر من، این رویکرد طبیعی تر به نظر می رسد زیرا در نتیجه از فرضیه صفر نیز برای تخمین SD استفاده می کنیم. آیا کسی می داند که آیا آمار بدست آمده در یک تست استفاده می شود یا می داند چرا نه؟
در یک آزمون t یک نمونه، اگر در برآوردگر واریانس میانگین نمونه با $\mu_0$ جایگزین شود، چه اتفاقی می‌افتد؟
104333
من کتابی را می‌خوانم که به مثالی اشاره می‌کند که در آن توزیع یکنواخت مقدمه اولیه است و سپس یک فرد در یک آزمون 9/10 نمره می‌گیرد. سپس قسمت خلفی حاصل به توزیع قبلی تبدیل می شود. این کتاب توضیح زیر را برای آنچه اتفاق می‌افتد ارائه می‌دهد، اما علیرغم مراجعه به صفحه ویکی‌پدیا در مورد یکپارچه‌سازی، من در تلاش برای درک دقیق آنچه در جریان است، و چرا این فرآیند ضروری است، هستم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/STt6A.png)
ادغام در پشتی به چه معناست؟
83926
من در حال توسعه یک مدل رگرسیون چندگانه هستم. اخیراً با بیانیه‌ای مواجه شدم که برای مجموعه کالیبراسیون بهتر است نمونه‌هایی را انتخاب کنید که به طور یکنواخت در یک فضای متغیر پاسخ -Y در مقابل نمونه‌های توزیع شده معمولی توزیع شده باشند. من سعی می کنم این را بفهمم. اگر برای مجموعه کالیبراسیون نمونه هایی را انتخاب کنیم که توزیع تقریباً یکنواختی دارند، آیا به پیش بینی بهتر برای مقادیر پایین و بالای Y کمک می کند؟ متشکرم
انتخاب نمونه برای کالیفرنیا در مدل رگرسیون
41789
_سلب مسئولیت: من با خوشحالی اعتراف می کنم که واقعاً نمی دانم در مورد مدل های ترکیبی عمومی واقعاً چه کار می کنم، اما امیدوارم این موضوع بتواند من را کمی به نوعی درک نزدیک کند. با این حال، اگر این یک سوال OMG، شما یک n00b هستید است که باید بسته شود و دیگر هرگز درباره آن صحبت نشود، کاملاً متوجه خواهم شد :)_ من چند مدل خطی عمومی را اجرا می کنم (با استفاده از SPSS) سعی کنید احساس بهتری نسبت به روش داشته باشید. مجموعه داده من شامل تعدادی ارائه محرک با متغیر مقیاس وابسته (از 0 تا 1) و تعدادی متغیر اسمی مستقل برای هر ارائه است (به عنوان مثال جنسیت شرکت کننده، شرایط دارویی، نوع محرک و غیره) . اکنون، وقتی یک مدل خطی عمومی را اجرا می‌کنم، می‌توانم نمودارهای بسیار زیبایی ایجاد کنم که اثرات اصلی و تعاملی مهم و غیر قابل توجه را برای همه داده‌های من نشان می‌دهد. هنگامی که فقط چند عامل را شامل می شود، میانگین های تخمین زده شده در این نمودارها همان است که اگر من یک تحلیل توصیفی انجام دهم و فقط میانگین را محاسبه کنم. با این حال، وقتی شروع به اضافه کردن عوامل زیادی می کنم، میانگین تخمینی شروع به انحراف از میانگین واقعی نمونه من می کند. من اینجا کمی گیج هستم. چه چیزی باعث می شود GLM میانگین را با میانگین نمونه یکسان برآورد کند و چه زمانی این میانگین های تخمین زده شروع به انحراف از میانگین نمونه می کنند؟ آیا ربطی به تعداد فاکتورها دارد یا مربوط به خود عوامل است (مثلاً نحوه تقسیم داده ها با توجه به سایر متغیرها).
چه چیزی باعث می شود که یک GLM میانگین را با میانگین نمونه واقعی متفاوت تخمین بزند؟
70917
این یک سوال تکلیف نیست، فقط یک بلوک ذهنی است. چرا تجزیه و تحلیل های آماری به متغیرهای کاملاً مشخص به عنوان متغیر پاسخ/وابسته نیاز دارند؟ چرا متغیر پاسخ من نمی تواند چیزی [مبهم] مانند مشتری با ارزش احتمالی بالا یا یک سوال بله/خیر باشد؟
چرا به متغیرهای کاملاً تعریف شده به عنوان متغیرهای پاسخ/وابسته نیاز داریم؟
70916
من در حال نوشتن پایان نامه دیپلم خود هستم در مورد تعامل بین مدیریت انبار و داده کاوی (به طور خاص، قوانین انجمن). من داده کاوی مبحثی را با در نظر گرفتن قوانین تداعی بولی که توسط الگوریتم a-priori ایجاد شده است (مثلاً تحلیل سبد بازار) آغاز کردم. سپس من در مورد قوانین ارتباط کمی اطلاعات پیدا کردم. آنها نه تنها به این سوال که چه چیزی با هم در سبد بازار وجود دارد توجه می کنند، بلکه چه مقدار از یک کالا با چه مقدار از کالای دوم و غیره ترکیب می شود. شاید مهمترین نویسنده (و حتی نوعی بنیانگذار) داده کاوی راکش آگراوال باشد. او مقاله ای (pdf) در مورد قوانین انجمن کمی استخراج کرد. بعد از اینکه آن را یافتم و آن را در نظر گرفتم، می خواستم مقالات یا ادبیات جدیدتری در مورد این موضوع پیدا کنم، زیرا Agrawal آن را در سال 1996 منتشر کرد. من فقط 3-4 مقاله در مورد قوانین ارتباط کمی (به ترتیب داده کاوی کمی) پیدا کردم و نمی دانم چرا این موضوع بیشتر مورد بحث قرار نگرفته است. آیا می دانید چرا یافتن مقاله ای با توجه به آن بسیار سخت است؟ چرا ایده Agrawal پیشرفتی ندارد یا من آنها را پیدا نکردم؟ همچنین نرم افزارهای زیادی برای داده کاوی وجود دارد (به عنوان مثال WEKA) اما آنها فرصتی برای استخراج قوانین ارتباط کمی ندارند، فقط قوانین بولی. بنابراین می خواهم از شما بپرسید که آیا نرم افزاری برای استخراج قوانین انجمن کمی می شناسید؟
مقالاتی در مورد قوانین ارتباط کمی در داده کاوی
36009
این از _احتمال و اندازه گیری_ توسط Billingsley، نسخه سوم است. **27.21 (ص. 370)** اجازه دهید $X_1، X_2،...$ مستقل و به طور یکسان توزیع شوند، و فرض کنید که توزیع مشترک برای $X_n$ توسط $[0,2\pi]$ پشتیبانی می‌شود و توزیع شبکه ای نیست. اجازه دهید $S_n=X_1+\cdots+X_n$، که در آن مجموع ماژول $2\pi$ کاهش می یابد. نشان دهید که $S_n \Rightarrow U$، که در آن $U$ به طور یکنواخت روی $[0,2\pi]$ توزیع شده است. آیا کسی می تواند نکاتی را ارائه دهد؟ با تشکر P.S. این مشکل به دو مشکل دیگر برمی گردد. یعنی: **26.1 (ص. 353)** یک متغیر تصادفی دارای توزیع _شبکه_ است اگر برای برخی از $a$ و $b$، $b>0$، شبکه $\{a+nb:n=0،\ pm 1،\dots\}$ از توزیع $X$ پشتیبانی می کند. اجازه دهید $X$ دارای تابع مشخصه $\varphi$ باشد. **(a)** نشان دهید که شرط لازم برای $X$ برای داشتن توزیع شبکه این است که $|\varphi(t)|=1$ برای مقداری $t\neq 0$. **(ب)** نشان دهید که شرط نیز کافی است. **(c)** فرض کنید $|\varphi(t)|=|\varphi(t')|=1$ برای $t$ و $t'$ غیرقابل مقایسه ($t\neq 0$, $t' \neq 0$، $t/t'$ غیر منطقی). نشان دهید که $P\{X=c\}=1$ برای مقداری ثابت $c$. **26.29 (ص. 356)** **(a)** فرض کنید $X'$ و $X''$ متغیرهای تصادفی مستقل با مقادیر $[0,2\pi]$ هستند، و اجازه دهید $X$ $X'+X''$ کاهش ماژول $2\pi$ باشد. نشان دهید که ضرایب فوریه مربوطه $c_m=c_m' c_m''$ راضی است. **(ب)** نشان دهید که اگر یکی یا دیگری از $X'$ و $X''$ به طور یکنواخت توزیع شده باشد، X$ نیز توزیع شده است.
همگرایی توزیع
41780
من سعی می کنم از یک مدل رگرسیون دوجمله ای منفی برای برخی از داده های شمارشی استفاده کنم که در آن متغیر شمارش وابسته مقادیر 0، 1، 2، 3 یا 4 را می گیرد. معیار X بزرگتر از حد 0.0001 است. که در آن X تقریباً از 0.001 تا 250 متغیر است. من در این مرحله فقط با مدل‌های تک متغیره کار می‌کنم، و این مسئله برای همه انواع متغیرهای مستقل است (به عنوان مثال، متغیر مستقل در مدل یک متغیر پیوسته مانند سن است یا یک متغیر طبقه‌ای متغیر مانند سطح درآمد). من همچنین متوجه شدم که تخمین پراکندگی همیشه 0 است و به دنبال آن 0 برای خطای استاندارد و 95٪ Wald CI یا با خطای استاندارد <0.01 و مقادیر گمشده برای 95٪ Wald CI دنبال می‌شود. تخمین‌ها و خطاهای استاندارد برای متغیرهای مستقل با خطاهای یک رگرسیون پواسون به جای رگرسیون دو جمله‌ای منفی برابری می‌کنند (من حدس می‌زنم زیرا تخمین پراکندگی = 0). آیا راهی برای رفع مشکل همگرایی وجود دارد؟
رگرسیون دو جمله ای منفی همگرا نمی شود
41784
اخیراً مقاله ای در مورد اینکه چگونه می توانید با کم خوابی طول عمر خود را افزایش دهید خواندم. این مقاله، مانند بسیاری دیگر که خوانده‌ام، به یک مطالعه آماری ارجاع می‌دهد و دلالت بر این دارد که بین دو رویداد (کمتر خوابیدن و طولانی‌تر زندگی کردن) علت پیدا شده است. خب، من یک آمارگیر نیستم، اما از اشتباهات رایج در مورد علیت آگاهم و قبول اطلاعات ارائه شده در این مقاله و سایر موارد مشابه برایم بسیار سخت است. حتی بیشتر از آن، من تقریباً هرگز نمی توانم از روی یک مقاله بدانم که آیا مطالعه اصلی علت را پیدا کرده است یا نه، بدون اینکه وقت بگذارم و در آن جستجو کنم. اگرچه من واقعاً دوست دارم، اما قصد ندارم با آوردن مثال هایی از اینکه چگونه علت ممکن است در مقاله داده شده اشتباه باشد، وارد هیچ عمقی نمی شوم، زیرا به احتمال زیاد برای گروه کر موعظه می کنم. خوشبختانه، برای تسکین من، مقاله اصلی در نیویورک تایمز فقط در مورد همبستگی صحبت می کند و حتی در پایان یک سلب مسئولیت دارد که اساساً می گوید که این مطالعه دلالت بر علیت ندارد. همچنین، اکنون می‌خوانم که مطابق با شهودم، یافتن و/یا آزمایش علیت واقعاً سخت است. با خواندن صفحه ویکی در مورد موضوع، دو مدل را دیدم که به نظر رایج‌ترین مدل‌هایی هستند که برای یافتن پیوندهای واقعی در علیت استفاده می‌شوند: آزمون علیت گرنجر و نگاشت متقاطع همگرا. اما من می بینم که هر دوی اینها شکاف هایی در خود دارند. حالا در مورد همه اینها چند سوال دارم. Q1: آیا مدلی وجود دارد که بتواند با دقت بالا، علت واقعی را در چنین مطالعات گسترده ای بیابد؟ اگر بله رایج ترین آنها کدامند؟ Q2: این مطالعات گسترده چند بار واقعاً برای علیت آزمایش می کنند؟ به عنوان مثال اگر در جایی خواندم که یک مطالعه بسیار گسترده نشان می دهد که A باعث B می شود، آیا دلیلی دارم که باور کنم چیزی بیش از همبستگی پشت این ادعاها وجود دارد. Q3: آیا تکنیک خوبی وجود دارد که بتواند توسط یک غیر آمارگیر برای فیلتر کردن آمار خوب از آمار بد در زندگی روزمره استفاده شود.
دلالت علیت
71355
یک برنامه اکسل آزمایش سکه مونت کارلو را اجرا می کند. «10000» سکه «1000» بار پرتاب می‌شوند، با تعداد دفعاتی که سر «N» در جدول ظاهر می‌شود. تعداد دفعاتی که سرهای «N» در طول اجرای آزمایش ظاهر می‌شوند «Q» را صدا بزنید. مقدار متوسط ​​'Q' و همچنین انحراف معیار آن در پایان آزمایش محاسبه می شود. سوال من این است که چگونه می توانم نوارهای خطا را برای چنین آزمایشی محاسبه کنم؟ من دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم و در چند ساعت گذشته تلاش کردم تا راه حلی پیدا کنم، اما همه تلاش ها بی نتیجه بوده است. هر گونه کمکی بسیار قدردانی خواهد شد.
نوارهای خطا در آزمایش سکه مونت کارلو
71350
من سعی می‌کنم نحوه استفاده از مدل‌های یادگیری ماشینی مانند جنگل تصادفی با داده‌های سری زمانی (غیر مالی) را تعیین کنم. با استفاده از یک مثال، فرض کنید می‌خواهیم بر اساس نمرات ماهانه دروس برای هر دانش‌آموز بفهمیم که او در امتحان پایان ماه که هر ماه برگزار می‌شود، چقدر خوب عمل می‌کند. ماه 1 نام داده وضعیت EngScore MathScore HistScore ... MonthEndExamScore جان NY 80 90 75 180 Jack TX 78 65 90 170 John CA 82 93 79 185 همین داده ها برای دانش آموزان در ماه 2، 3 ... جمع آوری شده است. وظیفه پیش‌بینی امتیاز MonthEndExam ماه جاری با استفاده از داده‌های تاریخی دانش‌آموز در مورد عملکرد در ماه‌های گذشته است. برای ماه جاری، نمرات همه موضوعات فردی تا اواسط ماه مشخص است، در حالی که ماه پایان ماه تا پایان ماه مشخص نیست و آن چیزی است که ما می خواهیم پیش بینی کنیم. من می‌دانم که می‌توان از روش‌های آماری مانند ARIMA و غیره استفاده کرد، اما نمی‌دانستم که آیا روش‌های مشابهی در ML وجود دارد که بتوان در اینجا اعمال کرد، ** به‌ویژه ** با استفاده از بسته‌های R (مانند randomForest، caret، party، و غیره). پیشاپیش ممنون
روش‌های یادگیری ماشین سری زمانی و بسته‌های R
70915
من به دنبال نمونه برداری از پل گاما هستم، همانطور که در مثال [1] توضیح داده شده است. مزایای نمونه گیری در این روش چیست؟ آیا صرفا جنبه محاسباتی دارد؟ آیا هیچ مشکلی در نحوه عملکرد rgamma() در نمونه های R وجود دارد؟ از آنچه من می توانم بگویم، این یک روش پذیرش - رد است. یکی از مواردی که می‌تواند با نمونه‌برداری پل گاما بهتر باشد این است که در نمونه‌برداری افزایشی، خطاهای گرد از افزایش در کل فرآیند جمع می‌شوند. این مورد برای نمونه برداری از پل گاما صادق نخواهد بود. [1]: Avramidis AN، L'Ecuyer P، Tremblay PA. شبیه سازی کارآمد فرآیندهای گاما و واریانس-گاما. مجموعه مقالات کنفرانس شبیه سازی زمستان 2003. IEEE 2003، ص. 319-326
نمونه برداری از پل گاما
41783
من مجموعه‌ای از پروفایل‌های طول قطعه t-rflp از تحقیق در مورد تخریب میکروبی هیدروکربن‌ها به عنوان بخشی از پایان‌نامه کارشناسی خود دارم. من می‌خواهم تأثیر متغیرهای مختلف را بر روی جامعه میکروبی خاک‌های غیرآلوده مطالعه کنم - به‌ویژه اگر وجود سورفکتانت‌ها و خاک از مناطق آلوده به نفت بر جامعه میکروبی در شرایط هوازی و بی‌هوازی تأثیر بگذارد. اساساً این تحقیق دارای چهار تکرار t-rflp برای هر یک از موارد زیر است: هوازی (بدون سورفاکتانت)، (بدون سورفکتانت + افزوده شده)، (سورفکتانت)، (سورفکتانت + افزوده) بی هوازی (بدون سورفاکتانت)، (بدون سورفکتانت + افزوده)، (سورفکتانت)، (سورفکتانت + افزوده شده) مشکل این است که من هرگز کاری از راه دور انجام نداده ام مشابه قبل، و سرپرست من برای چند هفته دور است. آیا استفاده از متغیرهای مستقل دوگانه (+/- سورفکتانت، +/- افزایش خاک، شرایط هوازی/بی هوازی) برای nMDS مناسب است؟ اگر کمک کند از بسته آمار دیرینه شناسی (PAST) استفاده می کنم. در یک یادداشت مرتبط، آیا انجام تجزیه و تحلیل آماری بر روی مختصات محور DCA نمونه ها (GLM ANOVA؟) مناسب است؟
مقیاس بندی چند بعدی غیر متریک با متغیرهای مستقل دوگانه؟
7053
من در حال بررسی مقاله‌ای هستم و نمی‌توانم جزئیاتی را ارائه کنم، اما وضعیت اینجاست، و من را متحیر کرده است که بیماران به 4 دسته تقسیم می‌شوند (آنها را A B C و D می‌نامیم)، که جامع و انحصاری بودند. نسبت های خطر تعدیل شده برای این چهار گروه برای همه بیماران و برای دو زیر گروه از بیماران (آنها را ریه و قلب می نامیم) محاسبه شد. این دو زیر گروه نیز جامع و انحصاری بودند. برای نمونه کامل، نسبت خطر برای B C و D (در مقایسه با A) 5.08، 4.39 و 1.81 بود. برای گروه ریه، آنها 1.15، 1.16 و 1.07 بودند. برای گروه قلب آنها 2.55، 1.69 و 1.28 بودند. یعنی برای هر دو زیر گروه کمتر از کل جمعیت بود. گروه ریه و گروه قلب هم اندازه نیستند. از اطلاعات ارائه شده، مشخص نیست که آیا A B C و D به طور مساوی در گروه های قلب و ریه تقسیم می شوند یا خیر. پس…. به نظر می رسد این پارادوکس سیمپسون است. اما من ندیده ام که این اصطلاح برای تجزیه و تحلیل بقا استفاده شود. من نمی دانم که چرا نمی تواند اینقدر اعمال شود. احساس من در اینجا این است که پیشنهاد می کنم قلب و ریه فقط باید جداگانه ارائه شوند، اما من کاملاً مطمئن نیستم. (ببخشید اگر چیزی واضح را از دست دادم - رسیدگی به برخی از مشکلات بهداشتی خانوادگی و خوب نخوابیدن) با تشکر از هرگونه بینش یا فکر
سوال در مورد ترکیب نسبت های خطر - شاید پارادوکس سیمپسون؟
37750
فرض کنید من یک مجموعه داده دارم که داده‌های دایره‌ای اندازه‌گیری شده را در درجه نشان می‌دهد: x <-c(rnorm(1000, 0, 10), rnorm(700, 110, 3), rnorm(1100, 230, 5)) %% 360 پکیج R «دایره ای» راه بسیار خوبی برای نمایش آن داده ها و ابزاری اساسی برای تشخیص نقاط تغییر در آن ارائه می دهد: library(circular) x <- circular(x, units='degrees') cp <- change.point(x) با این حال، این الگوریتم خاص محدود است، زیرا (طبق تجربه من) نسبتاً ناکارآمد است، و محدود به یافتن یکی است تغییر نقطه در یک زمان، بنابراین اگر چندین نقطه تغییر وجود دارد، یک رویکرد بازگشتی مورد نیاز است. این باعث می شود تصمیم گیری در مورد زمان خاتمه کمی دشوار باشد. اگر از الگوریتم نقطه تغییر خطی استفاده شود، با «x[1:1000]» مشکل خواهد داشت زیرا برخی از مقادیر نزدیک به «0» و برخی نزدیک به «360» خواهند بود. برای داده های خطی، من الگوریتم PELT Killick، Fearnhead و Eckley (2011) را دوست دارم که توسط تابع cpt.mean() بسته R changepoint پیاده سازی شده است. این سریع است و به نظر می رسد بسیار قابل اعتماد است. آیا کسی به تطبیق این روش با داده های دایره ای نگاه کرده است؟ یا توصیه های دیگر؟
تشخیص تغییر در داده های دایره ای
33238
دو ابزار کاملاً بر سر دسته بندی 85 هزار جمله (کل جمعیت من) توافق دارند. حالا من می خواهم یک نمونه از جملات را بگیرم و آن را به دو نفر بدهم. این برای بررسی این است که آیا ابزارها واقعاً موافق هستند یا هر دو با هم 85 هزار جمله را اشتباه دسته بندی کرده اند. اکنون، باید بدانم از بین 85 هزار جمله چند جمله را باید به عنوان نمونه انتخاب کنم تا از نظر آماری آن را بررسی کنم. آیا فرمول یا روشی برای فهمیدن وجود دارد؟
تعیین حجم نمونه
7059
من بسیاری از افراد را مدیریت می کنم که داده ها را در یک پایگاه داده وارد می کنند. من گزارشی از کاربر، تاریخ، زمان، جدول و اقدامی دارم که هر فرد انجام می دهد: رکوردهای <- data.frame(user = c('bob', 'bob', 'jane', 'jane', 'bob' , 'bob', 'bob', 'jane', 'jane', 'bob'), date = c(2010-06-24, 2010-06-28, 2010-06-29، 2010-06-30، 2010-07-01، 2010-07-02، 2010-07-05، 2010-07-06، 2010 -07-07، 2010-07-09)، زمان = c(01:40:08، 01:40:18، 01:40:28، 01:40:37، 01:40:44، 01:40:52، 01:40:59، 01 :56:26، 02:16:37، 03:55:06)، جدول = c(rep('table1',5)، rep('table2',5)), اقدام = c('ایجاد'، 'ایجاد'، 'ایجاد'، 'به روز رسانی'، 'ایجاد'، 'به روز رسانی'، 'به روز رسانی'، 'ایجاد'، 'ایجاد'، 'ایجاد')) برای موارد غیر ضروری به عنوان مثال، قاب داده واقعی «رکوردها» با 10000 ورودی را می توان به عنوان یک فایل Rdata در اینجا دانلود کرد و سپس: load('records.Rdata') library(ggplot2) qplot(تاریخ، جدول، داده = رکورد، رنگ = کاربر، geom='jitter') چگونه می توانم به طور کلی و برای هر جدول تجسم کنم: 1. مدت زمان هر جدول شخص در هفته کار می کند 2. نوع و تعداد یا دفعات اقداماتی که انجام داده است. ?
چگونه می توانم به طور موثر مجموعه های زمانی فعالیت های کارکنان را خلاصه و تجسم کنم؟
7056
readHTMLTable بسیار قوی به نظر می رسد، اما وقتی سعی می کنم از آن در این صفحه استفاده کنم، با خطا مواجه می شوم. آیا ایده ای دارید که معنی آن چیست یا چگونه می توانم از آن دور شوم؟ بزرگترین جدول صفحه در داخل جدول دیگری تو در تو قرار دارد... آیا این مشکل دارد؟ > جداول<-readHTMLTable(myURL, header=NA,a.data.frame=TRUE) خطا در htmlParse(doc): خطا در ایجاد تجزیه کننده برای http://www.ncbi.nlm.nih.gov/genomes/lproks. cgi
خطا در ایجاد تجزیه کننده در readHTMLTable
37753
من وظیفه ارائه یک برنامه پیش بینی برای شرکتم را بر دوش دارم. من هیچ تجربه ای ندارم و در کل صحنه پیش بینی بسیار جدید هستم. در حال حاضر، شرکت من هیچ برنامه ای برای سرمایه گذاری در هیچ نرم افزار پیش بینی ندارد، بنابراین تنها ابزار من اکسل است. من خودم سعی کردم تحقیقات آنلاین انجام دهم و به نظر می رسد که این روش هموارسازی سه گانه یک مزیت عالی خواهد بود، اما کمی گیج هستم و حدس می زنم که واقعاً معادلات را درک نمی کنم. در زیر من 3 سال فروش برای یک مورد ارائه کرده ام. ما در دوره ها (4 هفته = 1 دوره) پیش بینی می کنیم. بنابراین در یک سال 13 دوره وجود دارد. وقتی پیش‌بینی می‌کنیم، باید 6 دوره در آینده را پیش‌بینی کنیم، لطفاً به من کمک کنید از تکنیک هموارسازی سه‌گانه برای انجام این کار استفاده کنم. Period 10 2009 69,088 Period 11 2009 83,400 Period 12 2009 75,735 Period 13 2009 79,526 Period 01 2010 81,005 Period 20104 02 2010 90,567 Period 04 2010 94,568 Period 05 2010 101,687 Period 06 2010 93,540 Period 07 2010 84,249 Period 08 2010 2010 78,531 Period 10 2010 89,465 Period 11 2010 83,341 Period 12 2010 87,106 Period 13 2010 65,636 Period 01 2011 Period 79,629 Period 01 2011 79,602 03 2011 87,483 Period 04 2011 99,228 Period 05 2011 113,215 Period 06 2011 96,057 Period 07 2011 95,475 Period 08 920 103,529 Period 10 2011 94,515 Period 11 2011 76,146 Period 12 2011 81,736 Period 13 2011 80,174 Period 01 2012 Period 01 2012 Period 81,420 Period 03 2012 120,775 Period 04 2012 97,058 Period 05 2012 119,921 Period 06 2012 102,311 Period 07 2012 109,4918 Period 109,4910 09 2012 98,103 Period 10 2012 Period 11 2012 Period 12 2012 Period 13 2012 Period 01 2013 Period 02 2013 Period 03 2013
نحوه استفاده از هموارسازی نمایی سه گانه برای پیش بینی در اکسل
33234
اگر من جمعیتی داشته باشم و بخواهم از آنجا نمونه بگیرم، برای تعیین تعداد نمونه از جامعه چه مراحلی وجود دارد؟ به عبارت دیگر، اگر من جمعیت N داشته باشم و بخواهم از آنها k نمونه بگیرم به طوری که نمونه ها نماینده کل جامعه باشند، چگونه می توانم k را تعیین کنم؟ من از اینجا اطلاعاتی دارم اما در پایان این سند می‌بینم-> اگر استاندارد جمعیت خود را نمی‌دانید > انحراف که مورد من است (یعنی من واریانس جمعیت را نمی‌دانم) همچنان می‌توانید از این فرمول استفاده کنید. . چگونه می توانم از آن فرمول استفاده کنم اگر انحراف / واریانس استاندارد جمعیت را نمی دانم؟ n.b. من این سوال را در آن انجمن ارسال کردم اما هنوز موفق نشدم.
تعیین حجم نمونه
41782
آیا کسی می‌داند که چگونه / آیا می‌توانید یک متغیر مستقل را هم به عنوان متغیر بین و هم در درون موضوعات در نظر بگیرید (به طور ایده‌آل در اندازه‌های تکراری SPSS ANOVA). یعنی ما یک مطالعه اندازه گیری مکرر داریم که در آن متغیر مستقل DEVICE (6 سطح) است. نکته مهم این است که هر پاسخ دهنده فقط در معرض 3 دستگاه قرار می گیرد و ما می خواهیم تجزیه و تحلیل را در تمام 6 دستگاه انجام دهیم. برای هر دستگاه 3 اقدام انجام خواهیم داد.
متغیر ANOVA که هم BETWEEN و WITHIN است
7057
من می خواهم ضرایب مسئله LASSO را بدست بیاورم $$||Y-X\beta||+\lambda ||\beta||_1.$$ مشکل این است که توابع glmnet و lars پاسخ های متفاوتی می دهند. برای تابع glmnet من ضرایب $\lambda/||Y||$ را به جای $\lambda$ می‌پرسم، اما هنوز پاسخ‌های متفاوتی دریافت می‌کنم. آیا این انتظار می رود؟ رابطه بین lars $\lambda$ و glmnet $\lambda$ چیست؟ من می دانم که glmnet برای مشکلات LASSO سریعتر است، اما می خواهم بدانم کدام روش قدرتمندتر است؟
GLMNET یا LARS برای محاسبه راه حل های LASSO؟
41786
با این داده‌ها: y <- c(1.105808، 1.000000، 5.304166، 33.665875، 139.865451، 109.033703، 176.639245، 1.000000000، 1.00000000، 1.00000000، 1.00000000، 1.00000000، 176.639245، 1.0004166. ,150.478570, 18.465554, 85.096431, 81.907537, 124.631226, 1.000000 , 11.237294 , 20.480519 , 20.480519 , 1676. 54.051613 , 134.068889 , 72.215041 , 1.000000 , 31.254480 , 6.226026 , 54.340496 , 161.6673508,413 147.404744، 192.966923، 1.000000، 1.150755، 1.000000، 99.477430، 72.592598، 107.493014، 1414.1414. , 1.000000, 27.534944 , 8.492657 , 38.155558 , 44.301978 , 81.938633 , 75.026848 , 144.926520 , 107 , 100 . 40.001560) x1 <- c(7.878865، 9.117159، 9.998539، 10.300563، 12.683197، 12.185060، 101.3463885، 101.3463885، 41. چهار 8.154099، 8.811370، 64.089236، 205.728163، 7.218225، 6.905615، 9.341990، 8.554343، 15.815، 15.815. . 3.985544، 4.389385، 4.663445، 4.934453، 6.622184، 7.770833، 21.700911، 33.470576، 5.411-x) 5.40540. c(0.4225000، 0.6619411، 0.5401000، 0.5138000، 0.5109000، 0.6325681، 0.6425919، 0.6466943، 0.6466943، 0.442087، 0.4420 0.5254000، 0.5525000، 0.5392000، 0.6330954، 0.6457942، 0.6582531، 0.4039000، 0.6154006، 0.458،0.46200 0.5439000، 0.6494275، 0.6423681، 0.6450814، 0.5110000، 0.6060935، 0.5050000، 0.5200000، 0.5200000، 0.5333650 . 0.4797000، 0.6211242، 0.5705000، 0.5709000، 0.6144000، 0.6412593، 0.6611542، 0.6364444، 0.63644444، 0.35990. مدل اثرات تصادفی لگ نرمال در JAGS. زیر کد JAGS من: # مدل Lognormal # N شهرداری # M years # W Betas model { for(i in 1:N) { for (j in 1:M) { k <- (i-1)*8 + j y[ k] ~ dlnorm(mu[k]، tau) mu[k] <- beta0 + delta[i] + inprod(x[k,]، beta[]) دلتا[i] ~ dnorm(0، tau2) } } # قبلی برای بتاهای بتا ~ dnorm(mbeta0، precbeta0) برای (l در 1:W) { beta[l] ~ dnorm(m[l]، prec[l]) } # قبلی برای دقت Y tau ~ dgamma(tau.a، tau.b) sigma <- 1/sqrt(tau) # قبل از دقت دلتا tau2 ~ dgamma(tau.a2, tau.b2) sigma2 <- 1/sqrt(tau2) } اینجا کد Rjags من: br <- read.csv(داده/تست .csv، header=T، sep=',') br <- na.omit(br) br$y <- br$y + 1 # تنظیم داده y <- br[, 28] x <- br[, c(29,30,12,22)] # داده، مقادیر اولیه و پارامترها N <- طول( منحصر به فرد(br $ID)) W <- dim(x)[2] data <- list(N=N، M=8، W=W، y=y، x=x، m=c(-2،2،4،3)، prec=c(.20،.20،.20،.20)، tau.a=1، tau.b=2، tau.a2=1، tau .b2=2، mbeta0=1، precbeta0=.01) شروع می شود <- rep(list(list(beta0=0, beta=c(1,1,1,1), tau=1)),5) param <- c(beta0، beta، sigma، delta) # Model sim <- jags.model(file=Code/lognormal2.bug, data=data, inits=inits, n. chains=5, n.adapt=1000) اما خطای زیر را دریافت می کنم: خطا در jags.model(file = Code/lognormal2.bug, data = داده، inits = inits، : RUNTIME ERROR: خطای کامپایل در خط 11. مقادیر از دست رفته در زیر مجموعه عبارت y کمکی دارید؟
خطای کامپایل در JAGS
7058
من سه ویژگی دارم که برای حل یک مشکل طبقه بندی استفاده می کنم. در اصل، این ویژگی‌ها مقادیر بولی تولید می‌کردند، بنابراین من می‌توانم افزونگی آن‌ها را با بررسی میزان همپوشانی مجموعه‌های طبقه‌بندی مثبت و منفی ارزیابی کنم. اکنون ویژگی‌ها را برای تولید مقادیر واقعی (نمرات) گسترش داده‌ام و می‌خواهم دوباره افزونگی آن‌ها را تجزیه و تحلیل کنم، اما در مورد نحوه انجام این کار کاملاً از دست رفته‌ام. آیا کسی می تواند به من اشاره یا ایده ای در مورد چگونگی انجام آن ارائه دهد؟ من می دانم که این سوال بسیار مبهم است، به این دلیل که درک خیلی قوی از آمار ندارم. بنابراین، اگر پاسخی برای من ندارید، شاید سؤالاتی دارید که می تواند به درک بهتر من کمک کند. **ویرایش:** من در حال حاضر در حال مرور ویکی‌پدیا در مورد این موضوع هستم، احساس می‌کنم چیزی که می‌خواهم یک ضریب همبستگی است، اما هنوز مطمئن نیستم که آیا این رویکرد درستی است و کدام یک از ضرایب موجود مناسب است. **ویرایش 2:** در حالت بولی، من ابتدا برای هر ویژگی مجموعه نمونه هایی را ایجاد کردم که درست بود. سپس، همبستگی بین دو ویژگی، اندازه تقاطع این مجموعه ها بر اندازه اتحاد این مجموعه ها بود. اگر این مقدار 1 باشد، آنها کاملاً اضافی هستند، زیرا همیشه یکسان هستند. اگر 0 باشد، هرگز یکسان نیستند.
چگونه می توان افزونگی ویژگی ها را کمیت کرد؟
37756
من آزمون‌های همبستگی را بین تعدادی از متغیرها انجام دادم که شامل مقیاس‌های فاصله‌ای و مقوله‌ای بودند ($n = 1274$، یک نمونه). من از $\chi ^2$ تست برای طبقه بندی در مقابل ترتیبی و $\rho$ اسپیرمن برای فاصله در مقابل داده های ترتیبی استفاده کردم. همبستگی بین منطقه آب و هوایی (منطقه 1، 2، 3، 4 دلار) و قرار گرفتن روزانه در معرض تهویه مطبوع (کم، متوسط، زیاد) 0.35 دلار است (Cramer's V). همبستگی بین قرار گرفتن در معرض AC و امتیاز نگرش طرفدار محیط زیست (1-5 دلار، فاصله زمانی) 0.21 دلار است ($\rho$ اسپیرمن). آیا می‌توانم در صورت استفاده از آزمون‌های همبستگی مختلف، قدرت رابطه را مقایسه کنم، مثلاً رابطه بین آب و هوا و قرار گرفتن در معرض AC قوی‌تر از رابطه بین نگرش‌های طرفدار محیط‌زیست و قرار گرفتن در معرض AC است؟
آیا می توانید مقادیر Cramer's V و $\rho$ اسپیرمن را با هم مقایسه کنید؟