_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
32673
|
فرض کنید من در حال آزمایش اثربخشی یک ماشین جدید هستم. میزان موفقیت دستگاه فعلی 20 درصد است، یعنی به ازای هر صد ویجت تولید شده، 20 ویجت قابل فروش است. اکنون یک نمونه اولیه جدید توسعه داده ام و می خواهم بدانم که آیا عملکرد بهتری دارد یا خیر. علاوه بر این، سرمایه گذاری در ماشین جدید تنها زمانی منطقی است که 10٪ بهتر باشد، یعنی 22٪ میزان موفقیت. بنابراین من آزمایشی را تنظیم کردم و این داده ها را جمع آوری کردم: ماشین موفق می شود --------------------------------- n1 k1 اصلی نمونه اولیه n2 k2 فرض کنید * `alpha` = 5% * `beta` = 20% * من می خواهم از کوچکترین اندازه نمونه ممکن استفاده کنم. درک من این است که به طور معمول من یک آزمون تفاوت نسبتهای دو دنباله میخواهم. اما این آزمایش فقط به من میگوید که آیا این دو ماشین عملکرد متفاوتی دارند، نه اینکه یکی 10٪ یا بیشتر بهتر است. چگونه می توانم تعیین کنم که از چه اندازه نمونه استفاده کنم، آزمون(های) مناسبی که باید استفاده شود کدام است، و چگونه می توانم میزان تفاوت را گزارش کنم؟
|
روش صحیح تعیین میزان اختلاف بین دو نسبت چیست؟
|
62229
|
من سعی می کنم بفهمم از کدام نوع ICC برای محاسبه خطای اندازه گیری MY با استفاده از یک ابزار ارزیابی خاص استفاده کنم: پس زمینه و داده ها: فقط فاز امکان سنجی PhD. 10 جفت ویدیو از افرادی که کارهای روزانه را انجام می دهند. برای ارزیابی خطای اندازهگیری، ویدیوها 3 بار امتیاز گرفتند. برای کاهش اثر یادگیری، ویدئوها بهطور تصادفی امتیازدهی شدند. یک رتبه دهنده وجود دارد (من). هر جفت کار = یک ارزیابی کامل برای هر نفر. داده های خطی از یک ارزیابی که دو مقیاس را به دست می دهد (نمرات خام به نرم افزاری می رود که از تجزیه و تحلیل راش استفاده می کند و داده ها را به لاجیت تبدیل می کند). نمرات خام (36 مهارت با امتیاز 1،2،3 یا 4) می تواند مورد استفاده قرار گیرد، اما نه به تنهایی، برای تکمیل مناسب است. من زمان محدودی برای جمع آوری داده ها دارم، بنابراین 10 تنها کاری است که می توانم انجام دهم. من به دنبال چیزی ساده، مناسب و دقیق هستم. من خوشحالم که 2 یا 3 آمار مختلف را برای اندازه گیری دقیق ثبات امتیازی خود انجام می دهم. من مطالعات قابلیت اطمینان درون ارزیاب را خوانده ام که مشابه هستند، اما فقط یک بار، (و نه دو بار، همانطور که من انجام داده ام)، با استفاده از ICC 1 و ICC 1،2، همچنین مطالعات با چندین ارزیاب و امتیازدهی ویدئویی 5 بار که از ICC استفاده شده است، مجددا آزمایش کرده ام. نسخه 3.1 ثابت پاسخ ها و توصیه ها با سپاس و قدردانی دریافت شد.
|
قابلیت اطمینان درون ارزیاب و خطای ارزیابی - از کدام نوع ICC استفاده شود؟ ارزیاب مفرد
|
100140
|
این سوال بعدی است چگونه بسته های آیتم را در SPSS Amos ایجاد کنیم؟ سوال من این است که چگونه می توان بسته های اقلام را برای فاکتوری که یک بعدی نیست ایجاد کرد. چندین مقاله ذکر کرده اند که انجام بسته بندی اقلام تنها زمانی انجام می شود که عامل یک بعدی باشد. من EFA را اجرا کردم و متوجه شدم که این فاکتور سه بعدی است. تعداد کل اقلام 10 است. هدف اصلی از انجام بسته بندی اقلام، ساخت مدل صرفه جویی است. بنابراین، اگر تکبعدی ضروری است، ممکن است لازم باشد راه دیگری برای سادهتر کردن مدل پیدا کنم.
|
چگونه بسته های اقلام را برای فاکتوری که تک بعدی نیست ایجاد کنیم؟
|
32677
|
من باید بابت عدم تجربه ام عذرخواهی کنم اما امیدوارم کسی بتواند مسائل را برای من روشن کند. من علاقه مندم که به تغییر در عملکرد روانی اجتماعی در طول زمان نگاه کنم و آن را بین افراد مبتلا به اختلال شخصیت مرزی، اختلال شخصیت دیگر و بدون اختلال شخصیت مقایسه کنم. تمرکز اصلی من بر عملکرد روانی اجتماعی (PF) است، اما همچنین میخواهم نشان دهم که بهبودی کامل (رفع علائم به علاوه بهبود عملکرد) سختتر از بهبودی علائم به تنهایی است. بنابراین من قصد داشتم ANOVA اندازه گیری های مکرر را انجام دهم. مجموعه داده من از متغیرهای زیر تشکیل شده است: * PF در 4 نقطه زمانی اندازه گیری می شود (PF1، PF2، PF3 و P4). * علائم در 4 نقطه زمانی (S1، S2، S3، S4) اندازه گیری می شود. * سپس می توانم متغیر نتیجه دیگری را در زمان 4 محاسبه کنم که بازیابی است (بله یا خیر). * و یک متغیر نتیجه دیگر برای بهبودی (بله یا خیر). سه گروه وجود دارد: BPD، OPD و NPD. برای آزمایش **فرضیه اول** خود قصد داشتم آنالیز واریانس با اندازه گیری های مکرر را انجام دهم تا ببینم آیا تغییر در PF برای گروه BPD کمتر از سایر گروه ها است یا خیر. این به اندازه کافی ساده به نظر می رسد. با این حال، **هدف دوم** من این است که کجا گم می شوم. من در مورد اینکه چگونه می توانم میزان بهبودی کمتر از میزان بهبودی را آزمایش کنم و گروه ها را در این مورد مقایسه کنم گیر کرده ام. من فرض میکنم که دستیابی به بهبودی برای گروه BPD دشوارتر از بهبودی خواهد بود (یعنی نرخها بهطور قابلتوجهی متفاوت خواهد بود)، در حالی که گروه NPD نرخ بهبود و بهبودی مشابهی خواهد داشت، و OPD جایی در این بین خواهد بود. من نمی دانم که چگونه می توان بدون استفاده از رویکرد مدل های ترکیبی به این امر دست یافت. متأسفانه به دلایلی که خارج از کنترل من است (و تحت کنترل سرپرستانم) نمی توانم آن مسیر را طی کنم، اما با این وجود نمی توانم. باید تا جایی که می توانم تحلیل را ساده نگه دارم.
|
اندازه گیری های مکرر ANOVA
|
74586
|
من قبلاً این سؤال را اینجا پرسیدم، اما مطمئن نیستم که کجا بهتر است آن را بپرسم؟ این ممکن است یک سوال احمقانه به نظر برسد اما من واقعاً در مورد آن گیج هستم. طبق قانون بیز ما موارد زیر را داریم: $$p(\theta|X)=\frac{p(\theta)p(X|\theta)}{\int{p(\theta)p(X| \theta)d\theta}}$$من میدانم که تابع چگالی احتمال به طور کلی میتواند بزرگتر از یک باشد، اما به نظرم میرسد زیرا جمعهای مجزای انتگرال مخرج وجود دارد که بزرگتر از نامگذار است، بنابراین تابع چگالی احتمال خلفی نمی تواند در هر نقطه ای بزرگتر از یک باشد. این درسته؟! برای توضیح جزئی تر استدلال: فرض کنید ما به $p(\theta=\theta_0|X)$ علاقه مندیم و می دانیم که: $$\int{p(\theta)p(X|\theta)}d \theta\approx\sum\limits_{n}{p(\theta_i)p(X|\theta_i)}$$ اما اکنون فقط جمع بندی هایی را در نظر بگیرید که شامل $p(\theta_0)p(\theta_0|X)$. سپس مخرج آشکارا بزرگتر از مخرج خواهد بود.
|
آیا توزیع پسین برای یک متغیر پیوسته می تواند بزرگتر از یک باشد؟
|
100145
|
من دو مدل مختلف برای اندازه گیری ریسک (متغیر طبقه بندی) یک متغیر خاص دارم. من می خواهم این دو روش را از نظر آماری با هم مقایسه کنم تا بفهمم چقدر در محاسبات ریسک آنها تفاوت دارند. بنابراین، برای مثال، من فقط سه متغیر خواهم داشت، A (که ریسک برای آن محاسبه می شود)، متغیر B و C (متغیر طبقه بندی برای ریسک از دو مدل). B & C دارای مقادیر High، Low و Medium خواهد بود. آیا می توانید مدل های آماری خوبی برای انجام این کار در صورت امکان پیشنهاد دهید؟
|
مقایسه دو مدل مورد استفاده برای محاسبه ریسک یک متغیر؟
|
77580
|
من تعدادی تابع هدف دارم مانند: y1 = a11* x11 + a12*x11*x11+ a13*x12+....... y2 = a21* x21 + a22*x21*x21+ a23*x22+...... ::::: :::: ::::: اینها توابع چندگانه هستند. با این حال، محدودیت های توابع هدف به یکدیگر وابستگی دارند. چیزی شبیه به x11+ x21 + x22 <const1 x12 + x21 > const2 ::::: ::::: راه بهینه سازی چنین سیستم معادلاتی چیست؟ من در حالت ایده آل می خواهم از R برای انجام همین کار استفاده کنم؟ y1 = 0.32 x1 + 0.21 x1*x1 + 0.49 x2... y2... y3. . . معادلاتی که من دارم یک تابع غیر خطی است. اینها معادلات رگرسیون غیر خطی یا مدلهای غیرخطی ترکیبی بازار هستند. x عبارتند از هزینه تلویزیون، هزینه دیجیتال و غیره. من میخواهم همه این مدلها را «شامل» کنم، از برخی محدودیتها برای آنها استفاده کنم و هزینهها را در همه مدلها با توجه به محدودیتهایی مانند...x1 (خرج تلویزیون) < 100، تلویزیون بهینه کنم. + هزینه دیجیتال < 500. من می خواهم بتوانم بگویم که از مقدار 100 باید خرج کنم، 30 برای مدل 1، 20 برای مدل 2 (معادله 2) و غیره
|
بهینه سازی توابع هدف چندگانه با محدودیت ها
|
76775
|
چگونه برای داده های نامتعادل انتخاب مدل انجام دهیم؟ چند نقطه داده از کل مجموعه داده باید برای انتخاب مدل انتخاب شود؟ چند تا برای آموزش و تست؟
|
انتخاب مدل برای داده های نامتعادل
|
6170
|
من سعی می کنم داده های فروش آینده را برای محصولاتی که حجم فروش بسیار پایینی دارند مدل کنم. من یک برنامه نویسی هستم که در آمار و ارقام ضعیفی دارم، بنابراین اگر این سوال ساده لوحانه است پیشاپیش عذرخواهی می کنم! سوال من این است که کدام توزیع برای پروفایل فروش من مناسب تر است و آیا می توان توزیع را تأیید کرد. چارچوب دقیق مشکل این است که ممکن است محصولی داشته باشیم که مثلاً 6 واحد موجودی داشته باشد و ممکن است 8 واحد در سال با انحراف استاندارد 5 واحد بفروشیم (یعنی فروش یکجا است، بنابراین ما یک انحراف استاندارد را محاسبه می کنیم، اما واقعاً توزیع عادی نیست)... می خواهیم با احتمال مشخصی بگوییم چند روز از موجودی ما باقی مانده است. برای محصولات با حجم بالا، میتوانیم توزیع نرمال را فرض کنیم و پسانداز کردن موجودی روزهای باقی مانده بسیار آسان است. با این حال، برای محصولات کم حجم، نمیتوانیم توزیع نرمال را در نظر بگیریم (چون بدیهی است که محدود به این واقعیت است که ما نمیتوانیم کمتر از 0 فروش داشته باشیم). من به پواسون نگاه کرده ام، اما مطمئن نیستم که مناسب ترین است یا خیر. آیا کسی می تواند منابعی را به من معرفی کند که به من کمک کند مدل/تکنیک مناسب برای استفاده را شناسایی کنم؟ ممنون، مایک
|
توزیع/روش مناسب برای تخمین نقاط داده
|
32678
|
من تا حدودی تصور معقولی از اینکه معنی های جهت دار در زمینه آمار فضایی چیست دارم، اما از استفاده از این اصطلاح در بخش روش های این مقاله زیست شناسی محاسباتی (تاکید از من) گیج شده ام: > مقادیر ES خام برای محاسبه نرمال شده اند. برای تعداد متغیر shRNA ها > در ژن های مختلف با تقسیم ES خام بر **میانگین جهت** > یک توزیع تهی مطابق با اندازه تولید شده توسط 100000 جایگشت تصادفی > یک مجموعه سنجاق سر با همان اندازه. برای جمعبندی بخش مربوطه: فرض میشود که میانگین جهت توزیع بهدستآمده از مجموعهای از امتیازات (بدون بردار) محاسبه شود. چگونه می توان میانگین جهت را از مجموعه ای از مقادیر (یا تابع چگالی مرتبط) دریافت کرد؟ **ویرایش:** یک بخش از اطلاعاتی که _می تواند مرتبط باشد: مقادیر امتیازی که توزیع آنها رسم می شود و میانگین جهت آنها قرار است استخراج شود، از طریق یک آزمون خوب بودن برازش اعمال می شود که برای زیرمجموعه ای از موارد استفاده می شود. مقادیر (مجموعه سنجاق سر) از کل لیست رتبه بندی شده (داده های ریزآرایه، تبدیل به لیستی از مقادیر بیان دیفرانسیل). من همچنین شک دارم که جنبه فضایی داده های ریزآرایه بتواند نقشی در اینجا ایفا کند (این مدت طولانی است که از طریق پیش درمان حذف شده است).
|
معنی جهت دار در این زمینه چه می تواند باشد؟
|
24601
|
اگر باقیماندههای Martingale نشان میدهد که پیشبینیکننده X$ فرض خطرات متناسب را نقض میکند، اما باقیماندههای Schoenfeld نشان میدهد که اینطور نیست... به کدام یک باید اعتماد کنید؟
|
باقیمانده های Martingale و باقیمانده های Schoenfeld
|
35324
|
من یک سری زمانی نسبتاً طولانی از فراوانی سالانه ($N_t$) گونه حیات وحش (73 سال فراوانی) دارم. برای پیش بینی مسیر جمعیت، از مدل سازی ARIMA استفاده کرده ام. بررسی ACF و PACF سریهای زمانی متفاوت مرتبه اول نشان داد که یک چرخه 10 ساله وجود دارد. بنابراین من از یک فاصله فصلی 10 برای توضیح این الگوی دوره ای استفاده کردم. بنابراین، متغیر پاسخ این بود: $$ Y_t=(\sqrt{N_t}-\sqrt{N_{t-1}})-(\sqrt{N_{t-10}}-\sqrt{N_{t-11 }}) $$ به طور معمول، من از تبدیل لگاریتمی استفاده میکردم، اما منجر به باقیماندههای ناهمسان شد. بررسی ACF و PACF $Y_t$ یک ساختار فصلی ضربی را نشان داد، بنابراین من با مدل مطابقت دارم: $$ ARIMA(0,1,1)(0,1,1)_{10} $$ با استفاده از بسته پیشبینی در ` R`....`کتابخانه(پیش بینی)`. کد مثال برای برازش مدل: m1=Arima(y,order=c(0,1,1),seasonal=list(order=c(0,1,1), period=10), include.mean=FALSE) باقیماندههای این مدل به طور معمول توزیع شدهاند، همبستگی خودکار ندارند و همسیداست. من از مدل برازش شده از بالا برای کارهای شبیهسازی اضافی با استفاده از تابع «شبیهسازی.آریما» استفاده کردهام. با این حال، من میخواهم شبیهسازی را با یک سری زمانی متفاوت آغاز کنم. تابع arima.sim این اجازه را می دهد، اما به نظر نمی رسد تابع arima.sim مدل های فصلی ARIMA را مدیریت کند. با تابع «simulate.Arima» میتوان از گزینه «future=TRUE» برای شبیهسازی مقادیر «آینده به دادهها و مشروط به دادهها» در مدل «m1» استفاده کرد. آیا می توان داده های موجود در شی مدل «m1» را به سادگی جایگزین کرد تا شبیه سازی مشروط به داده های مختلف ایجاد شود؟ به عنوان مثال: # یک شی مدل جدید برای شبیه سازی ایجاد کنید. m.sim=m1 # داده های موجود در شی مدل را با داده های جدید جایگزین کنید. m.sim$x=new # شبیه سازی مشروط به داده های جدید. sim.forecasts=replicate(1000,simulate.Arima(m.sim,future=TRUE,bootstrap=TRUE))
|
شبیه سازی های ARIMA را با سری های زمانی مختلف راه اندازی کنید
|
76779
|
در اینجا یک مشکل فرضی مشابه با مشکلی وجود دارد که من با آن مشکل دارم: بیوپسی های سرطان پروستات بر اساس الگوی گلیسون (0-10) نمره گذاری می شوند. مقیاس ترتیبی است. بیش از 7 ضمانت جراحی دارد. بیماران در معرض خطر سرطان پروستات با بیوپسی های سریالی در فواصل نامنظم دنبال شدند. دادههای ما شامل یک سری بیوپسی (تاریخ و نتیجه) برای بسیاری از بیماران (یعنی 1000 نتیجه برای 100 بیمار)، همراه با ویژگیهای بیمار است که ممکن است بر خطر تأثیر بگذارد مانند جنسیت، تاریخ تولد (یعنی سن)، نژاد و غیره. چه مدلهایی را میتوان تخمین زد. با این داده ها می توان احتمال گلیسون > 7 را در بیوپسی بعدی پیش بینی کرد؟ یا اگر ساده تر باشد، چه مدلی می تواند امتیاز گلیسون را در بیوپسی بعدی پیش بینی کند؟ به طور شهودی باید آخرین نتایج بیوپسی، زمان پس از آخرین بیوپسی و سایر خصوصیات بیمار را در بر گیرد. من به طور کلی از R استفاده می کنم. از مقالات، بسته ها و غیره مربوطه قدردانی می شود. پیشاپیش ممنون
|
مدل پیش بینی از داده های پانل ترتیبی
|
24604
|
در https://github.com/OpenMDAO/OpenMDAO-Framework/issues/599 بیان شده است که طراحی آزمایشی لاتین Hypercube غیر مربعی به خوبی تعریف نشده است (من فرض می کنم که برای ابعاد بالاتر، یعنی هایپرمکعب باید در هر یک طول یکسان داشته باشد. بعد). من تعجب می کنم که چرا اینطور است. آیا نمی توان مثلاً یک طرح LHC داشت که در آن هر ردیف در هر بعد دارای _یک یا چند_ نمونه باشد، و فضای نمونه نسبتاً یکنواخت نمونه برداری شده باشد، بدون همبستگی بین متغیرها؟ من حدس میزنم که این در واقع ساخت یک ابرمکعب از یک ابرمستطیل است، اما آیا دلیلی وجود دارد که کار نکند؟ به عنوان مثال، من یک سری پارامتر دارم که می خواهم آنها را در یک مدل فیزیکی تغییر دهم. برخی 4 ایالت دارند، برخی فقط دو ایالت. آیا می توانم یک ابر مکعب بسازم که در آن پارامترهایی که فقط دو حالت دارند فقط آن حالت ها را تکرار کنند (به طوری که با هر یک از این دو حالت دو مدل اجرا شود)؟ در مورد انجام همین کار با پارامترهای 4-، 3- و 2-state چطور؟ آیا می توانم یک طرح LHC بسازم که در آن طول هر بعد برابر با کوچکترین مضرب مشترک تعداد حالات برای هر پارامتر (یعنی 12) باشد؟
|
آیا هایپرمکعب لاتین غیر مربعی قابل اجرا هستند؟
|
55251
|
به من گفته شده است که متغیر وابسته را در رگرسیون کوتاه نکنم، اما نمی دانم چرا. منطقی است که من نباید نمونه خود را بر اساس نتیجه انتخاب کنم، اما این چه فرضی را نقض می کند؟ آیا آنها دلیلی نظری دارند که چرا من نباید این کار را انجام دهم؟ با تشکر به روز رسانی: منظور من از تر و تمیز کردن است. در سمت راست معمول است (حداقل در اقتصاد مالی) که مشاهدات را با 0.5٪ تا 1٪ در هر دو دنباله کنار بگذارید یا کوتاه کنید. به من گفته شده است که انجام همین کار در سمت چپ تابو است. اما دقیقاً دلیل آن را نمی دانم. من مشکل خاصی در ذهن ندارم، فقط متوجه شدم که _چرا_ واقعی را نمیدانم، غیر از اینکه شما نباید بر اساس نتیجه انتخاب کنید.
|
چرا نمی توانم متغیر وابسته را در یک رگرسیون برش دهم؟ یا می توانم؟
|
74589
|
اجازه دهید $X_1, \dots , X_n \sim \mathrm{N}(\mu,\sigma^2)$. $\sigma^2$ شناخته شده است. ما می خواهیم $\mathrm{H}_0: \mu = 0$ در مقابل $\mathrm{H}_1: \mu > 0$ را آزمایش کنیم. برای نسبت احتمال دریافت کردم: $\Lambda_1 = \exp(\frac{n(\mu_0^2 - \mu_1^2)}{2 \sigma^2}) \cdot \exp(\frac{\mu_1 - \ mu_0}{\sigma^2} \cdot \sum x_i)$. جایی که جمله اول ثابت است. امیدوارم این درست باشد. اکنون می دانیم که برای مقدار مورد انتظار نمونه تصادفی معمولی $T(X_{1:n} = \sum X_i)$ یک آمار کافی است. من باید $\Lambda_1$ را به عنوان تابعی از $T$ بازنویسی کنم که به من $\Lambda_2$ می دهد. آیا اکنون می توانم $\sum x_i$ را در $\Lambda_1$ با $T$ مبادله کنم؟ سوال دیگر این است که در مورد منطقه رد $\Lambda_1$ و $\Lambda_2$ چه می توانم بگویم، با توجه به اینکه $\mu$ صفر یا بزرگتر است. نمیدونم منظور اینجا چیه...
|
نسبت احتمال برای توزیع نرمال
|
79023
|
برای محاسبه حجم نمونه برای تست 1 نسبتی در Minitab، باید توان و نسبت مقایسه را وارد کرد. لطفاً کسی می تواند تعریفی برای نسبت مقایسه ارائه دهد؟
|
مقایسه p در محاسبه اندازه نمونه برای آزمون 1 نسبت در Minitab چیست؟
|
77583
|
برای حل مشکل زیر به راهنمایی نیاز دارم. حرکت یک ربات خاص با HMM مدل سازی می شود. ربات در یک مسیر دایره ای حرکت می کند و در هر مرحله زمانی، یا با احتمال $\epsilon$ در همان مکان می ماند یا با احتمال $1-\epsilon$ (CCW) به مکان بعدی حرکت می کند. هر مکان راهرو از $1$ تا $N$ برچسب گذاری شده است و ربات دارای یک حسگر است که نشان می دهد مکان فعلی دارای برچسب اصلی است یا خیر. سنسور با احتمال $\delta$ به درستی کار می کند. مشخص است که ربات از یک مکان غیر اصلی شروع به کار می کند. با توجه به احتمال قرائت صحیح حسگر $\ از من خواسته می شود که میانگین تعداد مراحل را برای چگالی فیلتر $p(x_i|y_{1:i})$ برای رسیدن به حداکثر مقدار (حالت) مساوی یا بزرگتر از %90 بیابم. دلتا = 0.99 دلار. من با این مشکل گیر کردهام، اما یک راه تحلیلی ممکن برای حل آن که به ذهن من میرسد این است که میانگین تعداد مراحل $i$ را بررسی کنم که در آن $p(x_i|y_{1:i})$ به حالت $0.9$ میرسد. یا بزرگتر به عنوان یک متغیر تصادفی. سپس محاسبه مقدار مورد انتظار $i$، یعنی $E[i]$ باید پاسخ من را بدهد. مشکل این است که من مطمئن نیستم که آیا این را می توان با این روش حل کرد یا خیر و من مشکوک هستم که راه بسیار آسان تری برای حل آن وجود دارد که من نمی بینم. من به دنبال هر نکته یا نظری در مورد درستی یا نبودن طرز فکرم هستم. این یک سوال تکلیف است و بنابراین من فقط به دنبال نکات هستم. پیشاپیش ممنون
|
مدل پنهان مارکوف: میانگین مراحل لازم برای رسیدن به تراکم فیلترینگ به یک مقدار معین
|
38986
|
من 60000 داده دارم و حدود 45 درصد از آنها گم شده و مقادیر از دست رفته تصادفی هستند. آیا می توانم به سادگی از حذف لیستی یا جفتی استفاده کنم یا باید از imputation استفاده کنم؟ اگر انتساب توصيه مي شود، كدام تخصيص بهترين است؟
|
آیا باید از مقدار گمشده با استفاده از روشهای حذف یا حذف لیستی یا زوجی استفاده کنم؟
|
77584
|
من باید یک مدل را با استفاده از اعتبارسنجی مدل خارجی تأیید کنم و یک سوال دارم در مورد تصمیم گیری در مورد اینکه چه زمانی کاهش R^2$ در مقایسه با $R_{prediction}^2$ قابل توجه است. **افشای**: این یک سوال تکلیف نیست. من به دنبال توضیح در مورد چیزی هستم که در کتاب درسی است که برای کلاس رگرسیون کاربردی استفاده می کنم (کتاب درسی: دوره دوم آمار: تحلیل رگرسیون). من مدلی دارم که هدف آن پیشبینی $y$ از مجموعهای از متغیرهای کمکی است. مدل قبلاً مناسب بوده است و من میخواهم مدل را با استفاده از دادههای جدید تأیید کنم. کتاب درسی من موارد زیر را بیان میکند: **از کتاب درسی من** یک تکنیک ساده این است که درصد تغییرپذیری در دادههای جدید را که با مدل توضیح داده شده است محاسبه کنیم، که نشان داده شده $R_{prediction}^2$، و مقایسه آن با ضریب تعیین $R^2$ برای برازش حداقل مربعات مدل نهایی. اجازه دهید $y_1، y_2، ...، y_n$ مشاهدات $n$ مورد استفاده برای ساخت و برازش مدل رگرسیون نهایی را نشان دهند و $y_{n+1}، y_{n+2}، ...، y_{n +m}$ مشاهدات $m$ را در مجموعه داده جدید نشان می دهد. سپس $$R_{prediction}^2= 1 - \left(\frac{\sum\limits_{i=n+1}^{n+m}\left(y_i - \hat{y_i}\right)^2 }{\sum\limits_{i=n+1}^{n+m} \left(y_i - \bar{y} \right)^2}\right)$$ کجا $\hat{y_i}$ مقدار پیشبینیشده برای $i$th مشاهده با استفاده از تخمین $\beta$ از مدل برازش شده است و $\bar{y}$ میانگین نمونه دادههای اصلی است. اگر $R_{prediction}^2$ با کمترین مربعات مناسب با $R^2$ مقایسه شود، ما به سودمندی مدل اطمینان بیشتری خواهیم داشت. با این حال، اگر کاهش قابل توجهی در $R^2$ مشاهده شود، باید در مورد استفاده از مدل برای پیشبینی در عمل محتاط باشیم. (صفحه 316) **سوال من** متأسفانه، این تمام کتاب درسی در مورد استفاده از این تکنیک است و من نمی دانم چگونه می توانم تعیین کنم که آیا افت قابل توجهی رخ داده است یا خیر. برای مدل من R^2$ 0.8283 است و با استفاده از تکنیک توضیح داده شده در متن، R_{prediction}^2$ محاسبه شده از 0.7444 دارم. آیا کسی می تواند من را به سمت منابع دیگری راهنمایی کند که بتوانند روش تعیین اینکه آیا این کاهش قابل توجه است یا خیر ---من چندین جستجو در گوگل انجام دادم اما نتایج هیچ چیز مفیدی پیدا نکردند. ممنون از اینکه وقت گذاشتید و سوال من را خواندید.
|
اعتبار سنجی مدل خارجی با استفاده از داده های جدید برای پیش بینی: افت R^2$ چقدر قابل توجه است؟
|
77586
|
تفاوت بین شهود پشت توزیع گاما و وایبول چیست؟ آیا رابطه ای بین دو تراکم وجود دارد؟ لطفا کمک کنید.
|
توزیع Weibull v/s توزیع گاما
|
24600
|
آیا تابعی در R برای محاسبه دترمینان تعمیم یافته یک ماتریس منفرد وجود دارد؟ (مشابه 'ginv()' که برای محاسبه معکوس تعمیم یافته استفاده می شود)
|
تعیین کننده تعمیم یافته مور-پنروز
|
24607
|
آیا راه خوبی برای اندازه گیری همواری یک سری زمانی در R وجود دارد؟ به عنوان مثال، -1، -0.8، -0.6، -0.4، -0.2، 0، 0.2، 0.4، 0.6، 0.8، 1.0 بسیار هموارتر از -1، 0.8، -0.6، 0.4، -0.2، 0، 0.2، است. -0.4، 0.6، -0.8، 1.0 اگرچه میانگین و استاندارد یکسانی دارند انحراف اگر تابعی وجود داشته باشد که در یک سری زمانی به من نمره صاف بدهد، خیلی خوب خواهد بود.
|
چگونه صافی یک سری زمانی را در R اندازه گیری کنیم؟
|
77585
|
من در حال کار برای تقریب، برای برون یابی مقادیر یک تابع از چند مقدار شناخته شده هستم. این چیزی است که من دارم: 1. کمتر از 100 جفت ورودی/خروجی شناخته شده. 2. یک همبستگی مثبت یکنواخت.en 3. چیزی که دقیقاً دوجمله ای گوسی، پواسون یا معکوس نیست. در حال حاضر می توانم بین الگوریتم ژنتیک و شبکه عصبی مصنوعی یکی را انتخاب کنم. اگر از یک الگوریتم ژنتیک استفاده کنم، از آن برای تقریب رابطه با یک چند جمله ای یا یک تابع گویا استفاده خواهم کرد. اگر از شبکه عصبی استفاده کنم، به سادگی اولین نتیجه Google را برای یک کتابخانه C++ NN پیدا خواهم کرد (مگر اینکه به من توصیه دیگری شده باشد). اینجا سوالات من است. فرض کنید من به مدت زمان طولانی (حداکثر 1-2 هفته) و همچنین قدرت محاسباتی عالی (خوشه های دانشگاهی) دسترسی دارم. 1. آیا می توانم با یک GA یا یک ANN به تقریب نزدیک تری دست پیدا کنم؟ 2. کدام یک سریعتر خواهد بود؟ 3. برای متخصصان ANN: من با دنیای فناوری ANN آشنا نیستم. اگر من به دنبال قابلیت حمل، برنامه ریزی، سرعت و سازگاری برای چنین برون یابی هستم، کدام جعبه ابزار C++ را پیشنهاد می کنید؟ متشکرم.
|
GA یا ANN و پیشنهادات
|
22736
|
من کارشناس آمار نیستم اما به اعتبار استدلال زیر علاقه مند بودم. کسی استدلال کرد که بسیاری از افراد حرف J را در حروف اول خود دارند. آیا کسی میتواند درباره اعتبار روش زیر و نحوه بهبود آن نظر دهد، به ویژه اینکه فهرستی از نامهای اصلی که بر اساس محبوبیت مرتب شدهاند، از چه توزیع احتمالی پیروی میکنند؟ * * * طبق ویکیپدیا، متداولترین نامهای کوچک مردان در ایالات متحده بر اساس سرشماری سال 1990، به ترتیب عبارتند از: > > 'جیمز'، 'جان'، 'رابرت'، 'مایکل'، 'ویلیام'،' دیوید، «ریچارد»، «چارلز»، «جوزف»، > و «توماس» بیایید از یک توزیع احتمال تقریبی استفاده کنیم (آیا راه بهتری؟) که احتمالات این نام ها را بر اساس ترتیب آنها می دهد (از 0 شروع می شود) به شرح زیر: > P(name_i) = 0.15 / (i + 2) این یک توزیع احتمال برای حداقل 1000 نام (مجموع) است. به 1)، و به این صورت شروع می شود: > 0.0749، 0.0499، 0.0374، 0.0299، 0.0249، ... یعنی کسی 7.49 درصد احتمال دارد که جیمز نامیده شود. مجموع احتمالات داشتن نامی که با J شروع می شود از این لیست 14% است (P(James)+P(John)+P(Joseph))، اجازه دهید آن را _Pj_ بنامیم. البته Pj در واقع بالاتر است زیرا تعداد نامهای بیشتر از این 8 تا در لیست 1000 تایی ممکن است با J شروع شود. حالا فرض میکنیم به یک کودک سه اسم داده میشود، احتمال اینکه حداقل آنها با J شروع شوند pj **36 است. %**!! (از (1-(1-pj)^3)). بنابراین هر بار که با یک شخص جدید ملاقات می کنید، یک سوم شانس دارید که او را با یک J در کارت ویزیت خود ببینید. بیایید این احتمال را pIj بنامیم، احتمال حداقل یک اولیه که با J شروع می شود. با این حال، وقتی می گویید اکثریت قاطع، فرض کنیم منظور شما 8 از 10 است. احتمال این که از 10 نفری که در یک ردیف ملاقات می کنید، 8 نفر دارای یک نامی که با J شروع میشود، با استفاده از توزیع دوجملهای، فقط **0.5%** میترسم، توسط comb(10,8) _pIj^8_ (1-pIj)^2. با این حال، اگر با 5 ما از 10 تسویه حساب کنید، شانس شما به **16٪ ** افزایش می یابد. * * * FYI سوال اصلی و پست را می توانید در اینجا پیدا کنید.
|
احتمال ملاقات با افرادی که حروف اول آنها دارای J است
|
52522
|
من یک سوال سریع دارم: اگر نمودارهای تشخیصی را با یک رگرسیون R رسم کنم، چند نفر از آنها Standardized Residuals را به عنوان محور y خود دارند مانند این نمودار:  سوال من این است: ** باقیمانده ها روی چه مواردی استاندارد شده اند؟** یعنی فرض کنیم در مدل من وجود دارد 100 مقدار پیش بینی شده از این رو 100 باقیمانده. 1. باقیمانده استاندارد شده $e_i$ به صورت $(e_i - \bar e)/s_e$(باقی مانده تحقق یافته - میانگین تمام 100 باقیمانده تحقق یافته)/(انحراف استاندارد همه 100 باقیمانده تحقق یافته) تعریف می شود؟ 2. از آنجایی که هر $e_i$ باقیمانده خود یک مقدار محقق شده از توزیع تحقق های ممکن برای این باقیمانده $e_i$ است، آیا این باقیمانده $e_i$ با میانگین $\bar e_i$ و واریانس $\text{ نرمال می شود. Var}(e_i)$ (بر خلاف میانگین و واریانس سایر مقادیر 1 تا 100 همانطور که در بالا توضیح داده شد)؟ من سعی کردم اسنادی را پیدا کنم که این تمایز را روشن کند، اما نتوانستم اسنادی را بیابم که شک و تردید وجود داشته باشد. هر گونه کمکی برای پاسخ به این سوال و ارائه نکاتی در مورد چگونگی یافتن چنین پاسخ هایی از طریق مستندات در آینده بسیار قدردانی خواهد شد.
|
باقیمانده های استاندارد شده در خروجی lm R
|
38987
|
در شکل می بینیم (رجوع کنید به _کمترین زاویه_ p30، Efron، Hastie، Johnstone، Tibshirani - پیوند: رگرسیون کمترین زاویه) که رابطه مستقیمی بین: * LASSO T هنجار مطلق $\beta$: $T(\ بتا) = \sum_j\vert\beta_j\vert$ * و تعداد مراحل $k$ محاسبه شده توسط LARS. من سعی می کنم یک رابطه ریاضی یا حداقل مستقیم بین هر دو LASSO T و LARS k پیدا کنم، مانند $A = B$ یا $A = x \Rightarrow B = f(x)$.
|
رابطه بین LASSO T و LARS تعداد مراحل k
|
4527
|
من در حال بررسی استفاده از تابع survreg در R برای تجزیه و تحلیل آزمایش فعلی خود هستم. آیا کسی می داند که ستون Value در خروجی تابع چیست؟
|
خروجی Value Survreg در R چیست؟
|
77634
|
من در حال تدریس یک درس آمار پایه هستم و امروز تست کای دو استقلال دو دسته و تست همگن را پوشش می دهم. این دو سناریو از نظر مفهومی متفاوت هستند، اما می توانند از آمار و توزیع آزمون یکسانی استفاده کنند. در آزمون همگنی، مجموع نهایی برای یکی از دستهها به عنوان بخشی از خود طرح فرض میشود - آنها تعداد آزمودنیهای انتخاب شده برای هر گروه آزمایشی را نشان میدهند. اما از آنجایی که آزمون مجذور کای حول شرطی کردن همه مجموعهای حاشیهای میچرخد، هیچ پیامد ریاضی برای تمایز بین آزمونهای همگنی و آزمونهای استقلال با دادههای مقولهای وجود ندارد - حداقل زمانی که از این آزمون استفاده میشود هیچ نتیجهای وجود ندارد. سوال من این است: آیا هیچ مکتبی از تفکر آماری یا رویکرد آماری وجود دارد که تحلیل های متفاوتی را به همراه داشته باشد، بسته به این که آیا ما برای استقلال (که در آن همه حاشیه ها متغیرهای تصادفی هستند) یا یک آزمون همگنی (جایی که یک مجموعه از حاشیه ها هستند) آزمایش می کنیم. تنظیم شده توسط طراحی)؟ در حالت پیوسته، بگویید که ما $(X,Y)$ را در یک موضوع مشابه مشاهده می کنیم، و استقلال را آزمایش می کنیم، یا $(X_1، X_2)$ را در جمعیت های مختلف مشاهده می کنیم و اگر آنها از توزیع یکسانی هستند، روش را آزمایش کنید. متفاوت است (تحلیل همبستگی در مقابل آزمون تی). چه می شود اگر داده های طبقه بندی شده از متغیرهای پیوسته گسسته آمده باشند؟ آیا آزمون های استقلال و همگنی باید قابل تشخیص نباشد؟
|
تست استقلال در مقابل تست همگنی
|
52525
|
من از یک نظرسنجی برای جمع آوری اطلاعات در مورد صدمات متحمل شده در حین تمرین و رقابت در ژیمناستیک استفاده کردم. من داده های شمارشی در مورد آسیب ها دارم که چیزی شبیه به این است: حلقه های طاق طبقه ... سر 33 45 7 گردن 43 19 17 شانه 21 39 25 ... ... ... ... انگشتان پا 16 9 3 می خواستم ببینید آیا رابطه ای بین قسمت آسیب دیده بدن و تجهیزات مورد استفاده وجود دارد یا خیر. فکر میکردم که استفاده از تست مربع کای برای استقلال کارساز باشد، اما فکر میکنم به مشکل برخوردم. وقتی شرکت کنندگان نظرسنجی را پر کردند، توانستند پاسخ های متعدد را بررسی کنند. به عنوان مثال، اگر شخصی در حین اجرای خرک مجروح می شد، می توانست هم سر و هم گردن خود را آسیب ببیند و هر دو در شمارش آسیب دیده می شدند. بنابراین یک آسیب به دو سلول کمک کرد. من انجام آنالیزهای جداگانه برای هر قسمت از بدن را در نظر گرفته ام اما فکر نمی کنم دقیقاً به سؤال من پاسخ دهد. آیا راه دیگری برای مقابله با این مشکل یا آزمون آماری متفاوتی وجود دارد که ممکن است کارساز باشد؟
|
تست استقلال متغیر با داده های شمارش و نقض فرض
|
38983
|
اگر «X» یک متغیر تصادفی غیرمنفی است که نشاندهنده عمر یک جزء دارای تابع توزیع «F» است، و S تابع بقا است و «T» یک متغیر تصادفی غیرمنفی است که نشاندهنده زمان تا یک رویداد گونهای است. نتیجه این انتگرال چیست؟ $$ \int_0^x \int_0^t S(u) du dt + \int_x^\infty \int_t^\infty S(u) du dt $$
|
انتگرال تابع بقا
|
31804
|
فرض کنید $X_1$ ~ $uni(0,1)$ $X_2$ ~ $uni(0,1)$ $X_3$ ~ $uni(0,1)$ و $Y=0.1X_1+0.3X_2+0.6X_3 $ F(Y)$ (یعنی CDF) چیست؟
|
مجموع توزیع های یکنواخت
|
24605
|
من می خواهم یک مجموعه مدل آب و هوا ایجاد کنم، با استفاده از روش هایپرمکعب لاتین، 5 پارامتر (واقعی، توزیع یکنواخت بین دو مقدار) را آزمایش کنم. مشکل این است که من مطمئن نیستم چند تکرار می خواهم انجام دهم. آیا انجام یک هایپرمکعب لاتین از 20 نمونه و سپس دیگری از 10 نمونه قابل اجرا است؟ چگونه می توانم مطمئن شوم که 30 نمونه به طور نسبی توزیع شده اند؟ یا آیا می توان LHC های 10 اندازه و چندتایی انجام داد؟ یعنی 3 یا 4 نمونه LHC با اندازه 10 انجام دهید، مطمئن شوید که هر LHC مستقل از بقیه است؟
|
حجم نمونه مطالعه Hypercube لاتین را افزایش دهید؟
|
34885
|
من یک مجموعه داده بزرگ دارم که به دلایل زیر وزن دارد: 1. احتمال متناسب با اندازه نمونه، و 2. طبقه بندی نامتناسب. من می خواهم میانگین ها را برای دو حوزه مختلف در یک نمونه با استفاده از میانگین وزنی و برآوردهای واریانس مقایسه کنم. فکر میکنم میتوانم با استفاده از تقریب دلتا واریانس تابعی از متغیرهای تصادفی ادامه دهم: $$ {\rm V}(\mu_1 - \mu_2) = {\rm V}(\mu_1) + {\rm V}(\ mu_2) - 2{\rm Cov}(\mu_1, \mu_2) $$ اما من نمیتوانم هیچ سابقهای یا راهحل متفاوتی برای این مشکل در ادبیات پیدا کنم. همچنین نتوانستم سؤال دیگری در این انجمن پیدا کنم که به این مشکل خاص بپردازد.
|
آزمون فرضیه تفاوت میانگین دامنه با داده های وزنی
|
17137
|
آیا کسی می تواند یک کتاب درسی را معرفی کند که همان موضوعات احتمال و آمار نوشته مایکل جی ایوانز و جفری اس. روزنتال را پوشش دهد؟ به نظر من این کتاب درسی خاص بسیار ضعیف و مختصر نوشته شده است.
|
جایگزینی برای کتاب احتمالات و آمار چیست و همان مطالب را در بر می گیرد؟
|
104131
|
من در تلاش برای درک مدل احتمال Fellegi-Sunter برای مشکل پیوند رکورد هستم. من پایان نامه را در آدرس زیر دنبال می کنم: http://www.inf.ed.ac.uk/publications/thesis/online/IM080663.pdf تا در مورد مدل بیاموزم. با توجه به درک فعلی من، این مدل مسئله پیوند را به عنوان یک مسئله طبقه بندی کنترل می کند که در آن جفت های رکورد $(a,b)$ داریم که فاصله آنها به عنوان بردار فاصله $\gamma(a,b)=(\gamma_1(a, b)،...،\gamma_K(a,b))$ و $M(a,b)$ به عنوان متغیر باینری که نشان می دهد آیا جفت $(a,b)$ مطابقت صحیحی دارد یا خیر. اگر من تمام مکانیسم را به درستی درک کنم، باید چیزی شبیه به مشکل طبقه بندی ساده بیز باشد. من سعی کردم آن را با استفاده از یک شبکه بیزی مدل کنم، جایی که ما رکوردهای $N$ داریم، $q$ یک احتمال قبلی کوچک برای هر $M_i$ برای نشان دادن تطابق صحیح است و $\theta_1،...،\theta_K$ عبارتند از بردارهای پارامتر با پیشین های یکنواخت، برای هر فاصله $\gamma_1،...\gamma_K$. مدل به شکل زیر است:  از آنجایی که داده ها دارای برچسب های تطابق ناسازگاری با $M_i$ نیستند، باید کد را اجرا کنیم. الگوریتم EM به منظور تخمین حداکثر احتمال برای پارامترهای $\theta_1,...,\theta_K$. سوال من این است که آیا این مدل برای این مشکل اتصال رکورد درست است؟ من نتوانستم یک مدل گرافیکی مناسب برای این مشکل پیدا کنم بنابراین برای پاسخ به اینجا مراجعه کردم. پیشاپیش ممنون
|
یک مدل گرافیکی برای پیوند رکورد Fellegi-Sunter
|
70001
|
فرض کنید من یک سری زمانی دارم که تعداد بازدیدکنندگان یک وب سایت را نشان می دهد، بنابراین هر مقدار غیر منفی است. به عنوان مثال: [100، 120، 40، 200، 1000، 1400، 1300، 1500] در این مورد مشخص است که وب سایت در روزهای گذشته شلوغ تر بوده است. به طور مشابه، [2000، 1000، 100، 100، 50، 70، 20، 30، 20، 30] نشان می دهد که ترافیک در وب سایت در حال کاهش است. روش خوبی برای محاسبه مقداری در محدوده [0، 1] برای نشان دادن این موضوع چیست؟ علاوه بر این، با فرض اینکه این دو سریال متعلق به دو سایت مختلف هستند، چگونه می توانم یکی را با دیگری مقایسه کنم؟ (من فرض می کنم نوعی نرمال سازی باید روی نتایج انجام شود، آیا این درست است؟) پیشاپیش متشکرم.
|
شناسایی فعالیت جاری یک سری زمانی
|
22731
|
**روش:** به 15 شرکت کننده کلیپ های سمعی و بصری ارائه کردم. شش کلیپ مختلف ارائه کردم و برای هر کلیپ ناهماهنگی احساسی بین اطلاعات دیداری و شنیداری وجود داشت. این ترکیب ها عبارت بودند از: * منفی دیداری با مثبت شنیداری * منفی بصری با شنیداری خنثی * مثبت بصری با منفی شنیداری * مثبت بصری با خنثی شنیداری * خنثی بصری با منفی شنیداری * خنثی بصری با مثبت شنیداری از شرکت کنندگان خواستم قضاوت عاطفی داشته باشند. کلیپ شاد، عصبانی یا خنثی بود. پنج بار تکرار شد. **سوال تحقیق**: آیا شرکت کنندگان هنگام تماشای نمایش هایی با اطلاعات احساسی نامتجانس توسط اطلاعات دیداری یا شنیداری در انتخاب های احساسی خود هدایت می شوند؟ **تحلیل پایه:** چون هیچ پاسخ درست فی نفسه برای محرک های ناسازگار وجود نداشت، من تمایل به پاسخ صحیح را زمانی که احساسات به صورت شنیداری یا بصری ارائه می شد محاسبه کردم. این تمایل با کم کردن نسبت پاسخهای «صحیح شنیداری» از نسبت پاسخهای «صحیح بصری» برای شش شرط ناسازگار برآورد شد. به عنوان مثال، اگر نمایشگر نامتجانس منفی دیداری را با اطلاعات مثبت شنیداری ترکیب کند و شرکت کنندگان پاسخ دهند که این یک تعامل منفی است، آنگاه به عنوان پاسخ بصری محاسبه می شود. شاخص های تخمین زده شده از 1 (شرکت کنندگان همیشه به اطلاعات بصری به درستی پاسخ می دادند) تا -1 (شرکت کنندگان همیشه به اطلاعات شنیداری به درستی پاسخ می دادند) متفاوت بود. در زیر یک شکل تولید شده در R است که میانگین امتیازات تمایل را با نوارهای خطای استاندارد نشان می دهد. داده ها در اینجا موجود است - ستون ها شرایط، ردیف ها - امتیازات گرایش را برای هر شرکت کننده نشان می دهند.  اکنون، برای رسیدن به نقطه، دو سوال دارم: > **سوال 1: ** بهترین راه برای تفاوت های مهم بین آن کلیپ های مختلف را بررسی کنید؟ من می دانم که می توانم به سادگی یک سری از 30 تست t زوجی را اجرا کنم، اما به نظر نمی رسد راه حل خوبی باشد. فکر نمیکنم بتوانم از ANOVA در اینجا استفاده کنم - نمیدانم چگونه میتوانم سطوح را برای همه آن شرایط ناسازگار تعریف کنم. شاید بتوانم این داده ها را به روش دیگری سازماندهی کنم، اما واقعاً مطمئن نیستم که چه خواهد بود. > **سوال 2:** آیا راه بهتری برای تجسم این موضوع وجود دارد؟ من طرح فوق را دوست ندارم - در واقع واقعاً آن را دوست ندارم. خواندن افسانه بزرگ بسیار سنگین است، و همچنین الگوهایی که هر شرایط را متمایز می کنند. من می توانم به جای آن از رنگ استفاده کنم، اما صادقانه بگویم کمی کور رنگ هستم، بنابراین ترجیح می دهم از آن اجتناب کنم. **ویرایش** _سوال 1_ من تصمیم گرفتم فقط 6 جفت را که نوع اطلاعات ناهمخوان یکسانی داشتند با استفاده از آزمون t زوجی مقایسه کنم. برای به دست آوردن تفاوت ها به نوعی خوب کار می کند. _سوال 2_ توسط @AndyW و @gung به خوبی پاسخ داده شده است - من تصمیم گرفتم از نوارهای SE خالص با جهت عمودی محور x استفاده کنم. با استفاده از `segplot()` در R انجام شد - من باید جزئیات را تغییر دهم، اما تقریباً ایده است. 
|
تجزیه و تحلیل و تجسم پاسخ شرکت کنندگان به شرایط خاص
|
70008
|
من تعدادی سری زمانی دارم که از همان داده های اساسی مشتق شده اند. با این حال، دادهها در هر یک از منبع متفاوتی میآیند، بنابراین ممکن است کمی عقب مانده یا غنی شده باشند، اما اساساً همان دادههای اساسی را نشان میدهند. آیا می توان فهمید که یکی از این سریال ها عجیب و غریب و با تاخیر شدید یا خارج از خط است؟ به عنوان مثال، تصور کنید که مشترک دادههای بازار برای یک سهام از 5 ارائهدهنده مختلف هستید و سعی میکنید بفهمید کدام یک به روشی پویا کند است. با این حال، قیمت سهام بسیار قطعی است، بنابراین مشکل کمی سادهتر میشود. در مورد من، من روی دادههایی کار میکنم که منبع واحدی برای بررسی ندارند.
|
تعیین سری زمانی فرد
|
70006
|
در رشته من، سایکوفیزیک/روانشناسی تجربی، گاهی برای هر موضوعی معیارهای زیادی جمع آوری می شود. سپس برای هر آزمودنی یک مدل برازش داده می شود و با پارامترهای تخمین زده شده گاهی یک آزمون سراسری مانند آزمون t یا ANOVA برای رسیدن به نتیجه انجام می شود. به نظر می رسد که این رویکرد گاهی نتیجه گیری های اشتباهی را به همراه دارد و من می خواستم مراجعی را بدانم که قبلاً به این نکته اشاره کرده اند. در زیر یک مثال اسباببازی: فرض کنید میخواهم بدانم رنگ یک شی (قرمز یا سبز) روی دید آن تأثیر میگذارد یا خیر. برای اندازهگیری دید، یک شی کوچک را در صفحه کامپیوتر ارائه کردم و از سوژه خواستم گزارش دهد که آیا میتواند یا نمیتواند شی را ببیند. پس از پاسخ او، من یک شی کوچک دیگر و غیره را نمایش می دهم. من از چهار سایز مختلف و دو رنگ استفاده کردم و آنها را به صورت تصادفی ارائه کردم. هر سایز و رنگ 50 بار ارائه شده است. این یک نتیجه احتمالی آزمایش است:  هر پانل داده های یک موضوع را نشان می دهد. محور y فراوانی گزارشهای «بله، دیدم» است. منحنیها توزیعهای نرمال تجمعی هستند که با استفاده از مدلهای خطی تعمیمیافته برازش میشوند و خطوط عمودی میانگین تخمینی توزیعهای زیربنایی هستند. فواصل اطمینان از تناسب نشان می دهد که رنگ بر روی دید برای هر موضوع تأثیر می گذارد. برای سوژه های 1،2 و 3 رنگ سبز آسان تر است. برای سوژه های 4،5 و 6 قرمز راحت تر است. با توجه به اینکه رنگ به طور یکسان روی هر موضوعی تأثیر نمی گذارد، ممکن است اگر از میانگین توزیع های برازش شده برای انجام آزمون t استفاده کنم، معنی دار نباشد. بنابراین گاهی اوقات در رشته من، بر اساس نتایج آزمون t، به این نتیجه می رسد که رنگ بر روی دید تأثیر نمی گذارد. تجزیه و تحلیل فردی برای هر موضوع انجام و بحث نمی شود. بنابراین من به دنبال منابعی (مقالات/کتاب) هستم که این مشکل را نشان دهد. زیر کد نمونه اسباب بازی در R: library('plyr') library('ggplot2') set.seed(100) n<-50 size<-1:4 prob<-c(0.1,.3,.5 ,.7) variables1<-expand.grid(subject=1:3,color=c('red','green')) df1<-ddply(variables1,.(subject,color),function(d){ if (d$color=='red') nyes<-rbinom(4,n,prob) if (d$color=='سبز ') nyes<-rbinom(4,n,prob+.2) data.frame(size,nyes,nno=n-nyes,p=nyes/n) }) variables2<-expand.grid(subject=4:6,color=c('red','green')) df2< -ddply(variables2,.(subject,color),function(d){ if (d$color=='green') nyes<-rbinom(4,n,prob) if (d$color=='red') nyes<-rbinom(4,n,prob+.2) data.frame(size,nyes,nno=n-nyes,p =nyes/n) }) dat<-rbind(df1,df2) منحنی<-ddply(dat,.(موضوع،رنگ)، تابع(d){ model<-glm(cbind(nyes,nno)~size,binomial(probit),d) x<-seq(0,5,. 1) y<-predict(model,data.frame(size=x),type='response',se.fit=T) data.frame(x,y=y$fit,ymin=y$fit-y$se.fit,ymax=y$fit+y$se.fit) }) به معنی<-ddply(dat,.(موضوع,رنگ ),function(d){ model<-glm(cbind(nyes,nno)~size,binomial(probit),d) coe<-coef(model) m<- -coe[[1]]/coe[[2]] data.frame(m) }) q<-ggplot()+ facet_wrap(~subject)+ geom_point(data=dat,aes(x=size,y=p ,color=color))+ geom_line (داده=منحنی ها,aes(x=x,y=y,color=color))+ geom_ribbon(data=منحنی ها،aes(x=x،ymin=ymin،ymax=ymax،fill=color)،alpha=.3)+geom_linerange(data=means،aes(x=m،color=color)،ymin= 0,ymax=.5) q t.test(m~color,data=means,paired=T)
|
برازش مدلی از هر موضوع و انجام آزمون t بر روی پارامترهای برآورد شده
|
31800
|
آیا کسی میتواند یک مرجع **بررسی** خوب (الزاماً PDF رایگان آنلاین) برای بررسی آمارهای سطح کالج پیشنهاد کند؟ من به چیزی نگاه می کنم که معمولاً اولین دوره در آمار را پوشش می دهد که به طور ایده آل شامل موارد زیر است: * مبانی مطلق (میانگین، واریانس و غیره) * نمونه های بزرگ * تست اطمینان * تست فرضیه (نرمال، t، chi، F) * رگرسیون خطی/همبستگی من نیازی به مرجع کتاب ندارم من به چیزی مانند یک بررسی سریع نیاز دارم که جنبه های مهم را بررسی کند. هر چیزی به صورت رایگان انجام می شود: ارائه، یادداشت های سخنرانی یا موارد دیگر. من فقط نیاز دارم که مختصر باشد. عمق بسیار قدردانی می شود.
|
مرجع آنلاین بررسی مطالب آمار مقدماتی
|
104135
|
این سوال کمی شرم آور است، اما من تجربه زیادی از تجزیه و تحلیل آماری ندارم. مشکلی که من دارم این است که تحلیلی که از نتایج مقاله خود انجام می دهم بسیار ناچیز است. نتایج من از رگرسیون اثرات ثابت اساساً شامل تأثیر یک یا دو متغیر توضیحی مرکزی است. من می توانم در مورد علامت، اهمیت و بزرگی آنها اظهار نظر کنم. شاید بتوانم در مورد اینکه آیا مشکل سوگیری متغیر حذف شده در مدل وجود دارد بحث کنم. آیا کار دیگری وجود دارد که بتوانم انجام دهم؟ در حال حاضر، تجزیه و تحلیل حتی یک صفحه طولانی نخواهد بود. دانش من محدود است و از هر نوع مشاوره یا ورودی در اینجا قدردانی می کنم. سوال تحقیق بسیار محدود است: آیا صرفه جویی در مقیاس در مراقبت های بهداشتی در سطح ایالت/شهرستان وجود دارد؟ من یک معیار هزینه را به عنوان متغیر وابسته و تعداد رویدادهای مراقبت پزشکی و مراجعه به پزشک را به عنوان متغیرهای توضیحی که اندازه مراقبت های بهداشتی را نشان می دهند، دارم. سپس سعی می کنم موقعیت جغرافیایی، جمعیتی و اجتماعی-اقتصادی را کنترل کنم. یک مشخصات محدود می تواند به این صورت باشد: $$ \text{Cost}_{it} = \beta_0 + \beta_1 \text{number_of_visits}_{it} + \\\beta_2 \text{number_of_events}_{it} + \ beta_3 \text{percentage_age65}_{it} + \\\beta_4 \text{area}_i + \beta_5 \text{taxable_come}_{it} + \\\beta_6 \text{percentage_private_healthcare}_{it} + \epsilon_{it} $$
|
تجزیه و تحلیل نتایج رگرسیون
|
4523
|
کد زیر: داده های مورد نیاز (zoo) <- read.csv(file=summary.csv,sep=,head=TRUE) cum = zoo(data$dcomp, as.Date(data$date)) داده = باغ وحش (داده $فشرده، as.Date(data$date)) داده <- aggregate(داده، هویت، دم، 1) cum <- aggregate(cum, هویت, sum, 1) days = seq(start(data), end(data), day) data2 = na.locf(merge(data, zoo(,days))) pdf(file=' timeseries.pdf',width=9,height=5) par(bty = 'n') plot(data2,xlab='',ylab='انتروپی (بایت)'، محور=FALSE) محور (سمت = 2، at=c(991، 20000، 40000، 53048)) محور (سمت = 2، at=c(10000، 30000)، برچسب ها = FALSE) خطوط (cum,type=h,lwd=0.3,col=rgb(0.64,0.08,0.00)) axis.Date(side = 1, days, at=c(2007-07-25, 2008- 01-01، 2009-01-01، 2010-01-01، 2010-06-21)) نمودار زیر را نشان می دهد:  سوالات (همه مربوط به محور پایین) عبارتند از: 1. چگونه می توانم کاری کنم که '2007/07' و '2010/06' در برچسب های آغاز و پایان نمایش داده شود؟ 2. چگونه می توانم تیک های جزئی را به طور خودکار به ماه ها (بدون برچسب) اضافه کنم؟
|
بهینه سازی ویژگی های محور در نمودار سری زمانی
|
79025
|
من مجموعه ای از حدود 300 هزار نمونه متن دارم. همانطور که در عنوان ذکر شد، هر نمونه حداقل یک برچسب دارد و تنها 100 برچسب منحصر به فرد ممکن وجود دارد. من با استفاده از فضاهای نام، به عنوان مثال، این مشکل را به طبقه بندی باینری برای Vowpal Wabbit کاهش داده ام. از: میوه سالم | موز پرتقال جک میوه ایول میمون | ارگانیسم دوپا خانواده پسر ... به: 1 |موز سالم پرتقال جک میوه 1 |موز میوه میوه پرتقال جک میوه 0 |موز شیطانی پرتقال جک میوه 0 |موز میمون پرتقال جک میوه 0 |ارگانیسم دوپا سالم خانواده پسر خانواده ارگانیسم دوپا 0 |میوه خانواده ارگانیسم دوپا پسر 1 | ارگانیسم دوپا شیطانی پسر خانواده 1 | مرد خانواده ارگانیسم دوپا میمون ... من از گزینه های پیش فرض ارائه شده توسط VW استفاده می کنم (که فکر می کنم SGD آنلاین است، با تابع تلفات مربعی). من از باخت مجذور استفاده میکنم زیرا شباهت زیادی به ضرر همینگ دارد. بعد از آموزش، هنگام تست کردن روی همان مجموعه آموزشی، متوجه شدم که همه نمونهها با برچسب '0' پیشبینی میشوند... که حدس میزنم یکی از راههای به حداقل رساندن ضرر است. در این مرحله، من مطمئن نیستم که چه کار کنم. من به استفاده از طبقهبندی حساس به هزینه یک در برابر همه فکر میکردم تا بین کلاسها تعادل ایجاد کنم، اما کاهش چند برچسب به چند کلاس غیرممکن است زیرا 2^100 ترکیب برچسب وجود دارد. میخوام بدونم کسی پیشنهادی داره
|
مقابله با عدم تعادل طبقاتی در طبقه بندی چند برچسبی
|
70004
|
آزمون کولموگروف-اسمیرنوف فرضیه صفر را در سطح $\alpha$ رد می کند اگر $$\sqrt{n}D_n>K_\alpha$$ که $$D_n=\sup_x |{F}_n(x)-F(x) | $$ و $$\operatorname{Pr}(K\leq K_\alpha)=1-\alpha$$، که $K$ از توزیع کولموگروف پیروی میکند. جدول هایی برای $K_\alpha$ وجود دارد، اما این وب سایت فرمول $K_\alpha$ را برای $n$ بزرگ ارائه می دهد. برای مثال، میگوید، اگر $n$ بیش از 50 باشد، $K_{\alpha=0.01} = 1.63 $$$$K_{\alpha=0.05} = 1.63$$ $$K_{\alpha=0.01} = 1.36$$$$K_{\alpha=0.1} = 1.22$$$$K_{\alpha=0.15} = 1.14 $$ $$K_{\alpha=0.2} = 1.07 $$ چگونه می توان به چنین عددی رسید؟
|
چگونه توزیع کولموگروف $K_\alpha$ را برای n بزرگ استخراج کنیم؟
|
31807
|
آیا غیر نرمال بودن در استفاده از رگرسیون برای پیش بینی اهمیت دارد؟ سلام به همه، در نمودار Q-Q باقیمانده ها پس از رگرسیون خطی، باقیمانده ها به شدت غیر گاوسی هستند. بیشتر نقاط (95%) زیر خط مستقیم 45 درجه قرار دارند. و آنهایی که زیر خط مستقیم قرار دارند همه در سمت پایین قرار دارند. شکل منحنی شبیه $f(x)=x^{1/5}$ برای $x$ در $[0, 1]$ است. (نقاط 5% در وسط این منحنی بالای خط مستقیم 45 درجه قرار دارند). به نظر می رسد که متغیر وابسته $y$ داده هایی دارد که بسیار غیر گاوسی هستند. همه آنها در $[0, 1]$ هستند، اما عمدتاً در حدود $1 $ خوشهبندی میشوند. بنابراین راه های مختلفی را برای تبدیل $y$ امتحان کردم. آخرین موردی که من پیدا کردم این بود که $y_{new} = y^7$ را انجام دهم. با استفاده از این تبدیل، دادههای $y_{new}$ بسیار متقارنتر از قبل میشوند، اما هنوز به هیچ وجه در هیستوگرام گاوسی به نظر نمیرسند. از آنجایی که بسیار ناامید شده ام، دیگر سلاحی در کیفم ندارم... در عوض، شروع به تعجب کردم که آیا هدف نهایی من فقط به دست آوردن $\hat{y}$ است، یعنی پیش بینی داده ها در یک مجموعه داده های گسترده تر، آیا غیر عادی بودن حتی از نظر دقت برای پیش بینی اهمیت دارد؟ لطفا کمی برای من روشن کنید. متشکرم! * * * داده $y$ بسیار شبیه به داده های تولید شده با استفاده از اسکریپت زیر است: mydata=rt(10000, df=5) mydata=mydata[mydata<0.8] mydata=(mydata-min(mydata))/( حداکثر(mydata)-min(mydata)) hist(mydata, 100)
|
آیا غیر نرمال بودن در استفاده از رگرسیون برای پیش بینی اهمیت دارد؟
|
79026
|
من با ML تازه کار هستم و تصمیم گرفتم با شناسایی اعداد با استفاده از زیر مجموعه MNIST در kaggle شروع به یادگیری کنم http://www.kaggle.com/c/digit-recognator تصاویر 28x28 پیکسل خاکستری از ارقام 0 هستند به 9، با ~34000 در مجموعه آموزشی و 28000 در مجموعه تست. جنگل تصادفی با استفاده از تصویر خام و 2000 درخت امتیاز 0.96829 را می دهد. من برخی از پیش پردازش تصاویر را برای استخراج ویژگی های بیشتر انجام دادم و روی زیرمجموعه هایی با اندازه مساوی از داده های آموزشی آموزش / آزمایش کردم. در مقایسه با جنگل تصادفی معمولی برای زیرمجموعههای حدود 1000 - 3000، من حدود 3-4٪ پیشرفت داشتم (به عنوان مثال 94٪ در مقابل 90٪ برای RF) پس از تمرین با کل مجموعه آموزشی برای 200 درخت، امتیاز 0.97557 (~0.7٪) را کسب کردم. بهبود در RF). با این حال، با افزایش به 2000 درخت، امتیاز 0.97457 (0.1٪ کمتر) را کسب کردم. * آیا این بدان معنی است که ویژگی ها اشباع هستند؟ یعنی هر سود یا زیان عملکرد جزئی فقط نوسانات تصادفی است؟ * آیا چیزی وجود دارد که بتوانم (به غیر از ویژگی های بیشتر) برای بهبود نتیجه امتحان کنم؟ * آیا راهی وجود دارد که برخی ویژگی ها را بیشتر از سایرین وزن کنیم تا احتمال ارزیابی آنها بیشتر باشد؟
|
جنگل تصادفی: درختان بیشتر نتایج بدتری دادند
|
4528
|
من سعی کردهام تشخیص دهم که خروجی «coef» و «(exp)coef» coxph دقیقاً به چه معناست. به نظر می رسد که (exp)coef مقایسه اولین متغیر در مدل با توجه به گروه اختصاص داده شده در دستور باشد. تابع coxph چگونه به مقادیر coef و (exp)coef می رسد؟ علاوه بر این، coxph چگونه این مقادیر را زمانی که سانسور وجود دارد تعیین می کند؟
|
تفاوت بین خروجی coef و (exp)coef coxph در R چیست؟
|
70002
|
من یک سردرگمی در مورد نماد انتظار دارم. موارد زیر را در نظر بگیرید: $$E_x(x^2) = \sum_x x^2p(x)$$ $E_x(x|y) = \sum_x xp(x|y)$$ بنابراین همان نماد در اینجا متفاوت است یعنی درست نیست؟ تا به حال فرض میکردم که $E_x$، $p(x)$ را گرفته و انتظارات را محاسبه میکردم. با این حال، پس از نگاه کردن به $E_x(x|y) = \sum_x xp(x|y)$، کمی گیج شدم
|
سردرگمی مربوط به نماد انتظار
|
77638
|
از من خواسته شده است که نمودارهای کنترلی را برای شرکت خود ایجاد کنم - یا ابزار دیگری برای شناسایی سریع زمانی که فروش بلیط خارج از کنترل است و نه فقط یک تصادف تصادفی. داده های مورد نظر ما فصلی با روند مثبت (درآمد فروش) هستند. پیشنهاد شده است که از نمودار میانگین متحرک با وزن نمایی (EWMA) استفاده کنم، اما درک (محدود) من این است که این نمودارها فقط برای استفاده روی دادههایی با میانگین ثابت مناسب هستند. غریزه من این است که یک مدل ARIMA را به کار ببرم و ارزیابی کنم که آیا مشاهدات در محدوده اطمینان حاصل از آن قرار می گیرند یا خیر... اما من به اندازه کافی مطمئن نیستم که مطمئن شوم این رویکرد درست است. بنابراین سوال من این است: 1. آیا استفاده از نمودارهای کنترلی برای نظارت بر فروش درآمد مناسب است؟ .
|
نمودارهای کنترل داده های فصلی
|
22735
|
من یک سوال دارم. > برای تست نسبت درستنمایی بهتر است از انحراف استفاده کنیم یا - 2 Log L؟ یا > اساساً یکسان هستند؟ SAS گاهی اوقات انحراف را برمی گرداند. اما من فقط از مقدار -2 Log L برای تست نسبت درستنمایی استفاده می کنم (مثلاً Log L -2 را برای دو مدل کم کنید تا آنها را با هم مقایسه کنید). آیا این اشکالی ندارد؟
|
- 2 Log L در مقابل Deviance
|
70147
|
من مجموعه داده ای برای حساب های تلفن همراه دارم و سعی می کنم پیش بینی کنم که آیا یک حساب با توجه به برخی ویژگی های ورودی لغو می شود یا خیر. یکی از این ویژگی ها تعداد دستگاه هایی است که یک حساب در اختیار دارد. من سعی می کنم بفهمم که آیا این یک ویژگی پیش بینی است یا خیر. من فکر میکردم که یکی از راههای انجام این کار محاسبه میانگین تعداد دستگاهها برای همه مثالهای مثبت (اکانتهایی که لغو نمیشوند) و مثال منفی (اکانتهایی که لغو میشوند) است. سپس من یک آزمون فرضیه برای میانگین ها انجام می دهم تا مشخص کنم که آیا آنها تفاوت معنی داری دارند یا خیر. بنابراین من فقط به این فکر می کنم که آیا این یک رویکرد معتبر برای انتخاب ویژگی است.
|
ارتباط بین انتخاب ویژگی و آزمون فرضیه
|
36001
|
من می دانم که راهی برای توزیع مجدد فرکانس های یک متغیر وجود دارد همانطور که در اینجا بیان شد: اسلاید شماره 14 و 15 در مورد توزیع مجدد و اینجا: کتاب دوریان پایل فصل 7 بخش 2 پاراگراف 3 (7.2.3): > ساده ترین راه برای تنظیم چگالی توزیع به سادگی جابجایی نقاط پرتراکم بالا در مناطق کم چگالی است تا زمانی که همه نقاط در چگالی میانگین > برای متغیر چنین فرآیندی با توزیع مستطیلی > ختم می شود. برای نشان دادن این قسمت، شکل هایی مانند این وجود دارد:  در هر دو مرجع، مشکل روشن و حل شده است، اما اطلاعات کافی برای نوشتن ارائه نمی کند. یک الگوریتم و به طور خاص نحوه محاسبه جابجایی (روش حرکت فرکانس ها در سمت چپ یا راست مرکز توزیع) را بیان نمی کند. لطفا کمکم کنید تا بفهممش؟؟
|
توزیع مجدد فرکانس متغیر
|
5292
|
آیا رابط کاربری گرافیکی برای R وجود دارد که شروع یادگیری و برنامه نویسی در آن زبان را برای یک مبتدی آسان تر کند؟
|
رابط کاربری گرافیکی خوب برای R مناسب برای مبتدی که مایل به یادگیری برنامه نویسی در R است؟
|
30508
|
من در حال مطالعه رگرسیون متعامد برای پیاده سازی احتمالی در یکی از مجموعه داده های خود هستم. سوال من به محاسبه خطاهای پیشبینی بهعنوان «میانگین خطاهای پیشبینی -MPE» یا «میانگین خطاهای پیشبینی مطلق-MAPE» در رگرسیون متعامد مربوط میشود که در آن متغیرهای وابسته و مستقل من (هر دو در یک واحد اندازهگیری میشوند) ممکن است خطاهای مشابهی نداشته باشند. ممکن است از منابع مختلف باشد. در حداقل مربعات نرمال که متغیر وابسته بر روی متغیر مستقل رگرسیون می شود، MPE یا MAPE را می توان از میانگین پیش بینی شده - مشاهده شده گرفت. چگونه می توان MPE یا MAPE را در سناریو محاسبه کرد وقتی هر دو متغیر دارای خطا هستند. این ممکن است ساده باشد اما برای من واضح نبود. امیدوارم سوال به اندازه کافی واضح باشد. وی جی
|
خطاهای پیش بینی در رگرسیون متعامد
|
27986
|
باشه من به تازگی خواندم که یک شی نقطه شکست با NA به این معنی است که نقطه شکست ساختاری قابل توجهی پیدا نشده است، که به اندازه کافی منصفانه است. اما اگر شما summary() را روی آن شی نقطه شکست فراخوانی کنید، نقطه شکست را گزارش می دهد. چه کسی را باور کنیم؟! همچنین متغیر مستقل من زمان نیست. من به دنبال تغییر در رابطه با یک متغیر مستقل هستم، بنابراین اصطلاح تاریخ شکست نامناسب است. من می توانم با آن مقابله کنم. من به سادگی مقدار n را از بردار مرتب شده متغیر مستقلی که نقاط شکست بر روی آن ساخته شده اند استخراج می کنم. اما Fstat در آن مقدار (تا آنجا که من می توانم بگویم) در حداکثر نیست. من فکر می کردم بهترین نقطه شکست در مقدار با حداکثر F stat قرار می گیرد. آیا اینطور نیست؟ با تشکر، Eric EDIT: در اینجا من گیج شدم. من به دنبال نقاط شکست در مدل Y~X هستم، که در آن X دارای محدوده تقریباً 0 تا 150 است. summary() می گوید یک نقطه شکست در مشاهده 511 (از 910 داده) وجود دارد که مطابق با تاریخ شکست 0.56 است. اما مقدار X[511] 120 یا بیشتر است. بنابراین، من فرض کردم (اوه) که باید از شماره مشاهده استفاده کنم نه از تاریخ شکست. و این زمانی بود که آن نقطه شکست با حداکثر آمار F از Fstats مطابقت نداشت. (اما نقطه شکست در 0.56 نیز وجود ندارد). به نظر می رسد یک بررسی مشابه در مورد مدلی که در آن پیش بینی X محدوده ای بین 0 تا 1 دارد، خروجی های قابل فهم تری به دست می دهد. به نظر می رسد تاریخ شکست گزارش شده (که به عنوان مقدار پیش بینی تفسیر می شود) با حداکثر FStat مطابقت دارد. آیا این یک تصادف خطرناک است، یا breakpoints() به چیزی از متغیر پیش بینی کننده آن نیاز دارد؟ و متأسفم، من نمی دانم چگونه می توانم یک مجموعه داده را برای بازتولید آن پیوست کنم. :-(
|
تفسیر strucchange::breakpoints در R
|
33185
|
من قبلاً با طبقهبندیکننده **Naive Bayes** سروکار داشتم. من اخیراً در مورد **Multinomial Naive Bayes** مطالعه کرده ام. همچنین **احتمال پسین = (قبل * احتمال)/(شواهد)**. تنها تفاوت اصلی (هنگام برنامهنویسی این طبقهبندیکنندهها) بین Naive Bayes و Multinomial Naive Bayes این است که **Multinomial Naive Bayes** احتمال محاسبه یک عدد کلمه/token** (متغیر تصادفی) و **Naive را محاسبه میکند. Bayes** احتمال اینکه دنبال شود را محاسبه می کند:  **اگر اشتباه می کنم تصحیح کنید!**
|
تفاوت بین بیز ساده لوح و بیز ساده لوح چند جمله ای
|
33189
|
این سوال در ادامه سوال قبلی است. * * * اساساً من می خواستم مطالعه کنم که در چه شرایطی وقتی باقیمانده ها را به $x_1$ برگردانیم، $\small R^2$ 20٪ بدست می آوریم. به عنوان اولین قدم برای حمله به این مشکل، سوال من این است که چگونه $\small R^2$ را به شکل ماتریس بیان کنم؟ سپس سعی می کنم $\small R^2$ باقیمانده رگرسیون را به $x_1$ با استفاده از فرم ماتریس بیان کنم. همچنین چگونه می توانم وزن های رگرسیون را به عبارت اضافه کنم؟
|
چگونه می توانم R مربع را به شکل ماتریس نشان دهم؟
|
36005
|
فرض کنید من مخلوطی از تعداد محدودی از گاوسیان با وزن، میانگین و انحراف معیار شناخته شده دارم. وسایل برابر نیستند. البته می توان میانگین و انحراف استاندارد مخلوط را محاسبه کرد، زیرا ممان ها میانگین وزنی گشتاورهای اجزا هستند. مخلوط توزیع نرمال نیست، اما چقدر از نرمال فاصله دارد؟  تصویر بالا چگالی احتمال یک مخلوط گاوسی را با میانگین اجزا نشان می دهد. با انحراف استاندارد $2$ (مؤلفه ها) و یک گاوسی منفرد با میانگین و واریانس یکسان جدا شده است.  در اینجا میانگین ها با انحراف استاندارد $1$ از هم جدا شده اند و جدا کردن مخلوط از گاوسی با چشم سخت تر است. * * * **انگیزه:** من با برخی افراد تنبل در مورد برخی از توزیع های واقعی که آنها را اندازه گیری نکرده اند و فرض می کنند نزدیک به نرمال است مخالفم، زیرا این امر خوب است. من هم تنبلم من هم نمیخواهم توزیعها را اندازهگیری کنم. من می خواهم بتوانم بگویم فرضیات آنها ناسازگار است، زیرا آنها می گویند که مخلوط محدودی از گاوس ها با ابزارهای مختلف یک گاوسی است که درست نیست. من فقط نمیخواهم بگویم که شکل مجانبی دم اشتباه است، زیرا اینها فقط تقریبی هستند که قرار است فقط در عرض چند انحراف استاندارد از میانگین دقیق باشند. میخواهم بتوانم بگویم که اگر اجزا به خوبی با توزیعهای معمولی تقریب داشته باشند، مخلوط اینطور نیست، و من میخواهم بتوانم این را کمیت کنم. * * * من فاصله درستی از نرمال بودن را برای استفاده نمی دانم: حداکثر تفاوت بین CDF ها، فاصله $L^1$، فاصله حرکت دهنده زمین، واگرایی KL، و غیره. هر یک از اینها یا سایر اقدامات من خوشحال خواهم شد که فاصله تا گاوس را با همان میانگین و انحراف معیار مخلوط یا حداقل فاصله با هر گاوسی بدانم. اگر کمک می کند، می توانید به این مورد محدود کنید که مخلوط 2 دلاری گاوسی باشد به طوری که وزن کوچکتر از 1/4 دلار بیشتر باشد.
|
فاصله بین یک مخلوط گاوسی محدود و یک گاوسی چقدر است؟
|
36006
|
اغلب شنیده ام که داده ماینرها در اینجا از این اصطلاح استفاده می کنند. بهعنوان آماردانی که روی مسائل طبقهبندی کار کردهام، با اصطلاح «آموزش یک طبقهبندیکننده» آشنا هستم و فرض میکنم «یادگیری یک مدل» به همین معنی است. من از اصطلاح تربیت یک طبقه بندی مهم نیست. به نظر می رسد که این ایده برازش یک مدل را به تصویر می کشد زیرا از داده های آموزشی برای بدست آوردن تخمین های خوب یا بهبود پارامترهای مدل استفاده می شود. اما یادگیری به معنای کسب دانش است. در زبان انگلیسی ساده یادگیری یک مدل به این معنی است که بدانیم آن چیست. اما در واقع ما هرگز مدل را نمی دانیم. مدل ها واقعیت را تقریبی می کنند اما هیچ مدلی درست نیست. مانند این است که باکس گفته است: هیچ مدلی صحیح نیست، اما برخی از آنها مفید هستند. من علاقه مند به شنیدن پاسخ داده کاوی هستم. این اصطلاح چگونه به وجود آمد؟ اگر از آن استفاده می کنید، چرا آن را دوست دارید؟
|
اصطلاح یادگیری یک مدل از کجا آمده است
|
77637
|
من واقعاً با Granger Causality تازه کار هستم و به سرعت با این تابع MATLAB آزمایش می کنم: granger_cause(x,y,alpha,max_lag) http://www.mathworks.com/matlabcentral/fileexchange/25467-granger-causality- test من دارم دو سری x و y که باید علیت را بررسی کنم. باید بررسی کنم که آیا y در یک تاخیر 180 نمونه با x رابطه علی دارد یا خیر. بر اساس آزمایشهایم، متوجه شدم که اگر مقادیر آلفا و تاخیر را تغییر دهم، میتوانم متوجه شوم که تقریباً هر چیزی با x همبستگی دارد (مانند مجموعهای تصادفی از دادهها). آیا کسی می تواند به من بگوید که چگونه باید مقادیر آلفا و تاخیر را تغییر دهم؟ متوجه شدم که اگر آلفا را 0.8 قرار دهم، پاسخ خوبی برای x و y میگیرم، اما نه برای دادههای تصادفی. با این حال، با توجه به اینکه منابع دیگر به من می گویند که آلفای 0.01 یا بیشتر داشته باشم، من در این مورد مشکوک هستم. کسی میتونه اینجا به من کمک کنه؟
|
انتخاب سطح اهمیت آلفا و max_lag برای علیت گرنجر
|
85859
|
من می خواهم مقالات منتشر شده یا فصل های کتاب را مرور کنم (بنابراین بتوانم به طور رسمی به آنها مراجعه کنم) که به صورت گرافیکی روابط پارامتریک بین خانواده های توزیع تک متغیره را نشان می دهد. مقالات لارنس ام. لیمیس معروف هستند، به عنوان مثال نگاه کنید به. اینجا برای نسخه های 1986 و 2008. این مقاله دو نمودار دیگر را ارائه میکند و دو منبع دیگر را برای خلاصههای گرافیکی منتشر شده قبلی ذکر میکند: Nakagawa, T. and Yoda, H. (1977) روابط بین توزیعها. معاملات IEEE در مورد قابلیت اطمینان، 26(5)، 352-353. کوتز، اس. و جوگن رنه ون دورپ (2004) فراتر از بتا - سایر خانوادههای مستمر توزیعها با پشتیبانی محدود و برنامههای کاربردی، جهانی علمی، نیوجرسی، ص. 251. در اینجا پیوند دیگری به مقاله ای با مشارکت احتمالی اصلی وجود دارد. آیا حذف مفیدی در لیست بالا وجود دارد؟ آیا مقاله ای وجود دارد که خلاصه های گرافیکی مختلف از روابط شناخته شده بین توزیع های تک متغیره را بررسی کند؟
|
خلاصه های گرافیکی روابط بین توزیع های تک متغیره
|
93071
|
من در حال مطالعه شبکه های عصبی هستم و سعی می کنم تصمیم بگیرم که چرا به نظر می رسد انتخاب پیش فرض تابع هزینه برای یک نورون منفرد از دست دادن درجه دوم است: $$\sum_i(y_i-f_i)^2،$$ به جای: $$ -\prod_ip_i^{y_i}(1-p_i)^{1-y_i}، $$ بر اساس رگرسیون لجستیک. جایی که $f_i$ و $p_i$ تابع سیگموئید (فعال سازی) هستند. من میدانم که نورون به ازای هر گفته طبقهبندی نمیکند، اما در عوض خروجی را بر اساس عملکرد فعالسازی خود تعدیل میکند، به طوری که وقتی بسیاری از نورونها به یکدیگر متصل میشوند تا شبکه را تشکیل دهند، طبقهبندی فقط باید روی گره خروجی با استفاده از مقداری برش انجام شود. کاهش ارزش با این وجود، اگر هدف ما طبقهبندی باشد، به نظر میرسد که انتخاب صحیح تابع هزینه باید آن چیزی باشد که قدرت شلیک را مستقیماً به احتمال شلیک در صورتی که فقط با قدرت کامل شلیک میکرد یا اصلاً شلیک نمیکرد، مرتبط کند. و انجام این کار به گونه ای که اگر نورون را چندین بار با استفاده از این احتمال به عنوان احتمال شلیک اجرا کنیم، آنگاه مقدار مورد انتظار شلیک نورون برابر با قدرتی است که هر بار با به حداقل رساندن تابع هزینه ما شلیک می کند. (با عرض پوزش ممکن است آن را ضعیف بیان کرده باشم) آیا دلیلی وجود دارد که تابع هزینه رگرسیون لجستیک انتخاب پیش فرض نیست؟
|
چرا انتخاب تابع هزینه پیشفرض از دست دادن نورون درجه دوم است؟
|
104136
|
من اخیراً شروع به آزمایش برنامه نویسی ژنتیک به عنوان یک ابزار بهینه سازی کرده ام. من هنوز در مورد چگونگی کاهش بیش از حد برازش در این چارچوب کمی سردرگم هستم. چند تکنیکی که در مورد آنها خوانده ام 1. محدود کردن تعداد نسل ها 2. محدود کردن اندازه درخت (ژنوم) 3. افزودن جریمه پیچیدگی به تابع تناسب اندام 4. گنجاندن اعتبار سنجی متقاطع در تابع تناسب اندام از روش های بالا، 4 است. برای من جذاب ترین/گیج کننده ترین من این پست را در SO چگونه می توان هنگام استفاده از اعتبارسنجی متقاطع در الگوریتم های ژنتیک جلوگیری کرد، خوانده ام، اما بینش زیادی در مورد پیاده سازی واقعی به من نداد. فرض کنید من سعی می کنم اعتبار متقاطع را در عملکرد تناسب اندام خود پیاده کنم. من می توانم پزشک عمومی خود را در یک دوره زمانی (مثلا 2000-2010) تمرین کنم و تناسب اندام آن را در دوره زمانی دیگر (مثلا 2010-2014) ارزیابی کنم. با این حال، آیا این فقط بیش از حد در دوره زمانی 2010-2014 را معرفی نمی کند. GP فقط به سمت یافتن برنامه های خوب در دوره زمانی آزمایش گرایش خواهد داشت. از طرف دیگر، می توانید بگویید که برنامه ای می خواهید که در سال های 2000-2010 (عملکرد P1) و 2010-2014 (عملکرد P2) عملکرد خوبی داشته باشد. فرض کنید عملکرد تناسب اندام شما مستلزم آن است که عملکرد پزشک عمومی در آن دو دوره زمانی بالا و مشابه باشد (یعنی تناسب اندام = (P1 + P2) * 1/(P1 + P2))، اما آیا این یکسان نیست. فقط تست تناسب اندام در کل دوره 2000-2014؟ من حدس میزنم که میپرسم آیا امکان دارد یک شکل اعتبارسنجی متقاطع را در عملکرد تناسب اندام خود پیادهسازی کنید. GP یک الگوریتم پارامتری مانند kNN، SVM، یا رگرسیون خطی ساده نیست، بنابراین من در مورد اینکه اعتبار متقاطع حتی در این تنظیمات چگونه کار میکند سردرگم هستم. من همیشه میتوانم خروجی پزشک عمومی سادهلوح را روی دادههای آزمایشی ارزیابی کنم، اما در آزمایشهایم عملکرد خوبی پیدا نکردم، به دلیل تمایل GP به بیش از حد مناسب بودن.
|
بیش از حد برازش در برنامه ریزی ژنتیک
|
5299
|
من به دنبال ارجاعات کاربردی برای افزایش داده ها هستم (ترجیحا با کد نوشته شده). در هر صورت منابع آنلاین کتاب عالی خواهد بود. من این کتاب را به صورت آنلاین پیدا کردم: http://www.amazon.com/Bayesian-Missing-Data-Problems- Biostatistics/dp/142007749X/ref=sr_1_1?ie=UTF8&s=books&qid=1291905761&sr=1-1 اما بدون بررسی در خرید آن مردد هستم با تشکر ویرایش: من دو متغیر X و Y دارم. فرض کنید X از ترکیبی از نرمال ها پیروی می کند و یک رابطه لجستیک بین X و Y وجود دارد. هنگام مشاهده X خطای اندازه گیری وجود دارد. ما 100 جفت X Y را مشاهده می کنیم و باید تابع بین X را تخمین بزنیم. دو نویسنده در کتابی در مورد خطای اندازهگیری (John P. Buonaccorsi)، تقویت دادهها را برای تخمین توصیه میکند (من معتقدم متغیرهای معرفیشده به معنای X واقعی هستند). با این حال جزئیاتی ارائه نشده است. من به دنبال مثال های ساده (کد R اما واقعاً مهم نیست) برای شروع هستم.
|
مثال های افزایش داده ها
|
71358
|
من 70000 مشاهده برای متغیر وابسته خود دارم. من 12 متغیر مستقل دارم. پس از حذف مقدار صفر و خطا و مقدار از دست رفته از مجموعه داده های من، داده های من به 4000 کاهش یافت. آیا هنوز هم می توانم رگرسیون خطی چندگانه را با این مجموعه داده انجام دهم؟ من فکر می کنم 4000 داده برای 12 متغیر مستقل بیش از اندازه کافی است، اما مطمئن نیستم که آیا حذف تقریباً 90٪ مشاهدات به رگرسیون من آسیب می رساند یا خیر؟
|
پاکسازی داده برای مجموعه داده های نمونه بزرگ در رگرسیون خطی چندگانه
|
70009
|
با رگرسیون تک متغیره بسیار آسان است که ببینیم آیا همبستگی خطی است یا غیر آن، اما در یک رگرسیون چندگانه، همه چیز می تواند بسیار پیچیده به نظر برسد، چند جمله ای یا همبستگی های دیگر را می توان با تعامل بین متغیرها پنهان کرد. میدانم که میتوانید از اصطلاحات قدرت در متغیرها استفاده کنید، اما رابطه با متغیر وابسته هنوز باید خطی باشد. چگونه بفهمم رگرسیون چندگانه مناسب است؟
|
چگونه خطی بودن یک رگرسیون چندگانه را بررسی می کنید؟
|
5290
|
من یک سری زمانی با میانگین متحرک نمایی دارم و میخواهم بازده متحرک EMA را در آخرین دورههای m محاسبه کنم (چیزی شبیه بازده متحرک هموار). فرض کنید: Y(t) مقدار سری زمانی در دوره زمانی t است. دوره ها: R(t) = S(t) / S(t-m) - 1 سوال من این است: محاسبه EMA باید از چند دوره زمانی برای m معین استفاده کند؟ دقیقاً، اگر EMA با استفاده از S(t) = آلفا * Y(t) + (1-alpha) * S(t-1) محاسبه شود و آلفا با 2/(N+1) تنظیم شود، پس N چگونه باید بستگی داشته باشد. در متر؟ من فرض می کنم که N باید به اندازه کافی کمتر از m باشد تا از همپوشانی مقادیر Y که در محاسبه S(t) و S(t-m) استفاده می شوند، جلوگیری شود. آیا نظریه یا بهترین روش در این مورد وجود دارد؟
|
بازگشت متحرک میانگین متحرک نمایی - انتخاب آلفا
|
5293
|
اسم من توهین است. هنگامی که در حال تجزیه و تحلیل در R بودم، با چند سوال مواجه شدم. من یک تحلیل رگرسیون لجستیک در R انجام دادم و سعی کردم بررسی کنم که مدل چقدر با داده ها مطابقت دارد. اما، من گیر کردم زیرا نتوانستم مقدار مربع R شبه را برای مدل بدست بیاورم که می تواند ایده ای در مورد تغییرات توضیح داده شده توسط مدل به من بدهد. لطفاً من را در مورد چگونگی دستیابی به این مقدار راهنمایی کنید (مربع R شبه برای تحلیل رگرسیون لجستیک). همچنین اگر بتوانید راهی برای بدست آوردن آمار Hosmer Lemeshow برای مدل نیز به من نشان دهید مفید خواهد بود. من متوجه یک تابع تعریف شده توسط کاربر برای انجام آن شدم، اما اگر راه سریعتری وجود داشته باشد، واقعا مفید خواهد بود. اگر بتوانید پاسخ سوالاتم را در اختیار من قرار دهید بسیار سپاسگزار خواهم بود. مشتاقانه منتظر پاسخ شما هستم. با احترام
|
مقدار مربع R شبه را برای تحلیل رگرسیون لجستیک پیدا کنید
|
83925
|
فرمول (در صورت وجود) برای واریانس نمونه / فاصله اطمینان یک چندک / صدک از توزیع نرمال چیست؟ به عنوان مثال، صدک 5 برای توزیع استاندارد جمعیت نرمال 1.64- است، اما اگر من یک نمونه n=1000 داشته باشم، فاصله اطمینان یک طرفه 95٪ چقدر است؟ یعنی به طور متوسط صدک پنجم نمونه نرمال استاندارد 64/1- و 95 درصد مواقع صدک پنجم نمونه 1000=n زیر 54/1- خواهد بود (تقریباً از شبیه سازی). به نظر می رسد نوعی فرمول وجود دارد زیرا یک گزینه در SAS («CIQUANTNORMAL») است و من فکر می کنم ممکن است مربوط به Probit باشد اما توضیحی پیدا نکرده ام.
|
فاصله اطمینان چندک / صدک توزیع نرمال
|
71352
|
من می خواهم بدانم چرا نمودارهای باقیمانده با باقیمانده ها در برابر متغیر پیش بینی شده y ترسیم می شوند و نه در برابر y؟
|
نمودارهای باقیمانده از متغیر باقیمانده در مقابل پیش بینی شده
|
71356
|
در سوال قبلی، در مورد مقایسه قدرت آزمون t با آزمون من ویتنی در شرایط مختلف پرسیدم. یکی از پاسخها اشاره میکند که بدترین کاری که من ویتنی میتواند نسبت به آزمون t انجام دهد این است که تا زمانی که مجموعه دادهها، به دادههای 1/0.864 برابری نیاز دارد تا قدرت آزمون t را بدهد. در حال مقایسه از یک توزیع بودند. حدس میزنم در مورد اینکه چگونه میتوان قدرت را بین این دو آزمون مقایسه کرد، با توجه به اینکه آنها فرضیههای صفر متفاوتی را آزمایش میکنند، گیج شدهام. به عنوان مثال، اگر من توان یک آزمون t را با استفاده از اندازه اثر برابر با 20٪ اختلاف بین میانگین ها 0.9 تخمین بزنم، آنگاه برای آزمون t منطقی است. اما آزمون من ویتنی تفاوت بین میانگین ها را آزمایش نمی کند. اگر توزیع ها یکسان بود، تفاوت بین میانه ها را آزمایش می کرد. آیا من درست فکر می کنم که آزمون من ویتنی به 1/0.864 برابر بیشتر داده نیاز دارد تا تفاوت 20٪ در میانه ها با توان 0.9 را تشخیص دهد؟
|
وقتی فرضیه های صفر متفاوت هستند، چگونه توان آزمون t و من ویتنی قابل مقایسه است؟
|
71357
|
هنگامی که شخصی یک پارامتر را برای دریافت خطای استاندارد بوت استرپ می کند، توزیعی از پارامتر را دریافت می کنیم. چرا از میانگین آن توزیع به عنوان نتیجه یا تخمین پارامتری که می خواهیم بدست آوریم استفاده نمی کنیم؟ آیا توزیع نباید تقریبی با واقعی باشد؟ بنابراین، میتوانیم تخمین خوبی از ارزش واقعی بدست آوریم؟ با این حال، ما پارامتر اصلی را که از نمونه خود دریافت کردهایم گزارش میکنیم. چرا اینطور است؟ با تشکر
|
چرا میانگین توزیع بوت استرپ را گزارش نمی کنید؟
|
71353
|
من طبقهبندیکنندهای دارم که تصمیمات خود را بهعنوان تخمین احتمال میدهد: برای هر داده مجموعهای از احتمالات $p_j$ را برای هر کلاس شناخته شده $j$ برمیگرداند: $p_j(\vec{x})=P(c_{real}=j |\vec{x})$. من یک مجموعه داده آموزشی دارم که بر روی آن طبقه بندی کننده را آموزش دادم و یک مجموعه داده آزمایشی برای آزمایش آن دارم. در هر دو مجموعه داده، من دادهها را به شکل $(\vec{x_i}، y_i)$ دارم، که $\vec{x_i}$ بردار ویژگی هر مبنا است، و $y_i$ کلاس اختصاص داده شده توسط انسان است. هر مبنا (هر داده می تواند فقط یک کلاس راست اختصاص داده شود). من به راحتی میتوانم کیفیت طبقهبندی را با منحنیهای PR و ROC ارزیابی کنم، اما میخواهم کیفیت تخمینهای احتمال را نیز ارزیابی کنم، که طبقهبندی کننده من را میسازد. اکنون از روش بعدی استفاده میکنم: 1) همه $p_j$ را در 10 bin توزیع میکنم: $(0 \dots 0.1)، (0.1 \ldots 0.2)، \ldots، (0.9 \ldots 1.0)$. 2) سپس برای هر سطل نگاه میکنم، چه تعداد تصمیم در هر سطل قرار میگیرد و چه تعداد از آنها تصمیمات درستی هستند: $P_{bin}=\frac{right-decisions-in-bin}{total-decisions-in- bin}$ 3) با داشتن منحنی احتمال اندازهگیری شده، من فقط به مجموع انحرافات مجذور آن از $f(x)=x$ در هر نقطه نگاه میکنم و سعی میکنم زمانی که چنین مجموعی حداقل است، یک طبقهبندی کننده داشته باشم. ** اما من فکر می کنم که بهترین راه برای چنین ارزیابی از تخمین احتمال نیست. آیا نمی توانید چیزی قابل اعتمادتر به من توصیه کنید؟ شاید، چند تکنیک استاندارد وجود دارد؟** P.S. برخی از منحنیهای احتمال، به روش من اندازهگیری شدهاند:  علامتهای نوشتاری روی نمودار نشان میدهند (#تصمیمهای درست در bin / #تصمیمات در bin) برای یکی از توابع احتمال اندازه گیری شده.
|
چگونه می توان کیفیت تخمین احتمال را ارزیابی کرد؟
|
33180
|
به نظر می رسد این به قدری ساده است که نمی توانم باور کنم پاسخ را در راهنمای SPSS یا آنلاین پیدا نکرده ام - حتماً چیزی را گم کرده ام. من دو متغیر مقیاس دارم، بیایید آنها را $X$ و $Y$ بنامیم. آنها متغیرهای مقیاس لیکرت هستند که توافق با اظهارات نگرش را برای دو آیتم که تصور میشود ساختار یکسانی را اندازهگیری میکنند، اندازهگیری میکنند. این دو سؤال جداگانه از یک ابزار است که به یک نمونه (که از همان جامعه گرفته شده است) داده می شود. (*) این دو متغیر دارای توزیع هایی هستند که مقداری همپوشانی دارند. سوال من این است که چگونه فرضیه متفاوت بودن یا نبودن این دو توزیع (در سطح 05/0p<) را آزمایش کنیم؟ (من فکر می کنم که می تواند به این معنی باشد که آیتم ها واقعاً ساختار یکسانی را اندازه گیری می کنند.) به نظر می رسد که برای مقایسه اینکه آیا میانگین $\mu_X$ و $\mu_Y$ دو توزیع برابر هستند یا خیر، نیاز به آزمون t دارد. فرضیه: $\mu_X=\mu_Y.$ اما من مستندات مقایسه میانگین ها، نمونه های مستقل T-Test و Paired را بررسی کردم. نمونه T-test را در SPSS، هم در رابط کاربری گرافیکی و هم در دستور، و من نمی توانم نحوه انجام این نوع تست را پیدا کنم. من باید چیزی را از دست بدهم؟ (*) من می دانم که در مورد اینکه آیا باید متغیرهای مقیاس لیکرت را به عنوان متغیرهای ترتیبی یا مقیاسی در نظر گرفت، اختلاف نظر وجود دارد، اما برای این تحلیل اولیه، من راحت آنها را به عنوان مقیاس در نظر می گیرم.
|
چگونه می توانم ببینم که آیا توزیع های دو متغیر در SPSS همپوشانی دارند؟
|
83921
|
یک آزمون t تک نمونه ای را فرض کنید، که در آن فرض صفر $\mu=\mu_0$ است. سپس با استفاده از نمونه انحراف استاندارد $s$، آمار $t=\frac{\overline{x}-\mu_0}{s/\sqrt{n}}$ است. در تخمین $s$، مشاهدات را با میانگین نمونه $\overline{x}$ مقایسه میکنیم: $s=\sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i- \overline{x})^2}$. با این حال، اگر یک $\mu_0$ داده شده را درست فرض کنیم، میتوان انحراف معیار $s^*$ را با استفاده از $\mu_0$ به جای میانگین نمونه $\overline{x}$: $s^*= تخمین زد. \sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i-\mu_0)^2}$. به نظر من، این رویکرد طبیعی تر به نظر می رسد زیرا در نتیجه از فرضیه صفر نیز برای تخمین SD استفاده می کنیم. آیا کسی می داند که آیا آمار بدست آمده در یک تست استفاده می شود یا می داند چرا نه؟
|
در یک آزمون t یک نمونه، اگر در برآوردگر واریانس میانگین نمونه با $\mu_0$ جایگزین شود، چه اتفاقی میافتد؟
|
104333
|
من کتابی را میخوانم که به مثالی اشاره میکند که در آن توزیع یکنواخت مقدمه اولیه است و سپس یک فرد در یک آزمون 9/10 نمره میگیرد. سپس قسمت خلفی حاصل به توزیع قبلی تبدیل می شود. این کتاب توضیح زیر را برای آنچه اتفاق میافتد ارائه میدهد، اما علیرغم مراجعه به صفحه ویکیپدیا در مورد یکپارچهسازی، من در تلاش برای درک دقیق آنچه در جریان است، و چرا این فرآیند ضروری است، هستم. 
|
ادغام در پشتی به چه معناست؟
|
83926
|
من در حال توسعه یک مدل رگرسیون چندگانه هستم. اخیراً با بیانیهای مواجه شدم که برای مجموعه کالیبراسیون بهتر است نمونههایی را انتخاب کنید که به طور یکنواخت در یک فضای متغیر پاسخ -Y در مقابل نمونههای توزیع شده معمولی توزیع شده باشند. من سعی می کنم این را بفهمم. اگر برای مجموعه کالیبراسیون نمونه هایی را انتخاب کنیم که توزیع تقریباً یکنواختی دارند، آیا به پیش بینی بهتر برای مقادیر پایین و بالای Y کمک می کند؟ متشکرم
|
انتخاب نمونه برای کالیفرنیا در مدل رگرسیون
|
41789
|
_سلب مسئولیت: من با خوشحالی اعتراف می کنم که واقعاً نمی دانم در مورد مدل های ترکیبی عمومی واقعاً چه کار می کنم، اما امیدوارم این موضوع بتواند من را کمی به نوعی درک نزدیک کند. با این حال، اگر این یک سوال OMG، شما یک n00b هستید است که باید بسته شود و دیگر هرگز درباره آن صحبت نشود، کاملاً متوجه خواهم شد :)_ من چند مدل خطی عمومی را اجرا می کنم (با استفاده از SPSS) سعی کنید احساس بهتری نسبت به روش داشته باشید. مجموعه داده من شامل تعدادی ارائه محرک با متغیر مقیاس وابسته (از 0 تا 1) و تعدادی متغیر اسمی مستقل برای هر ارائه است (به عنوان مثال جنسیت شرکت کننده، شرایط دارویی، نوع محرک و غیره) . اکنون، وقتی یک مدل خطی عمومی را اجرا میکنم، میتوانم نمودارهای بسیار زیبایی ایجاد کنم که اثرات اصلی و تعاملی مهم و غیر قابل توجه را برای همه دادههای من نشان میدهد. هنگامی که فقط چند عامل را شامل می شود، میانگین های تخمین زده شده در این نمودارها همان است که اگر من یک تحلیل توصیفی انجام دهم و فقط میانگین را محاسبه کنم. با این حال، وقتی شروع به اضافه کردن عوامل زیادی می کنم، میانگین تخمینی شروع به انحراف از میانگین واقعی نمونه من می کند. من اینجا کمی گیج هستم. چه چیزی باعث می شود GLM میانگین را با میانگین نمونه یکسان برآورد کند و چه زمانی این میانگین های تخمین زده شروع به انحراف از میانگین نمونه می کنند؟ آیا ربطی به تعداد فاکتورها دارد یا مربوط به خود عوامل است (مثلاً نحوه تقسیم داده ها با توجه به سایر متغیرها).
|
چه چیزی باعث می شود که یک GLM میانگین را با میانگین نمونه واقعی متفاوت تخمین بزند؟
|
70917
|
این یک سوال تکلیف نیست، فقط یک بلوک ذهنی است. چرا تجزیه و تحلیل های آماری به متغیرهای کاملاً مشخص به عنوان متغیر پاسخ/وابسته نیاز دارند؟ چرا متغیر پاسخ من نمی تواند چیزی [مبهم] مانند مشتری با ارزش احتمالی بالا یا یک سوال بله/خیر باشد؟
|
چرا به متغیرهای کاملاً تعریف شده به عنوان متغیرهای پاسخ/وابسته نیاز داریم؟
|
70916
|
من در حال نوشتن پایان نامه دیپلم خود هستم در مورد تعامل بین مدیریت انبار و داده کاوی (به طور خاص، قوانین انجمن). من داده کاوی مبحثی را با در نظر گرفتن قوانین تداعی بولی که توسط الگوریتم a-priori ایجاد شده است (مثلاً تحلیل سبد بازار) آغاز کردم. سپس من در مورد قوانین ارتباط کمی اطلاعات پیدا کردم. آنها نه تنها به این سوال که چه چیزی با هم در سبد بازار وجود دارد توجه می کنند، بلکه چه مقدار از یک کالا با چه مقدار از کالای دوم و غیره ترکیب می شود. شاید مهمترین نویسنده (و حتی نوعی بنیانگذار) داده کاوی راکش آگراوال باشد. او مقاله ای (pdf) در مورد قوانین انجمن کمی استخراج کرد. بعد از اینکه آن را یافتم و آن را در نظر گرفتم، می خواستم مقالات یا ادبیات جدیدتری در مورد این موضوع پیدا کنم، زیرا Agrawal آن را در سال 1996 منتشر کرد. من فقط 3-4 مقاله در مورد قوانین ارتباط کمی (به ترتیب داده کاوی کمی) پیدا کردم و نمی دانم چرا این موضوع بیشتر مورد بحث قرار نگرفته است. آیا می دانید چرا یافتن مقاله ای با توجه به آن بسیار سخت است؟ چرا ایده Agrawal پیشرفتی ندارد یا من آنها را پیدا نکردم؟ همچنین نرم افزارهای زیادی برای داده کاوی وجود دارد (به عنوان مثال WEKA) اما آنها فرصتی برای استخراج قوانین ارتباط کمی ندارند، فقط قوانین بولی. بنابراین می خواهم از شما بپرسید که آیا نرم افزاری برای استخراج قوانین انجمن کمی می شناسید؟
|
مقالاتی در مورد قوانین ارتباط کمی در داده کاوی
|
36009
|
این از _احتمال و اندازه گیری_ توسط Billingsley، نسخه سوم است. **27.21 (ص. 370)** اجازه دهید $X_1، X_2،...$ مستقل و به طور یکسان توزیع شوند، و فرض کنید که توزیع مشترک برای $X_n$ توسط $[0,2\pi]$ پشتیبانی میشود و توزیع شبکه ای نیست. اجازه دهید $S_n=X_1+\cdots+X_n$، که در آن مجموع ماژول $2\pi$ کاهش می یابد. نشان دهید که $S_n \Rightarrow U$، که در آن $U$ به طور یکنواخت روی $[0,2\pi]$ توزیع شده است. آیا کسی می تواند نکاتی را ارائه دهد؟ با تشکر P.S. این مشکل به دو مشکل دیگر برمی گردد. یعنی: **26.1 (ص. 353)** یک متغیر تصادفی دارای توزیع _شبکه_ است اگر برای برخی از $a$ و $b$، $b>0$، شبکه $\{a+nb:n=0،\ pm 1،\dots\}$ از توزیع $X$ پشتیبانی می کند. اجازه دهید $X$ دارای تابع مشخصه $\varphi$ باشد. **(a)** نشان دهید که شرط لازم برای $X$ برای داشتن توزیع شبکه این است که $|\varphi(t)|=1$ برای مقداری $t\neq 0$. **(ب)** نشان دهید که شرط نیز کافی است. **(c)** فرض کنید $|\varphi(t)|=|\varphi(t')|=1$ برای $t$ و $t'$ غیرقابل مقایسه ($t\neq 0$, $t' \neq 0$، $t/t'$ غیر منطقی). نشان دهید که $P\{X=c\}=1$ برای مقداری ثابت $c$. **26.29 (ص. 356)** **(a)** فرض کنید $X'$ و $X''$ متغیرهای تصادفی مستقل با مقادیر $[0,2\pi]$ هستند، و اجازه دهید $X$ $X'+X''$ کاهش ماژول $2\pi$ باشد. نشان دهید که ضرایب فوریه مربوطه $c_m=c_m' c_m''$ راضی است. **(ب)** نشان دهید که اگر یکی یا دیگری از $X'$ و $X''$ به طور یکنواخت توزیع شده باشد، X$ نیز توزیع شده است.
|
همگرایی توزیع
|
41780
|
من سعی می کنم از یک مدل رگرسیون دوجمله ای منفی برای برخی از داده های شمارشی استفاده کنم که در آن متغیر شمارش وابسته مقادیر 0، 1، 2، 3 یا 4 را می گیرد. معیار X بزرگتر از حد 0.0001 است. که در آن X تقریباً از 0.001 تا 250 متغیر است. من در این مرحله فقط با مدلهای تک متغیره کار میکنم، و این مسئله برای همه انواع متغیرهای مستقل است (به عنوان مثال، متغیر مستقل در مدل یک متغیر پیوسته مانند سن است یا یک متغیر طبقهای متغیر مانند سطح درآمد). من همچنین متوجه شدم که تخمین پراکندگی همیشه 0 است و به دنبال آن 0 برای خطای استاندارد و 95٪ Wald CI یا با خطای استاندارد <0.01 و مقادیر گمشده برای 95٪ Wald CI دنبال میشود. تخمینها و خطاهای استاندارد برای متغیرهای مستقل با خطاهای یک رگرسیون پواسون به جای رگرسیون دو جملهای منفی برابری میکنند (من حدس میزنم زیرا تخمین پراکندگی = 0). آیا راهی برای رفع مشکل همگرایی وجود دارد؟
|
رگرسیون دو جمله ای منفی همگرا نمی شود
|
41784
|
اخیراً مقاله ای در مورد اینکه چگونه می توانید با کم خوابی طول عمر خود را افزایش دهید خواندم. این مقاله، مانند بسیاری دیگر که خواندهام، به یک مطالعه آماری ارجاع میدهد و دلالت بر این دارد که بین دو رویداد (کمتر خوابیدن و طولانیتر زندگی کردن) علت پیدا شده است. خب، من یک آمارگیر نیستم، اما از اشتباهات رایج در مورد علیت آگاهم و قبول اطلاعات ارائه شده در این مقاله و سایر موارد مشابه برایم بسیار سخت است. حتی بیشتر از آن، من تقریباً هرگز نمی توانم از روی یک مقاله بدانم که آیا مطالعه اصلی علت را پیدا کرده است یا نه، بدون اینکه وقت بگذارم و در آن جستجو کنم. اگرچه من واقعاً دوست دارم، اما قصد ندارم با آوردن مثال هایی از اینکه چگونه علت ممکن است در مقاله داده شده اشتباه باشد، وارد هیچ عمقی نمی شوم، زیرا به احتمال زیاد برای گروه کر موعظه می کنم. خوشبختانه، برای تسکین من، مقاله اصلی در نیویورک تایمز فقط در مورد همبستگی صحبت می کند و حتی در پایان یک سلب مسئولیت دارد که اساساً می گوید که این مطالعه دلالت بر علیت ندارد. همچنین، اکنون میخوانم که مطابق با شهودم، یافتن و/یا آزمایش علیت واقعاً سخت است. با خواندن صفحه ویکی در مورد موضوع، دو مدل را دیدم که به نظر رایجترین مدلهایی هستند که برای یافتن پیوندهای واقعی در علیت استفاده میشوند: آزمون علیت گرنجر و نگاشت متقاطع همگرا. اما من می بینم که هر دوی اینها شکاف هایی در خود دارند. حالا در مورد همه اینها چند سوال دارم. Q1: آیا مدلی وجود دارد که بتواند با دقت بالا، علت واقعی را در چنین مطالعات گسترده ای بیابد؟ اگر بله رایج ترین آنها کدامند؟ Q2: این مطالعات گسترده چند بار واقعاً برای علیت آزمایش می کنند؟ به عنوان مثال اگر در جایی خواندم که یک مطالعه بسیار گسترده نشان می دهد که A باعث B می شود، آیا دلیلی دارم که باور کنم چیزی بیش از همبستگی پشت این ادعاها وجود دارد. Q3: آیا تکنیک خوبی وجود دارد که بتواند توسط یک غیر آمارگیر برای فیلتر کردن آمار خوب از آمار بد در زندگی روزمره استفاده شود.
|
دلالت علیت
|
71355
|
یک برنامه اکسل آزمایش سکه مونت کارلو را اجرا می کند. «10000» سکه «1000» بار پرتاب میشوند، با تعداد دفعاتی که سر «N» در جدول ظاهر میشود. تعداد دفعاتی که سرهای «N» در طول اجرای آزمایش ظاهر میشوند «Q» را صدا بزنید. مقدار متوسط 'Q' و همچنین انحراف معیار آن در پایان آزمایش محاسبه می شود. سوال من این است که چگونه می توانم نوارهای خطا را برای چنین آزمایشی محاسبه کنم؟ من دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم و در چند ساعت گذشته تلاش کردم تا راه حلی پیدا کنم، اما همه تلاش ها بی نتیجه بوده است. هر گونه کمکی بسیار قدردانی خواهد شد.
|
نوارهای خطا در آزمایش سکه مونت کارلو
|
71350
|
من سعی میکنم نحوه استفاده از مدلهای یادگیری ماشینی مانند جنگل تصادفی با دادههای سری زمانی (غیر مالی) را تعیین کنم. با استفاده از یک مثال، فرض کنید میخواهیم بر اساس نمرات ماهانه دروس برای هر دانشآموز بفهمیم که او در امتحان پایان ماه که هر ماه برگزار میشود، چقدر خوب عمل میکند. ماه 1 نام داده وضعیت EngScore MathScore HistScore ... MonthEndExamScore جان NY 80 90 75 180 Jack TX 78 65 90 170 John CA 82 93 79 185 همین داده ها برای دانش آموزان در ماه 2، 3 ... جمع آوری شده است. وظیفه پیشبینی امتیاز MonthEndExam ماه جاری با استفاده از دادههای تاریخی دانشآموز در مورد عملکرد در ماههای گذشته است. برای ماه جاری، نمرات همه موضوعات فردی تا اواسط ماه مشخص است، در حالی که ماه پایان ماه تا پایان ماه مشخص نیست و آن چیزی است که ما می خواهیم پیش بینی کنیم. من میدانم که میتوان از روشهای آماری مانند ARIMA و غیره استفاده کرد، اما نمیدانستم که آیا روشهای مشابهی در ML وجود دارد که بتوان در اینجا اعمال کرد، ** بهویژه ** با استفاده از بستههای R (مانند randomForest، caret، party، و غیره). پیشاپیش ممنون
|
روشهای یادگیری ماشین سری زمانی و بستههای R
|
70915
|
من به دنبال نمونه برداری از پل گاما هستم، همانطور که در مثال [1] توضیح داده شده است. مزایای نمونه گیری در این روش چیست؟ آیا صرفا جنبه محاسباتی دارد؟ آیا هیچ مشکلی در نحوه عملکرد rgamma() در نمونه های R وجود دارد؟ از آنچه من می توانم بگویم، این یک روش پذیرش - رد است. یکی از مواردی که میتواند با نمونهبرداری پل گاما بهتر باشد این است که در نمونهبرداری افزایشی، خطاهای گرد از افزایش در کل فرآیند جمع میشوند. این مورد برای نمونه برداری از پل گاما صادق نخواهد بود. [1]: Avramidis AN، L'Ecuyer P، Tremblay PA. شبیه سازی کارآمد فرآیندهای گاما و واریانس-گاما. مجموعه مقالات کنفرانس شبیه سازی زمستان 2003. IEEE 2003، ص. 319-326
|
نمونه برداری از پل گاما
|
41783
|
من مجموعهای از پروفایلهای طول قطعه t-rflp از تحقیق در مورد تخریب میکروبی هیدروکربنها به عنوان بخشی از پایاننامه کارشناسی خود دارم. من میخواهم تأثیر متغیرهای مختلف را بر روی جامعه میکروبی خاکهای غیرآلوده مطالعه کنم - بهویژه اگر وجود سورفکتانتها و خاک از مناطق آلوده به نفت بر جامعه میکروبی در شرایط هوازی و بیهوازی تأثیر بگذارد. اساساً این تحقیق دارای چهار تکرار t-rflp برای هر یک از موارد زیر است: هوازی (بدون سورفاکتانت)، (بدون سورفکتانت + افزوده شده)، (سورفکتانت)، (سورفکتانت + افزوده) بی هوازی (بدون سورفاکتانت)، (بدون سورفکتانت + افزوده)، (سورفکتانت)، (سورفکتانت + افزوده شده) مشکل این است که من هرگز کاری از راه دور انجام نداده ام مشابه قبل، و سرپرست من برای چند هفته دور است. آیا استفاده از متغیرهای مستقل دوگانه (+/- سورفکتانت، +/- افزایش خاک، شرایط هوازی/بی هوازی) برای nMDS مناسب است؟ اگر کمک کند از بسته آمار دیرینه شناسی (PAST) استفاده می کنم. در یک یادداشت مرتبط، آیا انجام تجزیه و تحلیل آماری بر روی مختصات محور DCA نمونه ها (GLM ANOVA؟) مناسب است؟
|
مقیاس بندی چند بعدی غیر متریک با متغیرهای مستقل دوگانه؟
|
7053
|
من در حال بررسی مقالهای هستم و نمیتوانم جزئیاتی را ارائه کنم، اما وضعیت اینجاست، و من را متحیر کرده است که بیماران به 4 دسته تقسیم میشوند (آنها را A B C و D مینامیم)، که جامع و انحصاری بودند. نسبت های خطر تعدیل شده برای این چهار گروه برای همه بیماران و برای دو زیر گروه از بیماران (آنها را ریه و قلب می نامیم) محاسبه شد. این دو زیر گروه نیز جامع و انحصاری بودند. برای نمونه کامل، نسبت خطر برای B C و D (در مقایسه با A) 5.08، 4.39 و 1.81 بود. برای گروه ریه، آنها 1.15، 1.16 و 1.07 بودند. برای گروه قلب آنها 2.55، 1.69 و 1.28 بودند. یعنی برای هر دو زیر گروه کمتر از کل جمعیت بود. گروه ریه و گروه قلب هم اندازه نیستند. از اطلاعات ارائه شده، مشخص نیست که آیا A B C و D به طور مساوی در گروه های قلب و ریه تقسیم می شوند یا خیر. پس…. به نظر می رسد این پارادوکس سیمپسون است. اما من ندیده ام که این اصطلاح برای تجزیه و تحلیل بقا استفاده شود. من نمی دانم که چرا نمی تواند اینقدر اعمال شود. احساس من در اینجا این است که پیشنهاد می کنم قلب و ریه فقط باید جداگانه ارائه شوند، اما من کاملاً مطمئن نیستم. (ببخشید اگر چیزی واضح را از دست دادم - رسیدگی به برخی از مشکلات بهداشتی خانوادگی و خوب نخوابیدن) با تشکر از هرگونه بینش یا فکر
|
سوال در مورد ترکیب نسبت های خطر - شاید پارادوکس سیمپسون؟
|
37750
|
فرض کنید من یک مجموعه داده دارم که دادههای دایرهای اندازهگیری شده را در درجه نشان میدهد: x <-c(rnorm(1000, 0, 10), rnorm(700, 110, 3), rnorm(1100, 230, 5)) %% 360 پکیج R «دایره ای» راه بسیار خوبی برای نمایش آن داده ها و ابزاری اساسی برای تشخیص نقاط تغییر در آن ارائه می دهد: library(circular) x <- circular(x, units='degrees') cp <- change.point(x) با این حال، این الگوریتم خاص محدود است، زیرا (طبق تجربه من) نسبتاً ناکارآمد است، و محدود به یافتن یکی است تغییر نقطه در یک زمان، بنابراین اگر چندین نقطه تغییر وجود دارد، یک رویکرد بازگشتی مورد نیاز است. این باعث می شود تصمیم گیری در مورد زمان خاتمه کمی دشوار باشد. اگر از الگوریتم نقطه تغییر خطی استفاده شود، با «x[1:1000]» مشکل خواهد داشت زیرا برخی از مقادیر نزدیک به «0» و برخی نزدیک به «360» خواهند بود. برای داده های خطی، من الگوریتم PELT Killick، Fearnhead و Eckley (2011) را دوست دارم که توسط تابع cpt.mean() بسته R changepoint پیاده سازی شده است. این سریع است و به نظر می رسد بسیار قابل اعتماد است. آیا کسی به تطبیق این روش با داده های دایره ای نگاه کرده است؟ یا توصیه های دیگر؟
|
تشخیص تغییر در داده های دایره ای
|
33238
|
دو ابزار کاملاً بر سر دسته بندی 85 هزار جمله (کل جمعیت من) توافق دارند. حالا من می خواهم یک نمونه از جملات را بگیرم و آن را به دو نفر بدهم. این برای بررسی این است که آیا ابزارها واقعاً موافق هستند یا هر دو با هم 85 هزار جمله را اشتباه دسته بندی کرده اند. اکنون، باید بدانم از بین 85 هزار جمله چند جمله را باید به عنوان نمونه انتخاب کنم تا از نظر آماری آن را بررسی کنم. آیا فرمول یا روشی برای فهمیدن وجود دارد؟
|
تعیین حجم نمونه
|
7059
|
من بسیاری از افراد را مدیریت می کنم که داده ها را در یک پایگاه داده وارد می کنند. من گزارشی از کاربر، تاریخ، زمان، جدول و اقدامی دارم که هر فرد انجام می دهد: رکوردهای <- data.frame(user = c('bob', 'bob', 'jane', 'jane', 'bob' , 'bob', 'bob', 'jane', 'jane', 'bob'), date = c(2010-06-24, 2010-06-28, 2010-06-29، 2010-06-30، 2010-07-01، 2010-07-02، 2010-07-05، 2010-07-06، 2010 -07-07، 2010-07-09)، زمان = c(01:40:08، 01:40:18، 01:40:28، 01:40:37، 01:40:44، 01:40:52، 01:40:59، 01 :56:26، 02:16:37، 03:55:06)، جدول = c(rep('table1',5)، rep('table2',5)), اقدام = c('ایجاد'، 'ایجاد'، 'ایجاد'، 'به روز رسانی'، 'ایجاد'، 'به روز رسانی'، 'به روز رسانی'، 'ایجاد'، 'ایجاد'، 'ایجاد')) برای موارد غیر ضروری به عنوان مثال، قاب داده واقعی «رکوردها» با 10000 ورودی را می توان به عنوان یک فایل Rdata در اینجا دانلود کرد و سپس: load('records.Rdata') library(ggplot2) qplot(تاریخ، جدول، داده = رکورد، رنگ = کاربر، geom='jitter') چگونه می توانم به طور کلی و برای هر جدول تجسم کنم: 1. مدت زمان هر جدول شخص در هفته کار می کند 2. نوع و تعداد یا دفعات اقداماتی که انجام داده است. ?
|
چگونه می توانم به طور موثر مجموعه های زمانی فعالیت های کارکنان را خلاصه و تجسم کنم؟
|
7056
|
readHTMLTable بسیار قوی به نظر می رسد، اما وقتی سعی می کنم از آن در این صفحه استفاده کنم، با خطا مواجه می شوم. آیا ایده ای دارید که معنی آن چیست یا چگونه می توانم از آن دور شوم؟ بزرگترین جدول صفحه در داخل جدول دیگری تو در تو قرار دارد... آیا این مشکل دارد؟ > جداول<-readHTMLTable(myURL, header=NA,a.data.frame=TRUE) خطا در htmlParse(doc): خطا در ایجاد تجزیه کننده برای http://www.ncbi.nlm.nih.gov/genomes/lproks. cgi
|
خطا در ایجاد تجزیه کننده در readHTMLTable
|
37753
|
من وظیفه ارائه یک برنامه پیش بینی برای شرکتم را بر دوش دارم. من هیچ تجربه ای ندارم و در کل صحنه پیش بینی بسیار جدید هستم. در حال حاضر، شرکت من هیچ برنامه ای برای سرمایه گذاری در هیچ نرم افزار پیش بینی ندارد، بنابراین تنها ابزار من اکسل است. من خودم سعی کردم تحقیقات آنلاین انجام دهم و به نظر می رسد که این روش هموارسازی سه گانه یک مزیت عالی خواهد بود، اما کمی گیج هستم و حدس می زنم که واقعاً معادلات را درک نمی کنم. در زیر من 3 سال فروش برای یک مورد ارائه کرده ام. ما در دوره ها (4 هفته = 1 دوره) پیش بینی می کنیم. بنابراین در یک سال 13 دوره وجود دارد. وقتی پیشبینی میکنیم، باید 6 دوره در آینده را پیشبینی کنیم، لطفاً به من کمک کنید از تکنیک هموارسازی سهگانه برای انجام این کار استفاده کنم. Period 10 2009 69,088 Period 11 2009 83,400 Period 12 2009 75,735 Period 13 2009 79,526 Period 01 2010 81,005 Period 20104 02 2010 90,567 Period 04 2010 94,568 Period 05 2010 101,687 Period 06 2010 93,540 Period 07 2010 84,249 Period 08 2010 2010 78,531 Period 10 2010 89,465 Period 11 2010 83,341 Period 12 2010 87,106 Period 13 2010 65,636 Period 01 2011 Period 79,629 Period 01 2011 79,602 03 2011 87,483 Period 04 2011 99,228 Period 05 2011 113,215 Period 06 2011 96,057 Period 07 2011 95,475 Period 08 920 103,529 Period 10 2011 94,515 Period 11 2011 76,146 Period 12 2011 81,736 Period 13 2011 80,174 Period 01 2012 Period 01 2012 Period 81,420 Period 03 2012 120,775 Period 04 2012 97,058 Period 05 2012 119,921 Period 06 2012 102,311 Period 07 2012 109,4918 Period 109,4910 09 2012 98,103 Period 10 2012 Period 11 2012 Period 12 2012 Period 13 2012 Period 01 2013 Period 02 2013 Period 03 2013
|
نحوه استفاده از هموارسازی نمایی سه گانه برای پیش بینی در اکسل
|
33234
|
اگر من جمعیتی داشته باشم و بخواهم از آنجا نمونه بگیرم، برای تعیین تعداد نمونه از جامعه چه مراحلی وجود دارد؟ به عبارت دیگر، اگر من جمعیت N داشته باشم و بخواهم از آنها k نمونه بگیرم به طوری که نمونه ها نماینده کل جامعه باشند، چگونه می توانم k را تعیین کنم؟ من از اینجا اطلاعاتی دارم اما در پایان این سند میبینم-> اگر استاندارد جمعیت خود را نمیدانید > انحراف که مورد من است (یعنی من واریانس جمعیت را نمیدانم) همچنان میتوانید از این فرمول استفاده کنید. . چگونه می توانم از آن فرمول استفاده کنم اگر انحراف / واریانس استاندارد جمعیت را نمی دانم؟ n.b. من این سوال را در آن انجمن ارسال کردم اما هنوز موفق نشدم.
|
تعیین حجم نمونه
|
41782
|
آیا کسی میداند که چگونه / آیا میتوانید یک متغیر مستقل را هم به عنوان متغیر بین و هم در درون موضوعات در نظر بگیرید (به طور ایدهآل در اندازههای تکراری SPSS ANOVA). یعنی ما یک مطالعه اندازه گیری مکرر داریم که در آن متغیر مستقل DEVICE (6 سطح) است. نکته مهم این است که هر پاسخ دهنده فقط در معرض 3 دستگاه قرار می گیرد و ما می خواهیم تجزیه و تحلیل را در تمام 6 دستگاه انجام دهیم. برای هر دستگاه 3 اقدام انجام خواهیم داد.
|
متغیر ANOVA که هم BETWEEN و WITHIN است
|
7057
|
من می خواهم ضرایب مسئله LASSO را بدست بیاورم $$||Y-X\beta||+\lambda ||\beta||_1.$$ مشکل این است که توابع glmnet و lars پاسخ های متفاوتی می دهند. برای تابع glmnet من ضرایب $\lambda/||Y||$ را به جای $\lambda$ میپرسم، اما هنوز پاسخهای متفاوتی دریافت میکنم. آیا این انتظار می رود؟ رابطه بین lars $\lambda$ و glmnet $\lambda$ چیست؟ من می دانم که glmnet برای مشکلات LASSO سریعتر است، اما می خواهم بدانم کدام روش قدرتمندتر است؟
|
GLMNET یا LARS برای محاسبه راه حل های LASSO؟
|
41786
|
با این دادهها: y <- c(1.105808، 1.000000، 5.304166، 33.665875، 139.865451، 109.033703، 176.639245، 1.000000000، 1.00000000، 1.00000000، 1.00000000، 1.00000000، 176.639245، 1.0004166. ,150.478570, 18.465554, 85.096431, 81.907537, 124.631226, 1.000000 , 11.237294 , 20.480519 , 20.480519 , 1676. 54.051613 , 134.068889 , 72.215041 , 1.000000 , 31.254480 , 6.226026 , 54.340496 , 161.6673508,413 147.404744، 192.966923، 1.000000، 1.150755، 1.000000، 99.477430، 72.592598، 107.493014، 1414.1414. , 1.000000, 27.534944 , 8.492657 , 38.155558 , 44.301978 , 81.938633 , 75.026848 , 144.926520 , 107 , 100 . 40.001560) x1 <- c(7.878865، 9.117159، 9.998539، 10.300563، 12.683197، 12.185060، 101.3463885، 101.3463885، 41. چهار 8.154099، 8.811370، 64.089236، 205.728163، 7.218225، 6.905615، 9.341990، 8.554343، 15.815، 15.815. . 3.985544، 4.389385، 4.663445، 4.934453، 6.622184، 7.770833، 21.700911، 33.470576، 5.411-x) 5.40540. c(0.4225000، 0.6619411، 0.5401000، 0.5138000، 0.5109000، 0.6325681، 0.6425919، 0.6466943، 0.6466943، 0.442087، 0.4420 0.5254000، 0.5525000، 0.5392000، 0.6330954، 0.6457942، 0.6582531، 0.4039000، 0.6154006، 0.458،0.46200 0.5439000، 0.6494275، 0.6423681، 0.6450814، 0.5110000، 0.6060935، 0.5050000، 0.5200000، 0.5200000، 0.5333650 . 0.4797000، 0.6211242، 0.5705000، 0.5709000، 0.6144000، 0.6412593، 0.6611542، 0.6364444، 0.63644444، 0.35990. مدل اثرات تصادفی لگ نرمال در JAGS. زیر کد JAGS من: # مدل Lognormal # N شهرداری # M years # W Betas model { for(i in 1:N) { for (j in 1:M) { k <- (i-1)*8 + j y[ k] ~ dlnorm(mu[k]، tau) mu[k] <- beta0 + delta[i] + inprod(x[k,]، beta[]) دلتا[i] ~ dnorm(0، tau2) } } # قبلی برای بتاهای بتا ~ dnorm(mbeta0، precbeta0) برای (l در 1:W) { beta[l] ~ dnorm(m[l]، prec[l]) } # قبلی برای دقت Y tau ~ dgamma(tau.a، tau.b) sigma <- 1/sqrt(tau) # قبل از دقت دلتا tau2 ~ dgamma(tau.a2, tau.b2) sigma2 <- 1/sqrt(tau2) } اینجا کد Rjags من: br <- read.csv(داده/تست .csv، header=T، sep=',') br <- na.omit(br) br$y <- br$y + 1 # تنظیم داده y <- br[, 28] x <- br[, c(29,30,12,22)] # داده، مقادیر اولیه و پارامترها N <- طول( منحصر به فرد(br $ID)) W <- dim(x)[2] data <- list(N=N، M=8، W=W، y=y، x=x، m=c(-2،2،4،3)، prec=c(.20،.20،.20،.20)، tau.a=1، tau.b=2، tau.a2=1، tau .b2=2، mbeta0=1، precbeta0=.01) شروع می شود <- rep(list(list(beta0=0, beta=c(1,1,1,1), tau=1)),5) param <- c(beta0، beta، sigma، delta) # Model sim <- jags.model(file=Code/lognormal2.bug, data=data, inits=inits, n. chains=5, n.adapt=1000) اما خطای زیر را دریافت می کنم: خطا در jags.model(file = Code/lognormal2.bug, data = داده، inits = inits، : RUNTIME ERROR: خطای کامپایل در خط 11. مقادیر از دست رفته در زیر مجموعه عبارت y کمکی دارید؟
|
خطای کامپایل در JAGS
|
7058
|
من سه ویژگی دارم که برای حل یک مشکل طبقه بندی استفاده می کنم. در اصل، این ویژگیها مقادیر بولی تولید میکردند، بنابراین من میتوانم افزونگی آنها را با بررسی میزان همپوشانی مجموعههای طبقهبندی مثبت و منفی ارزیابی کنم. اکنون ویژگیها را برای تولید مقادیر واقعی (نمرات) گسترش دادهام و میخواهم دوباره افزونگی آنها را تجزیه و تحلیل کنم، اما در مورد نحوه انجام این کار کاملاً از دست رفتهام. آیا کسی می تواند به من اشاره یا ایده ای در مورد چگونگی انجام آن ارائه دهد؟ من می دانم که این سوال بسیار مبهم است، به این دلیل که درک خیلی قوی از آمار ندارم. بنابراین، اگر پاسخی برای من ندارید، شاید سؤالاتی دارید که می تواند به درک بهتر من کمک کند. **ویرایش:** من در حال حاضر در حال مرور ویکیپدیا در مورد این موضوع هستم، احساس میکنم چیزی که میخواهم یک ضریب همبستگی است، اما هنوز مطمئن نیستم که آیا این رویکرد درستی است و کدام یک از ضرایب موجود مناسب است. **ویرایش 2:** در حالت بولی، من ابتدا برای هر ویژگی مجموعه نمونه هایی را ایجاد کردم که درست بود. سپس، همبستگی بین دو ویژگی، اندازه تقاطع این مجموعه ها بر اندازه اتحاد این مجموعه ها بود. اگر این مقدار 1 باشد، آنها کاملاً اضافی هستند، زیرا همیشه یکسان هستند. اگر 0 باشد، هرگز یکسان نیستند.
|
چگونه می توان افزونگی ویژگی ها را کمیت کرد؟
|
37756
|
من آزمونهای همبستگی را بین تعدادی از متغیرها انجام دادم که شامل مقیاسهای فاصلهای و مقولهای بودند ($n = 1274$، یک نمونه). من از $\chi ^2$ تست برای طبقه بندی در مقابل ترتیبی و $\rho$ اسپیرمن برای فاصله در مقابل داده های ترتیبی استفاده کردم. همبستگی بین منطقه آب و هوایی (منطقه 1، 2، 3، 4 دلار) و قرار گرفتن روزانه در معرض تهویه مطبوع (کم، متوسط، زیاد) 0.35 دلار است (Cramer's V). همبستگی بین قرار گرفتن در معرض AC و امتیاز نگرش طرفدار محیط زیست (1-5 دلار، فاصله زمانی) 0.21 دلار است ($\rho$ اسپیرمن). آیا میتوانم در صورت استفاده از آزمونهای همبستگی مختلف، قدرت رابطه را مقایسه کنم، مثلاً رابطه بین آب و هوا و قرار گرفتن در معرض AC قویتر از رابطه بین نگرشهای طرفدار محیطزیست و قرار گرفتن در معرض AC است؟
|
آیا می توانید مقادیر Cramer's V و $\rho$ اسپیرمن را با هم مقایسه کنید؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.