_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
41697
آیا هیچ متخصص R تابع predic در بسته randomforest را برای من توضیح می دهد؟ من می‌خواهم دو نتیجه پیش‌بینی برای متغیر پاسخ عددی A و B به‌طور جداگانه از نتیجه رگرسیون زیر بدست بیاورم <-randomforest(A + B ~ C + D + E، داده = مجموعه داده) پیش‌بینی (نتیجه) من می‌توانم یک نتیجه پیش‌بینی دریافت کنم. اما پیش بینی نه A است و نه B. من می توانم نتایج پیش بینی هر دو A و B را از بسته Mvpart و party دریافت کنم. پیشاپیش متشکرم
نتایج پیش‌بینی برای دو متغیر پاسخ از جنگل تصادفی
89945
من از تابع «glmer» از بسته «lme4» در R استفاده می‌کنم و از بهینه‌ساز «bobyqa» (یعنی پیش‌فرض در مورد من) استفاده می‌کنم. من یک اخطار دریافت می کنم و کنجکاو هستم که معنی آن چیست. پیام اخطار: در optwrap(بهینه ساز، devfun، start، rho$lower، control = control، : کد همگرایی 3 از bobyqa: bobyqa -- یک مرحله منطقه اعتماد برای کاهش یافتن نشد q من جستجو کردم مرحله اعتماد یک گام موفق به کاهش q شد. اطلاعاتی در بسته minqa پیدا کردم که روی آن نوشته شده بود: برای توضیح با پاول مشورت کنید. در واقع، من نتوانستم چیزی در مورد کاهش q پیدا کنم (2007) توسعه های NEWUOA برای کمینه سازی بدون محدودیت بدون مشتقات، دانشگاه کمبریج، گروه ریاضیات کاربردی و فیزیک نظری، گروه تحلیل عددی، گزارش NA5. ، http://www.damtp.cam.ac.uk/user/na/NA_papers/NA2007_05.pdf. مرکز علوم ریاضی، دانشگاه کمبریج، انگلستان. http://www.damtp.cam.ac.uk/user/na/NA_papers/NA2009_06.pdf. P.s. من می دانم که می توانم بهینه ساز را تغییر دهم، و می خواهم ببینم آیا می توانم خروجی را بدون اخطار یا خطا دریافت کنم. اگر بتوانم، طبق نظر/پاسخ بن بولکر، گرادیان و هسیان را نیز بررسی خواهم کرد. من از «glmer» در «درج» از «MuMIN» استفاده می‌کنم و مطمئن نیستم که پاسخ بن بدون کمی سرهم‌بندی اضافی کار کند، اما وقتی رایانه‌ام کاری را که انجام می‌دهد تمام شود، روی آن کار خواهم کرد، به هر حال . ## به‌روزرسانی طبق نظر دکتر بولکر در زیر، من شروع به جستجوی کد FORTRAN کردم (این کد برای هر کسی که علاقه‌مند به جستجو است اما دانلود نمی‌کند، ارائه می‌شود). 430 در بخش bobyqb.f کد ظاهر می شود. برای یافتن کد مربوطه کافی است 430 یا reduce Q را جستجو کنید. این اولین برخورد من با کد FORTRAN است، اما فکر می‌کنم این کد می‌گوید در صورت رعایت شرایط زیر، اخطار را ایجاد کنید: «NTRITS» > 0، «VQUAD» >= 0، «IPRINT» > 0. «عدد صحیح NTRITS به تعداد تکرارهای منطقه اعتماد که از آخرین تکرار جایگزین رخ داده است تنظیم می شود. VQUAD چندین بار ظاهر می شود، و من هنوز در مورد اهمیت آن روشن نیستم زیرا به نظر می رسد مقدار آن به متغیرهای مختلفی وابسته است، که مقادیر آنها گاهی به متغیرهای دیگر بستگی دارد. از bobyqa.f: مقدار IPRINT باید روی 0، 1، 2 یا 3 تنظیم شود، که میزان چاپ را کنترل می کند، به طور خاص، اگر IPRINT=0 باشد و خروجی وجود داشته باشد، خروجی وجود ندارد فقط در بازگشت اگر IPRINT=1 باشد. بنابراین، به نظر می‌رسد که کار این است که اهمیت >= 0 بودن «VQUAD» را بفهمیم و شاید بفهمیم که چگونه / چه زمانی «IPRINT» > 0 شد. من باید به مقاله برگردم تا نگاهی بیندازم. اما ریاضی، یا حداقل بیان نمادین آن، برای من کمی مانع است. مگر اینکه کسی در مورد الگوریتم اطلاعات داشته باشد یا تمایلی به یادگیری در مورد آن داشته باشد، فکر می‌کنم باید به طور مکرر درک خود را از هشدار با رفت و برگشت بین مقالات، کد و اینترنت افزایش دهم تا زمانی که بفهمم چه چیزی چیست. به معنی.
معنی هشدار همگرایی در گلمر
44220
من مجموعه داده ای از متغیرهای مجزا (ترتیبی، مریستیک و اسمی) دارم که خصوصیات مورفولوژیکی بال را در چندین گونه نزدیک از حشرات توصیف می کند. کاری که من به دنبال انجام آن هستم انجام نوعی تجزیه و تحلیل است که به من یک نمایش بصری از شباهت گونه های مختلف بر اساس ویژگی های مورفولوژیکی بدهد. اولین چیزی که به ذهن من خطور کرد PCA بود (این نوع تصویرسازی است که من به دنبال ایجاد آن هستم)، اما پس از بررسی آن (به ویژه سؤالات دیگری مانند: آیا می توان تجزیه و تحلیل مؤلفه اصلی را در مجموعه داده های حاوی ترکیبی از پیوسته اعمال کرد. و متغیرهای طبقه بندی شده، به نظر می رسد PCA ممکن است برای داده های گسسته نامناسب باشد (PCA در این نوع مطالعات در ادبیات استفاده می شود، اما همیشه با داده های مداوم). با نادیده گرفتن پیشینه آماری که چرا این داده ها نامناسب هستند، PCA نتایج نسبتاً کاملی را در رابطه با سؤال بیولوژیکی من به من می دهد (گروه های ترکیبی مورد علاقه درست در وسط گروه های پدری خود قرار می گیرند). من همچنین تجزیه و تحلیل مکاتبات چندگانه را برای آرام کردن آمار امتحان کرده‌ام (حداقل تا آنجا که درک من وجود دارد)، اما به نظر نمی‌رسد طرحی مشابه طرحی که با PCA بدست می‌آورم، بدست بیاورم، جایی که مشاهدات من (افراد بیولوژیکی) برای نشان دادن گروه‌بندی‌های مختلف (گونه‌های مختلف، از نظر بیولوژیکی) از هم جدا می‌شوند. به نظر می رسد که این تحلیل با هدف توصیف چگونگی ارتباط متغیرها (در اینجا، ویژگی های مورفولوژیکی من) با یکدیگر است، نه مشاهدات فردی. و وقتی مشاهدات را با رنگ‌بندی گروهی ترسیم می‌کنم، فقط یک مقدار واحد (شاید یک میانگین) را دریافت می‌کنم که کل مجموعه افراد را توصیف می‌کند. من تجزیه و تحلیل را در R انجام داده ام، بنابراین شاید به اندازه کافی R نمی توانم ایده خود را در مورد طرح عملی کنم. آیا من در انجام این نوع تجزیه و تحلیل با داده های خود صحیح هستم یا خیلی از مسیر خارج شده ام؟ اگر نمی توانید بگویید، تخصص آماری من محدود است، بنابراین معادلات موجود در زیر این تجزیه و تحلیل ها کاملاً در ذهن من است. من سعی می کنم این تجزیه و تحلیل را کاملاً به صورت توصیفی انجام دهم (نیازی به انجام بیشتر اعداد پایین دستی ندارم)، و خوانده ام که اگر اینطور باشد، PCA کافی است، اما می خواهم مطمئن شوم که این کار را نمی کنم. نقض بیش از حد فرضیات آماری هر گونه کمک یا راهنمایی قدردانی خواهد شد - پیشاپیش از شما متشکرم!
داده های گسسته و جایگزین های PCA
41544
من سعی می کنم یک رگرسیون لجستیک ترتیبی (متغیرهای نتیجه ترتیبی با بیش از 2 دسته) با متغیرهای پیش بینی کننده اسمی (بیش از 2 دسته برای برخی) و همچنین اسمی (بیش از 2 دسته برای برخی) متغیرهای کمکی / تعدیل کننده انجام دهم. اول از همه، من می خواهم برای تأثیر متقابل آزمایش کنم تا ببینم کدام یک از متغیرهای کمکی/مدیریت کننده من واقعاً ناظم هستند تا بتوانم با آنها چنین رفتار کنم. در مرحله دوم، من می خواهم بدانم بهترین راه برای رسیدن به مدل بهینه چیست؟ آیا باید متغیرهای ساختگی را برای متغیرهای کمکی انجام دهم؟ آیا می توانم برای رگرسیون ترتیبی یک گام به گام انجام دهم؟
رگرسیون ترتیبی با متغیرهای کمکی و پیش بینی کننده های طبقه ای
83632
من داده‌های 3 ماهه دارم که به صورت ساعتی جمع‌آوری شده است که تعداد رویدادهای (0-10k) را در هر ساعت اندازه‌گیری می‌کند. دقیق ترین روش علمی برای تولید آمار برای این داده ها چیست؟ در گذشته، من در تلاشی برای تعیین کمیت منظم بودن این رویدادها محاسبه کرده‌ام. * ب) برای یک روز خاص، درصد تمام ساعات آن روز با رکوردهای غیر صفر. * ج) برای یک ساعت خاص، درصد تمام ساعات در آن ساعت خاص با رکوردهای غیر صفر. هدف من این است که اگر بخواهم برای: یک ساعت خاص از یک روز خاص در هر هفته، تمام ساعات در یک روز خاص از هر هفته، یا یک ساعت خاص از همه روزهای هر هفته، بتوانم کمیت کنم... احتمال وقوع رویدادها چقدر است و با توجه به اندازه‌گیری‌های گذشته، بزرگی احتمالی آن رویدادها چقدر است؟ من سعی می کنم الگوها یا فقدان آنها را شناسایی کنم و بتوانم بزرگی احتمالی را پیش بینی کنم. اگر کسی بتواند به من در حوزه آماری درست اشاره کند، ممنون می شوم. جستجوهای گوگل که من امتحان کرده‌ام نتیجه کمی برای تجزیه و تحلیل داده‌های ساعتی به این شیوه به همراه داشته است. توجه: کراس پست شد، زیرا من نمی‌دانستم هنگام ساخت OP یک stats.se وجود دارد. http://math.stackexchange.com/questions/654568/measures-of-consistency-and- magnitude-for-hourly-data
اندازه گیری ثبات و بزرگی برای داده های ساعتی؟
18894
من یک داده روزانه دو ساله دارم. داده های یک ماهه وجود ندارد زیرا به دلیل برخی مشکلات در شرکت ثبت نشده است. چگونه باید با داده ها بدون مقدار برای یک ماه رفتار کنم.
داده های روزانه برای یک ماه از دست رفته است
33529
من یک عضو جدید هستم و در مورد فرآیندهای متمایز که ظهور یک ساختار خاص در شبکه ها را توضیح می دهد سؤالاتی دارم. من در این حوزه تازه کار هستم و اگر خوب متوجه شده باشم، نظریه های واقعی عبارتند از: * اگر توزیع درجه از قانون نمایی پیروی کند، مکانیسم دلبستگی تصادفی است. * اگر توزیع درجه از قانون log-normal پیروی کند، مکانیسم دلبستگی مختلط است (تصادفی و ترجیحی). * اگر توزیع درجه از قانون قدرت پیروی کند، مکانیسم دلبستگی ترجیحی است. اگر اشتباه می‌کنم، لطفاً یک توضیح و چند مرجع به من بدهید؟
چه مکانیسم هایی باعث ظهور ساختارهای خاص در شبکه ها می شود
35273
> **تکراری احتمالی:** > معنی مقادیر p و مقادیر t در آزمون های آماری چیست؟ کسی می داند معنی Pr(>|z|) در خروجی GLMM چیست؟ با تشکر
معنی Pr(>|z|) در خروجی GLMM؟
41545
آیا کسی می‌تواند ابزارهای آماری را برای مقایسه CART، درخت استنتاج شرطی و جنگل‌های تصادفی پیشنهاد کند؟ من از این سه الگوریتم برای تحلیل رگرسیون استفاده می کنم و می خواهم بهترین را انتخاب کنم.
مقایسه مدل
112868
از پیاده‌سازی و آزمایش‌هایی که انجام دادم به این فکر می‌کنم که آیا GP (یا LGP) را می‌توان برای هر چیزی غیر از رگرسیون نمادین و مشکلات حرکت مورچه (که واقعاً برنامه‌نویسی نیست) استفاده کرد. آیا GP با موفقیت برای تولید یک برنامه واقعی استفاده شده است؟
محدودیت های برنامه ریزی ژنتیکی؟
112869
من می خواهم از libsvm برای یک الگوریتم تشخیص نقطه کلید استفاده کنم. هر نقطه کلیدی دارای 36 ویژگی است، اما هر نمونه از یک شی دارای تعداد متفاوتی از نقاط کلیدی است... آیا حتی امکان آموزش با تعداد متفاوت نقاط کلیدی وجود دارد؟ آرایه ورودی من به این صورت خواهد بود: شی 1: (K1_F1،...K1_F36،K2_F1،...K2_F36، ...، K12_F1،...K12_F36) شی 1: (K1_F1،...K1_F36،K2_F1،. ..K2_F36, ... , K15_F1,...K15_F36) شیء 2: (K1_F1,...K1_F36,K2_F1,...K2_F36, ... , K16_F1,...K16_F36) شی 2: (K1_F1,...K1_F36,K2_F1,...K2_F36, ... , K9_F1,...K9_F36) لطفا کمک کنید!
libsvm با تعداد متفاوتی از نقاط کلیدی
41549
به من در مورد نمودار Gertensgabe و Werner برای ارزیابی آستانه بهینه برای یک مدل GPD گفته شد. با این حال، من هیچ بسته R و یا کدی برای پیاده سازی آن پیدا نکردم. آیا کسی کدی برای پیاده سازی آن دارد؟
گرتنسگابه و ورنر نقشه می کشند
83638
من یک جنگل تصادفی برای انجام طبقه بندی دارم. من به احتمال واقعی کلاس پیش بینی شده نیاز دارم. آنها بردار ویژگی **X** را می گیرند و یک کلاس پیش بینی شده **C** را خروجی می دهند. علاوه بر این، می‌توانیم سطح اطمینان **L** را روی کلاس پیش‌بینی‌شده محاسبه کنیم (پیاده‌سازی من آن مقدار احتمال را می‌خواند (من از ماژول یادگیری ماشین OpenCV استفاده می‌کنم) و با برگرداندن درصد درختانی که به آن کلاس خاص رای داده‌اند، می‌آید. مثلاً 80 درصد درختان به کلاس C1 رأی داده اند و L 0.8 است) * چگونه می توانیم مقدار **L** یا 'احتمال' را به احتمال واقعی C داده شده مرتبط کنیم. بردار ویژگی X؟ * آیا می توانیم به سادگی از **L** به عنوان یک اندازه گیری احتمال قابل اعتماد استفاده کنیم؟ * آیا مقادیر عملکرد طبقه‌بندی‌کننده (نرخ مثبت صحیح/نادرست و غیره) به نوعی در مقدار **L** در نظر گرفته می‌شوند، یا باید از **L** به عنوان تخمین قبلی برای محاسبه احتمال واقعی با توجه به عملکرد طبقه‌بندی کننده استفاده کنم. پارامترها؟
استخراج احتمال از طبقه‌بندی‌کننده تصادفی جنگل
31
پس از گذراندن یک دوره آمار و سپس تلاش برای کمک به دانش آموزان، متوجه شدم موضوعی که الهام بخش بسیاری از ضربه های سر میز است، تفسیر نتایج آزمون های فرضیه های آماری است. به نظر می رسد که دانش آموزان به راحتی یاد می گیرند که چگونه محاسبات مورد نیاز یک آزمون را انجام دهند، اما در تفسیر نتایج معطل می شوند. بسیاری از ابزارهای کامپیوتری نتایج آزمون را بر حسب «مقادیر p» یا «مقدار t» گزارش می‌کنند. چگونه نکات زیر را برای دانشجویانی که اولین درس آمار خود را می گذرانند توضیح می دهید: * p-value در رابطه با فرضیه مورد آزمایش به چه معناست؟ آیا مواردی وجود دارد که باید به دنبال مقدار p بالا یا مقدار p پایین بود؟ * رابطه بین p-value و t-value چیست؟
منظور از مقادیر p و مقادیر t در آزمون های آماری چیست؟
72652
من سعی می کنم یکی از مقادیر p را در یک رگرسیون خطی یک متغیر تفسیر کنم. برخی از پاسخ‌هایی که برای سؤالات مشابه دیده‌ام، آنطور که می‌خواستم کامل بیان نشده بودند. تعبیر من عمداً پرمخاطب است زیرا اگر ایراداتی در آن یافت شود به درک من کمک می کند. از مایکروسافت اکسل فرمول رگرسیون خطی از 90 نمونه جفت (x,y) `y = 0.514x + 0.00087` و p-value ضریب اول 4e-16 (نماد علمی) و برای دومی 0.0027 است. . آیا درست است که بگوییم که تفسیر مقدار p عبارت 0.00087 به این صورت است: > با این فرض که مقدار واقعی خط y صفر است و ضریب اول > 0.514 است، نمونه گیری تصادفی از همان تعداد (x,y) > جفت‌ها، به‌ویژه 90، حداقل مربعات را به بهترین وجه برازش می‌کنند و یک خط قطع y را حداقل به عنوان حداکثر 0.00087، با احتمال 0.0027. اگر نه، پس تفسیر صحیح چه خواهد بود؟ نه چندان مهم، اما صرفاً برای کامل بودن، من همچنین می‌پرسم که آیا دقیق‌تر و کامل‌تر است که عبارت مربوطه را به صورت > حداقل به اندازه 0.00087 در همان جهت، یعنی مثبت قرار دهیم. **ویرایش**: تابع اکسل «ابزار > تجزیه و تحلیل داده > رگرسیون» در آفیس 2003 با سرویس پک 2 است. مقادیر p رگرسیون اکسل روی ضرایب دو طرفه هستند. **ویرایش**: با توجه به تمایز از این سوال در اینجا: پاسخی که بیشترین رای داده شده وجود دارد، مقدار p یک فرضیه را مورد بحث قرار می دهد، که به نظر می رسد تعریف نشده یا حداقل مشخص نیست. من به آن علاقه ای ندارم. من به مقدار p یک ضریب علاقه مند هستم که ضریب یک متغیر مستقل نیست. من خیلی خاص هستم
تفسیر مقدار p ضریب قطع y در رگرسیون خطی
33520
من دو گروه آزمودنی دارم، A و B، هر کدام با اندازه تقریباً 400 و حدود 300 پیش بینی کننده. هدف من ساختن یک مدل پیش‌بینی برای یک متغیر پاسخ باینری است. مشتری من می خواهد نتیجه اعمال مدل ساخته شده از A بر B را ببیند. (در کتاب خود، استراتژی های مدل سازی رگرسیون، @ FrankHarrell اشاره می کند که بهتر است این دو مجموعه داده را با هم ترکیب کنیم و یک مدل بر روی آن بسازیم، زیرا انجام این کار اضافه می کند. قدرت و دقت --- صفحه 90، اعتبارسنجی خارجی را ببینید من انتخابی در مورد آنچه مشتری می‌خواهد ندارم.) بسیاری از پیش‌بینی‌کنندگان من همبستگی بالایی دارند و همچنین بسیار کج‌رو هستند. من از رگرسیون لجستیک برای ساخت مدل پیش بینی خود استفاده می کنم. پیش بینی کننده های من عمدتاً از مکانیک می آیند. برای مثال، کل زمانی که آزمودنی تحت فشاری بالاتر از آستانه $\alpha$ برای دوره زمانی $[t_1, t_2]$ قرار داشت، برای مقادیر مختلف $\alpha > 0$ و $0 \leq t_1 < t_2$. روشن است که فقط از تعاریف آنها، بسیاری از این زمانهای کل از نظر جبری با یکدیگر مرتبط هستند. بسیاری از پیش‌بینی‌کننده‌هایی که از نظر جبری به هم مرتبط نیستند، به دلیل ماهیتشان به هم مرتبط هستند: آزمودنی‌هایی که در طول یک دوره زمانی $[t_1, t_2]$ تحت استرس زیاد هستند، در طول دوره زمانی $[t_3,t_4]$، تحت استرس زیاد قرار دارند. حتی اگر $[t_1,t_2] \cap [t_3,t_4] = \emptyset$. برای کاهش ابعاد داده‌ها، من پیش‌بینی‌کننده‌های مرتبط را با هم خوشه‌بندی کردم (به عنوان مثال، کل زمان‌های تنش با هم) و از تحلیل مؤلفه‌های اصلی برای نمایش هر خوشه استفاده کردم. از آنجایی که متغیرها کج بودند، من دو مسیر جایگزین را امتحان کردم: * قبل از انجام PCA، از یک تبدیل لگاریتمی برای کاهش انحراف در متغیرها استفاده کردم. * من از الگوریتم ROBPCA Mia Hubert، همانطور که توسط بسته rrcov در R، (PcaHubert) پیاده سازی شده است، برای یافتن اجزای اصلی قوی استفاده کردم. من از شکل کلی منحنی ROC، شکل منحنی یادآوری دقیق، و سطح زیر منحنی ROC (AUC) به عنوان معیارهای عملکرد خود استفاده می‌کنم، و می‌خواهم نتایج مشابهی را برای هر دو مجموعه داده A و B دریافت کنم. انتظار داشتم از استفاده از اجزای اصلی قوی نتیجه بهتری بگیرم، اما در کمال تعجب، روش اول بهتر عمل کرد: مقدار AUC بهتر برای هر دو مجموعه داده A و B، شباهت بیشتر بین ROC. منحنی‌ها و منحنی‌های فراخوان دقیق‌تر مشابه. این چه توضیحی دارد؟ و چگونه می توانم از اجزای اصلی قوی استفاده کنم، به جای اینکه سعی کنم داده های خود را عادی جلوه دهم؟ آیا روش PCA قوی خاصی وجود دارد که به جای ROBPCA توصیه کنید؟
آیا روش های قوی واقعا بهتر هستند؟
36176
امروز، یک بار دیگر، مشاهده کردم که زمانی که متغیر مستقل در رگرسیون خطی ساده روی میانگین خود تنظیم شد، متغیر وابسته میانگین آن پیش‌بینی شد. 1. اجازه دهید $(\hat{y},\hat{x})$ بردار باشند و $(\overline{y},\overline{x})$ نشانگر میانگین آنها باشد. آیا معادله عنوان به طور کلی برای یک رگرسیون خطی ساده $\hat{y}$ روی $\hat{x}$ صادق است؟ 2. دلایل ریاضی این موضوع چیست؟ ویرایش: دلیلی که می پرسم این است که (Willett & Stampfer. Total Energy intake: Implications for Epidemiologic Analyses. Am J Epidemiol 1986; 124:17-27) را خواندم که برای تنظیم مصرف یک ماده مغذی خاص برای کل کالری دریافتی، می توان باقیمانده های یک رگرسیون خطی ساده را با آن ماده مغذی به عنوان DV و کالری کل بگیرید مصرف را به صورت IV اضافه کنید و دریافت مورد انتظار مواد مغذی برای فردی با دریافت کالری متوسط را اضافه کنید (بنابراین مقادیر به دست آمده در مرکز 0 نیستند و اغلب منفی هستند، که برای چیزی که از نظر فیزیکی باید کاملاً غیر منفی باشد عجیب است). بنابراین، این سوال پیش می‌آید: چرا نویسندگان در عوض ساده‌تر نگفتند که باید میانگین مصرف مواد مغذی را اضافه کرد؟ عجیب به نظر می رسد که این دو محقق بسیار برجسته از این هم ارزی آگاه نباشند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0Gadq.png)
چرا $\overline{y} = \hat \beta_{0} + \hat \beta_{1} \overline{x}$ در رگرسیون خطی ساده است؟
79379
من نمی دانم دقیقاً چگونه از مقادیر p و مقادیر t استفاده می شود. من می دانم چگونه آنها را محاسبه کنم، اما در مورد مفهوم اساسی پشت آنها روشن نیستم. هیچ کمکی؟
تفاوت بین مقدار t و مقدار p
49224
من از R استفاده می کنم و باید یک تست Anderson-Darling روی داده هایم انجام دهم. من از بسته adk استفاده می کنم (http://cran.r-project.org/web/packages/adk/adk.pdf). چگونه می توانم مقدار بحرانی را برای یک سطح اهمیت معین محاسبه کنم؟ فرض کنید معنی 0.01 را می خواهم، چه کاری باید انجام دهم؟ در بسته، روشی به نام adk.pval وجود دارد که باید استفاده شود و موارد زیر از راهنما گرفته شده است: * * * استفاده از adk.pval(tx,m) آرگومان های tx آستانه که برای آن احتمال دنباله سمت راست استاندارد شده است. آمار Anderson- Darling T_m باید محاسبه شود شاخص m از آمار استاندارد T_m (به مرجع مراجعه کنید) جزئیات این تابع ابتدا T_m بالایی را درون یابی می کند. چندک های ارائه شده در جدول 1 (به مرجع زیر مراجعه کنید) به مقدار داده شده m با برازش یک درجه دوم در 1/sqrt(m) به چندک هایی که برای سطوح بالای چندک جدول بندی شده اند 0.25، 0.10، 0.05، 0.025، .01. سپس یک درجه دوم در چندک های درون یابی شده (برای m) به log شانس سطوح احتمال بالایی که این چندک ها را تعریف می کنند برازش داده می شود و مقدار log شانس برازش در tx به مقدار احتمال بالای محاسبه شده تبدیل می شود، یعنی p- ارزش مقادیر p خارج از محدوده جدول بندی شده [.01،.25] با برونیابی خطی درجه دوم برازش شده به دست می آید. * * * من باید از این بسته استفاده کنم، بنابراین کمک قدردانی می شود، متشکرم!
ارزش انتقادی اندرسون-دارلینگ در R
33526
من دانشجوی سال دوم کارشناسی هستم و در رشته ریاضی مشغول به تحصیل هستم و با یکی از اساتیدم در مورد تفاوت بین توانایی ریاضی و توانایی آماری صحبت کردم. یکی از تفاوت‌های کلیدی که او مطرح کرد «حس داده‌ها» بود که او به‌عنوان ترکیبی از توانایی‌های فنی توضیح داد، در حالی که در مجموعه‌ای از آنچه من به‌طور غیررسمی آن را «محدودیت‌های عقل سلیم» می‌نامم، یعنی نادیده گرفتن واقعیت مشکل در میان آن‌ها کار می‌کرد. بسیاری از نظریه ها این نمونه‌ای از چیزی است که در مورد آن صحبت می‌کردم که در وبلاگ Gowers ظاهر شد: > در چندین بخش از بریتانیا، پلیس آماری را در مورد مکان‌های تصادفات جاده‌ای جمع‌آوری کرد، نقاط سیاه تصادف را شناسایی کرد، دوربین‌های سرعت را در آنجا قرار داد و آمارهای بیشتری را جمع‌آوری کرد. . پس از نصب دوربین های کنترل سرعت، تمایل قطعی برای کاهش تعداد تصادفات در این نقاط سیاه وجود داشت. آیا این به طور قطعی نشان می دهد که دوربین های سرعت > ایمنی جاده ها را بهبود می بخشد؟ > > همان شخصی که در مورد استراتژی تصادفی در بازی > بحث می کرد، اساساً پاسخ این سؤال را از قبل می دانست. او گفت نه، زیرا اگر موارد افراطی را انتخاب کنید، اگر آزمایش را دوباره اجرا کنید، انتظار دارید که آنها کمتر > افراطی باشند. تصمیم گرفتم به سرعت از > این سوال جلو بروم زیرا چیزهای زیادی برای گفتن وجود نداشت. اما من به مردم در مورد برنامه ای که داشتم، یعنی انجام یک آزمایش تله پاتی ساختگی، گفتم. من آنها را وادار می‌کنم که نتایج 20 پرتاب سکه را حدس بزنند، که سعی می‌کنم آنها را از طریق تله پاتی به آنها ارسال کنم. سپس سه بهترین اجراکننده و > سه نفر بدترین را انتخاب می‌کردم، و دوباره سکه‌ها را پرتاب می‌کردم، این بار از بهترین‌ها می‌خواستم تا به من کمک کنند تا به بدترین‌ها پاسخ بدهم. مردم به راحتی می‌توانستند ببینند که > انتظار می‌رود که اجراها بهبود یابد و ارتباطی با تله پاتی ندارد. آنچه من می‌پرسم این است که **چگونه اطلاعات بیشتری در مورد این حس داده بیاموزیم**، از طریق هر نشریه در مورد این موضوع، در صورت وجود، یا از طریق آنچه که سایر کاربران دریافته‌اند که در توسعه این مهارت مفید است. متاسفم اگر این سوال نیاز به توضیح دارد. اگر چنین است، لطفا سوالات خود را مطرح کنید! با تشکر
شهود آماری / حس داده
72579
فکر می‌کنم مفهوم p-value را درک می‌کنم، اما متأسفانه هنوز باید چرخه‌های مغزی زیادی را انجام دهم تا بتوانم آن را دور بزنم. من می‌خواهم توضیحی در مورد p-value به دست بیاورم که برای یک فرد غیرمستقیم به اندازه کافی دقیق باشد - چیزی که شهودی باشد.
توضیح p-value برای یک فرد غیر حرفه ای
82786
من در آزمون فرضیه مقایسه دستمزد ساعتی برای کشورهای مختلف، مقدار p برابر با 0.0166 دریافت کردم. آیا درست است که یک اظهار نظر قاطع داشته باشیم که ما می توانیم 98.34٪ مطمئن باشیم [1-0.0166] که رد فرضیه صفر و نتیجه گیری از اینکه دستمزد ساعتی برای کشورها متفاوت است، نتیجه درستی است.
تفسیر جایگزین p-value
83630
سوال خود توضیحی است. من داده‌های بقا (156=n) دارم که در حدود نیمی از مشاهدات، سانسور راست یا سانسور فاصله‌ای هستند. من از R برای انجام تجزیه و تحلیل استفاده می کنم و می دانم که می توانم از intcox() و survfit() برای مقابله با داده های سانسور شده استفاده کنم. اما، از نظر من، هیچ یک از این توابع نمی توانند با متغیرهای وابسته به زمان سروکار داشته باشند. برای مقابله با متغیرهای وابسته به زمان بدون داده های سانسور شده، از coxph() استفاده می کنم. چگونه می توانم این نوع داده ها را تجزیه و تحلیل کنم (در صورت امکان)؟
چگونه می توان از مدل خطرات متناسب کاکس در داده های سانسور شده با متغیرهای وابسته به زمان استفاده کرد؟
8036
من اسناد gazillion ( اظهارنامه مالیاتی شما) دارم که باید صحت آنها را بررسی کنم، اما نه نیروی انسانی و نه اراده لازم برای مطالعه همه آنها را ندارم. حتی اگر این کار را انجام دهم، نمی توانم کیفیت و سازگاری فرآیند خواندن اثبات را تضمین کنم. تنها کاری که می توانم انجام دهم این است که یک مجموعه نمونه از سند را برای اثبات خواندن انتخاب کنم و «پذیرش» یا «رد» را به آن اختصاص دهم. از این رو می‌خواهم سطح اطمینان فاصله اطمینان مشخصی را تعیین کنم... من نمی‌دانم در آینده چه کاری باید انجام دهم یا از رویکرد درست استفاده می‌کنم. من هیچ تجربه ای در مورد این دامنه مشکل ندارم، شاید کسی با تجربه QA بیشتر بتواند من را در مسیر درست راهنمایی کند. لایک کنید چه سوالی بپرسم ... ممنون که خواندید :)
تصحیح بسیاری از اسناد بر اساس نمونه کوچک
100105
درک مفهوم p-values ​​(نگاه به تفسیر غیرمعمول در کلمات) که در خلاصه مدل مدل‌های lm در R ارائه می‌شود، مشکل دارم. من می‌دانم که یک تفسیر معمولی برای مقادیر t این است که آنها مانند تخمین زده‌شده عمل می‌کنند. z - امتیازها و z-score در مورد اینکه چگونه یک نقطه داده از میانگین آن متفاوت است (از نظر جهش انحراف استاندارد) صحبت می کند. بنابراین، در صورتی که به دنبال تعیین معنی‌داری یک متغیر رگرسیون هستیم، اگر فرض کنیم که متغیر تأثیری ندارد، امتیاز t مانند یک z-score تخمینی متفاوت از صفر خواهد بود. هر چه مقدار t-score بیشتر باشد، با فرض ما که متغیر تأثیری ندارد، تفاوت بیشتری دارد. اما من در مرحله بعدی گیر کردم. مقدار p چگونه محاسبه می شود؟ و تعبیر لفظی برای آنها چیست؟
p - مقادیر در خلاصه مدل lm در R
83635
من کمی سردرگم هستم که از کدام مشخصات مدل برای سوالم استفاده کنم. من تعداد خرابی های تکنولوژیکی (متغیر تعداد مثبت) را به عنوان متغیر وابسته دارم، اما قرار است تعداد کل فناوری های ثبت شده را کنترل کنم (متغیر تعداد مثبت دیگر اما همیشه از متغیر شکست بالاتر است). من پانلی متشکل از 100 شرکت برای 10 سال دارم. یا می‌توانم نسبت خرابی‌ها را با تقسیم خرابی‌های تکنولوژیکی بر تعداد کل فناوری‌های ثبت شده انتخاب کنم و از آن به عنوان متغیر وابسته استفاده کنم. من می توانم برای این مشخصات از glm استفاده کنم، حدس می زنم. یا می توانم از مدل دوجمله ای منفی با شکست های تکنولوژیکی به عنوان متغیر وابسته و کنترل تعداد کل فناوری های ثبت شده در مدل استفاده کنم. آیا یکی از این روش ها بر دیگری ارجحیت دارد؟ لطفاً به هر مقاله یا ژورنالی که این موضوع را روشن می کند، مراجعه کنید. با تشکر
نسبت به عنوان متغیر وابسته یا کنترل برای مخرج در مدل رگرسیون
41547
من سعی می‌کنم «روش نمونه‌گیری مجدد گام‌به‌پایین رایگان» را که توسط Westfall و Young در «آزمایش چندگانه مبتنی بر نمونه‌برداری مجدد» توضیح داده شده است (الگوریتم ~2.8 در متن) پیاده‌سازی کنم. هدف من انجام یک رگرسیون خطی چند متغیره است. بنابراین، من یک تخمین خطا دارم (از نمونه اصلی) مانند این (با استفاده از OLS): $\epsilon = Y - (\beta_0 + \beta_1X_1 + \beta_2X_2 + \dots \beta_pX_p)$ [BTW, $X_1 \dots X_p $ متغیرهای ساختگی هستند.] برای نمونه گیری مجدد ($i$ بار)، باید این کار را انجام دهم: $Y_i^* = \epsilon_i^*$ که در آن $\epsilon_i^*$ یک نمونه _با جایگزین_ از $\epsilon$ اصلی است. مشکل اینجاست: در مجموعه داده من، پاسخ‌ها (ردیف‌ها) خوشه‌بندی می‌شوند (داده‌ها از افراد مرتبط می‌آیند). بنابراین، من معمولاً از برآوردگرهای Huber-White برای توضیح همبستگی‌ها در رگرسیون خطی مبتنی بر OLS استفاده می‌کردم. من نمی دانم چگونه می توانم در اینجا ادامه دهم... آیا باید از برآوردگرهای Huber-White استفاده کرد؟ اگر چنین است، چگونه؟ پوزش می طلبم اگر سوال من خیلی ساده است، اما من در روش های نمونه گیری مجدد تازه کار هستم... حدس می زنم پاسخ نیز ساده باشد. پیشنهادات استقبال می شود.
نمونه برداری مجدد و هوبر وایت
37768
> **تکراری احتمالی:** > معنی مقادیر p و مقادیر t در آزمون های آماری چیست؟ من در حال حاضر کلاس اپیدمیولوژی را شروع کرده ام، من از p value و t test خیلی گیج شده ام، معنی آنها چیست؟ چگونه از آنها استفاده کنیم؟ آیا کسی می تواند تفاوت بین این دو مقدار را در مورد خاص توضیح دهد. پیشاپیش از شما متشکرم
آزمون T و مقدار P
33523
من یک مجموعه داده دارم که می‌خواهم قبل از ساخت مدل رگرسیون خطی چندگانه، آن را به دو روش نرمال‌سازی کنم. مجموعه داده‌های من به شکل زیر است: $$ x_{1} y_{1,1} y_{1,2}...y_{1,n-1}y_{1,n}$$ $$x_{2} y_{2,1} y_{2,2}...y_{2,n-1}y_{2,n}$$ $$... $$$$x_{m} سال y_{m,2}...y_{m,n-1}y_{m,n} $$ ... که در آن هر $x_{i}، y_{i,j}$ یک تعداد و هر ردیف است $i$ مجموعه داده جمع آوری شده از یک ویدیو با طول متغیر $k$ را نشان می دهد. برای اینکه همه سطرها مقادیری با معانی معادل داشته باشند، من هر ردیف را با تقسیم تمام شمارش ها بر $k$، طول ویدیو، عادی می کنم. حالا به جای شمارش، تعداد در دقیقه دارم. من همچنین می‌خواهم در هر ستون (متغیر) از 0 تا 1 نرمال سازی کنم، با این ایده که سپس می‌توانم اهمیت نسبی ضریب هر متغیر را با ضرایب متغیر دیگر مقایسه کنم. من نمی دانم که آیا این حتی یک عادی سازی معتبر است یا خیر. عادی سازی در هر ردیف خوب است، اما من در تشخیص اینکه آیا عادی سازی در هر ستون با استفاده از یک عامل عادی سازی متفاوت معتبر است یا خیر، مشکل دارم. غریزه من این است که اینطور نیست. اگر معتبر نیست، آیا راه دیگری برای رسیدن به آنچه می‌خواهم وجود دارد که بتوانم اهمیت متغیرها را مقایسه کنم؟
عادی سازی ستون ها در رگرسیون خطی
86162
معنی معنی دار بودن یک متغیر از نظر آماری چیست؟ کسی میتونه به این سوال جواب کامل بده؟
معنی دار بودن یک متغیر از نظر آماری چیست؟
71770
من می خواهم بدانم که آیا درک من از موارد زیر صحیح است یا خیر. مدتهاست که این موضوع مرا آزار می دهد. $\lim_{x\rightarrow \infty}x^{1-\beta}$ را محاسبه کنید. این بخشی از یک مشکل تکلیف در مورد انتظار توزیع پارتو است. همه جا می گوید که انتظار فقط برای $\beta>1$ است، اما در مورد $B=1$ چطور؟ پس آیا انتظار به طور قابل توجهی تغییر نمی کند زیرا محدودیت $\beta = 0$ به 1 ارزیابی می شود؟ کسی میتونه شک من رو روشن کنه؟ با تشکر
انتظار توزیع پارتو
92899
می‌خواهم دو مجموعه داده آزمایشی را با استفاده از آزمون‌های Mann-Whitney U و KS در R مقایسه کنم. برای شروع، فکر کردم دو مجموعه مشابه (یک آزمون A/A) را با هم مقایسه کنم تا نشانه‌ای بسیار مهم از شباهت را ببینم. این دو لیست در زیر نشان داده شده است: https://www.dropbox.com/s/9cbvzlltdohjoef/set1.csv https://www.dropbox.com/s/1p9fqdja2khrvi1/set2.csv نتایج برای Mann-Whitney U آزمون (Wilcox.test) عبارت بودند از: W = 22073، p-value = 0.1948 جایگزین فرضیه: تغییر مکان واقعی برابر با 0 نیست نتایج آزمون KS (ks.test) عبارت بودند از: D = 0.1021، p-value = 0.2058 فرضیه جایگزین: دو طرفه چرا هیچ یک از این دو از نظر آماری معنی دار نیستند (p-value بودن زیر 0.05)؟ در اینجا مقادیر دو مجموعه نمایش داده می شود: ![ستاره نمودار در مقابل set2](http://i.stack.imgur.com/9VrMc.png)
تست‌های Mann-Whitney U و KS در R نتایج قابل‌توجهی تولید نمی‌کنند
108516
من هرگز مدلسازی آماری نمونه را انجام ندادم. معمولاً من درگیر رویه های آماری رایج (آمار توصیفی، همبستگی، رگرسیون، تحلیل عاملی و غیره) بودم. حالا تصمیم گرفتم بفهمم هر نمونه را چگونه شبیه سازی کنم؟ به عنوان مثال، من به نمونه شبیه سازی 200 نفر نیاز دارم. فرض کنید این یک تحقیق روانشناختی است، من هر روشی دارم و هر کدام از آنها پارامترهای (مقیاس) خاصی دارند. تصور کنید که هر روش دارای 5-10 مقیاس باشد و ما 5 روش داشته باشیم. در نهایت باید با 25-50 پارامتر کار کنیم. چه چیزی باید بدانم و باید برای شبیه سازی نمونه خود انجام دهم؟ و چگونه می توان با استفاده از SPSS یا نرم افزار آماری روش مدلسازی را انجام داد؟ برای شروع، فرض کنید 100 نفر از نمونه مرد هستند و 100 نفر از نمونه زن هستند و فرضیه من مبنی بر اینکه مقادیر میانگین هر پارامتر بین زن و مرد متفاوت است (با استفاده از Anova) و همبستگی بین پارامترها در مردان و زنان متفاوت است.
روش مدلسازی آماری نمونه
83058
پس از رگرسیون، آزمون‌های همبستگی سریال Durbin-Watson d-statistic(7, 29) = 0.7938438 را اجرا کردم. Bgodfrey ## تست LM بروش-گادفری برای تاخیرهای خودهمبستگی (p) | chi2 df Prob > chi2 \-------------------------------------------- --------------------------------## 1 | 10.909 1 0.0010 H0: همبستگی سریالی وجود ندارد آیا می توانم یک همبستگی سریال مثبت را استنتاج کنم> چگونه باید آن را تصحیح کنم>؟
همبستگی سریال
76201
من یک جدول با مقادیر مشاهده شده و تخمین زده شده برای مناطق سیاسی مانند این دارم BEZIRK EDU_OBS EDU_WEI EDU_CI 101 157 5129 15 «BEZIRK» یک شناسه برای منطقه است، «EDU_OBS» تعداد افراد واقعی مشاهده شده در یک نمونه است (مثلاً ساکنان ، EDU_WEI تخمینی است که بر اساس جعبه سیاه ناشناخته است، برون یابی، و «EDU_CI» فاصله اطمینان 95 درصدی در درصد مقدار تخمینی است، به عنوان مثال. برای منطقه '101'، برآورد 5129 $\pm $ 770 با 95٪ محرمانه خواهد بود. حالا فرض کنید جدول دیگری با همان مناطق اما مقادیر دیگر دارم. BEZIRK EDU_OBS EDU_WEI EDU_CI 101 180 5987 14 من می‌خواهم مقادیر (تخمین‌ها) کسانی که جدول اول را دارند، به ازای هر منطقه اضافه کنم. چه اتفاقی برای CI می افتد؟ یعنی چگونه می توانم CI جدید مقادیر ترکیبی را بدون اینکه بدانم در ابتدا چگونه محاسبه شده است، دوباره محاسبه کنم؟ آیا می توانم آن را فقط معدل کنم؟ من اینطور فکر نمی کنم.
جمع بندی اعتماد به نفس جعبه سیاه.
46856
اخیراً با مقاله بی اهمیتی آزمون اهمیت فرضیه صفر جف گیل (1999) برخورد کردم. نویسنده چند تصور غلط رایج در مورد آزمون فرضیه و مقادیر p مطرح کرده است، که در مورد آنها دو سوال خاص دارم: 1. مقدار p از نظر فنی $P({\rm مشاهده}|H_{0})$ است، که به عنوان که توسط مقاله اشاره شده است، به طور کلی چیزی در مورد $P(H_{0}|{\rm مشاهده})$ به ما نمی گوید، مگر اینکه توزیع های حاشیه ای را بدانیم، که به ندرت در آزمون فرضیه های روزمره موردی است. وقتی یک مقدار p کوچک به دست می‌آوریم و «فرضیه صفر را رد می‌کنیم»، دقیقاً چه گزاره احتمالی است، زیرا نمی‌توانیم چیزی در مورد $P(H_{0}|{\rm مشاهده})$ بگوییم؟ 2. سوال دوم به عبارت خاصی از صفحه 6(652) مقاله مربوط می شود: از آنجایی که p-value یا محدوده p-value که با ستاره ها نشان داده شده است، پیشینی تنظیم نشده است، این مقدار طولانی نیست. احتمال ایجاد خطای نوع I وجود دارد، اما معمولاً به این صورت تلقی می شود. آیا کسی می تواند کمک کند که منظور از این جمله چیست؟
تفسیر مقدار p در آزمون فرضیه
88169
من داده های خود را برای نرمال بودن در SPSS تست کردم و دو علامت دارم. اعداد از Kolmogorov-Smirnov و Shaprio-Wilk. * در آزمون Kolmogorov-Smirnov داده ها را دارم: **0.014، 0.013، 0.200 و 0.200** * در آزمون Shaprio-Wilk داده ها را دارم: **0.029، 0.022، 0.444، 0.490** فقط تعجب کردم آیا این مجموعه اعداد به این معنی است که داده های من **به طور معمول است توزیع** و **سطح اندازه گیری در مقیاس فاصله**؟
آیا داده های من عادی است؟
83636
متغیر وابسته من در اصل داده های شمارش است. به دلیل چندین اصلاح، متغیر پیوسته شد (در اصل داده‌های من تعداد گروه گلوله‌ای (برای تخمین تراکم گوزن) است، برای شیب طرح تحقیقاتی تصحیح شد، میانگین در سه فصل، تبدیل به تراکم گوزن (تعداد در کیلومتر مربع)). آیا هنوز هم می توانم GLM شبه پوزون یا منفی دوتایی را اعمال کنم؟ به خصوص nb-GLM برای ساختار داده من مناسب به نظر می رسد (هیستوگرام و رابطه میانگین/واریانس کافی است) و R مدل ها را بدون هیچ هشداری پردازش می کند و نتایج معقولی می دهد. آیا ممکن است شکار وجود داشته باشد؟ گرد کردن داده ها به عدد صحیح راه حلی به نظر نمی رسد زیرا بخشی از اطلاعات را از دست خواهم داد و تمام اصلاحات بی معنی خواهند بود. ممنون از پاسخ های شما.
رگرسیون دو جمله ای شبه سم یا منفی با متغیر وابسته پیوسته؟
71776
من سعی می کنم n، اندازه نمونه را تعیین کنم. ما $N=580$ داریم و می‌خواهیم نسبت جمعیت، $p$، را در 95%-CI و حاشیه خطای $0.10$ تخمین بزنیم، سپس $$n=Npq / (N-1)D + را دریافت می‌کنیم. pq$$ که در آن $D= B^2 / 4$ حدود $n=86$ باشد. اما اگر در عوض همان حاشیه خطا را روی 0.10$ نگه داریم و اکنون فقط 90%-CI بخواهیم، ​​اگر از همان فرمول استفاده کنیم، آیا همان $n$ را دریافت نمی کنیم، چه؟ آیا من در اینجا از فرمول اشتباه استفاده می کنم؟
تعیین حجم نمونه با دادن %C.I. و حاشیه خطا در یک جمعیت محدود
35440
> **تکراری احتمالی:** > چگونه صدک های توزیع عادی را پیدا کنیم؟ گفته می شود که وزن یک نژاد آفریقایی از توزیع نرمال با میانگین 200 کیلوگرم و انحراف معیار 10 تبعیت می کند. ب) احتمال اینکه وزن بین 190 کیلوگرم تا 210 کیلوگرم باشد. ج) وزن M کیلوگرم را به گونه ای بیابید که احتمال X > M = 5% باشد. د) با توجه به اینکه 10 آفریقایی وجود دارد که وزن آنها از M کیلوگرم بیشتر است، احتمال اینکه دقیقاً 2 آفریقایی وجود داشته باشد که وزن آنها از M کیلوگرم بیشتر است را محاسبه کنید. .
احتمال وقوع یک رویداد
89495
درک من از دقت و یادآوری به من می‌گوید که بین این دو معیار تعادل وجود دارد: شما می‌توانید یکی را به قیمت دیگری بهبود بخشید. با این حال، وقتی به یک طبقه‌بندی‌کننده تصادفی (در یک کار باینری) فکر می‌کنم که کلاس $1$ را با احتمال $p$ خروجی می‌دهد، هیچ گونه مبادله‌ای مشاهده نمی‌کنم. $Prec= \frac{TP}{TP+FP} = \frac{p \cdot P}{p \cdot P + p \cdot N} = \frac{P}{P + N}$$Rec = \frac {TP}{TP+FN} = \frac{p \cdot P}{p \cdot P + (1-p) \cdot P} = p$ بنابراین، دقت ثابت است (با شیوع طبقه مثبت)، و یادآوری آن چنان که من می‌خواهم بالاست. اینجا اشکالی دارد؟
دقت و یادآوری طبقه‌بندی‌کننده تصادفی
79445
اگر داده‌های Y من از توزیع ماتریس T پیروی می‌کنند، یعنی $ Y \sim T_{n,p}(\nu,0,\Sigma,\Phi)$، آیا می‌توانم پیشینی مناسب برای $\Phi$ پیدا کنم به‌گونه‌ای که پسین آن باشد. به صورت بسته است؟ توزیع Wishart معکوس استاندارد قبلی برای مدل‌سازی کوواریانس است، اما با احتمال توزیع t مزدوج نیست. من می‌توانم از تبدیل لاپلاس برای تخمین احتمال توزیع نرمال استفاده کنم، اما اگر $\nu$ خیلی کوچک باشد، تقریب خوبی نخواهد بود...
آیا توزیع t (ماتریسی) مزدوج قبلی دارد؟
71777
ایمیل زیر را دریافت کردم: > پروژه من شامل بازنویسی یک پرسشنامه و دیدن اینکه آیا قابلیت اطمینان داخلی و نتایج CFA بهبود می یابد یا خیر. 30 گویه وجود دارد که به منظور تشکیل 4 زیرمقیاس > هستند. هر آیتم همیشه، گاهی اوقات، هرگز امتیاز می گیرد. شنیده ام > که باید بررسی کنم که هر یک از اقلام قبل از > قرار دادن آنها در CFA، به طور معمول توزیع شده اند. من متوجه شده ام که همه موارد به جز 2 مورد به طور معمول توزیع می شوند. سپس می‌خواستم این دو مورد را با استفاده از تبدیل log > تبدیل کنم، اما به نظرم عجیب می‌آید که آیتم‌های فردی را تبدیل کنم، به خصوص زمانی که خود مقیاس‌های فرعی به طور معمول توزیع می‌شوند. حدس می‌زنم > فقط می‌خواهم بررسی کنم: **آیا نیاز دارم که هر مورد به طور عادی توزیع شود یا نه، > و اگر چنین است، اگر 0-1-2 را مجدداً به 1-2-3 کدنویسی کنم، تبدیل گزارش اشکالی ندارد؟** بنابراین به طور خلاصه سؤالات عبارتند از: * **آیا باید بررسی کنید که آیا آیتم های آزمایشی به طور معمول هنگام اجرای CFA توزیع می شوند یا خیر؟ CFA؟**
آیا هنگام انجام تحلیل عاملی تأییدی در مجموعه ای از مقیاس ها، آیتم ها را برای نرمال بودن (و تبدیل) آزمایش کنیم؟
95964
اگر بخواهم برخی از داده‌ها را با استفاده از نرمال‌سازی میانه یا عادی‌سازی میانگین بریده شده عادی سازی کنم، آیا داده‌هایم را در فاکتورهای نرمال‌سازی ضرب یا تقسیم می‌کنم؟ آیا این مهم است؟
ضریب عادی سازی تقسیم یا ضرب شود
71779
من نمی دانم که آیا تفاوتی بین دو الگوریتم زیر وجود دارد: 1. RPART (پارتیشن بندی بازگشتی) در R، با اعتبارسنجی متقاطع (xval = 10، پیش فرض) 2. Bagging در RPART در مورد اول، Rpart از متقاطع 10 برابری استفاده می کند. - اعتبار سنجی روی دیتافریم اصلی در مرحله دوم، داده ها را به صورت تصادفی از دیتافریم اصلی انتخاب کنید و سپس RPART را انجام دهید. از نظر من هر دو الگوریتم یکسان به نظر می رسند. کجای درک من اشتباه است؟
چمدان در سبد خرید (RPART) چه تفاوتی با سبد خرید با اعتبارسنجی متقابل دارد؟
14746
در حال حاضر سعی می‌کنم هنگام تجسم یک مدل افزایشی تعمیم‌یافته (GAM) با R، خطوط چین سبز و قرمز را در یک نمودار کانتور تفسیر کنم. به نظر می‌رسد این دو خط چیزی شبیه نوارهای اطمینان هستند، اما مطمئن نیستم که چگونه این خطوط شکسته را در یک نمودار کانتور تفسیر کنید. آیا کسی تجربه ای در مورد نمودارهای کانتور با استفاده از R، به ویژه هنگام نصب GAM دارد؟
هنگام ترسیم نمودار کانتور با R GAM، مرزهای چین به چه معناست؟
65067
من بحث را در صفحه Computing c-index برای اعتبار سنجی خارجی مدل PH کاکس با R دیده ام. من تقریباً همین کار را انجام می دهم، با استفاده از نمونه گیری 3 برابری (با دو سوم در مجموعه آموزشی و یک سوم در مجموعه آموزشی). مجموعه آزمون) برای انجام اعتبار متقابل مدل رگرسیون کاکس. وقتی سعی می‌کردم «rcorr.cen» را انجام دهم، پیام خطای «خطا در rcorr.cens (x = تخمین‌ها، S = survmod) را به من داد: y باید همان طول x را داشته باشد. یعنی باید برای «x» و «s» یک اندازه داشته باشم. اما «survmod» در مجموعه آموزشی و «x=estimates» در مجموعه آزمایشی انجام شده بود. آیا برای انجام این کار باید از همان اندازه برای تست و آموزش استفاده کنم؟ یا می توانم با این مجموعه برای محاسبه c-index برای برقراری ارتباط آموزش و مجموعه داده های آزمایشی ادامه دهم؟
اعتبار سنجی متقاطع و محاسبه شاخص c
86652
من اطلاعاتی در مورد بیماران قبل و بعد از مداخله دارم، نیمی درمان داشتند، نیمی دیگر نداشتند. به نظر می رسد آزمون t زوجی روشی ساده برای تعیین اینکه آیا تفاوت معنی داری پس از درمان در هر دو گروه وجود دارد یا خیر. با این حال، متغیرهای دیگری نیز وجود دارند که می‌خواهم آن‌ها را تنظیم کنم، مانند سن. آیا می توانم از رگرسیون خطی با اندازه گیری نهایی به عنوان متغیر وابسته و اندازه گیری اولیه، گروه درمانی و سن به عنوان متغیرهای مستقل استفاده کنم و سپس ببینم که آیا متغیر ساختگی گروه معنادار است؟ من در برخی از مقالات می بینم که ANCOVA برای این برنامه استفاده می شود، اما به نظر می رسد که از نظر ریاضی با رگرسیون چندگانه یکسان است. آیا استفاده از آن فایده ای دارد؟ در نهایت، یک متغیر نتیجه پیوسته است، دیگری مقیاسی از 1-10 است. آیا رگرسیون خطی برای داده های طبقه بندی شده مرتب شده ای مانند این مناسب است یا روشی وجود دارد که شکاف بین رگرسیون لجستیک و خطی را پوشش دهد که به من امکان می دهد متغیرهای مخدوش کننده احتمالی (مانند سن) را اضافه کنم؟ پیشاپیش متشکرم
آزمون t زوجی در مقابل رگرسیون خطی در مقابل ANCOVA
44913
من نسبتاً تازه وارد دنیای تجزیه و تحلیل آماری هستم، بنابراین لطفاً مرا برای پرسیدن یک سؤال تازه کار ببخشید. من یک نظرسنجی google forms ایجاد کردم و پس از به دست آوردن اندازه نمونه مورد نظر، از فایل xls برای بارگذاری داده های خود در SPSS استفاده کردم و انواع مختلف تجزیه و تحلیل را آزمایش کردم. در نظرسنجی من سوالات گره های مختلفی وجود دارد. اگر کسی پاسخ بله را می داد، به نظرسنجی ادامه می داد، اما اگر کسی نه پاسخ می داد، به صفحه پایانی (جمعیت شناسی) هدایت می شود. بنابراین می‌دانید که متغیرهای زیادی (سوالات) با مقادیر گمشده (پاسخ‌های خالی) وجود دارد. برای مثال، وقتی سعی می‌کنم تحلیل فرکانس‌ها را انجام دهم، خروجی‌های برخی از متغیرها مانند متغیر زیر به درستی مقادیر گمشده را محاسبه می‌کنند و آنها را از آمار حذف می‌کنند. ( . ![nomissing](http://i.stack.imgur.com/sFPnc.png) همانطور که می بینید ردیف اول جدول بالا فاقد نام مقدار (خالی) و فرکانس 35 است. همان 35 مورد که در جدول اول حذف شده است. در نهایت متوجه شدم که نوع متغیرهایی که به درستی تحلیل می‌شوند عددی هستند در حالی که نوع متغیرهای دیگر String است، بنابراین حدس می‌زنم که ربطی به آن داشته باشد. آیا می توانید به من کمک کنید تا این مشکل را برطرف کنم و تمام مقادیر گم شده را از تجزیه و تحلیل من حذف کنم؟
چگونه مقادیر رشته خالی را از خروجی های تجزیه و تحلیل خود در SPSS حذف کنم؟
12586
در پایان نامه خود از چندین طرح آزمایشی استفاده کرده ام که اکثر آنها طرح های مرکب مرکزی با 3 متغیر و 20 اجرا (6 برابر نقطه مرکزی + 8 نقطه در گوشه های مکعب + 6 نقطه در محور) هستند. آزمایش‌ها با نرم‌افزار «JMP 7» برنامه‌ریزی و تحلیل شده‌اند، که گزارش‌های بسیار طولانی ایجاد می‌کند و برای هر 5 _DoE_ من حدود 20 مقدار Y دارم. در فصل نتایج پایان نامه ام، نمودارهایی مشابه آنچه در اینجا وجود دارد را نشان می دهم! نمی دانم کدام داده های اضافی را باید در ضمیمه خواننده ارائه دهم. مطمئناً، من اضافه می‌کنم: * داده‌های خام (جدول با مقادیری که طراحی سطح پاسخ با آن محاسبه شده است) * تخمین‌گر پارامتر برای هر اثر خطی و درجه دوم و همچنین مقدار p برای معنی‌داری. من در آمار متخصص نیستم، بنابراین _من نمی دانم_ کدام داده های دیگری که مدل ها را توصیف می کنند برای مستندسازی مناسب کار من ضروری یا مفید هستند. کسی میتونه کمک کنه لطفا
چه داده هایی باید برای نتیجه طراحی آزمایش با سطح پاسخ داده شود؟
65069
من در حال آماده شدن برای نهایی آمارم هستم و این سوال را در بسته بررسی برای پاسخ دارم: ![http://i.imgur.com/QRKGigB.png](http://i.stack.imgur.com/YYSHj.png ) قسمت فرضیه سوال را می فهمم. چگونه باید به سوال اول برخورد کنم: **آیا محقق می تواند نتیجه بگیرد که مصرف الکل با جنسیت مرتبط است؟** آیا پاسخ شامل استفاده از پارادوکس سیمپسون است؟
پارادوکس سیمپسون در سوال امتحانی
109902
من یک مجموعه داده دارم که از داده های سرشماری (5 ویژگی) تشکیل شده است. با انجام PCA متوجه شدم که داده های اصلی مانند یک قطعه بزرگ به نظر می رسد (لطفاً به تصویر اول نگاه کنید) و بنابراین تصمیم گرفتم از خوشه بندی طیفی استفاده کنم و تصویر زیر نمایش داده ها است (تصویر با رسم به دست می آید. بالاترین سه بردار ویژه لاپلاسین). شکل برای من جالب به نظر می رسد و به نظر می رسد که این داده ها به نوعی تابعی را در دامنه جدید تشکیل می دهند (من واقعاً دوست دارم تفسیر بهتری از متخصصان بشنوم). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xw7AZ.png) ![داده های من](http://i.stack.imgur.com/YycQH.png) **من اکنون 2 سوال دارید: ** (1) در مورد داده های دامنه جدید چه می توانیم بگوییم؟ (2) بهترین تکنیک خوشه بندی که برای انجام خوشه بندی پیشنهاد می کنید چیست با تشکر
خوشه بندی داده های کروی شکل
63254
من باید به زودی یک درس پایه را در مورد آزمون $\chi^2$ تدریس کنم و البته بر این واقعیت پافشاری خواهم کرد که $p$ احتمال درستی فرضیه صفر نیست و نتیجه آزمون نمی تواند اجازه دهد که صفر را بپذیرد. با این حال، دانش آموزان این دوره هیچ پیشینه ریاضی یا آماری نخواهند داشت و من می خواهم تا حد امکان توضیحی را ارائه دهم. من چیزهای جالبی را در این مقاله ScienceNews خوانده ام، با مثالی از پارس کردن سگ در هنگام گرسنگی، اما هنوز این موضوع را به اندازه کافی واضح نمی دانم. آیا قبلاً چنین توضیحی ارائه کردید، یا ایده یا مثالی دارید که به اندازه کافی شهودی باشد؟ پیشاپیش خیلی ممنون
توضیح شهودی این که چرا p احتمال فرضیه صفر نیست
77733
من با برخی از داده هایی که سعی کردم تجزیه و تحلیل کنم کمی مشکل داشتم. من 2 جمعیت از کریستال های پروتئینی دارم، یکی در معرض جریان رطوبت است و دیگری نه، تا ببینم آیا تأثیری بر کیفیت داده وجود دارد یا خیر. برای اکثر آزمون‌های من هیچ مشکلی وجود ندارد، اما برای یک مجموعه از جمعیت‌ها، آزمون t (دو نمونه، دو دنباله، با فرض واریانس مساوی) با آنچه من می‌توانم در نمودارهایم ببینم و آنچه از میانگین‌ها واضح به نظر می‌رسد مخالف است. . در اینجا 2 جمعیت آمده است: Pop 1: 28.6، 22.4، 14.5، 28.3، 22.7، 22.2، 37.7، 28.7، 20.8 میانگین: 25.1 SD: 6.21 Pop 2: 49.3، 38.8، 49.3، 47.8. 36.6، 32.2، 40، 27.4، 31.6 میانگین: 37.6 SD: 6.54 این داده ها به رنگ بنفش در نمودار نشان داده شده است![](http://i.stack.imgur.com/T9yMR.png) من داده ها را قرار داده ام در یک نمودار چندک برای تست نرمال بودن و نرمال به نظر می رسند و یک آزمون f برای بررسی واریانس برابر و همه به نظر می رسد برای انجام یک آزمون t. اما t-value که من از آزمون t بدست می‌آورم 0.0009 است، بسیار کمتر از t-value 2.26 برای alpha(2) = 0.05، که نشان می‌دهد آنها نه تنها یک جامعه هستند، بلکه تقریباً یکسان هستند. آیا پیشنهادی در مورد اینکه چرا داده های من رفتار نمی کنند؟ یک آزمون U Mann-Whitney نشان می دهد که آنها جمعیت های متفاوتی دارند.
آزمون t مخالف با نمودارهای پراکندگی
95967
من مشکل زیر را دارم. من سعی می‌کنم با استفاده از یک مدل سلسله مراتبی یک تحلیل بیزی انجام دهم که در آن داده‌های $y_{i\!j}$ دارای توزیع‌های نرمال شرطی کلاس با میانگین $\theta_j$ و واریانس $\sigma^2_j$ است. من می خواهم یک سلسله مراتب کامل در هر دو میانگین کلاس و واریانس کلاس داشته باشم. بنابراین، من فرض می‌کنم که $\sigma^2_j$ از یک توزیع جمعیتی که مقیاس‌بندی شده-معکوس-مربع با درجه آزادی $\nu_0$ و مقیاس $\sigma^2_0$ است، نمونه‌برداری شده است. اگر جبر من درست باشد، توزیع شرطی پسین $\nu_0$ و $\sigma^2_0$ خواهد بود \begin{align} p(\nu_o, \sigma^2_0 | \textit{else}) &\propto \ prod_{j = 1}^{J} \textit{scaled-inv-} \chi^2 (\sigma^2_j | \nu_o, \sigma^2_0) \times p(\nu_o، \sigma^2_0) \\\ &= \left[\frac{ \left( \frac{\nu_o، \sigma^2_0}{2} \راست)^{ \nu_0 / 2} }{\Gamma(\nu_0 / 2)} \right]^J \prod_{j = 1}^{J} \left(\sigma^2_j\right)^{-(\nu_0/2 + 1)} \textit{exp}\left\lbrace -\frac{1}{2} \nu_o \sigma^2_0 \sum_{j = 1}^{J} \frac{1}{\sigma^2_j} \right\rbrace \times p(\nu_o, \sigma^2_0) \end{align} تا آنجا که من می‌دانم، یک سطح اضافی در داده‌های من برای تخمین $\nu_0$ و $\sigma^2_0$ ضروری است. با این وجود، من سؤالات زیر را دارم: * آیا امکان تنظیم یک مزدوج وجود دارد؟ * اگر پیشین مزدوج موجود نباشد، مشخصات قبلی مناسب چه خواهد بود؟ به نوعی من این تصور را دارم که چنین موضوعی نباید خیلی عجیب و غریب باشد، اما نتوانستم چیزی در وب پیدا کنم. ممنون، دومینیک
قبل از پارامترهای یک توزیع معکوس chi-squared
89497
من ویژگی هایی به نام های $\rho$-، $\beta$-، و $\alpha$-مخلوط شرایط را در مقالات مربوط به فرآیندهای Copulas و Markov دیده ام مانند این: > در این مقاله، شرایط را در $C$ شناسایی می کنیم که برای نرخ های اختلاط سریع هندسی > کافی است. اختلاط هندسی $\beta$، معادل ارگودیسیته هندسی برای زنجیره‌های مارکوف ثابت، تحت یک شرایط نسبتاً قوی ایجاد می‌شود که جفت‌هایی را که وابستگی دم یا عدم تقارن نشان می‌دهند حذف می‌کند. هندسی $\rho$-mixing، که به معنای اختلاط $\alpha$ هندسی است، > در شرایط بسیار ضعیف تری به دست می آید. ما این شرط را برای > توابع کوپول پارامتری مختلف که در کارهای کاربردی محبوب هستند تأیید می کنیم. شرایط اختلاط $\rho$-، $\beta$- و $\alpha$ ممکن است به عنوان مبنایی برای طیفی از نابرابری‌ها و قضایای حدی استفاده شوند که در نشان دادن اعتبار مجانبی روش‌های آماری مفید هستند. Beare, B., 2010, Copulas and temporal dependence, Econometrica, 78(1). من دانشجوی مهندسی هستم و در درک این شرایط در متون آماری مشکل دارم. کسی می تواند آنها را توضیح دهد؟
شرایط اختلاط $\rho$-، $\beta$- و $\alpha$ چیست؟
44919
آیا می توان از تکنیک تعامل تعدیل جانسون-نیمن با یک تعدیل کننده طبقه بندی (3 دسته) استفاده کرد؟ 60٪، 80٪ و 100٪. من حدس می زنم که می تواند اثر متقابل را در مقادیر فرضی تعدیل کننده تقریبی کند. گرچه من سه گروه ناظم دارم، اما ناظم در واقعیت مستمر است.
آیا می توان از تکنیک تعامل تعدیل جانسون-نیمن با یک تعدیل کننده طبقه بندی استفاده کرد؟
91562
من سعی می‌کنم سطح یک آزمون را بهتر درک کنم و از خود می‌پرسیدم که آیا سطح یک فرضیه اساساً برابر با احتمال درستی فرضیه صفر است؟ من سعی کردم به مثال متقابل فکر کنم اما نتوانستم این ارتباط را تأیید یا رد کنم. آیا کسی می تواند آنقدر مهربان باشد که درک من را روشن کند؟ متشکرم!
آیا می توانم سطح آزمون فرضیه را به عنوان احتمال صحت فرضیه صفر در نظر بگیرم؟
88722
من در حال ساخت یک مدل رگرسیونی از داده های سری زمانی در R هستم که در آن علاقه اصلی من ضرایب متغیرهای مستقل است. داده ها فصلی قوی با روند را نشان می دهند. ![داده‌های اصلی](http://i.stack.imgur.com/GYxaU.png) مدل خوب به نظر می‌رسد، با چهار مورد از شش رگرسیور قابل توجه: ![Model](http://i.stack.imgur. com/ZmoSd.png) در اینجا باقی مانده های OLS هستند: ![Residuals](http://i.stack.imgur.com/EIybo.png) من استفاده کردم auto.arima برای انتخاب ساختار sARIMA، و مدل (0,1,1)(1,1,0)[12] را برمی گرداند. fit.ar <- auto.arima(at.ts, xreg = xreg1, stepwise=FALSE, approximation=FALSE) summary(fit.ar) Series: at.ts ARIMA(0,1,1)(1,1,0 )[12] ضرایب: ma1 sar1 v1 v2 v3 v4 v5 -0.7058 0.3974 0.0342 -0.0160 0.0349 -0.0042 -113.4196 s.e. 0.1298 0.2043 0.0239 0.0567 0.0555 0.0333 117.1205 sigma^2 تخمین زده شده به عنوان 3.86e+10: log likelihood=-458.13 AIC=932.26 Training AIC07=03 اقدامات: ME RMSE MAE MPE MAPE MASE مجموعه آموزشی 7906.896 147920.3 103060.4 0.1590107 3.048322 0.1150526 سوال من این است: بر اساس برآورد پارامتر و s.e. از میان رگرسیون ها، من معتقدم که هیچ یک از آنها مهم نیستند - آیا این درست است، و اگر چنین است، اگر هدف من تفسیر اهمیت نسبی این پیش بینی ها در مقابل پیش بینی باشد، به چه معناست؟ هرگونه توصیه دیگری در رابطه با روند ساخت این مدل قابل استقبال و قدردانی است. در اینجا ACF و PACF برای باقیمانده ها آمده است: ![ACF-PACF](http://i.stack.imgur.com/a3Gvy.png) > durbinWatsonTest(mod.ols, max.lag=12) تأخیر همبستگی خودکار D-W آمار p-value 1 0.120522674 1.6705144 0.106 2 0.212723044 1.4816530 0.024 3 0.159828108 1.5814771 0.114 4 0.031083831 1.8352377 0.7408 0.7408 1.6787808 0.418 6 -0.024202465 1.8587561 0.954 7 -0.008399949 1.7720761 0.944 8 0.040751905 1.602 1.602 0.129788310 1.4214391 0.178 10 -0.015442379 1.6611922 0.822 11 0.004506292 1.6133994 0.770 1230737373731. 0000 فرضیه جایگزین: rho[lag] != 0
چگونه ضرایب رگرسیون را با باقیمانده های خودهمبسته تفسیر کنم؟
99643
من می‌دانم که یک راه سریع برای تست نرمال بودن این است که یک هیستوگرام از داده‌هایم ایجاد کنم و ببینم که آیا خمیده به نظر می‌رسد. از طرف دیگر، من می‌توانم از تست‌های نرمال بودن مانند chi-squared پیرسون استفاده کنم. اما اگر تمام داده های من یک هیستوگرام باشد چه؟ آیا آزمون‌های عددی برای ارزیابی اینکه آیا داده‌های زیربنایی نمونه‌ای از یک متغیر تصادفی توزیع شده معمولی است یا خیر وجود دارد؟
تست های نرمال بودن هیستوگرام ها
12587
من قبلاً در این انجمن سؤالی در این مورد پرسیده بودم، اما چون آزمایشم را کمی تغییر دادم و هنوز گیج هستم. من آزمایشی انجام دادم که در آن 25 مرد و 25 زن به یک مکالمه جذاب گوش دادند و یک عکس (بین یک زن با پیراهن قرمز و یک زن با پیراهن سبز) انتخاب کردند و سپس یک دیالوگ خنثی شنیدند و دقیقاً همین کار را کردند و یک عکس انتخاب کردند. بین یک زن قرمزپوش و یک زن سبزپوش. فرضیه من این است که مردان بر خلاف زنان بسیار بیشتر جذب زنان قرمزپوش می شوند. من به استفاده از آنالیز واریانس با اندازه‌گیری‌های مکرر فکر می‌کردم زیرا هم مردان و هم زنان در شرایط آزمایشی یکسان «معاینه» شدند. بنابراین، حدس می‌زنم که ستون‌های من عبارتند از: «جنسیت» ۲ سطح (۰ برای مردان و ۱ برای زنان)، «جاذبه» ۲ سطح (۰ برای نه و ۱ برای بله) و «رنگ» ۲ سطح (۰ برای سبز-یا بدون قرمز و 1 برای قرمز). مشکل من این است که چگونه نشان دهم که هر شرکت کننده این کار را دو بار انجام داده است (یعنی دو دیالوگ وجود دارد)؟ ( _توجه: من از SPSS استفاده می کنم._ )
از چه آزمایشی استفاده کنم / چگونه در تجزیه و تحلیل نشان دهم که همه را دو بار اندازه گرفتم؟
44918
من اطلاعاتی در مورد دوندگانی دارم که در ماراتن می دوند. برای هر دونده من آخرین زمان های آنها را در تعدادی مسابقه دارم. من می خواهم سرعت دویدن آنها را با توجه به نقاط پرت پیش بینی کنم، یعنی * او سریعتر از x ساعت با احتمال می دود: > x | P(x) > > 1:30 | 0% > > 2:00 | 1% > > 2:30 | 30% > > 3:00 | 66% > > 4:00 | 3% بنابراین، من برای هر ورزشکار یک منحنی برای احتمال دویدن ماراتن در x ساعت دارم. چگونه می توانم منحنی را ارزیابی کنم؟ زمینه: در حال حاضر ارزیابی خود را با استفاده از RMSE انجام می دهم، یعنی حدس می زنم که او در 2:45 ساعت اجرا می شود و خطا را ارزیابی می کند. این برای من چندان منطقی نیست، زیرا در واقع او معمولاً در 2:30 ساعت می دود، اما برخی از نقاط پرت دارد که میانگین را به سمت پایین تا 2:45 ساعت تحت تأثیر قرار می دهد. من می‌خواهم منحنی خود را ارزیابی کنم، که رمزگذاری می‌کند که با احتمال‌های خاصی دارای نزولی است.
چگونه یک منحنی را با در نظر گرفتن نقاط پرت ارزیابی کنیم؟
12580
من از کد مثال زیر از **latticeExtra** برای درک خوشه بندی دو طرفه در _R_ library(latticeExtra) data(mtcars) x <- t(as.matrix(scale(mtcars))) dd.row <- as استفاده کردم. dendrogram(hclust(dist(x))) row.ord <- order.dendrogram(dd.row) dd.col <- as.dendrogram(hclust(dist(t(x)))) col.ord <- order.dendrogram(dd.col) library(lattice) levelplot(x[row.ord, col.ord], aspect = fill ، مقیاس = لیست (x = لیست (پوسیدگی = 90))، کلید رنگی = فهرست (فاصله = چپ)، افسانه = فهرست (راست = لیست (سرگرم کننده = دندروگرام گروب، آرگس = list (x = dd.col، ord = col.ord، سمت = راست، اندازه = 10))، top = list (fun = dendrogramGrob، args = list (x = dd.row، side = بالا ، اندازه = 10)))) و این چیزی است که من دریافت کردم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zxWV1.png) پیوستن هر دو ردیف و ستون موجودیت ها برای من منطقی هستند، اما من با سایه های رنگی مختلف نقشه حرارتی اشتباه گرفته ام. **سوالات** * آیا پیوستن متغیرهای ردیف، متغیرهای ستون را نیز در نظر می گیرد و بالعکس * رنگ های مختلف در نقشه حرارتی برای خوشه بندی متغیرهای سطر مختلف و همچنین برای خوشه بندی متغیرهای ستون به چه معناست. به طور خاص بر روی متغیرهای ردیف **cyl** و **disp** تمرکز کنید.
تفسیر خوشه بندی دو طرفه در R
76078
آیا کسی می تواند یک مقدمه خوب برای آمار علوم اجتماعی را که به صورت آنلاین در دسترس است توصیه کند؟ من به دنبال چیزی شبیه کتاب هستم، اما به صورت آنلاین (یعنی عمدتاً از ویدیو یا صوتی ساخته نشده است - می خواهم چیزهایی بخوانم و تمرینات را انجام دهم). من باید آنلاین باشد (رایگان یا قابل دانلود) زیرا نمی توانم منتظر بمانم تا کتابی از طریق پست به دستم برسد، اما اگر کتابی را توصیه کنید، می توانم ببینم که آیا در کتابخانه عمومی نیویورک وجود دارد یا خیر. از نظر موضوع، من عمدتاً به دنبال مقدمه ای در مورد نحوه انجام کارها هستم (مثلاً پیش بینی، آزمایش همبستگی، سایر وظایفی که یک دانشمند علوم اجتماعی ممکن است انجام دهد)، در مقابل روشی برای نحوه اجرای الگوریتم ها. یعنی، من می‌خواهم بدانم چگونه آمارهای اجتماعی را «انجام» کنم، برخلاف اینکه چگونه نرم‌افزاری را که این کار را انجام می‌دهد کدنویسی کنم (می‌دانم که این تمایز کاملاً قابل تحمل نیست، اما امیدوارم نگرانی فعلی من را بیان کند). سابقه من در رشته حقوق و مهندسی نرم افزار است. من می‌توانم از ریاضیات استفاده کنم، اما ریاضیدانی بی‌تفاوت هستم - این زمانی است که می‌خواهم به اولی تکیه کنم، و زمانی نیست که دومی را اصلاح کنم، مگر در صورت لزوم. با تشکر از همه به خاطر نگاه کردن به این موضوع، و پوزش می طلبم اگر این موضوع خارج از موضوع یا یک سوال تکراری است. ویرایش: مایلم حتی در مورد انواع عملیات رایج در علوم اجتماعی که در صورت لزوم می‌توانم درباره آن‌ها عمیق‌تر تحقیق کنم. ویرایش 2: این جستجو مطالب زیادی را نشان می دهد که مرتبط به نظر می رسد: https://www.google.com/search?q=statistics+techniques+for+social+science+pdf
مقدمه آنلاین خوبی برای آمار برای علوم اجتماعی؟
58073
اندرو گلمن در کتاب «ایالت قرمز، ایالت آبی» این واقعیت را تحلیل می‌کند که افراد ثروتمند در ایالت‌های خاص بیشتر به جمهوری‌خواهان رأی می‌دهند تا افراد فقیر، اما ایالت‌های ثروتمند بیشتر به دموکرات‌ها رأی می‌دهند تا ایالت‌های فقیر. آیا نامی برای این پارادوکس وجود دارد؟ به نظر من با پارادوکس زیست محیطی مرتبط است، اما نه یکسان.
نام پارادوکس گزارش شده توسط گلمن
12588
من یک آزمون t / ANOVA (هر دو اندازه گیری مکرر) انجام دادم و می خواهم تفاوت میانگین را از طریق یک نمودار میله ای نشان دهم. چندین دیدگاه مختلف در مورد میله های خطای مناسب برای اندازه گیری های مکرر وجود دارد: ترجیح شخصی (فیلد، 2000)، خطای میانگین مربعات ریشه (Estes، 1997) یا به جای میله های اهمیت آماری (Schunn، 1999). بهترین راه حل چیست؟
نوارهای خطای مناسب برای طرح‌های اندازه‌گیری مکرر
12582
این از StackOverflow ارسال شده است. یکی به من پیشنهاد داد که اینجا پست کنم. اگرچه من کارما کافی برای ارسال تصاویر ندارم. من با جمع آوری داده ها از یک سیستم نظارت بر بیولوژیکی کار می کنم. آنها باید بعد از ایجاد تغییر در سیستم ، میانگین مقدار فلات را بدانند. [توضیحات تصویر را در اینجا وارد کنید] (http://i.stack.imgur.com/9rdwf.png) این حدود 4 دقیقه است. بین این رویداد و پاسخ حالت پایدار زمان تاخیر مناسبی وجود دارد. این مقادیر همیشه در این سطح نخواهند بود. آن‌ها از من می‌خواهند که پیدا کنم پاسخ حالت پایدار از کجا شروع می‌شود و میانگین‌ها را در طول آن زمان محاسبه کنم. رئیس من، که یک زیست شناس است، گفت که ممکن است بیش از حد و نوسانات تصادفی وجود داشته باشد... و ممکن است لازم باشد از تبدیل z استفاده کنم. متأسفانه او دقیق تر از آن نبود. من به عنوان یک برنامه نویس احساس شایستگی می کنم، اما مطمئن نبودم کارآمدترین راه برای یافتن این مقادیر چیست. هر گونه الگوریتم، بینش یا رویکرد بسیار قدردانی خواهد شد. با تشکر
یافتن میانگین ارزش ته نشینی پس از پاسخ مرحله
89490
با استفاده از روشی که به من تحمیل شده است ، باید الگوهای مکرر را در داده های زمانی پیدا کنم. این ابزار در استفاده از این داده ها مشکل دارد: پردازش طولانی است و حافظه زیادی می گیرد. بنابراین ، من می خواهم تعداد ویژگی ها را کاهش دهم. همچنین ، من می خواهم با ویژگی های اصلی (بدون تحول یا ترکیب) کار کنم. به عبارت دیگر ، من می خواهم یک انتخاب ویژگی را انجام دهم. به هر حال، داده ها دارای هر دو ویژگی عددی و اسمی (یا طبقه بندی) هستند. اولین چیزی که به ذهن می رسد این است که گروه هایی از ویژگی های همبسته (یا به طور کلی تر: مرتبط) را شناسایی کنید و فقط یکی را برای نشان دادن هر گروه نگه دارید. اما فکر می‌کنم روش‌های پیشرفته‌تر و احتمالاً کارآمدتری وجود داشته باشد. با این حال، تنها مقاله‌هایی که می‌توانم در وب بیابم مربوط به استفاده از الگوکاوی برای انجام انتخاب ویژگی‌ها است، چیزی که من می‌خواهم انجام دهم. علاوه بر این، وقتی روش‌های انتخاب ویژگی شرح داده شده در ادبیات را جستجو می‌کنم، آنها برای مسائل طبقه‌بندی طراحی شده‌اند. بنابراین ، من نمی دانم که آیا کارهایی با تمرکز بر انتخاب ویژگی ، به ویژه برای معدن الگوی وجود دارد.
انتخاب ویژگی برای الگوبرداری
88724
من در حال انجام یک پروپوزال مطالعه برای پروژه ای هستم که به دو معیار مختلف برای ارزیابی وجود یک وضعیت سلامتی، یک معاینه بالینی و یک معاینه تشخیصی نگاه می کند. معاینه بالینی توسط کلینیک A و معاینه تشخیصی توسط پزشک A (تازه آموزش دیده) و پزشک B (متخصص) انجام خواهد شد. هم برای معاینه بالینی و هم برای تست تشخیصی، پاسخ به پاسخ بله/خیر در مورد وجود یا عدم وجود شرایط مورد نظر محدود خواهد شد. معاینه بالینی با معاینه تشخیصی مقایسه خواهد شد تا تفاوت در توانایی مستندسازی وضعیت بیماری مورد نظر بررسی شود و عملکرد و تفسیر معاینه تشخیصی بین کاربر متخصص و تازه آموزش دیده مقایسه خواهد شد. برای پروپوزال تحصیلی باید توضیح دهم که چگونه می‌خواهم همبستگی برقرار کنم و نمی‌دانم چگونه این کار را انجام دهم. هر کمکی که می توانید ارائه دهید بسیار قدردانی می شود.
چگونه همبستگی را برای پروپوزال تحصیلی خود توضیح دهم؟
88725
گفته می شود پایگاه داده ای مانند Genbank یک پایگاه داده غیر تقلیل کننده است. یعنی چی؟
پایگاه داده غیر تقلیل کننده چیست؟
11769
به عنوان یک دانشجوی فیزیک، من سخنرانی چرا من یک بیزی هستم را شاید نیم دوجین بار تجربه کرده ام. همیشه یکسان است -- مجری خود راضی توضیح می دهد که چگونه تفسیر بیزی برتر از تفسیر مکرر که ادعا می شود توسط توده ها استفاده می شود. آنها به قانون بیز، به حاشیه رانده شدن، پیشینیان و پسین ها اشاره می کنند. داستان واقعی چیست؟ آیا دامنه مشروعی برای کاربرد آمارهای مکرر وجود دارد؟ (مطمئناً در نمونه برداری یا چرخاندن قالب چندین بار باید اعمال شود؟) آیا فلسفه های احتمالی مفیدی فراتر از «بیزی» و «تکرارگرا» وجود دارد؟
آیا احتمال بیشتری از بیزییسم وجود دارد؟
13983
من حجم نمونه 6 دارم. در چنین حالتی، آیا تست نرمال بودن با استفاده از آزمون کولموگروف اسمیرنوف منطقی است؟ من از SPSS استفاده کردم. من حجم نمونه بسیار کوچکی دارم زیرا دریافت هر کدام زمان می برد. اگر منطقی نیست، کمترین عددی که منطقی به نظر می رسد چند نمونه است؟ _توجه:_ من آزمایشی در رابطه با کد منبع انجام دادم. نمونه زمان صرف شده برای کدنویسی در یک نسخه از نرم افزار **(نسخه A)** در واقع من یک نمونه دیگر با حجم 6 دارم که زمان صرف شده برای کدنویسی در **نسخه دیگر** نرم افزار **(نسخه B) است. ** می‌خواهم آزمایش فرضیه را با استفاده از **تست تک نمونه‌ای** انجام دهم تا آزمایش کنم که آیا زمان صرف شده در کد نسخه A با زمان صرف شده در کد نسخه B متفاوت است یا خیر (این H1 من است) . پیش شرط آزمون t تک نمونه ای این است که داده های مورد آزمایش باید به طور معمول توزیع شوند. به همین دلیل است که باید از نظر نرمال بودن تست کنم.
آیا آزمایش نرمال بودن با حجم نمونه بسیار کوچک (به عنوان مثال n = 6) معنی دارد؟
13981
شکل کلی معادله را می توان به نمودار پراکندگی زیر برازش داد؟ نتیجه باید شبیه به یک نرم افزار باشد **_Z_** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gLW6O.png)
بهترین فرم کاربردی برای توصیف یک نمودار پراکنده با ظاهر z شکل همراه با نویز
65064
من از بسته پیش‌بینی R با داده‌های سری زمانی روزانه استفاده می‌کنم که دارای فصلی پیچیده است (هفتگی، سالانه، ماهانه). فرآیند تناسب/پیش بینی نیز باید اثرات خاص روز را در نظر بگیرد. من قصد دارم: * از تابع auto.arima استفاده کنم * فرکانس TS را برای مراقبت از فصلی بودن هفتگی روی 7 تنظیم کنم * از اصطلاحات فوریه برای پارامتر xreg برای مراقبت از فصلی بودن ماهانه و سالانه استفاده کنم * از ماتریس رگرسیون برای اثرات دیگر استفاده کنید. تعطیلات. 1. آیا کسی می تواند در ارائه یک مثال ملموس در مورد نحوه استفاده از تابع فویر که می تواند هم فصلی ماهانه و هم سالانه را در نظر بگیرد کمک کند؟ 2. آیا می خواهید نمونه ای از نحوه ترکیب یک ماتریس رگرسیور با نتیجه فویر را ببینید تا بتوان آن را به پارامتر 'xreg' یا با هم نسبت داد؟ در مورد هر دو این سؤال، من فقط احتمالاتی از موارد ذکر شده توسط دکتر هایندمن را یافته ام، اما نمونه های عینی واقعاً می توانند برای جامعه نیز مفید باشند. با تشکر
بسته پیش بینی R: چگونه عبارت های فویر را با ماتریس XREG دیگر ترکیب کنیم
43336
من دو توزیع لباس دارم، $X_1 \sim\it{U}(a,b)$ و $X_2\sim\it{U}(X_1+\delta,b+\delta)$. من می خواهم $P(X_2\in[a+\delta,b+\delta])$ را محاسبه کنم. بنابراین من این کار را انجام می دهم: $$\begin{eqnarray*} P(X_2\in[a+\delta,b+\delta]) & = & \int_{a}^{b} P(X_2\in[a+\delta, b+\delta]|X_1=y)\cdot P(X_1=y) dy\\\ & = & \frac{1}{b-a} \int_{a}^{b} \frac{1}{b-y} dy\\\ & = & \frac{1}{b-a} \ln\Bigg(\frac{b-a}{b-b}\Bigg) \end{eqnarray*}$$ نتیجه اشتباه مربوط به این واقعیت است که یک توزیع یکنواخت احتمال $\frac{1}{x}$ دارد، اما برای $x<1$ کار نمی کند (در این حالت، کسری بزرگتر از 1 می شود...). چگونه این مشکل را به طور رسمی و به روشی تمیز حل کنیم؟
انتگرال یک توزیع یکنواخت شرطی منجر به انتگرال نامناسب می شود
75050
من در تلاش برای یافتن راهی برای محاسبه مقدار p برای ناحیه تحت مشخصه عملگر گیرنده (ROC) هستم. من یک متغیر پیوسته و یک نتیجه آزمایش تشخیصی دارم. می خواهم ببینم آیا AUROC از نظر آماری معنی دار است یا خیر. من بسته های زیادی را پیدا کردم که با منحنی های ROC سروکار دارند: pROC، ROCR، caTools، تأیید، Epi. اما حتی پس از ساعت‌های زیادی که صرف خواندن مستندات و آزمایش کردم، نتوانستم چگونگی آن را پیدا کنم. من فکر می کنم من فقط آن را از دست داده است.
در R چگونه می توان مقدار p را برای منطقه تحت ROC محاسبه کرد
95965
من در حال انجام مطالعه ای در مورد درک تصویر بدن و فعالیت بدنی در بین نوجوانان هستم. فرضیه من این است که نوجوانانی که به طور منظم به فعالیت بدنی می پردازند، درک دقیق تری از تصویر بدن در رابطه با افراد کم تحرک خواهند داشت. من داده هایی را در مورد جنسیت، سن، BMI، دسته بندی BMI، سطح فعالیت بدنی، درک تصویر بدن جمع آوری کرده ام. بهترین تست های آماری برای اجرا کدامند؟
آمار صحیح برای اجرا؟
82963
یکی از همکارانم این مشکل را برای من ارسال کرد که ظاهراً در اینترنت دور می زند: اگر 3 دلار = 18، 4 = 32، 5 = 50، 6 = 72، 7 = 98 دلار، سپس، 10 دلار = دلار؟ به نظر می رسد پاسخ 200 باشد. 3*6 4*8 5*10 6*12 7*14 8*16 9*18 10*20=200 وقتی یک رگرسیون خطی در R انجام می دهم: داده <- data.frame(a =c(3،4،5،6،7)، b=c(18،32،50،72،98)) lm1 <- lm(b~a, data=data) new.data <- data.frame(a=c(10,20,30)) predict <- predict(lm1, newdata=new.data, interval='prediction') I دریافت: fit lwr upr 1 154 127.5518 180.4482 2 354 287.0626 420.9374 3 554 444.2602 663.7398 بنابراین مدل خطی من 10 دلار = 154 دلار را پیش بینی می کند. وقتی داده ها را رسم می کنم خطی به نظر می رسد ... اما بدیهی است که من چیزی را درست فرض کردم. من سعی می کنم یاد بگیرم که چگونه از مدل های خطی در R به بهترین شکل استفاده کنم. روش مناسب برای تجزیه و تحلیل این سری چیست؟ کجا اشتباه کردم؟
چرا رگرسیون خطی قادر به پیش بینی نتیجه یک دنباله قطعی ساده نیست؟
73325
ویکی پدیا مثال زیر را هنگام توصیف هش کردن ویژگی ارائه می دهد. اما به نظر می رسد نگاشت با فرهنگ لغت تعریف شده سازگار نیست، برای مثال، «به» باید طبق فرهنگ لغت به «3» تبدیل شود، اما به جای آن به عنوان «1» کدگذاری می شود. آیا در توضیحات خطایی وجود دارد؟ هش کردن ویژگی چگونه کار می کند؟ > متون: > > > جان دوست دارد فیلم ببیند. مریم هم دوست داره > جان همچنین دوست دارد بازی های فوتبال را تماشا کند. > > > را می توان با استفاده از فرهنگ لغت تبدیل کرد > > > {جان: 1، لایک: 2، به: 3، تماشا: 4، فیلم: 5، همچنین: 6، > فوتبال: 7، بازی: 8، مری: 9، هم: 10} > > > به ماتریس > > > [[1 2 1 1 1 0 0 0 1 1] > [1 1 1 1 0 1 1 1 0 0]] >
درک ویژگی هاشینگ
77663
من سعی می کنم بفهمم که چگونه پارامترها در مدل سازی ARIMA/Box Jenkins (BJ) تخمین زده می شوند. متأسفانه هیچ یک از کتاب‌هایی که من با آنها مواجه شده‌ام، روش تخمین مانند روش تخمین Log-Likelihood را به طور مفصل شرح نمی‌دهند. وب سایت/مواد آموزشی را پیدا کردم که بسیار مفید بود. در زیر معادله منبع ذکر شده در بالا آمده است. $$ LL(\theta)=-\frac{n}{2}\log(2\pi) - \frac{n}{2}\log(\sigma^2) - \sum\limits_{t=1 }^n\frac{e_t^2}{2\sigma^2} $$ من می‌خواهم تخمین ARIMA/BJ را با انجام خودم یاد بگیرم. بنابراین من از $R$ برای نوشتن کدی برای تخمین ARMA با دست استفاده کردم. در زیر آنچه من در $R$ انجام دادم، * ARMA را شبیه سازی کردم (1،1) * معادله فوق را به عنوان یک تابع نوشتم * از داده های شبیه سازی شده و تابع بهینه برای تخمین پارامترهای AR و MA استفاده کردم. * من همچنین ARIMA را در بسته آماری اجرا کردم و پارامترهای ARMA را از آنچه با دست انجام دادم مقایسه کردم. **_در زیر مقایسه است:_** ![مقایسه](http://i.stack.imgur.com/UUigG.png) **سوالات من در زیر آمده است: * **چرا بین تخمین زده شده تفاوت جزئی وجود دارد و متغیرهای محاسبه شده؟** * **آیا ARIMA در پس‌کست‌های R عمل می‌کند یا روش تخمین متفاوت از آنچه در زیر در کد من ذکر شده است؟** * **من e1 را اختصاص داده‌ام یا خطا در مشاهده 1 به عنوان 0، آیا این درست است؟** * **همچنین آیا راهی برای تخمین مرزهای اطمینان پیش بینی ها با استفاده از هسیان بهینه سازی وجود دارد؟** مثل همیشه از کمک شما بسیار متشکرم. در زیر کد آمده است: ## Load Packages library(stats) library(forecast) set.seed(456) ## Simulate Arima y <- arima.sim(n=250,list(ar=0.3,ma=0.7),mean = 5) نمودار (y) ## بهینه سازی احتمال وقوع گزارش برای ARIMA n = طول (y) ## شمارش تعداد مشاهده ها e = rep(1,n) ## Initialize e logl <- تابع(mx){ g <- عددی mx <- ماتریس(mx,ncol=4) mu <- mx[,1] ## سیگما مدت ثابت <- mx [,2] rho <- mx[,3] ## Ar coeff theta <- mx[,4] ## Ma coeff e[1] = 0 ## از آنجایی که e1 = 0 برای (t در (2 : n)){ e[t] = y[t] - mu - rho*y[t-1] + theta*e[t-1] } ## حداکثر کردن Log Lilihood تابع g1 <- (-((n)/2)*log(2*pi) - ((n)/2)*log(sigma^2+0.000000001) - (1/2)*(1/(sigma^2+0.000000001))*e%*%e) ##نکته: ضرب Log Likelihood در -1 به منظور به حداکثر رساندن در بهینه سازی ## این کار به دلیل تابع Optim انجام می شود. در R فقط می تواند کمینه کند، X را با -1، می توانیم ## را نیز + را با حداکثر کنیم 0.000000001 سیگما^2 برای جلوگیری از تقسیم بر 0 g <- -1 * g1 return(g) } ## Optimize Log Liklihood arimopt <- optim(par=c(10,0.6,0.3,0.5), fn=logl, gr = NULL، روش = c(L-BFGS-B)، کنترل = لیست()، هسی = T) arimopt ############# نتایج خروجی############### ar1_calculated = arimopt$par[3] ma1_calculated = arimopt$par[4] sigmasq_calculated = ( arimopt$par[2])^2 logl_calculated = arimopt$val ar1_calculated ma1_calculated sigmasq_calculated logl_calculated ############# تخمین با استفاده از Arima############## est <- arima(y,order=c(1,0,1) ) est
برآورد ARIMA با دست
64745
من با این پست http://xkcd.com/1132/ و این تصویر برخوردم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/g8yXV.png) متوجه نشدم چرا بیزی آمارگیر می گوید نه هر پیشنهادی
سردرگمی مربوط به پست مربوط به آمار در xkcd
5868
با $X_1، X_2، \ldots$ با ارزش واقعی، $Max_n := \max(X_1,\ldots,X_n)$ مقدار رکورد یا علامت با آب بالا $NextMax_n :=$ مقدار آب بالاتر بعدی، $Max_{ را تعریف کنید n+m} > Max_n$ $Up_n := NextMax_n - Max_n$. آیا کسی می تواند مقدمه ای برای تخمین $NextMax$ و $Up$، برای 1. $X$ i.i.d پیشنهاد دهد. از یک توزیع شناخته شده، 2. ناپارامتریک، تخمین می زنید؟ یک فصل کتاب یا یک دوره آمار آنلاین به خوبی انجام می شود.
مبانی مقادیر افراطی / علائم پر آب؟
13989
آیا آموزش هایی وجود دارد که شما توصیه می کنید که نحوه رسم منحنی «ROC» را آموزش دهد؟ با تشکر
آموزش رسم منحنی ROC
13670
من یک مجموعه داده 100000 دارم. اگر بخواهم یک زیرمجموعه (نمونه) انتخاب کنم، چگونه می توانم مطمئن شوم که یک نمونه خوب است؟ من می‌دانم که می‌توانم با انتخاب تصادفی آن را بی‌طرف‌تر کنم، اما چگونه می‌توانم بدانم چه تعداد باید برای محاسبه همه واریانس در مجموعه داده انتخاب کنم؟
چند نمونه تمام واریانس را به حساب می آورند؟
43333
چگونه بهترین مقادیر آلفا و بتا را در هموارسازی نمایی Holt انتخاب کنیم؟ با گذاشتن آن روی R به من $\alpha$ =1 می دهد. آیا این مناسب است؟ وارد کردن مقادیر مختلف آلفا و سپس مقایسه با داده های واقعی بهترین نتیجه را برای $\alpha $ = 0.45 نشان می دهد. اما سپس R $\beta$=0.99 را محاسبه می کند. این خوبه؟
مقدار آلفا و بتا در روش هموارسازی نمایی هولت
39231
> **تکراری احتمالی:** > چرا آمار t با حجم نمونه افزایش می یابد؟ در آزمون t، آمار آزمون $$ t = \frac{\overline{x} است - \mu_0}{s/\sqrt{n}} $$ نمی‌دانم که اندازه نمونه $n$ چه تأثیری بر t دارد. تست؟ برای مثال، با افزایش $n$، من فکر می‌کردم که $t$ در ابتدا افزایش می‌یابد، اما بعداً متوجه شدم که $s$ در مقیاس $1/\sqrt{n-1}$ است. بنابراین به نظر می رسد $s/\sqrt{n}$ با افزایش $n$ کاهش نمی یابد؟ $n$ چه تأثیر دیگری دارد؟ با تشکر
تاثیر حجم نمونه در آزمون t
81563
Rainbow tabeling یک وب سرویس با حدس زدن شناسه‌های آنها یک دسته کامل از صفحات را دریافت می‌کند: /item?ID=1 /item?ID=2 ... /item?ID=n در حالت ایده‌آل، من می‌خواهم به طور هوشمند حداکثر شناسه را شناسایی و تنظیم کنم. ن به آن. آیا در اینجا رویکرد آماری وجود دارد؟ مثل یک شانه تصور می کردم که در آن شعاع شناسه ها را در اطراف یک مقدار به طور تصاعدی در حال افزایش بررسی می کنم: 9,10,11 99,100,101 999,1000,1001 9999,10000,10001 یا شاید این توان گام به گام خطرناک است. : 999,1000,1001 1999,2000,2001 2999,3000,3001 به عنوان مثال. اگر هیچ یک از «2999،3000،3001» شناسه معتبر نباشد، «n» را روی «3000» تنظیم می‌کنم. آیا باید از توزیع یا فرمول دیوانه وار با _e_ استفاده کنم؟ _توجه:_ وقتی مدیران DB می‌خواهند شناسه‌های خود را «غیرقابل حدس زدن» کنند، اغلب فقط یک عدد بزرگ را برای شروع آن انتخاب می‌کنند - مثلاً 100000، بنابراین مورد 1 100001 است، مورد 2 = 100002، و غیره. فقط n را روی «2147483647» تنظیم کنید (حداکثر مقدار MySQL نوع «INTEGER») یا یک مقدار کوچکتر اگر می دانید تقریباً چند شی در پایگاه داده وجود دارد و یک به یک بروید.
راه آماری برای جدول رنگین کمانی یک وب سرویس چیست؟
96437
من **چهار** ($D_1، ... D_4$) مجموعه داده های مختلف دارم که می خواهم از آنها یک طبقه بندی کننده _دودویی_ قوی یاد بگیرم. من در حال حاضر از «SVC» و «LinearSVC» از کتابخانه «sklearn» استفاده می کنم. مشکل این است که تنها یکی از این مجموعه داده در حال حاضر در آموزش و آزمون تقسیم شده است. سه نفر دیگر نیستند. اگرچه مجموعه ویژگی ها اساساً برای همه آنها یکسان است، هر مجموعه داده دارای تعداد نمونه های متفاوتی است و به نظر می رسد با توجه به _کیفیت_ منسجم نیستند. برای روشن شدن در مجموعه داده $D_1، D_2$ تعدادی نمونه مثبت وجود دارد که به اشتباه با کلاس $-1$ برچسب گذاری شده اند. بهترین راه برای ادغام مجموعه‌های داده در یک مجموعه‌ای واحد که سعی در ایجاد هرگونه سوگیری ندارد، چیست؟
ادغام مجموعه داده های مختلف برای طبقه بندی باینری
73321
با اجرای آزمایش‌ها روی یک الگوریتم تقسیم‌بندی، متوجه شدم که ضریب تاس به طور مداوم نتایج مشابه اندازه‌گیری F1 را به من می‌دهد. می‌خواهم در مقاله‌ای که دارم می‌نویسم به این موضوع اشاره کنم، که این را فقط به عنوان مرجع پیدا کرده‌ام (و فکر می‌کنم بد است که در مقاله بگذارم). هیچ منبع دیگری؟
هر مرجع کتابشناختی که بگوید ضریب تاس همان اندازه گیری F1 است؟
13673
من ریاضی کافی برای فرموله کردن یک سوال هوشمندانه در این مورد نمی دانم، بنابراین یک مثال می زنم. من می‌خواهم پاسخی به مثالم بدهم، اما همچنین می‌خواهم لغاتی را که برای تحقیق بیشتر در مورد آن نیاز دارم، بدانم. فرض کنید شما مجموعه بزرگی از اطلاعات در مورد افراد دارید: قد، وزن، سن و تعداد فشارهایی که می توانند انجام دهند. چگونه می خواهید پیدا کنید: 1. کدام ترکیبات قد، وزن و سن می توانند بیشترین فشار را انجام دهند؟ 2. با توجه به قد، وزن و سن، احتمال اینکه آنها بتوانند x تعداد پوش آپ انجام دهند چقدر است؟ در نهایت می‌خواهم بدانم، با توجه به مجموعه‌ای متشکل از قد، وزن و سن 10 نفر، چه کسی از نظر آماری بیشترین احتمال را دارد که بیشترین فشار را انجام دهد.
اهمیت متغیرها: چه کسی می تواند بیشترین فشار را انجام دهد؟
96430
در الگوریتم k-means، مرحله کمینه سازی فاصله معادل به حداکثر رساندن احتمال است: $P(X|\theta)$ یا برای به حداکثر رساندن توزیع پسین $P(\theta|X)$؟ من فکر می کنم منطقی تر است که توزیع پسین $P(\theta|X)$ را به حداکثر برسانیم زیرا مربوط به طبقه بندی $X$ در یک خوشه است و معمولاً توزیع پسین $P(\theta|X)$ است که برای آن استفاده می شود. اگر مطابق با حداکثر احتمال $P(X|\theta)$ است، می‌توانید دلیل آن را توضیح دهید؟ متشکرم
فاصله مربع و احتمال در k-means
16000
من به دنبال بهترین ترکیب متغیرها هستم که منجر به کلیک به صفحه بعدی وب سایت من شود... به عنوان مثال اندازه و رنگ یک دکمه ارسال. من سیستمی دارم که در حال حاضر هر متغیر را به طور مستقل آزمایش می کند تا بهترین مقدار را برای آن متغیر بیابد. من می خواهم قدم بعدی را برای آزمایش ترکیب این متغیرها بردارم. من به دنبال کمک برای 2 مرحله در این فرآیند هستم: 1. نحوه ذخیره مجموعه نتایج - در حال حاضر من هر متغیر را به طور مستقل در mysql ذخیره می‌کنم بدون اینکه پیوندی به مقادیر متغیر دیگری که آزمایش شده‌اند وجود داشته باشد. بهترین روش ها برای ثبت این داده ها (طراحی طرحواره) چیست؟ 2. نحوه تجزیه و تحلیل مجموعه های نتایج - آمار مناسب من نیست، و من هیچ تجربه قبلی با نرم افزار آمار ندارم... من یک رویکرد کمابیش جعبه سیاه را می خواهم... من داده‌های خام (از مرحله 1) را ارائه می‌کنم و نرم‌افزار آنالیز بهترین ترکیب متغیرهای بهینه‌شده را برای من بازمی‌گرداند.
شروع با تست چند متغیره
13984
من می‌خواهم پیش‌بینی‌شده و پس‌کاستی (یعنی مقادیر پیش‌بینی‌شده گذشته) مجموعه داده‌های سری زمانی را با به حداقل رساندن میانگین مربعات خطای پیش‌بینی، در یک سری زمانی ترکیب کنم. بگویید من سری زمانی از 2001-2010 با شکاف برای سال 2007 دارم. من توانسته ام سال 2007 را با استفاده از داده های 2001-2007 (خط قرمز - به نام $Y_f$) پیش بینی کنم و با استفاده از داده های 2008-2009 (2008-2009). خط آبی روشن - آن را $Y_b$ نامید). من می خواهم نقاط داده $Y_f$ و $Y_b$ را در یک نقطه داده Y_i برای هر ماه ترکیب کنم. در حالت ایده‌آل، من می‌خواهم وزن $w$ را به‌گونه‌ای بدست بیاورم که میانگین مربعات خطای پیش‌بینی (MSPE) $Y_i$ را به حداقل برساند. اگر این امکان پذیر نیست، چگونه می توانم میانگین بین دو نقطه داده سری زمانی را پیدا کنم؟ $$Y_i = w\cdot Y_f + (1-w)\cdot Y_b$$ به عنوان مثال سریع: tt_f <- ts(1:12، شروع = 2007، فرکانس = 12) tt_b <- ts(10:21، start=2007, freq=12) tt_f ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 1 2 3 4 5 6 7 8 9 10 11 12 tt_b ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 10 11 12 13 14 15 16 17 18 19 20 .. ایده آل به حداقل رساندن the MSPE) tt_i ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 5.5 6.5 7.5 8.5 9.5 10.5 11.5 12.5 13.5 14.5 15.5 16.5 ![تصویر را وارد کنید اینجا](http://i.stack.imgur.com/VscVU.jpg)
ترکیب دو سری زمانی با میانگین گیری نقاط داده
78226
چرا مجذور فواصل عمودی به جای مقادیر مطلق گرفته می شود؟
چرا مجذور فواصل عمودی به جای مقادیر مطلق گرفته می شود؟
88210
من یک مجموعه داده دارم که از n متغیر سری زمانی $X_1$..$X_n$ و یک خروجی سری زمانی $Y$ تشکیل شده است. می‌خواهم داده‌ها را استخراج کنم تا ببینم آیا برخی از توابع (با تأخیر یا عدم تاخیر) از X_i$ می‌توانند $Y$ را پیش‌بینی کنند. $X_i$ ممکن است دارای مقادیر گم شده باشد (داده ها نامتعادل هستند). کدام الگوریتم را برای این کار پیشنهاد می کنید؟
داده کاوی سری های زمانی
76079
من داده‌ای در SPSS دارم که ساختار آن به این صورت است: دانش‌آموز_تعداد مطالعه سنی_برای q1 q2 q3 q4 q5 q6 q7 q8 (<\-- اینها ستون‌ها هستند) دانش‌آموزانی با اعداد از 1 تا 67 وجود دارند. برای هر یک از آن دانش‌آموزان می‌خواهم دریافت کنم. میانه q1 تا q8، چگونه می توانم این کار را در SPSS انجام دهم؟ و سپس من می خواهم در صورت امکان یک میانه از آن میانه بگیرم. پیشاپیش از پاسخ شما سپاسگزارم.
چگونه میانه یک ردیف را در SPSS بدست آوریم؟
60297
$s^2 = \sum \frac{(x_i - \bar{x})^2}{n-1} $ که ظاهراً برابر است $ \frac{\sum(x_i^2) +n\bar{x}^ 2 - 2n\bar{x}^2}{n-1}$. آیا این فقط از گسترش شمارنده و استفاده از این واقعیت است که $\bar{x}$ (میانگین) به $i$ وابسته نیست؟ چگونه می توان این را برای نشان دادن $E(s^2) = \sigma^2$ خاص ادامه داد؟
نشان می دهد که $s^2$ یک برآوردگر بی طرفانه $\sigma^2$ است
70238
من هنوز با وجود سؤالات مشابه در مورد تفاوت بین واریانس و انحراف معیار در آمار سردرگم هستم. چرا واریانس مجذور است؟
چرا واریانس مجذور است و آیا معنای آن همان انحراف معیار است؟
13671
من نسبت روی نمودار زیر را با ADF آزمایش می کنم. نمودار نسبت تابعی که من استفاده می کنم عبارت است از: adfTest(ratio, type='nc') در کتابخانه fUnitRoots. نتیجه (p-value) این است: **0.01301** **بسیار کم** است، بنابراین سری باید میانگین برگردانده شود. (@Statistical لطفاً به خاطر این توضیح وحشیانه از من متنفر نباشید) با دیدن نمودار، نسبت به نظر خیلی «میانگین برگردان» نیست، من در مورد بررسی بصری نسبت صحبت می کنم. نظر شما در مورد آن چیست؟ متشکرم
چگونه ممکن است که این نسبت به میانگین برگردد؟
16003
به دنبال این سوال در مورد گزارش eta مربع، من می خواهم 95٪ CI را برای تخمین نقاط اندازه اثر خود گزارش کنم (مقادیر eta جزئی و مجذور eta). * چه آماری را باید بدانم و آیا فرمول مستقیمی برای محاسبه وجود دارد؟
چگونه می توان فاصله اطمینان 95% را برای مجذور eta جزئی و مربع eta محاسبه کرد؟