_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
41697
|
آیا هیچ متخصص R تابع predic در بسته randomforest را برای من توضیح می دهد؟ من میخواهم دو نتیجه پیشبینی برای متغیر پاسخ عددی A و B بهطور جداگانه از نتیجه رگرسیون زیر بدست بیاورم <-randomforest(A + B ~ C + D + E، داده = مجموعه داده) پیشبینی (نتیجه) من میتوانم یک نتیجه پیشبینی دریافت کنم. اما پیش بینی نه A است و نه B. من می توانم نتایج پیش بینی هر دو A و B را از بسته Mvpart و party دریافت کنم. پیشاپیش متشکرم
|
نتایج پیشبینی برای دو متغیر پاسخ از جنگل تصادفی
|
89945
|
من از تابع «glmer» از بسته «lme4» در R استفاده میکنم و از بهینهساز «bobyqa» (یعنی پیشفرض در مورد من) استفاده میکنم. من یک اخطار دریافت می کنم و کنجکاو هستم که معنی آن چیست. پیام اخطار: در optwrap(بهینه ساز، devfun، start، rho$lower، control = control، : کد همگرایی 3 از bobyqa: bobyqa -- یک مرحله منطقه اعتماد برای کاهش یافتن نشد q من جستجو کردم مرحله اعتماد یک گام موفق به کاهش q شد. اطلاعاتی در بسته minqa پیدا کردم که روی آن نوشته شده بود: برای توضیح با پاول مشورت کنید. در واقع، من نتوانستم چیزی در مورد کاهش q پیدا کنم (2007) توسعه های NEWUOA برای کمینه سازی بدون محدودیت بدون مشتقات، دانشگاه کمبریج، گروه ریاضیات کاربردی و فیزیک نظری، گروه تحلیل عددی، گزارش NA5. ، http://www.damtp.cam.ac.uk/user/na/NA_papers/NA2007_05.pdf. مرکز علوم ریاضی، دانشگاه کمبریج، انگلستان. http://www.damtp.cam.ac.uk/user/na/NA_papers/NA2009_06.pdf. P.s. من می دانم که می توانم بهینه ساز را تغییر دهم، و می خواهم ببینم آیا می توانم خروجی را بدون اخطار یا خطا دریافت کنم. اگر بتوانم، طبق نظر/پاسخ بن بولکر، گرادیان و هسیان را نیز بررسی خواهم کرد. من از «glmer» در «درج» از «MuMIN» استفاده میکنم و مطمئن نیستم که پاسخ بن بدون کمی سرهمبندی اضافی کار کند، اما وقتی رایانهام کاری را که انجام میدهد تمام شود، روی آن کار خواهم کرد، به هر حال . ## بهروزرسانی طبق نظر دکتر بولکر در زیر، من شروع به جستجوی کد FORTRAN کردم (این کد برای هر کسی که علاقهمند به جستجو است اما دانلود نمیکند، ارائه میشود). 430 در بخش bobyqb.f کد ظاهر می شود. برای یافتن کد مربوطه کافی است 430 یا reduce Q را جستجو کنید. این اولین برخورد من با کد FORTRAN است، اما فکر میکنم این کد میگوید در صورت رعایت شرایط زیر، اخطار را ایجاد کنید: «NTRITS» > 0، «VQUAD» >= 0، «IPRINT» > 0. «عدد صحیح NTRITS به تعداد تکرارهای منطقه اعتماد که از آخرین تکرار جایگزین رخ داده است تنظیم می شود. VQUAD چندین بار ظاهر می شود، و من هنوز در مورد اهمیت آن روشن نیستم زیرا به نظر می رسد مقدار آن به متغیرهای مختلفی وابسته است، که مقادیر آنها گاهی به متغیرهای دیگر بستگی دارد. از bobyqa.f: مقدار IPRINT باید روی 0، 1، 2 یا 3 تنظیم شود، که میزان چاپ را کنترل می کند، به طور خاص، اگر IPRINT=0 باشد و خروجی وجود داشته باشد، خروجی وجود ندارد فقط در بازگشت اگر IPRINT=1 باشد. بنابراین، به نظر میرسد که کار این است که اهمیت >= 0 بودن «VQUAD» را بفهمیم و شاید بفهمیم که چگونه / چه زمانی «IPRINT» > 0 شد. من باید به مقاله برگردم تا نگاهی بیندازم. اما ریاضی، یا حداقل بیان نمادین آن، برای من کمی مانع است. مگر اینکه کسی در مورد الگوریتم اطلاعات داشته باشد یا تمایلی به یادگیری در مورد آن داشته باشد، فکر میکنم باید به طور مکرر درک خود را از هشدار با رفت و برگشت بین مقالات، کد و اینترنت افزایش دهم تا زمانی که بفهمم چه چیزی چیست. به معنی.
|
معنی هشدار همگرایی در گلمر
|
44220
|
من مجموعه داده ای از متغیرهای مجزا (ترتیبی، مریستیک و اسمی) دارم که خصوصیات مورفولوژیکی بال را در چندین گونه نزدیک از حشرات توصیف می کند. کاری که من به دنبال انجام آن هستم انجام نوعی تجزیه و تحلیل است که به من یک نمایش بصری از شباهت گونه های مختلف بر اساس ویژگی های مورفولوژیکی بدهد. اولین چیزی که به ذهن من خطور کرد PCA بود (این نوع تصویرسازی است که من به دنبال ایجاد آن هستم)، اما پس از بررسی آن (به ویژه سؤالات دیگری مانند: آیا می توان تجزیه و تحلیل مؤلفه اصلی را در مجموعه داده های حاوی ترکیبی از پیوسته اعمال کرد. و متغیرهای طبقه بندی شده، به نظر می رسد PCA ممکن است برای داده های گسسته نامناسب باشد (PCA در این نوع مطالعات در ادبیات استفاده می شود، اما همیشه با داده های مداوم). با نادیده گرفتن پیشینه آماری که چرا این داده ها نامناسب هستند، PCA نتایج نسبتاً کاملی را در رابطه با سؤال بیولوژیکی من به من می دهد (گروه های ترکیبی مورد علاقه درست در وسط گروه های پدری خود قرار می گیرند). من همچنین تجزیه و تحلیل مکاتبات چندگانه را برای آرام کردن آمار امتحان کردهام (حداقل تا آنجا که درک من وجود دارد)، اما به نظر نمیرسد طرحی مشابه طرحی که با PCA بدست میآورم، بدست بیاورم، جایی که مشاهدات من (افراد بیولوژیکی) برای نشان دادن گروهبندیهای مختلف (گونههای مختلف، از نظر بیولوژیکی) از هم جدا میشوند. به نظر می رسد که این تحلیل با هدف توصیف چگونگی ارتباط متغیرها (در اینجا، ویژگی های مورفولوژیکی من) با یکدیگر است، نه مشاهدات فردی. و وقتی مشاهدات را با رنگبندی گروهی ترسیم میکنم، فقط یک مقدار واحد (شاید یک میانگین) را دریافت میکنم که کل مجموعه افراد را توصیف میکند. من تجزیه و تحلیل را در R انجام داده ام، بنابراین شاید به اندازه کافی R نمی توانم ایده خود را در مورد طرح عملی کنم. آیا من در انجام این نوع تجزیه و تحلیل با داده های خود صحیح هستم یا خیلی از مسیر خارج شده ام؟ اگر نمی توانید بگویید، تخصص آماری من محدود است، بنابراین معادلات موجود در زیر این تجزیه و تحلیل ها کاملاً در ذهن من است. من سعی می کنم این تجزیه و تحلیل را کاملاً به صورت توصیفی انجام دهم (نیازی به انجام بیشتر اعداد پایین دستی ندارم)، و خوانده ام که اگر اینطور باشد، PCA کافی است، اما می خواهم مطمئن شوم که این کار را نمی کنم. نقض بیش از حد فرضیات آماری هر گونه کمک یا راهنمایی قدردانی خواهد شد - پیشاپیش از شما متشکرم!
|
داده های گسسته و جایگزین های PCA
|
41544
|
من سعی می کنم یک رگرسیون لجستیک ترتیبی (متغیرهای نتیجه ترتیبی با بیش از 2 دسته) با متغیرهای پیش بینی کننده اسمی (بیش از 2 دسته برای برخی) و همچنین اسمی (بیش از 2 دسته برای برخی) متغیرهای کمکی / تعدیل کننده انجام دهم. اول از همه، من می خواهم برای تأثیر متقابل آزمایش کنم تا ببینم کدام یک از متغیرهای کمکی/مدیریت کننده من واقعاً ناظم هستند تا بتوانم با آنها چنین رفتار کنم. در مرحله دوم، من می خواهم بدانم بهترین راه برای رسیدن به مدل بهینه چیست؟ آیا باید متغیرهای ساختگی را برای متغیرهای کمکی انجام دهم؟ آیا می توانم برای رگرسیون ترتیبی یک گام به گام انجام دهم؟
|
رگرسیون ترتیبی با متغیرهای کمکی و پیش بینی کننده های طبقه ای
|
83632
|
من دادههای 3 ماهه دارم که به صورت ساعتی جمعآوری شده است که تعداد رویدادهای (0-10k) را در هر ساعت اندازهگیری میکند. دقیق ترین روش علمی برای تولید آمار برای این داده ها چیست؟ در گذشته، من در تلاشی برای تعیین کمیت منظم بودن این رویدادها محاسبه کردهام. * ب) برای یک روز خاص، درصد تمام ساعات آن روز با رکوردهای غیر صفر. * ج) برای یک ساعت خاص، درصد تمام ساعات در آن ساعت خاص با رکوردهای غیر صفر. هدف من این است که اگر بخواهم برای: یک ساعت خاص از یک روز خاص در هر هفته، تمام ساعات در یک روز خاص از هر هفته، یا یک ساعت خاص از همه روزهای هر هفته، بتوانم کمیت کنم... احتمال وقوع رویدادها چقدر است و با توجه به اندازهگیریهای گذشته، بزرگی احتمالی آن رویدادها چقدر است؟ من سعی می کنم الگوها یا فقدان آنها را شناسایی کنم و بتوانم بزرگی احتمالی را پیش بینی کنم. اگر کسی بتواند به من در حوزه آماری درست اشاره کند، ممنون می شوم. جستجوهای گوگل که من امتحان کردهام نتیجه کمی برای تجزیه و تحلیل دادههای ساعتی به این شیوه به همراه داشته است. توجه: کراس پست شد، زیرا من نمیدانستم هنگام ساخت OP یک stats.se وجود دارد. http://math.stackexchange.com/questions/654568/measures-of-consistency-and- magnitude-for-hourly-data
|
اندازه گیری ثبات و بزرگی برای داده های ساعتی؟
|
18894
|
من یک داده روزانه دو ساله دارم. داده های یک ماهه وجود ندارد زیرا به دلیل برخی مشکلات در شرکت ثبت نشده است. چگونه باید با داده ها بدون مقدار برای یک ماه رفتار کنم.
|
داده های روزانه برای یک ماه از دست رفته است
|
33529
|
من یک عضو جدید هستم و در مورد فرآیندهای متمایز که ظهور یک ساختار خاص در شبکه ها را توضیح می دهد سؤالاتی دارم. من در این حوزه تازه کار هستم و اگر خوب متوجه شده باشم، نظریه های واقعی عبارتند از: * اگر توزیع درجه از قانون نمایی پیروی کند، مکانیسم دلبستگی تصادفی است. * اگر توزیع درجه از قانون log-normal پیروی کند، مکانیسم دلبستگی مختلط است (تصادفی و ترجیحی). * اگر توزیع درجه از قانون قدرت پیروی کند، مکانیسم دلبستگی ترجیحی است. اگر اشتباه میکنم، لطفاً یک توضیح و چند مرجع به من بدهید؟
|
چه مکانیسم هایی باعث ظهور ساختارهای خاص در شبکه ها می شود
|
35273
|
> **تکراری احتمالی:** > معنی مقادیر p و مقادیر t در آزمون های آماری چیست؟ کسی می داند معنی Pr(>|z|) در خروجی GLMM چیست؟ با تشکر
|
معنی Pr(>|z|) در خروجی GLMM؟
|
41545
|
آیا کسی میتواند ابزارهای آماری را برای مقایسه CART، درخت استنتاج شرطی و جنگلهای تصادفی پیشنهاد کند؟ من از این سه الگوریتم برای تحلیل رگرسیون استفاده می کنم و می خواهم بهترین را انتخاب کنم.
|
مقایسه مدل
|
112868
|
از پیادهسازی و آزمایشهایی که انجام دادم به این فکر میکنم که آیا GP (یا LGP) را میتوان برای هر چیزی غیر از رگرسیون نمادین و مشکلات حرکت مورچه (که واقعاً برنامهنویسی نیست) استفاده کرد. آیا GP با موفقیت برای تولید یک برنامه واقعی استفاده شده است؟
|
محدودیت های برنامه ریزی ژنتیکی؟
|
112869
|
من می خواهم از libsvm برای یک الگوریتم تشخیص نقطه کلید استفاده کنم. هر نقطه کلیدی دارای 36 ویژگی است، اما هر نمونه از یک شی دارای تعداد متفاوتی از نقاط کلیدی است... آیا حتی امکان آموزش با تعداد متفاوت نقاط کلیدی وجود دارد؟ آرایه ورودی من به این صورت خواهد بود: شی 1: (K1_F1،...K1_F36،K2_F1،...K2_F36، ...، K12_F1،...K12_F36) شی 1: (K1_F1،...K1_F36،K2_F1،. ..K2_F36, ... , K15_F1,...K15_F36) شیء 2: (K1_F1,...K1_F36,K2_F1,...K2_F36, ... , K16_F1,...K16_F36) شی 2: (K1_F1,...K1_F36,K2_F1,...K2_F36, ... , K9_F1,...K9_F36) لطفا کمک کنید!
|
libsvm با تعداد متفاوتی از نقاط کلیدی
|
41549
|
به من در مورد نمودار Gertensgabe و Werner برای ارزیابی آستانه بهینه برای یک مدل GPD گفته شد. با این حال، من هیچ بسته R و یا کدی برای پیاده سازی آن پیدا نکردم. آیا کسی کدی برای پیاده سازی آن دارد؟
|
گرتنسگابه و ورنر نقشه می کشند
|
83638
|
من یک جنگل تصادفی برای انجام طبقه بندی دارم. من به احتمال واقعی کلاس پیش بینی شده نیاز دارم. آنها بردار ویژگی **X** را می گیرند و یک کلاس پیش بینی شده **C** را خروجی می دهند. علاوه بر این، میتوانیم سطح اطمینان **L** را روی کلاس پیشبینیشده محاسبه کنیم (پیادهسازی من آن مقدار احتمال را میخواند (من از ماژول یادگیری ماشین OpenCV استفاده میکنم) و با برگرداندن درصد درختانی که به آن کلاس خاص رای دادهاند، میآید. مثلاً 80 درصد درختان به کلاس C1 رأی داده اند و L 0.8 است) * چگونه می توانیم مقدار **L** یا 'احتمال' را به احتمال واقعی C داده شده مرتبط کنیم. بردار ویژگی X؟ * آیا می توانیم به سادگی از **L** به عنوان یک اندازه گیری احتمال قابل اعتماد استفاده کنیم؟ * آیا مقادیر عملکرد طبقهبندیکننده (نرخ مثبت صحیح/نادرست و غیره) به نوعی در مقدار **L** در نظر گرفته میشوند، یا باید از **L** به عنوان تخمین قبلی برای محاسبه احتمال واقعی با توجه به عملکرد طبقهبندی کننده استفاده کنم. پارامترها؟
|
استخراج احتمال از طبقهبندیکننده تصادفی جنگل
|
31
|
پس از گذراندن یک دوره آمار و سپس تلاش برای کمک به دانش آموزان، متوجه شدم موضوعی که الهام بخش بسیاری از ضربه های سر میز است، تفسیر نتایج آزمون های فرضیه های آماری است. به نظر می رسد که دانش آموزان به راحتی یاد می گیرند که چگونه محاسبات مورد نیاز یک آزمون را انجام دهند، اما در تفسیر نتایج معطل می شوند. بسیاری از ابزارهای کامپیوتری نتایج آزمون را بر حسب «مقادیر p» یا «مقدار t» گزارش میکنند. چگونه نکات زیر را برای دانشجویانی که اولین درس آمار خود را می گذرانند توضیح می دهید: * p-value در رابطه با فرضیه مورد آزمایش به چه معناست؟ آیا مواردی وجود دارد که باید به دنبال مقدار p بالا یا مقدار p پایین بود؟ * رابطه بین p-value و t-value چیست؟
|
منظور از مقادیر p و مقادیر t در آزمون های آماری چیست؟
|
72652
|
من سعی می کنم یکی از مقادیر p را در یک رگرسیون خطی یک متغیر تفسیر کنم. برخی از پاسخهایی که برای سؤالات مشابه دیدهام، آنطور که میخواستم کامل بیان نشده بودند. تعبیر من عمداً پرمخاطب است زیرا اگر ایراداتی در آن یافت شود به درک من کمک می کند. از مایکروسافت اکسل فرمول رگرسیون خطی از 90 نمونه جفت (x,y) `y = 0.514x + 0.00087` و p-value ضریب اول 4e-16 (نماد علمی) و برای دومی 0.0027 است. . آیا درست است که بگوییم که تفسیر مقدار p عبارت 0.00087 به این صورت است: > با این فرض که مقدار واقعی خط y صفر است و ضریب اول > 0.514 است، نمونه گیری تصادفی از همان تعداد (x,y) > جفتها، بهویژه 90، حداقل مربعات را به بهترین وجه برازش میکنند و یک خط قطع y را حداقل به عنوان حداکثر 0.00087، با احتمال 0.0027. اگر نه، پس تفسیر صحیح چه خواهد بود؟ نه چندان مهم، اما صرفاً برای کامل بودن، من همچنین میپرسم که آیا دقیقتر و کاملتر است که عبارت مربوطه را به صورت > حداقل به اندازه 0.00087 در همان جهت، یعنی مثبت قرار دهیم. **ویرایش**: تابع اکسل «ابزار > تجزیه و تحلیل داده > رگرسیون» در آفیس 2003 با سرویس پک 2 است. مقادیر p رگرسیون اکسل روی ضرایب دو طرفه هستند. **ویرایش**: با توجه به تمایز از این سوال در اینجا: پاسخی که بیشترین رای داده شده وجود دارد، مقدار p یک فرضیه را مورد بحث قرار می دهد، که به نظر می رسد تعریف نشده یا حداقل مشخص نیست. من به آن علاقه ای ندارم. من به مقدار p یک ضریب علاقه مند هستم که ضریب یک متغیر مستقل نیست. من خیلی خاص هستم
|
تفسیر مقدار p ضریب قطع y در رگرسیون خطی
|
33520
|
من دو گروه آزمودنی دارم، A و B، هر کدام با اندازه تقریباً 400 و حدود 300 پیش بینی کننده. هدف من ساختن یک مدل پیشبینی برای یک متغیر پاسخ باینری است. مشتری من می خواهد نتیجه اعمال مدل ساخته شده از A بر B را ببیند. (در کتاب خود، استراتژی های مدل سازی رگرسیون، @ FrankHarrell اشاره می کند که بهتر است این دو مجموعه داده را با هم ترکیب کنیم و یک مدل بر روی آن بسازیم، زیرا انجام این کار اضافه می کند. قدرت و دقت --- صفحه 90، اعتبارسنجی خارجی را ببینید من انتخابی در مورد آنچه مشتری میخواهد ندارم.) بسیاری از پیشبینیکنندگان من همبستگی بالایی دارند و همچنین بسیار کجرو هستند. من از رگرسیون لجستیک برای ساخت مدل پیش بینی خود استفاده می کنم. پیش بینی کننده های من عمدتاً از مکانیک می آیند. برای مثال، کل زمانی که آزمودنی تحت فشاری بالاتر از آستانه $\alpha$ برای دوره زمانی $[t_1, t_2]$ قرار داشت، برای مقادیر مختلف $\alpha > 0$ و $0 \leq t_1 < t_2$. روشن است که فقط از تعاریف آنها، بسیاری از این زمانهای کل از نظر جبری با یکدیگر مرتبط هستند. بسیاری از پیشبینیکنندههایی که از نظر جبری به هم مرتبط نیستند، به دلیل ماهیتشان به هم مرتبط هستند: آزمودنیهایی که در طول یک دوره زمانی $[t_1, t_2]$ تحت استرس زیاد هستند، در طول دوره زمانی $[t_3,t_4]$، تحت استرس زیاد قرار دارند. حتی اگر $[t_1,t_2] \cap [t_3,t_4] = \emptyset$. برای کاهش ابعاد دادهها، من پیشبینیکنندههای مرتبط را با هم خوشهبندی کردم (به عنوان مثال، کل زمانهای تنش با هم) و از تحلیل مؤلفههای اصلی برای نمایش هر خوشه استفاده کردم. از آنجایی که متغیرها کج بودند، من دو مسیر جایگزین را امتحان کردم: * قبل از انجام PCA، از یک تبدیل لگاریتمی برای کاهش انحراف در متغیرها استفاده کردم. * من از الگوریتم ROBPCA Mia Hubert، همانطور که توسط بسته rrcov در R، (PcaHubert) پیاده سازی شده است، برای یافتن اجزای اصلی قوی استفاده کردم. من از شکل کلی منحنی ROC، شکل منحنی یادآوری دقیق، و سطح زیر منحنی ROC (AUC) به عنوان معیارهای عملکرد خود استفاده میکنم، و میخواهم نتایج مشابهی را برای هر دو مجموعه داده A و B دریافت کنم. انتظار داشتم از استفاده از اجزای اصلی قوی نتیجه بهتری بگیرم، اما در کمال تعجب، روش اول بهتر عمل کرد: مقدار AUC بهتر برای هر دو مجموعه داده A و B، شباهت بیشتر بین ROC. منحنیها و منحنیهای فراخوان دقیقتر مشابه. این چه توضیحی دارد؟ و چگونه می توانم از اجزای اصلی قوی استفاده کنم، به جای اینکه سعی کنم داده های خود را عادی جلوه دهم؟ آیا روش PCA قوی خاصی وجود دارد که به جای ROBPCA توصیه کنید؟
|
آیا روش های قوی واقعا بهتر هستند؟
|
36176
|
امروز، یک بار دیگر، مشاهده کردم که زمانی که متغیر مستقل در رگرسیون خطی ساده روی میانگین خود تنظیم شد، متغیر وابسته میانگین آن پیشبینی شد. 1. اجازه دهید $(\hat{y},\hat{x})$ بردار باشند و $(\overline{y},\overline{x})$ نشانگر میانگین آنها باشد. آیا معادله عنوان به طور کلی برای یک رگرسیون خطی ساده $\hat{y}$ روی $\hat{x}$ صادق است؟ 2. دلایل ریاضی این موضوع چیست؟ ویرایش: دلیلی که می پرسم این است که (Willett & Stampfer. Total Energy intake: Implications for Epidemiologic Analyses. Am J Epidemiol 1986; 124:17-27) را خواندم که برای تنظیم مصرف یک ماده مغذی خاص برای کل کالری دریافتی، می توان باقیمانده های یک رگرسیون خطی ساده را با آن ماده مغذی به عنوان DV و کالری کل بگیرید مصرف را به صورت IV اضافه کنید و دریافت مورد انتظار مواد مغذی برای فردی با دریافت کالری متوسط را اضافه کنید (بنابراین مقادیر به دست آمده در مرکز 0 نیستند و اغلب منفی هستند، که برای چیزی که از نظر فیزیکی باید کاملاً غیر منفی باشد عجیب است). بنابراین، این سوال پیش میآید: چرا نویسندگان در عوض سادهتر نگفتند که باید میانگین مصرف مواد مغذی را اضافه کرد؟ عجیب به نظر می رسد که این دو محقق بسیار برجسته از این هم ارزی آگاه نباشند. 
|
چرا $\overline{y} = \hat \beta_{0} + \hat \beta_{1} \overline{x}$ در رگرسیون خطی ساده است؟
|
79379
|
من نمی دانم دقیقاً چگونه از مقادیر p و مقادیر t استفاده می شود. من می دانم چگونه آنها را محاسبه کنم، اما در مورد مفهوم اساسی پشت آنها روشن نیستم. هیچ کمکی؟
|
تفاوت بین مقدار t و مقدار p
|
49224
|
من از R استفاده می کنم و باید یک تست Anderson-Darling روی داده هایم انجام دهم. من از بسته adk استفاده می کنم (http://cran.r-project.org/web/packages/adk/adk.pdf). چگونه می توانم مقدار بحرانی را برای یک سطح اهمیت معین محاسبه کنم؟ فرض کنید معنی 0.01 را می خواهم، چه کاری باید انجام دهم؟ در بسته، روشی به نام adk.pval وجود دارد که باید استفاده شود و موارد زیر از راهنما گرفته شده است: * * * استفاده از adk.pval(tx,m) آرگومان های tx آستانه که برای آن احتمال دنباله سمت راست استاندارد شده است. آمار Anderson- Darling T_m باید محاسبه شود شاخص m از آمار استاندارد T_m (به مرجع مراجعه کنید) جزئیات این تابع ابتدا T_m بالایی را درون یابی می کند. چندک های ارائه شده در جدول 1 (به مرجع زیر مراجعه کنید) به مقدار داده شده m با برازش یک درجه دوم در 1/sqrt(m) به چندک هایی که برای سطوح بالای چندک جدول بندی شده اند 0.25، 0.10، 0.05، 0.025، .01. سپس یک درجه دوم در چندک های درون یابی شده (برای m) به log شانس سطوح احتمال بالایی که این چندک ها را تعریف می کنند برازش داده می شود و مقدار log شانس برازش در tx به مقدار احتمال بالای محاسبه شده تبدیل می شود، یعنی p- ارزش مقادیر p خارج از محدوده جدول بندی شده [.01،.25] با برونیابی خطی درجه دوم برازش شده به دست می آید. * * * من باید از این بسته استفاده کنم، بنابراین کمک قدردانی می شود، متشکرم!
|
ارزش انتقادی اندرسون-دارلینگ در R
|
33526
|
من دانشجوی سال دوم کارشناسی هستم و در رشته ریاضی مشغول به تحصیل هستم و با یکی از اساتیدم در مورد تفاوت بین توانایی ریاضی و توانایی آماری صحبت کردم. یکی از تفاوتهای کلیدی که او مطرح کرد «حس دادهها» بود که او بهعنوان ترکیبی از تواناییهای فنی توضیح داد، در حالی که در مجموعهای از آنچه من بهطور غیررسمی آن را «محدودیتهای عقل سلیم» مینامم، یعنی نادیده گرفتن واقعیت مشکل در میان آنها کار میکرد. بسیاری از نظریه ها این نمونهای از چیزی است که در مورد آن صحبت میکردم که در وبلاگ Gowers ظاهر شد: > در چندین بخش از بریتانیا، پلیس آماری را در مورد مکانهای تصادفات جادهای جمعآوری کرد، نقاط سیاه تصادف را شناسایی کرد، دوربینهای سرعت را در آنجا قرار داد و آمارهای بیشتری را جمعآوری کرد. . پس از نصب دوربین های کنترل سرعت، تمایل قطعی برای کاهش تعداد تصادفات در این نقاط سیاه وجود داشت. آیا این به طور قطعی نشان می دهد که دوربین های سرعت > ایمنی جاده ها را بهبود می بخشد؟ > > همان شخصی که در مورد استراتژی تصادفی در بازی > بحث می کرد، اساساً پاسخ این سؤال را از قبل می دانست. او گفت نه، زیرا اگر موارد افراطی را انتخاب کنید، اگر آزمایش را دوباره اجرا کنید، انتظار دارید که آنها کمتر > افراطی باشند. تصمیم گرفتم به سرعت از > این سوال جلو بروم زیرا چیزهای زیادی برای گفتن وجود نداشت. اما من به مردم در مورد برنامه ای که داشتم، یعنی انجام یک آزمایش تله پاتی ساختگی، گفتم. من آنها را وادار میکنم که نتایج 20 پرتاب سکه را حدس بزنند، که سعی میکنم آنها را از طریق تله پاتی به آنها ارسال کنم. سپس سه بهترین اجراکننده و > سه نفر بدترین را انتخاب میکردم، و دوباره سکهها را پرتاب میکردم، این بار از بهترینها میخواستم تا به من کمک کنند تا به بدترینها پاسخ بدهم. مردم به راحتی میتوانستند ببینند که > انتظار میرود که اجراها بهبود یابد و ارتباطی با تله پاتی ندارد. آنچه من میپرسم این است که **چگونه اطلاعات بیشتری در مورد این حس داده بیاموزیم**، از طریق هر نشریه در مورد این موضوع، در صورت وجود، یا از طریق آنچه که سایر کاربران دریافتهاند که در توسعه این مهارت مفید است. متاسفم اگر این سوال نیاز به توضیح دارد. اگر چنین است، لطفا سوالات خود را مطرح کنید! با تشکر
|
شهود آماری / حس داده
|
72579
|
فکر میکنم مفهوم p-value را درک میکنم، اما متأسفانه هنوز باید چرخههای مغزی زیادی را انجام دهم تا بتوانم آن را دور بزنم. من میخواهم توضیحی در مورد p-value به دست بیاورم که برای یک فرد غیرمستقیم به اندازه کافی دقیق باشد - چیزی که شهودی باشد.
|
توضیح p-value برای یک فرد غیر حرفه ای
|
82786
|
من در آزمون فرضیه مقایسه دستمزد ساعتی برای کشورهای مختلف، مقدار p برابر با 0.0166 دریافت کردم. آیا درست است که یک اظهار نظر قاطع داشته باشیم که ما می توانیم 98.34٪ مطمئن باشیم [1-0.0166] که رد فرضیه صفر و نتیجه گیری از اینکه دستمزد ساعتی برای کشورها متفاوت است، نتیجه درستی است.
|
تفسیر جایگزین p-value
|
83630
|
سوال خود توضیحی است. من دادههای بقا (156=n) دارم که در حدود نیمی از مشاهدات، سانسور راست یا سانسور فاصلهای هستند. من از R برای انجام تجزیه و تحلیل استفاده می کنم و می دانم که می توانم از intcox() و survfit() برای مقابله با داده های سانسور شده استفاده کنم. اما، از نظر من، هیچ یک از این توابع نمی توانند با متغیرهای وابسته به زمان سروکار داشته باشند. برای مقابله با متغیرهای وابسته به زمان بدون داده های سانسور شده، از coxph() استفاده می کنم. چگونه می توانم این نوع داده ها را تجزیه و تحلیل کنم (در صورت امکان)؟
|
چگونه می توان از مدل خطرات متناسب کاکس در داده های سانسور شده با متغیرهای وابسته به زمان استفاده کرد؟
|
8036
|
من اسناد gazillion ( اظهارنامه مالیاتی شما) دارم که باید صحت آنها را بررسی کنم، اما نه نیروی انسانی و نه اراده لازم برای مطالعه همه آنها را ندارم. حتی اگر این کار را انجام دهم، نمی توانم کیفیت و سازگاری فرآیند خواندن اثبات را تضمین کنم. تنها کاری که می توانم انجام دهم این است که یک مجموعه نمونه از سند را برای اثبات خواندن انتخاب کنم و «پذیرش» یا «رد» را به آن اختصاص دهم. از این رو میخواهم سطح اطمینان فاصله اطمینان مشخصی را تعیین کنم... من نمیدانم در آینده چه کاری باید انجام دهم یا از رویکرد درست استفاده میکنم. من هیچ تجربه ای در مورد این دامنه مشکل ندارم، شاید کسی با تجربه QA بیشتر بتواند من را در مسیر درست راهنمایی کند. لایک کنید چه سوالی بپرسم ... ممنون که خواندید :)
|
تصحیح بسیاری از اسناد بر اساس نمونه کوچک
|
100105
|
درک مفهوم p-values (نگاه به تفسیر غیرمعمول در کلمات) که در خلاصه مدل مدلهای lm در R ارائه میشود، مشکل دارم. من میدانم که یک تفسیر معمولی برای مقادیر t این است که آنها مانند تخمین زدهشده عمل میکنند. z - امتیازها و z-score در مورد اینکه چگونه یک نقطه داده از میانگین آن متفاوت است (از نظر جهش انحراف استاندارد) صحبت می کند. بنابراین، در صورتی که به دنبال تعیین معنیداری یک متغیر رگرسیون هستیم، اگر فرض کنیم که متغیر تأثیری ندارد، امتیاز t مانند یک z-score تخمینی متفاوت از صفر خواهد بود. هر چه مقدار t-score بیشتر باشد، با فرض ما که متغیر تأثیری ندارد، تفاوت بیشتری دارد. اما من در مرحله بعدی گیر کردم. مقدار p چگونه محاسبه می شود؟ و تعبیر لفظی برای آنها چیست؟
|
p - مقادیر در خلاصه مدل lm در R
|
83635
|
من کمی سردرگم هستم که از کدام مشخصات مدل برای سوالم استفاده کنم. من تعداد خرابی های تکنولوژیکی (متغیر تعداد مثبت) را به عنوان متغیر وابسته دارم، اما قرار است تعداد کل فناوری های ثبت شده را کنترل کنم (متغیر تعداد مثبت دیگر اما همیشه از متغیر شکست بالاتر است). من پانلی متشکل از 100 شرکت برای 10 سال دارم. یا میتوانم نسبت خرابیها را با تقسیم خرابیهای تکنولوژیکی بر تعداد کل فناوریهای ثبت شده انتخاب کنم و از آن به عنوان متغیر وابسته استفاده کنم. من می توانم برای این مشخصات از glm استفاده کنم، حدس می زنم. یا می توانم از مدل دوجمله ای منفی با شکست های تکنولوژیکی به عنوان متغیر وابسته و کنترل تعداد کل فناوری های ثبت شده در مدل استفاده کنم. آیا یکی از این روش ها بر دیگری ارجحیت دارد؟ لطفاً به هر مقاله یا ژورنالی که این موضوع را روشن می کند، مراجعه کنید. با تشکر
|
نسبت به عنوان متغیر وابسته یا کنترل برای مخرج در مدل رگرسیون
|
41547
|
من سعی میکنم «روش نمونهگیری مجدد گامبهپایین رایگان» را که توسط Westfall و Young در «آزمایش چندگانه مبتنی بر نمونهبرداری مجدد» توضیح داده شده است (الگوریتم ~2.8 در متن) پیادهسازی کنم. هدف من انجام یک رگرسیون خطی چند متغیره است. بنابراین، من یک تخمین خطا دارم (از نمونه اصلی) مانند این (با استفاده از OLS): $\epsilon = Y - (\beta_0 + \beta_1X_1 + \beta_2X_2 + \dots \beta_pX_p)$ [BTW, $X_1 \dots X_p $ متغیرهای ساختگی هستند.] برای نمونه گیری مجدد ($i$ بار)، باید این کار را انجام دهم: $Y_i^* = \epsilon_i^*$ که در آن $\epsilon_i^*$ یک نمونه _با جایگزین_ از $\epsilon$ اصلی است. مشکل اینجاست: در مجموعه داده من، پاسخها (ردیفها) خوشهبندی میشوند (دادهها از افراد مرتبط میآیند). بنابراین، من معمولاً از برآوردگرهای Huber-White برای توضیح همبستگیها در رگرسیون خطی مبتنی بر OLS استفاده میکردم. من نمی دانم چگونه می توانم در اینجا ادامه دهم... آیا باید از برآوردگرهای Huber-White استفاده کرد؟ اگر چنین است، چگونه؟ پوزش می طلبم اگر سوال من خیلی ساده است، اما من در روش های نمونه گیری مجدد تازه کار هستم... حدس می زنم پاسخ نیز ساده باشد. پیشنهادات استقبال می شود.
|
نمونه برداری مجدد و هوبر وایت
|
37768
|
> **تکراری احتمالی:** > معنی مقادیر p و مقادیر t در آزمون های آماری چیست؟ من در حال حاضر کلاس اپیدمیولوژی را شروع کرده ام، من از p value و t test خیلی گیج شده ام، معنی آنها چیست؟ چگونه از آنها استفاده کنیم؟ آیا کسی می تواند تفاوت بین این دو مقدار را در مورد خاص توضیح دهد. پیشاپیش از شما متشکرم
|
آزمون T و مقدار P
|
33523
|
من یک مجموعه داده دارم که میخواهم قبل از ساخت مدل رگرسیون خطی چندگانه، آن را به دو روش نرمالسازی کنم. مجموعه دادههای من به شکل زیر است: $$ x_{1} y_{1,1} y_{1,2}...y_{1,n-1}y_{1,n}$$ $$x_{2} y_{2,1} y_{2,2}...y_{2,n-1}y_{2,n}$$ $$... $$$$x_{m} سال y_{m,2}...y_{m,n-1}y_{m,n} $$ ... که در آن هر $x_{i}، y_{i,j}$ یک تعداد و هر ردیف است $i$ مجموعه داده جمع آوری شده از یک ویدیو با طول متغیر $k$ را نشان می دهد. برای اینکه همه سطرها مقادیری با معانی معادل داشته باشند، من هر ردیف را با تقسیم تمام شمارش ها بر $k$، طول ویدیو، عادی می کنم. حالا به جای شمارش، تعداد در دقیقه دارم. من همچنین میخواهم در هر ستون (متغیر) از 0 تا 1 نرمال سازی کنم، با این ایده که سپس میتوانم اهمیت نسبی ضریب هر متغیر را با ضرایب متغیر دیگر مقایسه کنم. من نمی دانم که آیا این حتی یک عادی سازی معتبر است یا خیر. عادی سازی در هر ردیف خوب است، اما من در تشخیص اینکه آیا عادی سازی در هر ستون با استفاده از یک عامل عادی سازی متفاوت معتبر است یا خیر، مشکل دارم. غریزه من این است که اینطور نیست. اگر معتبر نیست، آیا راه دیگری برای رسیدن به آنچه میخواهم وجود دارد که بتوانم اهمیت متغیرها را مقایسه کنم؟
|
عادی سازی ستون ها در رگرسیون خطی
|
86162
|
معنی معنی دار بودن یک متغیر از نظر آماری چیست؟ کسی میتونه به این سوال جواب کامل بده؟
|
معنی دار بودن یک متغیر از نظر آماری چیست؟
|
71770
|
من می خواهم بدانم که آیا درک من از موارد زیر صحیح است یا خیر. مدتهاست که این موضوع مرا آزار می دهد. $\lim_{x\rightarrow \infty}x^{1-\beta}$ را محاسبه کنید. این بخشی از یک مشکل تکلیف در مورد انتظار توزیع پارتو است. همه جا می گوید که انتظار فقط برای $\beta>1$ است، اما در مورد $B=1$ چطور؟ پس آیا انتظار به طور قابل توجهی تغییر نمی کند زیرا محدودیت $\beta = 0$ به 1 ارزیابی می شود؟ کسی میتونه شک من رو روشن کنه؟ با تشکر
|
انتظار توزیع پارتو
|
92899
|
میخواهم دو مجموعه داده آزمایشی را با استفاده از آزمونهای Mann-Whitney U و KS در R مقایسه کنم. برای شروع، فکر کردم دو مجموعه مشابه (یک آزمون A/A) را با هم مقایسه کنم تا نشانهای بسیار مهم از شباهت را ببینم. این دو لیست در زیر نشان داده شده است: https://www.dropbox.com/s/9cbvzlltdohjoef/set1.csv https://www.dropbox.com/s/1p9fqdja2khrvi1/set2.csv نتایج برای Mann-Whitney U آزمون (Wilcox.test) عبارت بودند از: W = 22073، p-value = 0.1948 جایگزین فرضیه: تغییر مکان واقعی برابر با 0 نیست نتایج آزمون KS (ks.test) عبارت بودند از: D = 0.1021، p-value = 0.2058 فرضیه جایگزین: دو طرفه چرا هیچ یک از این دو از نظر آماری معنی دار نیستند (p-value بودن زیر 0.05)؟ در اینجا مقادیر دو مجموعه نمایش داده می شود: 
|
تستهای Mann-Whitney U و KS در R نتایج قابلتوجهی تولید نمیکنند
|
108516
|
من هرگز مدلسازی آماری نمونه را انجام ندادم. معمولاً من درگیر رویه های آماری رایج (آمار توصیفی، همبستگی، رگرسیون، تحلیل عاملی و غیره) بودم. حالا تصمیم گرفتم بفهمم هر نمونه را چگونه شبیه سازی کنم؟ به عنوان مثال، من به نمونه شبیه سازی 200 نفر نیاز دارم. فرض کنید این یک تحقیق روانشناختی است، من هر روشی دارم و هر کدام از آنها پارامترهای (مقیاس) خاصی دارند. تصور کنید که هر روش دارای 5-10 مقیاس باشد و ما 5 روش داشته باشیم. در نهایت باید با 25-50 پارامتر کار کنیم. چه چیزی باید بدانم و باید برای شبیه سازی نمونه خود انجام دهم؟ و چگونه می توان با استفاده از SPSS یا نرم افزار آماری روش مدلسازی را انجام داد؟ برای شروع، فرض کنید 100 نفر از نمونه مرد هستند و 100 نفر از نمونه زن هستند و فرضیه من مبنی بر اینکه مقادیر میانگین هر پارامتر بین زن و مرد متفاوت است (با استفاده از Anova) و همبستگی بین پارامترها در مردان و زنان متفاوت است.
|
روش مدلسازی آماری نمونه
|
83058
|
پس از رگرسیون، آزمونهای همبستگی سریال Durbin-Watson d-statistic(7, 29) = 0.7938438 را اجرا کردم. Bgodfrey ## تست LM بروش-گادفری برای تاخیرهای خودهمبستگی (p) | chi2 df Prob > chi2 \-------------------------------------------- --------------------------------## 1 | 10.909 1 0.0010 H0: همبستگی سریالی وجود ندارد آیا می توانم یک همبستگی سریال مثبت را استنتاج کنم> چگونه باید آن را تصحیح کنم>؟
|
همبستگی سریال
|
76201
|
من یک جدول با مقادیر مشاهده شده و تخمین زده شده برای مناطق سیاسی مانند این دارم BEZIRK EDU_OBS EDU_WEI EDU_CI 101 157 5129 15 «BEZIRK» یک شناسه برای منطقه است، «EDU_OBS» تعداد افراد واقعی مشاهده شده در یک نمونه است (مثلاً ساکنان ، EDU_WEI تخمینی است که بر اساس جعبه سیاه ناشناخته است، برون یابی، و «EDU_CI» فاصله اطمینان 95 درصدی در درصد مقدار تخمینی است، به عنوان مثال. برای منطقه '101'، برآورد 5129 $\pm $ 770 با 95٪ محرمانه خواهد بود. حالا فرض کنید جدول دیگری با همان مناطق اما مقادیر دیگر دارم. BEZIRK EDU_OBS EDU_WEI EDU_CI 101 180 5987 14 من میخواهم مقادیر (تخمینها) کسانی که جدول اول را دارند، به ازای هر منطقه اضافه کنم. چه اتفاقی برای CI می افتد؟ یعنی چگونه می توانم CI جدید مقادیر ترکیبی را بدون اینکه بدانم در ابتدا چگونه محاسبه شده است، دوباره محاسبه کنم؟ آیا می توانم آن را فقط معدل کنم؟ من اینطور فکر نمی کنم.
|
جمع بندی اعتماد به نفس جعبه سیاه.
|
46856
|
اخیراً با مقاله بی اهمیتی آزمون اهمیت فرضیه صفر جف گیل (1999) برخورد کردم. نویسنده چند تصور غلط رایج در مورد آزمون فرضیه و مقادیر p مطرح کرده است، که در مورد آنها دو سوال خاص دارم: 1. مقدار p از نظر فنی $P({\rm مشاهده}|H_{0})$ است، که به عنوان که توسط مقاله اشاره شده است، به طور کلی چیزی در مورد $P(H_{0}|{\rm مشاهده})$ به ما نمی گوید، مگر اینکه توزیع های حاشیه ای را بدانیم، که به ندرت در آزمون فرضیه های روزمره موردی است. وقتی یک مقدار p کوچک به دست میآوریم و «فرضیه صفر را رد میکنیم»، دقیقاً چه گزاره احتمالی است، زیرا نمیتوانیم چیزی در مورد $P(H_{0}|{\rm مشاهده})$ بگوییم؟ 2. سوال دوم به عبارت خاصی از صفحه 6(652) مقاله مربوط می شود: از آنجایی که p-value یا محدوده p-value که با ستاره ها نشان داده شده است، پیشینی تنظیم نشده است، این مقدار طولانی نیست. احتمال ایجاد خطای نوع I وجود دارد، اما معمولاً به این صورت تلقی می شود. آیا کسی می تواند کمک کند که منظور از این جمله چیست؟
|
تفسیر مقدار p در آزمون فرضیه
|
88169
|
من داده های خود را برای نرمال بودن در SPSS تست کردم و دو علامت دارم. اعداد از Kolmogorov-Smirnov و Shaprio-Wilk. * در آزمون Kolmogorov-Smirnov داده ها را دارم: **0.014، 0.013، 0.200 و 0.200** * در آزمون Shaprio-Wilk داده ها را دارم: **0.029، 0.022، 0.444، 0.490** فقط تعجب کردم آیا این مجموعه اعداد به این معنی است که داده های من **به طور معمول است توزیع** و **سطح اندازه گیری در مقیاس فاصله**؟
|
آیا داده های من عادی است؟
|
83636
|
متغیر وابسته من در اصل داده های شمارش است. به دلیل چندین اصلاح، متغیر پیوسته شد (در اصل دادههای من تعداد گروه گلولهای (برای تخمین تراکم گوزن) است، برای شیب طرح تحقیقاتی تصحیح شد، میانگین در سه فصل، تبدیل به تراکم گوزن (تعداد در کیلومتر مربع)). آیا هنوز هم می توانم GLM شبه پوزون یا منفی دوتایی را اعمال کنم؟ به خصوص nb-GLM برای ساختار داده من مناسب به نظر می رسد (هیستوگرام و رابطه میانگین/واریانس کافی است) و R مدل ها را بدون هیچ هشداری پردازش می کند و نتایج معقولی می دهد. آیا ممکن است شکار وجود داشته باشد؟ گرد کردن داده ها به عدد صحیح راه حلی به نظر نمی رسد زیرا بخشی از اطلاعات را از دست خواهم داد و تمام اصلاحات بی معنی خواهند بود. ممنون از پاسخ های شما.
|
رگرسیون دو جمله ای شبه سم یا منفی با متغیر وابسته پیوسته؟
|
71776
|
من سعی می کنم n، اندازه نمونه را تعیین کنم. ما $N=580$ داریم و میخواهیم نسبت جمعیت، $p$، را در 95%-CI و حاشیه خطای $0.10$ تخمین بزنیم، سپس $$n=Npq / (N-1)D + را دریافت میکنیم. pq$$ که در آن $D= B^2 / 4$ حدود $n=86$ باشد. اما اگر در عوض همان حاشیه خطا را روی 0.10$ نگه داریم و اکنون فقط 90%-CI بخواهیم، اگر از همان فرمول استفاده کنیم، آیا همان $n$ را دریافت نمی کنیم، چه؟ آیا من در اینجا از فرمول اشتباه استفاده می کنم؟
|
تعیین حجم نمونه با دادن %C.I. و حاشیه خطا در یک جمعیت محدود
|
35440
|
> **تکراری احتمالی:** > چگونه صدک های توزیع عادی را پیدا کنیم؟ گفته می شود که وزن یک نژاد آفریقایی از توزیع نرمال با میانگین 200 کیلوگرم و انحراف معیار 10 تبعیت می کند. ب) احتمال اینکه وزن بین 190 کیلوگرم تا 210 کیلوگرم باشد. ج) وزن M کیلوگرم را به گونه ای بیابید که احتمال X > M = 5% باشد. د) با توجه به اینکه 10 آفریقایی وجود دارد که وزن آنها از M کیلوگرم بیشتر است، احتمال اینکه دقیقاً 2 آفریقایی وجود داشته باشد که وزن آنها از M کیلوگرم بیشتر است را محاسبه کنید. .
|
احتمال وقوع یک رویداد
|
89495
|
درک من از دقت و یادآوری به من میگوید که بین این دو معیار تعادل وجود دارد: شما میتوانید یکی را به قیمت دیگری بهبود بخشید. با این حال، وقتی به یک طبقهبندیکننده تصادفی (در یک کار باینری) فکر میکنم که کلاس $1$ را با احتمال $p$ خروجی میدهد، هیچ گونه مبادلهای مشاهده نمیکنم. $Prec= \frac{TP}{TP+FP} = \frac{p \cdot P}{p \cdot P + p \cdot N} = \frac{P}{P + N}$$Rec = \frac {TP}{TP+FN} = \frac{p \cdot P}{p \cdot P + (1-p) \cdot P} = p$ بنابراین، دقت ثابت است (با شیوع طبقه مثبت)، و یادآوری آن چنان که من میخواهم بالاست. اینجا اشکالی دارد؟
|
دقت و یادآوری طبقهبندیکننده تصادفی
|
79445
|
اگر دادههای Y من از توزیع ماتریس T پیروی میکنند، یعنی $ Y \sim T_{n,p}(\nu,0,\Sigma,\Phi)$، آیا میتوانم پیشینی مناسب برای $\Phi$ پیدا کنم بهگونهای که پسین آن باشد. به صورت بسته است؟ توزیع Wishart معکوس استاندارد قبلی برای مدلسازی کوواریانس است، اما با احتمال توزیع t مزدوج نیست. من میتوانم از تبدیل لاپلاس برای تخمین احتمال توزیع نرمال استفاده کنم، اما اگر $\nu$ خیلی کوچک باشد، تقریب خوبی نخواهد بود...
|
آیا توزیع t (ماتریسی) مزدوج قبلی دارد؟
|
71777
|
ایمیل زیر را دریافت کردم: > پروژه من شامل بازنویسی یک پرسشنامه و دیدن اینکه آیا قابلیت اطمینان داخلی و نتایج CFA بهبود می یابد یا خیر. 30 گویه وجود دارد که به منظور تشکیل 4 زیرمقیاس > هستند. هر آیتم همیشه، گاهی اوقات، هرگز امتیاز می گیرد. شنیده ام > که باید بررسی کنم که هر یک از اقلام قبل از > قرار دادن آنها در CFA، به طور معمول توزیع شده اند. من متوجه شده ام که همه موارد به جز 2 مورد به طور معمول توزیع می شوند. سپس میخواستم این دو مورد را با استفاده از تبدیل log > تبدیل کنم، اما به نظرم عجیب میآید که آیتمهای فردی را تبدیل کنم، به خصوص زمانی که خود مقیاسهای فرعی به طور معمول توزیع میشوند. حدس میزنم > فقط میخواهم بررسی کنم: **آیا نیاز دارم که هر مورد به طور عادی توزیع شود یا نه، > و اگر چنین است، اگر 0-1-2 را مجدداً به 1-2-3 کدنویسی کنم، تبدیل گزارش اشکالی ندارد؟** بنابراین به طور خلاصه سؤالات عبارتند از: * **آیا باید بررسی کنید که آیا آیتم های آزمایشی به طور معمول هنگام اجرای CFA توزیع می شوند یا خیر؟ CFA؟**
|
آیا هنگام انجام تحلیل عاملی تأییدی در مجموعه ای از مقیاس ها، آیتم ها را برای نرمال بودن (و تبدیل) آزمایش کنیم؟
|
95964
|
اگر بخواهم برخی از دادهها را با استفاده از نرمالسازی میانه یا عادیسازی میانگین بریده شده عادی سازی کنم، آیا دادههایم را در فاکتورهای نرمالسازی ضرب یا تقسیم میکنم؟ آیا این مهم است؟
|
ضریب عادی سازی تقسیم یا ضرب شود
|
71779
|
من نمی دانم که آیا تفاوتی بین دو الگوریتم زیر وجود دارد: 1. RPART (پارتیشن بندی بازگشتی) در R، با اعتبارسنجی متقاطع (xval = 10، پیش فرض) 2. Bagging در RPART در مورد اول، Rpart از متقاطع 10 برابری استفاده می کند. - اعتبار سنجی روی دیتافریم اصلی در مرحله دوم، داده ها را به صورت تصادفی از دیتافریم اصلی انتخاب کنید و سپس RPART را انجام دهید. از نظر من هر دو الگوریتم یکسان به نظر می رسند. کجای درک من اشتباه است؟
|
چمدان در سبد خرید (RPART) چه تفاوتی با سبد خرید با اعتبارسنجی متقابل دارد؟
|
14746
|
در حال حاضر سعی میکنم هنگام تجسم یک مدل افزایشی تعمیمیافته (GAM) با R، خطوط چین سبز و قرمز را در یک نمودار کانتور تفسیر کنم. به نظر میرسد این دو خط چیزی شبیه نوارهای اطمینان هستند، اما مطمئن نیستم که چگونه این خطوط شکسته را در یک نمودار کانتور تفسیر کنید. آیا کسی تجربه ای در مورد نمودارهای کانتور با استفاده از R، به ویژه هنگام نصب GAM دارد؟
|
هنگام ترسیم نمودار کانتور با R GAM، مرزهای چین به چه معناست؟
|
65067
|
من بحث را در صفحه Computing c-index برای اعتبار سنجی خارجی مدل PH کاکس با R دیده ام. من تقریباً همین کار را انجام می دهم، با استفاده از نمونه گیری 3 برابری (با دو سوم در مجموعه آموزشی و یک سوم در مجموعه آموزشی). مجموعه آزمون) برای انجام اعتبار متقابل مدل رگرسیون کاکس. وقتی سعی میکردم «rcorr.cen» را انجام دهم، پیام خطای «خطا در rcorr.cens (x = تخمینها، S = survmod) را به من داد: y باید همان طول x را داشته باشد. یعنی باید برای «x» و «s» یک اندازه داشته باشم. اما «survmod» در مجموعه آموزشی و «x=estimates» در مجموعه آزمایشی انجام شده بود. آیا برای انجام این کار باید از همان اندازه برای تست و آموزش استفاده کنم؟ یا می توانم با این مجموعه برای محاسبه c-index برای برقراری ارتباط آموزش و مجموعه داده های آزمایشی ادامه دهم؟
|
اعتبار سنجی متقاطع و محاسبه شاخص c
|
86652
|
من اطلاعاتی در مورد بیماران قبل و بعد از مداخله دارم، نیمی درمان داشتند، نیمی دیگر نداشتند. به نظر می رسد آزمون t زوجی روشی ساده برای تعیین اینکه آیا تفاوت معنی داری پس از درمان در هر دو گروه وجود دارد یا خیر. با این حال، متغیرهای دیگری نیز وجود دارند که میخواهم آنها را تنظیم کنم، مانند سن. آیا می توانم از رگرسیون خطی با اندازه گیری نهایی به عنوان متغیر وابسته و اندازه گیری اولیه، گروه درمانی و سن به عنوان متغیرهای مستقل استفاده کنم و سپس ببینم که آیا متغیر ساختگی گروه معنادار است؟ من در برخی از مقالات می بینم که ANCOVA برای این برنامه استفاده می شود، اما به نظر می رسد که از نظر ریاضی با رگرسیون چندگانه یکسان است. آیا استفاده از آن فایده ای دارد؟ در نهایت، یک متغیر نتیجه پیوسته است، دیگری مقیاسی از 1-10 است. آیا رگرسیون خطی برای داده های طبقه بندی شده مرتب شده ای مانند این مناسب است یا روشی وجود دارد که شکاف بین رگرسیون لجستیک و خطی را پوشش دهد که به من امکان می دهد متغیرهای مخدوش کننده احتمالی (مانند سن) را اضافه کنم؟ پیشاپیش متشکرم
|
آزمون t زوجی در مقابل رگرسیون خطی در مقابل ANCOVA
|
44913
|
من نسبتاً تازه وارد دنیای تجزیه و تحلیل آماری هستم، بنابراین لطفاً مرا برای پرسیدن یک سؤال تازه کار ببخشید. من یک نظرسنجی google forms ایجاد کردم و پس از به دست آوردن اندازه نمونه مورد نظر، از فایل xls برای بارگذاری داده های خود در SPSS استفاده کردم و انواع مختلف تجزیه و تحلیل را آزمایش کردم. در نظرسنجی من سوالات گره های مختلفی وجود دارد. اگر کسی پاسخ بله را می داد، به نظرسنجی ادامه می داد، اما اگر کسی نه پاسخ می داد، به صفحه پایانی (جمعیت شناسی) هدایت می شود. بنابراین میدانید که متغیرهای زیادی (سوالات) با مقادیر گمشده (پاسخهای خالی) وجود دارد. برای مثال، وقتی سعی میکنم تحلیل فرکانسها را انجام دهم، خروجیهای برخی از متغیرها مانند متغیر زیر به درستی مقادیر گمشده را محاسبه میکنند و آنها را از آمار حذف میکنند. ( .  همانطور که می بینید ردیف اول جدول بالا فاقد نام مقدار (خالی) و فرکانس 35 است. همان 35 مورد که در جدول اول حذف شده است. در نهایت متوجه شدم که نوع متغیرهایی که به درستی تحلیل میشوند عددی هستند در حالی که نوع متغیرهای دیگر String است، بنابراین حدس میزنم که ربطی به آن داشته باشد. آیا می توانید به من کمک کنید تا این مشکل را برطرف کنم و تمام مقادیر گم شده را از تجزیه و تحلیل من حذف کنم؟
|
چگونه مقادیر رشته خالی را از خروجی های تجزیه و تحلیل خود در SPSS حذف کنم؟
|
12586
|
در پایان نامه خود از چندین طرح آزمایشی استفاده کرده ام که اکثر آنها طرح های مرکب مرکزی با 3 متغیر و 20 اجرا (6 برابر نقطه مرکزی + 8 نقطه در گوشه های مکعب + 6 نقطه در محور) هستند. آزمایشها با نرمافزار «JMP 7» برنامهریزی و تحلیل شدهاند، که گزارشهای بسیار طولانی ایجاد میکند و برای هر 5 _DoE_ من حدود 20 مقدار Y دارم. در فصل نتایج پایان نامه ام، نمودارهایی مشابه آنچه در اینجا وجود دارد را نشان می دهم! نمی دانم کدام داده های اضافی را باید در ضمیمه خواننده ارائه دهم. مطمئناً، من اضافه میکنم: * دادههای خام (جدول با مقادیری که طراحی سطح پاسخ با آن محاسبه شده است) * تخمینگر پارامتر برای هر اثر خطی و درجه دوم و همچنین مقدار p برای معنیداری. من در آمار متخصص نیستم، بنابراین _من نمی دانم_ کدام داده های دیگری که مدل ها را توصیف می کنند برای مستندسازی مناسب کار من ضروری یا مفید هستند. کسی میتونه کمک کنه لطفا
|
چه داده هایی باید برای نتیجه طراحی آزمایش با سطح پاسخ داده شود؟
|
65069
|
من در حال آماده شدن برای نهایی آمارم هستم و این سوال را در بسته بررسی برای پاسخ دارم:  قسمت فرضیه سوال را می فهمم. چگونه باید به سوال اول برخورد کنم: **آیا محقق می تواند نتیجه بگیرد که مصرف الکل با جنسیت مرتبط است؟** آیا پاسخ شامل استفاده از پارادوکس سیمپسون است؟
|
پارادوکس سیمپسون در سوال امتحانی
|
109902
|
من یک مجموعه داده دارم که از داده های سرشماری (5 ویژگی) تشکیل شده است. با انجام PCA متوجه شدم که داده های اصلی مانند یک قطعه بزرگ به نظر می رسد (لطفاً به تصویر اول نگاه کنید) و بنابراین تصمیم گرفتم از خوشه بندی طیفی استفاده کنم و تصویر زیر نمایش داده ها است (تصویر با رسم به دست می آید. بالاترین سه بردار ویژه لاپلاسین). شکل برای من جالب به نظر می رسد و به نظر می رسد که این داده ها به نوعی تابعی را در دامنه جدید تشکیل می دهند (من واقعاً دوست دارم تفسیر بهتری از متخصصان بشنوم).   **من اکنون 2 سوال دارید: ** (1) در مورد داده های دامنه جدید چه می توانیم بگوییم؟ (2) بهترین تکنیک خوشه بندی که برای انجام خوشه بندی پیشنهاد می کنید چیست با تشکر
|
خوشه بندی داده های کروی شکل
|
63254
|
من باید به زودی یک درس پایه را در مورد آزمون $\chi^2$ تدریس کنم و البته بر این واقعیت پافشاری خواهم کرد که $p$ احتمال درستی فرضیه صفر نیست و نتیجه آزمون نمی تواند اجازه دهد که صفر را بپذیرد. با این حال، دانش آموزان این دوره هیچ پیشینه ریاضی یا آماری نخواهند داشت و من می خواهم تا حد امکان توضیحی را ارائه دهم. من چیزهای جالبی را در این مقاله ScienceNews خوانده ام، با مثالی از پارس کردن سگ در هنگام گرسنگی، اما هنوز این موضوع را به اندازه کافی واضح نمی دانم. آیا قبلاً چنین توضیحی ارائه کردید، یا ایده یا مثالی دارید که به اندازه کافی شهودی باشد؟ پیشاپیش خیلی ممنون
|
توضیح شهودی این که چرا p احتمال فرضیه صفر نیست
|
77733
|
من با برخی از داده هایی که سعی کردم تجزیه و تحلیل کنم کمی مشکل داشتم. من 2 جمعیت از کریستال های پروتئینی دارم، یکی در معرض جریان رطوبت است و دیگری نه، تا ببینم آیا تأثیری بر کیفیت داده وجود دارد یا خیر. برای اکثر آزمونهای من هیچ مشکلی وجود ندارد، اما برای یک مجموعه از جمعیتها، آزمون t (دو نمونه، دو دنباله، با فرض واریانس مساوی) با آنچه من میتوانم در نمودارهایم ببینم و آنچه از میانگینها واضح به نظر میرسد مخالف است. . در اینجا 2 جمعیت آمده است: Pop 1: 28.6، 22.4، 14.5، 28.3، 22.7، 22.2، 37.7، 28.7، 20.8 میانگین: 25.1 SD: 6.21 Pop 2: 49.3، 38.8، 49.3، 47.8. 36.6، 32.2، 40، 27.4، 31.6 میانگین: 37.6 SD: 6.54 این داده ها به رنگ بنفش در نمودار نشان داده شده است من داده ها را قرار داده ام در یک نمودار چندک برای تست نرمال بودن و نرمال به نظر می رسند و یک آزمون f برای بررسی واریانس برابر و همه به نظر می رسد برای انجام یک آزمون t. اما t-value که من از آزمون t بدست میآورم 0.0009 است، بسیار کمتر از t-value 2.26 برای alpha(2) = 0.05، که نشان میدهد آنها نه تنها یک جامعه هستند، بلکه تقریباً یکسان هستند. آیا پیشنهادی در مورد اینکه چرا داده های من رفتار نمی کنند؟ یک آزمون U Mann-Whitney نشان می دهد که آنها جمعیت های متفاوتی دارند.
|
آزمون t مخالف با نمودارهای پراکندگی
|
95967
|
من مشکل زیر را دارم. من سعی میکنم با استفاده از یک مدل سلسله مراتبی یک تحلیل بیزی انجام دهم که در آن دادههای $y_{i\!j}$ دارای توزیعهای نرمال شرطی کلاس با میانگین $\theta_j$ و واریانس $\sigma^2_j$ است. من می خواهم یک سلسله مراتب کامل در هر دو میانگین کلاس و واریانس کلاس داشته باشم. بنابراین، من فرض میکنم که $\sigma^2_j$ از یک توزیع جمعیتی که مقیاسبندی شده-معکوس-مربع با درجه آزادی $\nu_0$ و مقیاس $\sigma^2_0$ است، نمونهبرداری شده است. اگر جبر من درست باشد، توزیع شرطی پسین $\nu_0$ و $\sigma^2_0$ خواهد بود \begin{align} p(\nu_o, \sigma^2_0 | \textit{else}) &\propto \ prod_{j = 1}^{J} \textit{scaled-inv-} \chi^2 (\sigma^2_j | \nu_o, \sigma^2_0) \times p(\nu_o، \sigma^2_0) \\\ &= \left[\frac{ \left( \frac{\nu_o، \sigma^2_0}{2} \راست)^{ \nu_0 / 2} }{\Gamma(\nu_0 / 2)} \right]^J \prod_{j = 1}^{J} \left(\sigma^2_j\right)^{-(\nu_0/2 + 1)} \textit{exp}\left\lbrace -\frac{1}{2} \nu_o \sigma^2_0 \sum_{j = 1}^{J} \frac{1}{\sigma^2_j} \right\rbrace \times p(\nu_o, \sigma^2_0) \end{align} تا آنجا که من میدانم، یک سطح اضافی در دادههای من برای تخمین $\nu_0$ و $\sigma^2_0$ ضروری است. با این وجود، من سؤالات زیر را دارم: * آیا امکان تنظیم یک مزدوج وجود دارد؟ * اگر پیشین مزدوج موجود نباشد، مشخصات قبلی مناسب چه خواهد بود؟ به نوعی من این تصور را دارم که چنین موضوعی نباید خیلی عجیب و غریب باشد، اما نتوانستم چیزی در وب پیدا کنم. ممنون، دومینیک
|
قبل از پارامترهای یک توزیع معکوس chi-squared
|
89497
|
من ویژگی هایی به نام های $\rho$-، $\beta$-، و $\alpha$-مخلوط شرایط را در مقالات مربوط به فرآیندهای Copulas و Markov دیده ام مانند این: > در این مقاله، شرایط را در $C$ شناسایی می کنیم که برای نرخ های اختلاط سریع هندسی > کافی است. اختلاط هندسی $\beta$، معادل ارگودیسیته هندسی برای زنجیرههای مارکوف ثابت، تحت یک شرایط نسبتاً قوی ایجاد میشود که جفتهایی را که وابستگی دم یا عدم تقارن نشان میدهند حذف میکند. هندسی $\rho$-mixing، که به معنای اختلاط $\alpha$ هندسی است، > در شرایط بسیار ضعیف تری به دست می آید. ما این شرط را برای > توابع کوپول پارامتری مختلف که در کارهای کاربردی محبوب هستند تأیید می کنیم. شرایط اختلاط $\rho$-، $\beta$- و $\alpha$ ممکن است به عنوان مبنایی برای طیفی از نابرابریها و قضایای حدی استفاده شوند که در نشان دادن اعتبار مجانبی روشهای آماری مفید هستند. Beare, B., 2010, Copulas and temporal dependence, Econometrica, 78(1). من دانشجوی مهندسی هستم و در درک این شرایط در متون آماری مشکل دارم. کسی می تواند آنها را توضیح دهد؟
|
شرایط اختلاط $\rho$-، $\beta$- و $\alpha$ چیست؟
|
44919
|
آیا می توان از تکنیک تعامل تعدیل جانسون-نیمن با یک تعدیل کننده طبقه بندی (3 دسته) استفاده کرد؟ 60٪، 80٪ و 100٪. من حدس می زنم که می تواند اثر متقابل را در مقادیر فرضی تعدیل کننده تقریبی کند. گرچه من سه گروه ناظم دارم، اما ناظم در واقعیت مستمر است.
|
آیا می توان از تکنیک تعامل تعدیل جانسون-نیمن با یک تعدیل کننده طبقه بندی استفاده کرد؟
|
91562
|
من سعی میکنم سطح یک آزمون را بهتر درک کنم و از خود میپرسیدم که آیا سطح یک فرضیه اساساً برابر با احتمال درستی فرضیه صفر است؟ من سعی کردم به مثال متقابل فکر کنم اما نتوانستم این ارتباط را تأیید یا رد کنم. آیا کسی می تواند آنقدر مهربان باشد که درک من را روشن کند؟ متشکرم!
|
آیا می توانم سطح آزمون فرضیه را به عنوان احتمال صحت فرضیه صفر در نظر بگیرم؟
|
88722
|
من در حال ساخت یک مدل رگرسیونی از داده های سری زمانی در R هستم که در آن علاقه اصلی من ضرایب متغیرهای مستقل است. داده ها فصلی قوی با روند را نشان می دهند.  مدل خوب به نظر میرسد، با چهار مورد از شش رگرسیور قابل توجه:  در اینجا باقی مانده های OLS هستند:  من استفاده کردم auto.arima برای انتخاب ساختار sARIMA، و مدل (0,1,1)(1,1,0)[12] را برمی گرداند. fit.ar <- auto.arima(at.ts, xreg = xreg1, stepwise=FALSE, approximation=FALSE) summary(fit.ar) Series: at.ts ARIMA(0,1,1)(1,1,0 )[12] ضرایب: ma1 sar1 v1 v2 v3 v4 v5 -0.7058 0.3974 0.0342 -0.0160 0.0349 -0.0042 -113.4196 s.e. 0.1298 0.2043 0.0239 0.0567 0.0555 0.0333 117.1205 sigma^2 تخمین زده شده به عنوان 3.86e+10: log likelihood=-458.13 AIC=932.26 Training AIC07=03 اقدامات: ME RMSE MAE MPE MAPE MASE مجموعه آموزشی 7906.896 147920.3 103060.4 0.1590107 3.048322 0.1150526 سوال من این است: بر اساس برآورد پارامتر و s.e. از میان رگرسیون ها، من معتقدم که هیچ یک از آنها مهم نیستند - آیا این درست است، و اگر چنین است، اگر هدف من تفسیر اهمیت نسبی این پیش بینی ها در مقابل پیش بینی باشد، به چه معناست؟ هرگونه توصیه دیگری در رابطه با روند ساخت این مدل قابل استقبال و قدردانی است. در اینجا ACF و PACF برای باقیمانده ها آمده است:  > durbinWatsonTest(mod.ols, max.lag=12) تأخیر همبستگی خودکار D-W آمار p-value 1 0.120522674 1.6705144 0.106 2 0.212723044 1.4816530 0.024 3 0.159828108 1.5814771 0.114 4 0.031083831 1.8352377 0.7408 0.7408 1.6787808 0.418 6 -0.024202465 1.8587561 0.954 7 -0.008399949 1.7720761 0.944 8 0.040751905 1.602 1.602 0.129788310 1.4214391 0.178 10 -0.015442379 1.6611922 0.822 11 0.004506292 1.6133994 0.770 1230737373731. 0000 فرضیه جایگزین: rho[lag] != 0
|
چگونه ضرایب رگرسیون را با باقیمانده های خودهمبسته تفسیر کنم؟
|
99643
|
من میدانم که یک راه سریع برای تست نرمال بودن این است که یک هیستوگرام از دادههایم ایجاد کنم و ببینم که آیا خمیده به نظر میرسد. از طرف دیگر، من میتوانم از تستهای نرمال بودن مانند chi-squared پیرسون استفاده کنم. اما اگر تمام داده های من یک هیستوگرام باشد چه؟ آیا آزمونهای عددی برای ارزیابی اینکه آیا دادههای زیربنایی نمونهای از یک متغیر تصادفی توزیع شده معمولی است یا خیر وجود دارد؟
|
تست های نرمال بودن هیستوگرام ها
|
12587
|
من قبلاً در این انجمن سؤالی در این مورد پرسیده بودم، اما چون آزمایشم را کمی تغییر دادم و هنوز گیج هستم. من آزمایشی انجام دادم که در آن 25 مرد و 25 زن به یک مکالمه جذاب گوش دادند و یک عکس (بین یک زن با پیراهن قرمز و یک زن با پیراهن سبز) انتخاب کردند و سپس یک دیالوگ خنثی شنیدند و دقیقاً همین کار را کردند و یک عکس انتخاب کردند. بین یک زن قرمزپوش و یک زن سبزپوش. فرضیه من این است که مردان بر خلاف زنان بسیار بیشتر جذب زنان قرمزپوش می شوند. من به استفاده از آنالیز واریانس با اندازهگیریهای مکرر فکر میکردم زیرا هم مردان و هم زنان در شرایط آزمایشی یکسان «معاینه» شدند. بنابراین، حدس میزنم که ستونهای من عبارتند از: «جنسیت» ۲ سطح (۰ برای مردان و ۱ برای زنان)، «جاذبه» ۲ سطح (۰ برای نه و ۱ برای بله) و «رنگ» ۲ سطح (۰ برای سبز-یا بدون قرمز و 1 برای قرمز). مشکل من این است که چگونه نشان دهم که هر شرکت کننده این کار را دو بار انجام داده است (یعنی دو دیالوگ وجود دارد)؟ ( _توجه: من از SPSS استفاده می کنم._ )
|
از چه آزمایشی استفاده کنم / چگونه در تجزیه و تحلیل نشان دهم که همه را دو بار اندازه گرفتم؟
|
44918
|
من اطلاعاتی در مورد دوندگانی دارم که در ماراتن می دوند. برای هر دونده من آخرین زمان های آنها را در تعدادی مسابقه دارم. من می خواهم سرعت دویدن آنها را با توجه به نقاط پرت پیش بینی کنم، یعنی * او سریعتر از x ساعت با احتمال می دود: > x | P(x) > > 1:30 | 0% > > 2:00 | 1% > > 2:30 | 30% > > 3:00 | 66% > > 4:00 | 3% بنابراین، من برای هر ورزشکار یک منحنی برای احتمال دویدن ماراتن در x ساعت دارم. چگونه می توانم منحنی را ارزیابی کنم؟ زمینه: در حال حاضر ارزیابی خود را با استفاده از RMSE انجام می دهم، یعنی حدس می زنم که او در 2:45 ساعت اجرا می شود و خطا را ارزیابی می کند. این برای من چندان منطقی نیست، زیرا در واقع او معمولاً در 2:30 ساعت می دود، اما برخی از نقاط پرت دارد که میانگین را به سمت پایین تا 2:45 ساعت تحت تأثیر قرار می دهد. من میخواهم منحنی خود را ارزیابی کنم، که رمزگذاری میکند که با احتمالهای خاصی دارای نزولی است.
|
چگونه یک منحنی را با در نظر گرفتن نقاط پرت ارزیابی کنیم؟
|
12580
|
من از کد مثال زیر از **latticeExtra** برای درک خوشه بندی دو طرفه در _R_ library(latticeExtra) data(mtcars) x <- t(as.matrix(scale(mtcars))) dd.row <- as استفاده کردم. dendrogram(hclust(dist(x))) row.ord <- order.dendrogram(dd.row) dd.col <- as.dendrogram(hclust(dist(t(x)))) col.ord <- order.dendrogram(dd.col) library(lattice) levelplot(x[row.ord, col.ord], aspect = fill ، مقیاس = لیست (x = لیست (پوسیدگی = 90))، کلید رنگی = فهرست (فاصله = چپ)، افسانه = فهرست (راست = لیست (سرگرم کننده = دندروگرام گروب، آرگس = list (x = dd.col، ord = col.ord، سمت = راست، اندازه = 10))، top = list (fun = dendrogramGrob، args = list (x = dd.row، side = بالا ، اندازه = 10)))) و این چیزی است که من دریافت کردم  پیوستن هر دو ردیف و ستون موجودیت ها برای من منطقی هستند، اما من با سایه های رنگی مختلف نقشه حرارتی اشتباه گرفته ام. **سوالات** * آیا پیوستن متغیرهای ردیف، متغیرهای ستون را نیز در نظر می گیرد و بالعکس * رنگ های مختلف در نقشه حرارتی برای خوشه بندی متغیرهای سطر مختلف و همچنین برای خوشه بندی متغیرهای ستون به چه معناست. به طور خاص بر روی متغیرهای ردیف **cyl** و **disp** تمرکز کنید.
|
تفسیر خوشه بندی دو طرفه در R
|
76078
|
آیا کسی می تواند یک مقدمه خوب برای آمار علوم اجتماعی را که به صورت آنلاین در دسترس است توصیه کند؟ من به دنبال چیزی شبیه کتاب هستم، اما به صورت آنلاین (یعنی عمدتاً از ویدیو یا صوتی ساخته نشده است - می خواهم چیزهایی بخوانم و تمرینات را انجام دهم). من باید آنلاین باشد (رایگان یا قابل دانلود) زیرا نمی توانم منتظر بمانم تا کتابی از طریق پست به دستم برسد، اما اگر کتابی را توصیه کنید، می توانم ببینم که آیا در کتابخانه عمومی نیویورک وجود دارد یا خیر. از نظر موضوع، من عمدتاً به دنبال مقدمه ای در مورد نحوه انجام کارها هستم (مثلاً پیش بینی، آزمایش همبستگی، سایر وظایفی که یک دانشمند علوم اجتماعی ممکن است انجام دهد)، در مقابل روشی برای نحوه اجرای الگوریتم ها. یعنی، من میخواهم بدانم چگونه آمارهای اجتماعی را «انجام» کنم، برخلاف اینکه چگونه نرمافزاری را که این کار را انجام میدهد کدنویسی کنم (میدانم که این تمایز کاملاً قابل تحمل نیست، اما امیدوارم نگرانی فعلی من را بیان کند). سابقه من در رشته حقوق و مهندسی نرم افزار است. من میتوانم از ریاضیات استفاده کنم، اما ریاضیدانی بیتفاوت هستم - این زمانی است که میخواهم به اولی تکیه کنم، و زمانی نیست که دومی را اصلاح کنم، مگر در صورت لزوم. با تشکر از همه به خاطر نگاه کردن به این موضوع، و پوزش می طلبم اگر این موضوع خارج از موضوع یا یک سوال تکراری است. ویرایش: مایلم حتی در مورد انواع عملیات رایج در علوم اجتماعی که در صورت لزوم میتوانم درباره آنها عمیقتر تحقیق کنم. ویرایش 2: این جستجو مطالب زیادی را نشان می دهد که مرتبط به نظر می رسد: https://www.google.com/search?q=statistics+techniques+for+social+science+pdf
|
مقدمه آنلاین خوبی برای آمار برای علوم اجتماعی؟
|
58073
|
اندرو گلمن در کتاب «ایالت قرمز، ایالت آبی» این واقعیت را تحلیل میکند که افراد ثروتمند در ایالتهای خاص بیشتر به جمهوریخواهان رأی میدهند تا افراد فقیر، اما ایالتهای ثروتمند بیشتر به دموکراتها رأی میدهند تا ایالتهای فقیر. آیا نامی برای این پارادوکس وجود دارد؟ به نظر من با پارادوکس زیست محیطی مرتبط است، اما نه یکسان.
|
نام پارادوکس گزارش شده توسط گلمن
|
12588
|
من یک آزمون t / ANOVA (هر دو اندازه گیری مکرر) انجام دادم و می خواهم تفاوت میانگین را از طریق یک نمودار میله ای نشان دهم. چندین دیدگاه مختلف در مورد میله های خطای مناسب برای اندازه گیری های مکرر وجود دارد: ترجیح شخصی (فیلد، 2000)، خطای میانگین مربعات ریشه (Estes، 1997) یا به جای میله های اهمیت آماری (Schunn، 1999). بهترین راه حل چیست؟
|
نوارهای خطای مناسب برای طرحهای اندازهگیری مکرر
|
12582
|
این از StackOverflow ارسال شده است. یکی به من پیشنهاد داد که اینجا پست کنم. اگرچه من کارما کافی برای ارسال تصاویر ندارم. من با جمع آوری داده ها از یک سیستم نظارت بر بیولوژیکی کار می کنم. آنها باید بعد از ایجاد تغییر در سیستم ، میانگین مقدار فلات را بدانند. [توضیحات تصویر را در اینجا وارد کنید] (http://i.stack.imgur.com/9rdwf.png) این حدود 4 دقیقه است. بین این رویداد و پاسخ حالت پایدار زمان تاخیر مناسبی وجود دارد. این مقادیر همیشه در این سطح نخواهند بود. آنها از من میخواهند که پیدا کنم پاسخ حالت پایدار از کجا شروع میشود و میانگینها را در طول آن زمان محاسبه کنم. رئیس من، که یک زیست شناس است، گفت که ممکن است بیش از حد و نوسانات تصادفی وجود داشته باشد... و ممکن است لازم باشد از تبدیل z استفاده کنم. متأسفانه او دقیق تر از آن نبود. من به عنوان یک برنامه نویس احساس شایستگی می کنم، اما مطمئن نبودم کارآمدترین راه برای یافتن این مقادیر چیست. هر گونه الگوریتم، بینش یا رویکرد بسیار قدردانی خواهد شد. با تشکر
|
یافتن میانگین ارزش ته نشینی پس از پاسخ مرحله
|
89490
|
با استفاده از روشی که به من تحمیل شده است ، باید الگوهای مکرر را در داده های زمانی پیدا کنم. این ابزار در استفاده از این داده ها مشکل دارد: پردازش طولانی است و حافظه زیادی می گیرد. بنابراین ، من می خواهم تعداد ویژگی ها را کاهش دهم. همچنین ، من می خواهم با ویژگی های اصلی (بدون تحول یا ترکیب) کار کنم. به عبارت دیگر ، من می خواهم یک انتخاب ویژگی را انجام دهم. به هر حال، داده ها دارای هر دو ویژگی عددی و اسمی (یا طبقه بندی) هستند. اولین چیزی که به ذهن می رسد این است که گروه هایی از ویژگی های همبسته (یا به طور کلی تر: مرتبط) را شناسایی کنید و فقط یکی را برای نشان دادن هر گروه نگه دارید. اما فکر میکنم روشهای پیشرفتهتر و احتمالاً کارآمدتری وجود داشته باشد. با این حال، تنها مقالههایی که میتوانم در وب بیابم مربوط به استفاده از الگوکاوی برای انجام انتخاب ویژگیها است، چیزی که من میخواهم انجام دهم. علاوه بر این، وقتی روشهای انتخاب ویژگی شرح داده شده در ادبیات را جستجو میکنم، آنها برای مسائل طبقهبندی طراحی شدهاند. بنابراین ، من نمی دانم که آیا کارهایی با تمرکز بر انتخاب ویژگی ، به ویژه برای معدن الگوی وجود دارد.
|
انتخاب ویژگی برای الگوبرداری
|
88724
|
من در حال انجام یک پروپوزال مطالعه برای پروژه ای هستم که به دو معیار مختلف برای ارزیابی وجود یک وضعیت سلامتی، یک معاینه بالینی و یک معاینه تشخیصی نگاه می کند. معاینه بالینی توسط کلینیک A و معاینه تشخیصی توسط پزشک A (تازه آموزش دیده) و پزشک B (متخصص) انجام خواهد شد. هم برای معاینه بالینی و هم برای تست تشخیصی، پاسخ به پاسخ بله/خیر در مورد وجود یا عدم وجود شرایط مورد نظر محدود خواهد شد. معاینه بالینی با معاینه تشخیصی مقایسه خواهد شد تا تفاوت در توانایی مستندسازی وضعیت بیماری مورد نظر بررسی شود و عملکرد و تفسیر معاینه تشخیصی بین کاربر متخصص و تازه آموزش دیده مقایسه خواهد شد. برای پروپوزال تحصیلی باید توضیح دهم که چگونه میخواهم همبستگی برقرار کنم و نمیدانم چگونه این کار را انجام دهم. هر کمکی که می توانید ارائه دهید بسیار قدردانی می شود.
|
چگونه همبستگی را برای پروپوزال تحصیلی خود توضیح دهم؟
|
88725
|
گفته می شود پایگاه داده ای مانند Genbank یک پایگاه داده غیر تقلیل کننده است. یعنی چی؟
|
پایگاه داده غیر تقلیل کننده چیست؟
|
11769
|
به عنوان یک دانشجوی فیزیک، من سخنرانی چرا من یک بیزی هستم را شاید نیم دوجین بار تجربه کرده ام. همیشه یکسان است -- مجری خود راضی توضیح می دهد که چگونه تفسیر بیزی برتر از تفسیر مکرر که ادعا می شود توسط توده ها استفاده می شود. آنها به قانون بیز، به حاشیه رانده شدن، پیشینیان و پسین ها اشاره می کنند. داستان واقعی چیست؟ آیا دامنه مشروعی برای کاربرد آمارهای مکرر وجود دارد؟ (مطمئناً در نمونه برداری یا چرخاندن قالب چندین بار باید اعمال شود؟) آیا فلسفه های احتمالی مفیدی فراتر از «بیزی» و «تکرارگرا» وجود دارد؟
|
آیا احتمال بیشتری از بیزییسم وجود دارد؟
|
13983
|
من حجم نمونه 6 دارم. در چنین حالتی، آیا تست نرمال بودن با استفاده از آزمون کولموگروف اسمیرنوف منطقی است؟ من از SPSS استفاده کردم. من حجم نمونه بسیار کوچکی دارم زیرا دریافت هر کدام زمان می برد. اگر منطقی نیست، کمترین عددی که منطقی به نظر می رسد چند نمونه است؟ _توجه:_ من آزمایشی در رابطه با کد منبع انجام دادم. نمونه زمان صرف شده برای کدنویسی در یک نسخه از نرم افزار **(نسخه A)** در واقع من یک نمونه دیگر با حجم 6 دارم که زمان صرف شده برای کدنویسی در **نسخه دیگر** نرم افزار **(نسخه B) است. ** میخواهم آزمایش فرضیه را با استفاده از **تست تک نمونهای** انجام دهم تا آزمایش کنم که آیا زمان صرف شده در کد نسخه A با زمان صرف شده در کد نسخه B متفاوت است یا خیر (این H1 من است) . پیش شرط آزمون t تک نمونه ای این است که داده های مورد آزمایش باید به طور معمول توزیع شوند. به همین دلیل است که باید از نظر نرمال بودن تست کنم.
|
آیا آزمایش نرمال بودن با حجم نمونه بسیار کوچک (به عنوان مثال n = 6) معنی دارد؟
|
13981
|
شکل کلی معادله را می توان به نمودار پراکندگی زیر برازش داد؟ نتیجه باید شبیه به یک نرم افزار باشد **_Z_** 
|
بهترین فرم کاربردی برای توصیف یک نمودار پراکنده با ظاهر z شکل همراه با نویز
|
65064
|
من از بسته پیشبینی R با دادههای سری زمانی روزانه استفاده میکنم که دارای فصلی پیچیده است (هفتگی، سالانه، ماهانه). فرآیند تناسب/پیش بینی نیز باید اثرات خاص روز را در نظر بگیرد. من قصد دارم: * از تابع auto.arima استفاده کنم * فرکانس TS را برای مراقبت از فصلی بودن هفتگی روی 7 تنظیم کنم * از اصطلاحات فوریه برای پارامتر xreg برای مراقبت از فصلی بودن ماهانه و سالانه استفاده کنم * از ماتریس رگرسیون برای اثرات دیگر استفاده کنید. تعطیلات. 1. آیا کسی می تواند در ارائه یک مثال ملموس در مورد نحوه استفاده از تابع فویر که می تواند هم فصلی ماهانه و هم سالانه را در نظر بگیرد کمک کند؟ 2. آیا می خواهید نمونه ای از نحوه ترکیب یک ماتریس رگرسیور با نتیجه فویر را ببینید تا بتوان آن را به پارامتر 'xreg' یا با هم نسبت داد؟ در مورد هر دو این سؤال، من فقط احتمالاتی از موارد ذکر شده توسط دکتر هایندمن را یافته ام، اما نمونه های عینی واقعاً می توانند برای جامعه نیز مفید باشند. با تشکر
|
بسته پیش بینی R: چگونه عبارت های فویر را با ماتریس XREG دیگر ترکیب کنیم
|
43336
|
من دو توزیع لباس دارم، $X_1 \sim\it{U}(a,b)$ و $X_2\sim\it{U}(X_1+\delta,b+\delta)$. من می خواهم $P(X_2\in[a+\delta,b+\delta])$ را محاسبه کنم. بنابراین من این کار را انجام می دهم: $$\begin{eqnarray*} P(X_2\in[a+\delta,b+\delta]) & = & \int_{a}^{b} P(X_2\in[a+\delta, b+\delta]|X_1=y)\cdot P(X_1=y) dy\\\ & = & \frac{1}{b-a} \int_{a}^{b} \frac{1}{b-y} dy\\\ & = & \frac{1}{b-a} \ln\Bigg(\frac{b-a}{b-b}\Bigg) \end{eqnarray*}$$ نتیجه اشتباه مربوط به این واقعیت است که یک توزیع یکنواخت احتمال $\frac{1}{x}$ دارد، اما برای $x<1$ کار نمی کند (در این حالت، کسری بزرگتر از 1 می شود...). چگونه این مشکل را به طور رسمی و به روشی تمیز حل کنیم؟
|
انتگرال یک توزیع یکنواخت شرطی منجر به انتگرال نامناسب می شود
|
75050
|
من در تلاش برای یافتن راهی برای محاسبه مقدار p برای ناحیه تحت مشخصه عملگر گیرنده (ROC) هستم. من یک متغیر پیوسته و یک نتیجه آزمایش تشخیصی دارم. می خواهم ببینم آیا AUROC از نظر آماری معنی دار است یا خیر. من بسته های زیادی را پیدا کردم که با منحنی های ROC سروکار دارند: pROC، ROCR، caTools، تأیید، Epi. اما حتی پس از ساعتهای زیادی که صرف خواندن مستندات و آزمایش کردم، نتوانستم چگونگی آن را پیدا کنم. من فکر می کنم من فقط آن را از دست داده است.
|
در R چگونه می توان مقدار p را برای منطقه تحت ROC محاسبه کرد
|
95965
|
من در حال انجام مطالعه ای در مورد درک تصویر بدن و فعالیت بدنی در بین نوجوانان هستم. فرضیه من این است که نوجوانانی که به طور منظم به فعالیت بدنی می پردازند، درک دقیق تری از تصویر بدن در رابطه با افراد کم تحرک خواهند داشت. من داده هایی را در مورد جنسیت، سن، BMI، دسته بندی BMI، سطح فعالیت بدنی، درک تصویر بدن جمع آوری کرده ام. بهترین تست های آماری برای اجرا کدامند؟
|
آمار صحیح برای اجرا؟
|
82963
|
یکی از همکارانم این مشکل را برای من ارسال کرد که ظاهراً در اینترنت دور می زند: اگر 3 دلار = 18، 4 = 32، 5 = 50، 6 = 72، 7 = 98 دلار، سپس، 10 دلار = دلار؟ به نظر می رسد پاسخ 200 باشد. 3*6 4*8 5*10 6*12 7*14 8*16 9*18 10*20=200 وقتی یک رگرسیون خطی در R انجام می دهم: داده <- data.frame(a =c(3،4،5،6،7)، b=c(18،32،50،72،98)) lm1 <- lm(b~a, data=data) new.data <- data.frame(a=c(10,20,30)) predict <- predict(lm1, newdata=new.data, interval='prediction') I دریافت: fit lwr upr 1 154 127.5518 180.4482 2 354 287.0626 420.9374 3 554 444.2602 663.7398 بنابراین مدل خطی من 10 دلار = 154 دلار را پیش بینی می کند. وقتی داده ها را رسم می کنم خطی به نظر می رسد ... اما بدیهی است که من چیزی را درست فرض کردم. من سعی می کنم یاد بگیرم که چگونه از مدل های خطی در R به بهترین شکل استفاده کنم. روش مناسب برای تجزیه و تحلیل این سری چیست؟ کجا اشتباه کردم؟
|
چرا رگرسیون خطی قادر به پیش بینی نتیجه یک دنباله قطعی ساده نیست؟
|
73325
|
ویکی پدیا مثال زیر را هنگام توصیف هش کردن ویژگی ارائه می دهد. اما به نظر می رسد نگاشت با فرهنگ لغت تعریف شده سازگار نیست، برای مثال، «به» باید طبق فرهنگ لغت به «3» تبدیل شود، اما به جای آن به عنوان «1» کدگذاری می شود. آیا در توضیحات خطایی وجود دارد؟ هش کردن ویژگی چگونه کار می کند؟ > متون: > > > جان دوست دارد فیلم ببیند. مریم هم دوست داره > جان همچنین دوست دارد بازی های فوتبال را تماشا کند. > > > را می توان با استفاده از فرهنگ لغت تبدیل کرد > > > {جان: 1، لایک: 2، به: 3، تماشا: 4، فیلم: 5، همچنین: 6، > فوتبال: 7، بازی: 8، مری: 9، هم: 10} > > > به ماتریس > > > [[1 2 1 1 1 0 0 0 1 1] > [1 1 1 1 0 1 1 1 0 0]] >
|
درک ویژگی هاشینگ
|
77663
|
من سعی می کنم بفهمم که چگونه پارامترها در مدل سازی ARIMA/Box Jenkins (BJ) تخمین زده می شوند. متأسفانه هیچ یک از کتابهایی که من با آنها مواجه شدهام، روش تخمین مانند روش تخمین Log-Likelihood را به طور مفصل شرح نمیدهند. وب سایت/مواد آموزشی را پیدا کردم که بسیار مفید بود. در زیر معادله منبع ذکر شده در بالا آمده است. $$ LL(\theta)=-\frac{n}{2}\log(2\pi) - \frac{n}{2}\log(\sigma^2) - \sum\limits_{t=1 }^n\frac{e_t^2}{2\sigma^2} $$ من میخواهم تخمین ARIMA/BJ را با انجام خودم یاد بگیرم. بنابراین من از $R$ برای نوشتن کدی برای تخمین ARMA با دست استفاده کردم. در زیر آنچه من در $R$ انجام دادم، * ARMA را شبیه سازی کردم (1،1) * معادله فوق را به عنوان یک تابع نوشتم * از داده های شبیه سازی شده و تابع بهینه برای تخمین پارامترهای AR و MA استفاده کردم. * من همچنین ARIMA را در بسته آماری اجرا کردم و پارامترهای ARMA را از آنچه با دست انجام دادم مقایسه کردم. **_در زیر مقایسه است:_**  **سوالات من در زیر آمده است: * **چرا بین تخمین زده شده تفاوت جزئی وجود دارد و متغیرهای محاسبه شده؟** * **آیا ARIMA در پسکستهای R عمل میکند یا روش تخمین متفاوت از آنچه در زیر در کد من ذکر شده است؟** * **من e1 را اختصاص دادهام یا خطا در مشاهده 1 به عنوان 0، آیا این درست است؟** * **همچنین آیا راهی برای تخمین مرزهای اطمینان پیش بینی ها با استفاده از هسیان بهینه سازی وجود دارد؟** مثل همیشه از کمک شما بسیار متشکرم. در زیر کد آمده است: ## Load Packages library(stats) library(forecast) set.seed(456) ## Simulate Arima y <- arima.sim(n=250,list(ar=0.3,ma=0.7),mean = 5) نمودار (y) ## بهینه سازی احتمال وقوع گزارش برای ARIMA n = طول (y) ## شمارش تعداد مشاهده ها e = rep(1,n) ## Initialize e logl <- تابع(mx){ g <- عددی mx <- ماتریس(mx,ncol=4) mu <- mx[,1] ## سیگما مدت ثابت <- mx [,2] rho <- mx[,3] ## Ar coeff theta <- mx[,4] ## Ma coeff e[1] = 0 ## از آنجایی که e1 = 0 برای (t در (2 : n)){ e[t] = y[t] - mu - rho*y[t-1] + theta*e[t-1] } ## حداکثر کردن Log Lilihood تابع g1 <- (-((n)/2)*log(2*pi) - ((n)/2)*log(sigma^2+0.000000001) - (1/2)*(1/(sigma^2+0.000000001))*e%*%e) ##نکته: ضرب Log Likelihood در -1 به منظور به حداکثر رساندن در بهینه سازی ## این کار به دلیل تابع Optim انجام می شود. در R فقط می تواند کمینه کند، X را با -1، می توانیم ## را نیز + را با حداکثر کنیم 0.000000001 سیگما^2 برای جلوگیری از تقسیم بر 0 g <- -1 * g1 return(g) } ## Optimize Log Liklihood arimopt <- optim(par=c(10,0.6,0.3,0.5), fn=logl, gr = NULL، روش = c(L-BFGS-B)، کنترل = لیست()، هسی = T) arimopt ############# نتایج خروجی############### ar1_calculated = arimopt$par[3] ma1_calculated = arimopt$par[4] sigmasq_calculated = ( arimopt$par[2])^2 logl_calculated = arimopt$val ar1_calculated ma1_calculated sigmasq_calculated logl_calculated ############# تخمین با استفاده از Arima############## est <- arima(y,order=c(1,0,1) ) est
|
برآورد ARIMA با دست
|
64745
|
من با این پست http://xkcd.com/1132/ و این تصویر برخوردم متوجه نشدم چرا بیزی آمارگیر می گوید نه هر پیشنهادی
|
سردرگمی مربوط به پست مربوط به آمار در xkcd
|
5868
|
با $X_1، X_2، \ldots$ با ارزش واقعی، $Max_n := \max(X_1,\ldots,X_n)$ مقدار رکورد یا علامت با آب بالا $NextMax_n :=$ مقدار آب بالاتر بعدی، $Max_{ را تعریف کنید n+m} > Max_n$ $Up_n := NextMax_n - Max_n$. آیا کسی می تواند مقدمه ای برای تخمین $NextMax$ و $Up$، برای 1. $X$ i.i.d پیشنهاد دهد. از یک توزیع شناخته شده، 2. ناپارامتریک، تخمین می زنید؟ یک فصل کتاب یا یک دوره آمار آنلاین به خوبی انجام می شود.
|
مبانی مقادیر افراطی / علائم پر آب؟
|
13989
|
آیا آموزش هایی وجود دارد که شما توصیه می کنید که نحوه رسم منحنی «ROC» را آموزش دهد؟ با تشکر
|
آموزش رسم منحنی ROC
|
13670
|
من یک مجموعه داده 100000 دارم. اگر بخواهم یک زیرمجموعه (نمونه) انتخاب کنم، چگونه می توانم مطمئن شوم که یک نمونه خوب است؟ من میدانم که میتوانم با انتخاب تصادفی آن را بیطرفتر کنم، اما چگونه میتوانم بدانم چه تعداد باید برای محاسبه همه واریانس در مجموعه داده انتخاب کنم؟
|
چند نمونه تمام واریانس را به حساب می آورند؟
|
43333
|
چگونه بهترین مقادیر آلفا و بتا را در هموارسازی نمایی Holt انتخاب کنیم؟ با گذاشتن آن روی R به من $\alpha$ =1 می دهد. آیا این مناسب است؟ وارد کردن مقادیر مختلف آلفا و سپس مقایسه با داده های واقعی بهترین نتیجه را برای $\alpha $ = 0.45 نشان می دهد. اما سپس R $\beta$=0.99 را محاسبه می کند. این خوبه؟
|
مقدار آلفا و بتا در روش هموارسازی نمایی هولت
|
39231
|
> **تکراری احتمالی:** > چرا آمار t با حجم نمونه افزایش می یابد؟ در آزمون t، آمار آزمون $$ t = \frac{\overline{x} است - \mu_0}{s/\sqrt{n}} $$ نمیدانم که اندازه نمونه $n$ چه تأثیری بر t دارد. تست؟ برای مثال، با افزایش $n$، من فکر میکردم که $t$ در ابتدا افزایش مییابد، اما بعداً متوجه شدم که $s$ در مقیاس $1/\sqrt{n-1}$ است. بنابراین به نظر می رسد $s/\sqrt{n}$ با افزایش $n$ کاهش نمی یابد؟ $n$ چه تأثیر دیگری دارد؟ با تشکر
|
تاثیر حجم نمونه در آزمون t
|
81563
|
Rainbow tabeling یک وب سرویس با حدس زدن شناسههای آنها یک دسته کامل از صفحات را دریافت میکند: /item?ID=1 /item?ID=2 ... /item?ID=n در حالت ایدهآل، من میخواهم به طور هوشمند حداکثر شناسه را شناسایی و تنظیم کنم. ن به آن. آیا در اینجا رویکرد آماری وجود دارد؟ مثل یک شانه تصور می کردم که در آن شعاع شناسه ها را در اطراف یک مقدار به طور تصاعدی در حال افزایش بررسی می کنم: 9,10,11 99,100,101 999,1000,1001 9999,10000,10001 یا شاید این توان گام به گام خطرناک است. : 999,1000,1001 1999,2000,2001 2999,3000,3001 به عنوان مثال. اگر هیچ یک از «2999،3000،3001» شناسه معتبر نباشد، «n» را روی «3000» تنظیم میکنم. آیا باید از توزیع یا فرمول دیوانه وار با _e_ استفاده کنم؟ _توجه:_ وقتی مدیران DB میخواهند شناسههای خود را «غیرقابل حدس زدن» کنند، اغلب فقط یک عدد بزرگ را برای شروع آن انتخاب میکنند - مثلاً 100000، بنابراین مورد 1 100001 است، مورد 2 = 100002، و غیره. فقط n را روی «2147483647» تنظیم کنید (حداکثر مقدار MySQL نوع «INTEGER») یا یک مقدار کوچکتر اگر می دانید تقریباً چند شی در پایگاه داده وجود دارد و یک به یک بروید.
|
راه آماری برای جدول رنگین کمانی یک وب سرویس چیست؟
|
96437
|
من **چهار** ($D_1، ... D_4$) مجموعه داده های مختلف دارم که می خواهم از آنها یک طبقه بندی کننده _دودویی_ قوی یاد بگیرم. من در حال حاضر از «SVC» و «LinearSVC» از کتابخانه «sklearn» استفاده می کنم. مشکل این است که تنها یکی از این مجموعه داده در حال حاضر در آموزش و آزمون تقسیم شده است. سه نفر دیگر نیستند. اگرچه مجموعه ویژگی ها اساساً برای همه آنها یکسان است، هر مجموعه داده دارای تعداد نمونه های متفاوتی است و به نظر می رسد با توجه به _کیفیت_ منسجم نیستند. برای روشن شدن در مجموعه داده $D_1، D_2$ تعدادی نمونه مثبت وجود دارد که به اشتباه با کلاس $-1$ برچسب گذاری شده اند. بهترین راه برای ادغام مجموعههای داده در یک مجموعهای واحد که سعی در ایجاد هرگونه سوگیری ندارد، چیست؟
|
ادغام مجموعه داده های مختلف برای طبقه بندی باینری
|
73321
|
با اجرای آزمایشها روی یک الگوریتم تقسیمبندی، متوجه شدم که ضریب تاس به طور مداوم نتایج مشابه اندازهگیری F1 را به من میدهد. میخواهم در مقالهای که دارم مینویسم به این موضوع اشاره کنم، که این را فقط به عنوان مرجع پیدا کردهام (و فکر میکنم بد است که در مقاله بگذارم). هیچ منبع دیگری؟
|
هر مرجع کتابشناختی که بگوید ضریب تاس همان اندازه گیری F1 است؟
|
13673
|
من ریاضی کافی برای فرموله کردن یک سوال هوشمندانه در این مورد نمی دانم، بنابراین یک مثال می زنم. من میخواهم پاسخی به مثالم بدهم، اما همچنین میخواهم لغاتی را که برای تحقیق بیشتر در مورد آن نیاز دارم، بدانم. فرض کنید شما مجموعه بزرگی از اطلاعات در مورد افراد دارید: قد، وزن، سن و تعداد فشارهایی که می توانند انجام دهند. چگونه می خواهید پیدا کنید: 1. کدام ترکیبات قد، وزن و سن می توانند بیشترین فشار را انجام دهند؟ 2. با توجه به قد، وزن و سن، احتمال اینکه آنها بتوانند x تعداد پوش آپ انجام دهند چقدر است؟ در نهایت میخواهم بدانم، با توجه به مجموعهای متشکل از قد، وزن و سن 10 نفر، چه کسی از نظر آماری بیشترین احتمال را دارد که بیشترین فشار را انجام دهد.
|
اهمیت متغیرها: چه کسی می تواند بیشترین فشار را انجام دهد؟
|
96430
|
در الگوریتم k-means، مرحله کمینه سازی فاصله معادل به حداکثر رساندن احتمال است: $P(X|\theta)$ یا برای به حداکثر رساندن توزیع پسین $P(\theta|X)$؟ من فکر می کنم منطقی تر است که توزیع پسین $P(\theta|X)$ را به حداکثر برسانیم زیرا مربوط به طبقه بندی $X$ در یک خوشه است و معمولاً توزیع پسین $P(\theta|X)$ است که برای آن استفاده می شود. اگر مطابق با حداکثر احتمال $P(X|\theta)$ است، میتوانید دلیل آن را توضیح دهید؟ متشکرم
|
فاصله مربع و احتمال در k-means
|
16000
|
من به دنبال بهترین ترکیب متغیرها هستم که منجر به کلیک به صفحه بعدی وب سایت من شود... به عنوان مثال اندازه و رنگ یک دکمه ارسال. من سیستمی دارم که در حال حاضر هر متغیر را به طور مستقل آزمایش می کند تا بهترین مقدار را برای آن متغیر بیابد. من می خواهم قدم بعدی را برای آزمایش ترکیب این متغیرها بردارم. من به دنبال کمک برای 2 مرحله در این فرآیند هستم: 1. نحوه ذخیره مجموعه نتایج - در حال حاضر من هر متغیر را به طور مستقل در mysql ذخیره میکنم بدون اینکه پیوندی به مقادیر متغیر دیگری که آزمایش شدهاند وجود داشته باشد. بهترین روش ها برای ثبت این داده ها (طراحی طرحواره) چیست؟ 2. نحوه تجزیه و تحلیل مجموعه های نتایج - آمار مناسب من نیست، و من هیچ تجربه قبلی با نرم افزار آمار ندارم... من یک رویکرد کمابیش جعبه سیاه را می خواهم... من دادههای خام (از مرحله 1) را ارائه میکنم و نرمافزار آنالیز بهترین ترکیب متغیرهای بهینهشده را برای من بازمیگرداند.
|
شروع با تست چند متغیره
|
13984
|
من میخواهم پیشبینیشده و پسکاستی (یعنی مقادیر پیشبینیشده گذشته) مجموعه دادههای سری زمانی را با به حداقل رساندن میانگین مربعات خطای پیشبینی، در یک سری زمانی ترکیب کنم. بگویید من سری زمانی از 2001-2010 با شکاف برای سال 2007 دارم. من توانسته ام سال 2007 را با استفاده از داده های 2001-2007 (خط قرمز - به نام $Y_f$) پیش بینی کنم و با استفاده از داده های 2008-2009 (2008-2009). خط آبی روشن - آن را $Y_b$ نامید). من می خواهم نقاط داده $Y_f$ و $Y_b$ را در یک نقطه داده Y_i برای هر ماه ترکیب کنم. در حالت ایدهآل، من میخواهم وزن $w$ را بهگونهای بدست بیاورم که میانگین مربعات خطای پیشبینی (MSPE) $Y_i$ را به حداقل برساند. اگر این امکان پذیر نیست، چگونه می توانم میانگین بین دو نقطه داده سری زمانی را پیدا کنم؟ $$Y_i = w\cdot Y_f + (1-w)\cdot Y_b$$ به عنوان مثال سریع: tt_f <- ts(1:12، شروع = 2007، فرکانس = 12) tt_b <- ts(10:21، start=2007, freq=12) tt_f ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 1 2 3 4 5 6 7 8 9 10 11 12 tt_b ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 10 11 12 13 14 15 16 17 18 19 20 .. ایده آل به حداقل رساندن the MSPE) tt_i ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2007 5.5 6.5 7.5 8.5 9.5 10.5 11.5 12.5 13.5 14.5 15.5 16.5 
|
ترکیب دو سری زمانی با میانگین گیری نقاط داده
|
78226
|
چرا مجذور فواصل عمودی به جای مقادیر مطلق گرفته می شود؟
|
چرا مجذور فواصل عمودی به جای مقادیر مطلق گرفته می شود؟
|
88210
|
من یک مجموعه داده دارم که از n متغیر سری زمانی $X_1$..$X_n$ و یک خروجی سری زمانی $Y$ تشکیل شده است. میخواهم دادهها را استخراج کنم تا ببینم آیا برخی از توابع (با تأخیر یا عدم تاخیر) از X_i$ میتوانند $Y$ را پیشبینی کنند. $X_i$ ممکن است دارای مقادیر گم شده باشد (داده ها نامتعادل هستند). کدام الگوریتم را برای این کار پیشنهاد می کنید؟
|
داده کاوی سری های زمانی
|
76079
|
من دادهای در SPSS دارم که ساختار آن به این صورت است: دانشآموز_تعداد مطالعه سنی_برای q1 q2 q3 q4 q5 q6 q7 q8 (<\-- اینها ستونها هستند) دانشآموزانی با اعداد از 1 تا 67 وجود دارند. برای هر یک از آن دانشآموزان میخواهم دریافت کنم. میانه q1 تا q8، چگونه می توانم این کار را در SPSS انجام دهم؟ و سپس من می خواهم در صورت امکان یک میانه از آن میانه بگیرم. پیشاپیش از پاسخ شما سپاسگزارم.
|
چگونه میانه یک ردیف را در SPSS بدست آوریم؟
|
60297
|
$s^2 = \sum \frac{(x_i - \bar{x})^2}{n-1} $ که ظاهراً برابر است $ \frac{\sum(x_i^2) +n\bar{x}^ 2 - 2n\bar{x}^2}{n-1}$. آیا این فقط از گسترش شمارنده و استفاده از این واقعیت است که $\bar{x}$ (میانگین) به $i$ وابسته نیست؟ چگونه می توان این را برای نشان دادن $E(s^2) = \sigma^2$ خاص ادامه داد؟
|
نشان می دهد که $s^2$ یک برآوردگر بی طرفانه $\sigma^2$ است
|
70238
|
من هنوز با وجود سؤالات مشابه در مورد تفاوت بین واریانس و انحراف معیار در آمار سردرگم هستم. چرا واریانس مجذور است؟
|
چرا واریانس مجذور است و آیا معنای آن همان انحراف معیار است؟
|
13671
|
من نسبت روی نمودار زیر را با ADF آزمایش می کنم. نمودار نسبت تابعی که من استفاده می کنم عبارت است از: adfTest(ratio, type='nc') در کتابخانه fUnitRoots. نتیجه (p-value) این است: **0.01301** **بسیار کم** است، بنابراین سری باید میانگین برگردانده شود. (@Statistical لطفاً به خاطر این توضیح وحشیانه از من متنفر نباشید) با دیدن نمودار، نسبت به نظر خیلی «میانگین برگردان» نیست، من در مورد بررسی بصری نسبت صحبت می کنم. نظر شما در مورد آن چیست؟ متشکرم
|
چگونه ممکن است که این نسبت به میانگین برگردد؟
|
16003
|
به دنبال این سوال در مورد گزارش eta مربع، من می خواهم 95٪ CI را برای تخمین نقاط اندازه اثر خود گزارش کنم (مقادیر eta جزئی و مجذور eta). * چه آماری را باید بدانم و آیا فرمول مستقیمی برای محاسبه وجود دارد؟
|
چگونه می توان فاصله اطمینان 95% را برای مجذور eta جزئی و مربع eta محاسبه کرد؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.