_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
21107
به ذهنم خطور کرد که نحوه نوشتن یک اصطلاح تعاملی در BUGS بستگی به انواع پیش‌بینی‌کننده‌هایی دارد که در حال «تعامل» هستند. فرض کنید داده هایی طولانی هستند (به جای گسترده). سپس، یک مدل با تعامل بین دو عامل، A و B، مانند ANOVA دو طرفه، ممکن است چیزی شبیه به y[i] ~ dnorm(mu[i], tau) mu[i] <- A[a_level[ i]] + B[b_level[i]] + A.B[a_level[i]،b_level[i]] A.B[،] ~ dnorm(0، ab.tau) با این حال، یک مدل با تعامل بین یک عامل A و یک پیش‌بینی‌کننده پیوسته C ممکن است چیزی شبیه به y[i] ~ dnorm(mu[i], tau) mu[i] <- A[a_level[i] ] + betaC*C[i] + betaX[a_level[i]]*C[i] betaX ~ dnorm(0، betaX.tau) بنابراین، چند سوال: 1. آیا این فعل و انفعالات به درستی نوشته شده اند؟ 2. چه تعاملات مهم دیگری وجود دارد؟ بدیهی است که دو پیش بینی کننده پیوسته مورد دیگری است. 3. آیا تفاوت هایی در نحوه نوشتن این رگرسیون خطی در مقابل رگرسیون لجستیک وجود دارد؟ 4. آیا تفاوت هایی در پیشین هایی وجود دارد که باید برای انواع مختلف تعاملات مشخص شود؟ این ممکن است نیاز به یک ویکی انجمن باشد، مطمئن نیستم.
شرایط تعامل و اشکالات
45686
من در حال حاضر فایل های ورود به سیستم با اندازه های مختلف دارم و سعی می کنم کل احتمال خطا بودن یک رویداد را محاسبه کنم. به عنوان مثال: > Log file #1: دارای مجموعا 1000 ورودی و 20 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 20/1000 = 0.02 خواهد بود > > Log File #2: دارای مجموعا 2500 ورودی و 35 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 35/2500 خواهد بود. = 0.014 > > Log File #3: در مجموع دارای 5000 ورودی است و 60 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 60/5000 = 0.012 خواهد بود. من فکر می کردم چگونه می توانم احتمال کل یک رویداد را بدست بیاورم. که رخ می دهد یک خطا برای تمام فایل های ورود به سیستم ترکیبی؟ هر کمکی بسیار قابل قدردانی خواهد بود، و اگر بتوانید از مثالی که من آوردم برای توضیح به من استفاده کنید، عالی خواهد بود. رویدادهای فایل لاگ کاملاً متفاوت است، فایل‌های گزارش برای سیستم‌های کاملاً متفاوت هستند. آیا (میزان خطا/تعداد کل رویدادها) = 115/8500 = 0.0135 خواهد بود؟
مشکل احتمال کل
109812
من در مورد رویکرد تئوری اطلاعات-AIC انتخاب مدل مطالعه می‌کردم که در آن از مقادیر AIC برای انتخاب مجموعه مدل‌های کاندید استفاده می‌شود. من در این مورد کاملاً واضح هستم. سوال من این است: برای مدل اثرات مختلط، چگونه مقادیر AIC را محاسبه کنیم. برای مثال من چندین مدل رهگیری تصادفی و شیب ثابت مانند این دارم: mdl1<-lme(y ~ x1,random=(~1|state),data=data,method=ML) mdl2<-lme(y ~ x1 + x2 ,random=(~1|state),data=data,method=ML) mdl3<-lme(y ~ x2,random=(~1|state),data=data,method=ML) mdl4<-lme(y ~ x3,random=(~1|state),data=data,method=ML) mdl5 <-lme(y ~ x3 + x1,random=(~1|state),data=data,method=ML) . . . . mdlx<-lme(y ~ xi,random=(~1|state),data=data,method=ML) می توانم همه این مدل ها را برای تولید مقدار AIC برای هر مدل مقایسه کنم و سپس بهترین مدل ها را بر اساس آن انتخاب کنم. با این حال من با این مقاله برخورد کردم که می گوید این مقدار AIC در مدل جلوه های ترکیبی صحیح نیست. در مورد یک مقدار AIC شرطی برای مدل اثرات مختلط صحبت می کند http://biomet.oxfordjournals.org/content/92/2/351.abstract من از یک پیشینه آماری قوی نیستم و این مقاله ریاضیات و معادلات زیادی دارد. امیدوارم کسی بتواند به من توضیح دهد که چگونه می توانم این را به بهترین شکل بفهمم و احتمالاً چگونه مقادیر AIC شرطی را در R محاسبه کنم. بسیار متشکرم
رویکرد IT-AIC برای مدل اثرات مختلط
41903
فرض کنید چارچوب داده زیر را دارم: id time sale_yn number travel_nr nمتغیرهای با متغیرهای خاص مشاهده abc 10 0 1 1 abc 11 0 2 1 abc 12 1 3 1 abc 13 0 1 2 def 10 0 1 3 def 15 16 0 1 4 تعریف 17 0 2 4 def 18 1 3 4 هر ردیف مشاهده ای از یک شخص خاص است (با شناسه متمایز می شود). هر شخصی چندین بار از یک مغازه بازدید می کند (به شماره مراجعه کنید). پس از مدتی ممکن است مشتری خریدی انجام دهد (در آن صورت sale_yn == 1). مدل رگرسیون باید سفرهای مختلفی را که مشتری انجام داده است در نظر بگیرد تا پیش بینی کند که آیا فروش اتفاق می افتد یا خیر. با رگرسیون لجستیک، هر مشاهده باید مستقل از یکدیگر باشد، اما بازدیدهایی که زودتر اتفاق افتاده است نیز به خرید کمک می کند. چه شکلی از رگرسیون می تواند این را در نظر بگیرد؟
رگرسیون با مشاهدات وابسته
49762
در صفحه 232 از یک همراه R برای رگرسیون کاربردی فاکس و وایزبرگ یادداشت می کنند > فقط خانواده گاوسی دارای واریانس ثابت است و در همه GLM های دیگر > واریانس شرطی y در $\bf{x}$ بستگی به $\mu( x)$ قبلاً، آنها متذکر شدند که واریانس شرطی پواسون $\mu$ و واریانس دوجمله ای است. $\frac{\mu(1-\mu)}{N}$. برای گاوسیان، این یک فرض آشنا و اغلب بررسی شده است (همسانی). به طور مشابه، من اغلب می بینم که واریانس شرطی پواسون به عنوان یک فرض رگرسیون پواسون مورد بحث قرار می گیرد، همراه با راه حل هایی برای مواردی که نقض می شود (مانند دوجمله ای منفی، صفر تورم و غیره). با این حال، من هرگز واریانس شرطی برای دوجمله ای را به عنوان یک فرض در رگرسیون لجستیک نمی بینم. کمی گوگل هیچ اشاره ای به آن پیدا نکرد. من اینجا چه چیزی را از دست داده ام؟ ویرایش بعد از نظر @whuber: همانطور که پیشنهاد شد من در حال جستجوی Hosmer & Lemeshow هستم. جالب است و فکر می کنم نشان می دهد که چرا من (و شاید دیگران) گیج شده ایم. مثلاً کلمه «فرض» در فهرست کتاب نیست. علاوه بر این، ما این را داریم (ص. 175) > در رگرسیون لجستیک، ما باید در درجه اول به ارزیابی بصری تکیه کنیم، زیرا > توزیع تشخیص بر اساس این فرضیه که مدل متناسب است > تنها در تنظیمات محدود خاصی شناخته شده است. چند قطعه، اما بر روی نمودارهای پراکنده باقیمانده های مختلف در مقابل احتمال تخمین زده شده تمرکز کنید. این نمودارها (حتی برای یک مدل خوب، مشخصه الگوی «بلبی» نمودارهای مشابه در رگرسیون OLS را ندارند، و بنابراین قضاوت کردن آنها دشوارتر است. علاوه بر این، آنها چیزی شبیه به نمودارهای چندکی نشان نمی دهند. در R، plot.lm یک پیشنهاد ارائه می دهد. مجموعه‌ای از نمودارهای پیش‌فرض برای ارزیابی مدل‌ها، معادلی برای رگرسیون لجستیکی نمی‌دانم، اگرچه ممکن است در برخی از بسته‌ها به نمودارهای متفاوتی نیاز باشد مدل SAS در PROC LOGISTIC برخی از نقشه ها را ارائه می دهد.
مفروضات مدل های خطی تعمیم یافته
49763
ایده در اینجا این است که شما یک بازی 5 در مقابل 5 دارید که در آن هر بازیکن از یک شخصیت منحصر به فرد (از این پس 'قهرمان') استفاده می کند و هزاران مسابقه از این بازی انجام شده است. هدف تجزیه و تحلیل، جستجوی بهترین ترکیب‌های دو قهرمانی است - آنهایی که عملکرد بهتری از مقدار مورد انتظارشان دارند. بعضی از هیروها وقتی با هیروهای خاص دیگر ترکیب می شوند بهتر عمل می کنند و بعضی دیگر در مسیر یکدیگر قرار می گیرند و عملکرد بدتری دارند. بدون نرمال سازی، بهترین ترکیب دو قهرمان، بدون تعجب، قهرمانان شماره 1 و 2 از نظر درصد برد انفرادی هستند. این هیچ نتیجه معنی داری به همراه ندارد، بنابراین باید داده ها را عادی/استاندارد کنیم. در اینجا مجموعه داده مورد نظر است: صفحه گسترده. این 97 است 2 را انتخاب کنید، اما به دلیل تکراری بودن دو برابر شد. به طور خلاصه، هدف سوال من تعیین فرمول صحیح برای استفاده از **ستون E** است. به خاطر داشته باشید که این یک فرمت 5 در مقابل 5 است، بنابراین 3 هیروی دیگر که هم تیمی این ترکیب هستند و دشمن 5 هیروی نامشخص هستند (اما احتمالاً می توان با ارزش 50٪ برنده فرض کرد). به عنوان مثال، درصد برد نرمال شده مورد انتظار برای تیمی که دارای قهرمانانی است که در صورت استفاده به تنهایی 61% و 59% درصد برد دارند (به همراه هر سه قهرمان ناشناخته دیگر) چقدر است؟ فکر اولیه من 0.59+(1-.59)*.61 بود، اما این توقع بیش از حد بالای 84% را به همراه دارد، احتمالاً به این دلیل که 3 عضو دیگر تیم انتظار را پایین آورده اند. من مطمئن نیستم که چگونه ادامه دهم - من ده ها روش دیگر را امتحان کرده ام اما هیچ کدام به ارقام واقعی نزدیک نیستند. با تشکر
چگونه می توان درصد برد مورد انتظار را در جایی که فقط 2 مقدار از 5 مقدار مشخص است محاسبه کرد؟
49764
من یک سوال در اوایل داده های میزان عفونت در 6 بیمارستان مختلف به مدت دو سال (N = 12) پیشنهاد کردم. پس از صحبت با چند نفر، به این نتیجه رسیدم که آزمون Wilcoxon-Mann-Whitney (Mann-Whitney U، Wilcoxon rank-sum) بهترین گزینه است. چیزی که من نگران آن هستم این است که آیا می توانم از نرخ ها استفاده کنم و خروجی دقیقاً به چه معناست (من هرگز مجبور نبودم این آزمایش را در SAS اجرا کنم، بنابراین حتی مطمئن نیستم که آن را به درستی انجام دهم). دو سوال مطرح می شود: 1.) آیا این آزمایش نشان می دهد که هیچ تفاوت/تفاوتی بین میزان آلودگی در سال 2011 و میزان آلودگی در سال 2012 وجود ندارد؟ 2.) به من گفته شد که تست Wilcoxon دقیق با حجم نمونه کوچک بهترین است، بنابراین در اجرای این آزمایش همراه با آزمایش، مقدار p یک طرفه 0.03 دریافت می کنم، اما یک p-value دو طرفه 0.06 است. . آیا این را مانند هر آزمایش دیگری تفسیر می کنم؟ و آیا یک CI مرتبط با این تست وجود دارد یا اینکه شما به شدت مقدار p را گزارش می‌دهید و آن را رها می‌کنید؟ اطلاعات بیشتر: نرخ = تعداد عفونت ها/ کل روزهای بیمار من احساس می کنم این می تواند به عنوان یک آزمایش زوجی نیز اجرا شود که من را به تفاوت بین تست های علامت و رتبه امضا شده که هنگام اجرای Proc Univariate در SAS ظاهر می شوند، هدایت می کند.
خروجی Wilcoxon-Mann-Whitney
49765
با استفاده از قضیه فاکتورسازی کلاس نمایی، به $Y = \sum (x_i)^2$ رسیدم تا آمار کامل و کافی برای $\sigma^2$ باشد. با استفاده از این آمار کافی به عنوان شرط، آیا باید MLE را برای استخراج MVUE برای $\sigma^2$ دریافت کنم؟ من نمی دانم چگونه برای دریافت MVUE اقدام کنم.
UMVUE برای $\sigma^2$ در $\mathcal N(0, \sigma^2 )$ چیست؟
41906
به سوال مرتبط، اما قدیمی مراجعه کنید: تصحیح مقادیر p برای آزمایش‌های متعدد که در آن تست‌ها همبستگی دارند (ژنتیک). روش های مقایسه چندگانه مبتنی بر بوت استرپ دارای مزیت در نظر گرفتن ساختار وابستگی pvalues ​​هستند. با این حال، راه‌اندازی مدل‌های رگرسیون کمی دشوارتر است. چندین روش پیشنهاد شده است. من حداقل با سه راه برای تنظیم p-value در چنین مسائلی برخورد کرده ام. تا جایی که من می بینم، بهترین راه حل واحدی وجود ندارد. سوال این است: **چه روش هایی در دسترس هستند و مزایا/معایب هر کدام چیست؟** تعاریف زیر را پیشنهاد می کنم: $\vec{\theta_0}$ بردار مقادیر فرضی پارامترها است که در زیر فرض می شود. فرضیه صفر کامل $\hat{\vec{\theta}}$ برآوردگر پارامترها است که بر روی نمونه اصلی محاسبه شده است. $\hat{\vec{\theta}^*}$ تخمین‌گر پارامترها است که بر روی یکی از نمونه‌های بوت استرپ محاسبه می‌شود. $T$، $T^*$ آمار محوری هستند که بر روی داده های اصلی و نمونه بوت استرپ محاسبه می شوند. فرض می‌شود که تمام آمار محوری Wald است، یعنی $T = \frac{\theta}{\operatorname{SE}\theta}$. $m$ تعداد شرایط مورد علاقه در همه رگرسیون ها است.
(بهترین) روش‌ها برای اصلاح مقایسه‌های چندگانه با بوت استرپ برای چندین مدل glm چیست؟
94994
من از پانل 2249 مدرسه با داده های 2002-2008 استفاده می کنم. برخی از مدارس مدارس تک جنسیتی هستند در حالی که برخی دیگر دارای جنسیت مختلط هستند. پیشینه ای در مورد رگرسیون من: عوامل تعیین کننده عملکرد مدرسه را در نظر بگیرید (که با **درصد** دانش آموزان مدرسه که 5 نمره A*-C در GCSE می گیرند اندازه گیری می شود: **sch5ac**). با استفاده از متغیرهای توضیحی زیر شروع کنید: - **stdschk2aps**: معیاری از عملکرد تحصیلی دانش آموزان هنگام ورود به مدرسه. متغیر به گونه ای استاندارد شده است که میانگین صفر و انحراف معیار یک داشته باشد. - **schfsm**: **درصد** دانش آموزان مدرسه که واجد شرایط دریافت وعده های غذایی رایگان مدرسه هستند. این را می توان به عنوان نماینده ای برای نسبت دانش آموزان خانواده های کم درآمد در نظر گرفت. - **schsen**: **درصد** دانش آموزان مدرسه که به عنوان دارای نیازهای آموزشی ویژه طبقه بندی شده اند (یعنی نیاز به حمایت اضافی دارند). مدارس بودجه اضافی برای کمک به حمایت از این دانش آموزان دریافت می کنند. از من خواسته می شود تا با استفاده از برآوردگر درونی، تأثیر هر یک از این متغیرها را بر روی متغیر وابسته (sch5ac) برای مدارس تک جنسیتی تخمین بزنم. sch5ac=beta_0+beta_1*schsen+beta_2*schfsm+beta_3*stdschk2aps ضرایب زیر را دریافت می‌کنم: beta_1= 0.215 beta_2= -0.357 beta_3= 6.935 هر دو schsen و schfsm به‌عنوان درصد متغیر 5 اندازه‌گیری می‌شوند. بنابراین آیا افزایش 1% در schsen منجر به افزایش 0.215% در sch5ac می شود؟ از آنجایی که stdschk2aps به عنوان درصد اندازه گیری نمی شود، اما متغیر وابسته sch5ac است، آیا افزایش واحد در stdschk2aps sch5ac را 6.935 ** درصد افزایش می دهد؟** هر کمکی عالی خواهد بود، متشکرم Kai
تفسیر رگرسیون واحدهای درصد
58676
من داده‌های شمارش غیر تودرتو دارم که از یک ناحیه به ناحیه دیگر بر اساس نسبت ناحیه‌ای که در هر یک قرار دارد، درون یابی کرده‌ام. این کدهای پستی مربوط به شهرستان‌ها است، بنابراین اکثر آنها کاملاً لانه می‌کنند، و تعدادی در اطراف لبه‌ها باید به این روش توزیع شوند. من می دانم که بهتر است این عدم قطعیت را از طریق مدل منتشر کنیم (مثلاً Bannerjee Carlin و Gelfand، فصل 6، بخش 2)، اما این راه، فعلاً خارج از محدوده این پروژه است، و من معتقدم که خطا وجود دارد. بسیار کوچک خواهد بود. این تقسیم بندی به نسبت مساحت، توزیع معقولی از شمارش را برای من به ارمغان می آورد: 0 1 (1,5] (5,10] (10,250] 0.30 0.35 0.22 0.06 0.06 مدل های NBD که من روی آن اجرا کرده ام با موفقیت همگرا شده اند، و تخمین پارامترها را در همان پارک اصلی به عنوان رگرسیون پواسون در همان نقطه گزارش کنید داده ها یک پیام هشدار دهنده در مورد مقادیر غیرصحیح برمی گردند، اما آیا بایسی وجود دارد که از اجرای یک رگرسیون دو جمله ای منفی بر روی داده های شمارش غیرصحیح باشد ::glm.nb`.
متغیر وابسته غیر صحیح در مدل های دوجمله ای منفی
62467
وقتی با همکارانم درباره ابزارهای تجزیه و تحلیل داده های کیفی صحبت می کنم، Atlas.ti و Nvivo دو نامی هستند که اغلب ظاهر می شوند. با این حال، به نظر می رسد تعداد کمی از افراد واقعاً هر دو را امتحان کرده باشند. پس از بررسی وب سایت های شرکت ها، یک نکته مهم برای من این است که Nvivo به زودی نسخه بومی Mac OSX را ارائه خواهد کرد. دانشگاه من راه حل های مبتنی بر وب را برای هر دو ابزار ارائه می دهد، اما من ترجیح می دهم برای حفظ حریم خصوصی و پاسخگویی بهتر آنها را مستقیماً روی دستگاه خود اجرا کنم.
مزایا و معایب Atlas.ti 7 در مقابل Nvivo 10 چیست؟
45681
من از عوامل هم افزایی برای آزمایش هم افزایی بین دو متغیر استفاده می کنم. معادله به اندازه کافی ساده است، جایی که $OR_{12}$ نسبت شانس ترکیبی برای متغیرهای 1 و 2 است: $ SF = \dfrac{OR_{12}}{(OR_1 \times OR_2)}$ چگونه ترکیب را محاسبه کنم نسبت شانس برای متغیرهای 1 و 2؟ من همه داده ها را دارم و نسبت شانس را با $\exp(\beta_j)$ محاسبه خواهم کرد. به عنوان نکته جانبی، نسبت‌های شانس برای متغیرهای دیگر تنظیم می‌شوند، بنابراین من نمی‌توانم فقط از جدول $4 \times 2$ همانطور که در مقاله پیوند داده شده است استفاده کنم. من حدس می زنم که این نسبتاً ساده است اما راه حل روشنی پیدا نکرده ام. چندین سوال در انجمن به متاآنالیز می پردازد، اما من نمی خواهم هیچ اشتباه یا فرضیه ضعیفی داشته باشم. من از کمک شما قدردانی می کنم! خروجی جزئی LR: Estimate Std. خطای z مقدار Pr(>|z|) var1 -14.09922 769.21550 -0.018 0.98538 var2 -3.38497 2.19931 -1.539 0.12378 var1:var2 -1.61902 -1.61902 0.501 -1.61902 0.501 - 0.5
نسبت شانس ترکیبی بین دو عامل را محاسبه کنید
53028
من در اینجا به یک رگرسیون خطی کلاسیک اشاره می‌کنم که نمایش واقعی آن با معادله $y_i=x_i'\beta+u_i$، که طبق معمول $x_i$ یک بردار $K\times 1$ از متغیرهای توضیحی مستقل است، $\ است. beta$ یک بردار $K\times 1$ از پارامترها و $u_i$ عبارت خطای مشاهده iام و با ساختن نمایش واقعی است. $u_i$ مستقل از $x_i$ در نظر گرفته می شود. اولین سوال من در این مورد اساسی است: اگر استقلال بین $x_i$ و $u_i$ را فرض کنیم، آیا این به معنای $E[u_i^d|x_i]=E[u_i^d]$ برای $d=1,2، است. $ - بنابراین، آیا می توانیم قانون انتظارات تکراری را در نتیجه به همه لحظات تعمیم دهیم؟ ثانیاً، اساس بسیاری از کتاب های درسی برای ادعای مستقل بودن $x_i$ و $u_i$ در مدل رگرسیون کلاسیک چیست؟ منظورم از استقلال، عدم همبستگی نیست، بلکه $f(u,x)=f(u)f(x)$. من می‌دانم که دو فرض استاندارد کلیدی که این مدل ویژگی‌های نمونه کوچک بر آن استوار است، برون‌زایی دقیق $E[u_i|X]=0$، و عبارات خطای معمولی توزیع شده $u_i|x_i \thicksim N(0, \sigma است. ^2) دلار. ادعای استقلال بین $x_i$ و $u_i$ از کجا در کتاب های درسی سرچشمه می گیرد؟ آیا این دو گزاره به طور مشترک با هم دلالت دارند یا این یک فرض جداگانه است؟ اگر مورد دوم است، چرا به طور انحصاری در مجموعه مفروضات مدل‌های رگرسیون خطی کلاسیک که فقط برون‌زایی دقیق و خطاهای معمولی توزیع شده را فرض می‌کنند، ذکر نشده است؟
مفروضات استقلال در مدل رگرسیون کلاسیک و لحظات بالاتر
53025
امیدوارم کسی بتواند در مورد اجرای فرآیندهای گاوسی (GP) با PYMC راهنمایی هایی به من بدهد. به طور خاص، من مطمئن نیستم که چگونه از چندین مدل فرعی GP به درستی در یک مدل pymc استفاده کنم. به طور خاص، آنچه من می‌خواهم پیاده‌سازی کنم طبقه‌بندی‌کننده‌ای است که ورودی آن یک سیگنال متغیر با زمان است (یک قطعه صوتی، در این مورد). برای مشخص بودن، هدف این است که از سیگنال ورودی مشخص شود که آیا نهنگ وجود دارد یا نه (به مسابقه تشخیص نهنگ Kaggle مراجعه کنید). بنابراین، دو دسته وجود دارد، نهنگ یا بدون نهنگ، که من به ترتیب 1، 0 را رمزگذاری می کنم و با یک متغیر تصادفی برنولی مدل می کنم. در آزمایش‌های «نهنگ»، یک تماس نهنگ در جایی در سیگنال صوتی تعبیه شده است. در هر آزمایشی مشخص نمی‌دانیم تماس چه زمانی شروع می‌شود یا به پایان می‌رسد، اما فرض می‌کنیم که تماس کاملاً کلیشه‌ای است، و بنابراین از آزمایشی به آزمایشی دیگر تفاوت کمی دارد (اما در هر آزمایش «نهنگ»، نسخه‌ای پر سر و صدا از آن را مشاهده می‌کنیم) . من سعی می‌کنم سیگنال پس‌زمینه (بدون نهنگ) را با استفاده از زیرمدل‌های GP که تابع میانگین قبلی و تابع کوواریانس مشترک دارند، و سیگنال «نهنگ» با استفاده از یک زیرمدل GP با تابع کوواریانس متفاوت (و احتمالاً میانگین قبلی متفاوت) مدل‌سازی کنم. ، اما در چیزی که من در اینجا کد کرده ام، همه زیرمدل ها صفر میانگین هستند). در آزمایش‌های «نهنگ»، تماس در سیگنال پس‌زمینه تعبیه می‌شود که از «t_start» شروع می‌شود و برای واحدهای زمانی «call_dur» ادامه می‌یابد. 't_start' و 'call_dur' هر دو متغیرهای تصادفی هستند. سوال من این است که آیا واقعاً به مدل‌های فرعی جداگانه برای هر سیگنال نهنگ نیاز دارم یا نه یا اینکه می‌توانم از یک مدل فرعی بدون نهنگ استفاده کنم و به آن بگویم که برای هر آزمایش یک واقعیت جدید ترسیم کند. (به نظرات در کد، زیر مراجعه کنید). کد زیر بسیار آهسته اجرا می‌شود - به نظر می‌رسد که نمونه‌برداری از هر زیرمدل GP زمان زیادی طول می‌کشد - آنقدر کند که مفید نباشد. آیا راهی برای دور زدن این موضوع وجود دارد؟ با تشکر برای هر گونه پیشنهاد! کد ---- زیر ---- از __future__ import division import numpy به عنوان np import pymc به عنوان pm import pymc.gp به عنوان pmgp # برای مشخص بودن، در اینجا مقادیر # ارسال شده از طریق شی params #input_T = 4000 #params هستند. t_start_mean = 0.25 * input_T #params.t_start_var = 0.1 * input_T #params.call_dur_mean = 0.4 * input_T #params.call_dur_var = 0.05 * input_T #params.n_fmesh = 25 #whale_prior = 0.5 def make_hbayes_model(params, whale_prior, sigs, the sigs, a obssi't: از سیگنال‌های یک‌بعدی (قطعه‌های صوتی) به‌عنوان یک آرایه # numpy با اندازه sig_N x sig_T ارسال می‌شوند، به عنوان مثال، آزمایش‌های sig_N، هر یک از آزمایش‌های مدت زمان sig_T می‌تواند یکی از دو دسته باشد - «نهنگ» (1)، یا «نه» -نهنگ'(0). # در آزمایش‌های «نهنگ»، یک تماس نهنگ # جایی در قطعه صوتی تعبیه شده است، در آزمایش‌های «بدون نهنگ» وجود ندارد. # هنگام آموزش مدل، دسته‌های واقعی در 'obs_wtf'، # یعنی نهنگ درست/نادرست، 0 برای بدون نهنگ، 1 برای نهنگ منتقل می‌شوند. sig_N, sig_T = np.shape(sigs) fmesh_nowhale = np.linspace(0, sig_T, params.n_fmesh) # fmesh برای no-whale GP # حدس بزنید در چه کسری از کل قطعه که نهنگ تعبیه شده para_frams فراخوانی می کند =__c .call_dur_mean / sig_T # fmesh برای 'نهنگ' GP fmesh_whale = np.linspace(0, params.call_dur_mean, int(params.n_fmesh*call_dur_frac)) اگر obs_wtf None باشد: # هنگام پیش‌بینی obs_wtf_flag هنگام آموزش obs_wtf_flag = True_flag = False # متغیر تصادفی برای تولید دسته (نهنگ یا بدون نهنگ) # 'نهنگ_پیش' مقدار شناخته شده (از داده های آموزشی) Pr(نهنگ) # 'wtf' است که البته هنگام آموزش مشاهده می شود، اما چیزی است که ما می خواهیم برای پیش‌بینی زمانی که، اوه، # پیش‌بینی wtf = pm.Bernoulli('wtf', p=whale_prior, value=obs_wtf,observed=obs_wtf_flag) # باید بدانیم چند نهنگ تا بدانیم به چند سیگنال صوتی نیاز داریم # برای جاسازی یک فراخوان نهنگ N_whales = np.sum(wtf.value) # در آزمایشات 'نهنگ'، ما می دانیم که یک ندای نهنگ تعبیه شده است، اما نمی دانیم دقیقا از کجا # شروع می شود یا دقیقاً چقدر طول می کشد. قطعه کامل فقط 2 ثانیه طول می کشد، و تماس حدود 1 ثانیه طول می کشد، بنابراین می دانیم که باید به سمت ابتدای قطعه ('st_start') شروع شود. توجه داشته باشید که # 't_start' و 'call_dur' نشان دهنده شاخص ها هستند، نه زمان واقعی (آنها در زیر گرد شده اند). t_start = pm.TruncatedNormal('t_start', mu=params.t_start_mean, tau=1.0/params.t_start_var, a=1,b=sig_T-2, value=np.zeros(N_whales)+params.t_start_mean) call_dur = .TruncatedNormal('call_dur', mu=params.call_dur_mean, tau=1.0/params.call_dur_var, a=1,b=sig_T-t_start, value=np.zeros(N_whales)+params.call_dur_mean) # فقط فعلاً این را کدنویسی کنید، بعداً آن را قابل یادگیری کنید sig_obs_var = 1
نحوه پیاده سازی چندین مدل فرعی GP در PYMC
58675
اکنون می‌دانم که چگونه می‌توان متغیرها را برای یک PDF حاشیه‌ای تغییر داد. اکنون، با توجه به دو تابعی که پارامترها را به صورت مکانی تعریف می‌کنند: $C_A(x)$ و $C_B(x)$، آیا می‌توان Joint PDF، $f(C_A,C_B)$ را ساخت؟ توجه: اگر C_A و C_B مستقل باشند، من می فهمم که $f(C_A,C_B)=f(C_A)f(C_B)$.
تغییر PDF مشترک متغیرها
45687
سرعت رشد باکتری ها در 4 فلاسک اندازه گیری شد، 3 فلاسک با آنتی بیوتیک های مختلف تلقیح شده بود، 1 فلاسک به عنوان شاهد نگهداری شد. اندازه گیری ها هر 20 دقیقه به مدت 3 ساعت انجام شد. آزمایش 6 بار تکرار شد. من می دانم که ANOVA دو طرفه نامناسب است زیرا هر نقطه زمانی را مستقل تلقی می کند، اما مطمئن نیستم که کدام ANOVA مناسب باشد
کدام ANOVA مناسب است؟
81751
من می‌خواهم یک توصیه‌کننده مبتنی بر محتوا در یک محیط محدود با توجه به قدرت پردازنده و حافظه بسازم (به طور خاص: یک دستگاه تلفن همراه، اما ساخت توصیه‌کننده روی یک سرور راه دور قابل قبول نیست). کدام الگوریتم یا اکتشافی در چنین شرایطی امکان پذیر است؟
یک الگوریتم خوب و کارآمد برای یک توصیه کننده مبتنی بر محتوا چیست؟
62469
من سعی می کنم یک رگرسیون برای مدل کردن ریسک نکول دولتی کشورهای اتحادیه اروپا انجام دهم. داده های من شامل رتبه های اعتباری (مقدار عددی اختصاص داده شده 0-20)، اسپرد CDS، سود اوراق قرضه، بازده اوراق، تورم و تولید ناخالص داخلی سرانه است. با این حال، من از نظر تنظیم رگرسیون کمی سردرگم هستم. من باید یک رگرسیون پانل انجام دهم. اما من همچنین به این فکر می‌کردم که برای هر کشور سری زمانی جداگانه انجام دهم. آیا این منطقی است؟ یا فقط باید پنل را به تنهایی انجام دهم؟ همچنین می‌دانم که باید برای سرانه تولید ناخالص داخلی و احتمالاً تورم ثبت‌نام کنم. آیا این درست است؟ آیا باید این کار را برای هر متغیر دیگری انجام دهم؟ چه زمانی سیاههها را میگیرید؟ اصل پشت این چیست؟ استاد من این را به درستی برای ما توضیح نداد. همچنین چه زمانی لگ یا تمایز انجام می دهیم؟ اهمیت و هدف از انجام این کار چیست و چه زمانی باید این کار را انجام دهیم؟ آیا باید هر کدام از اینها را برای متغیرهایم انجام دهم؟ من این را می‌پرسم زیرا هنگام اجرای تجزیه و تحلیل سری‌های زمانی کشوری فردی مدام دچار ناهمگونی می‌شوم، اما وقتی به ماتریس همبستگی نگاه می‌کنم، هیچ ارقام بالا یا ظاهر عجیبی را نشان نمی‌دهد، بنابراین بگویید این یک مشکل است.
مدل‌سازی رگرسیون تابلویی در اقتصاد سنجی
62460
پارامترهای 'start'، 'etastart'، 'mustart' در تابع glm() چیست؟ من در اسناد و اینترنت جستجو کردم اما توضیح واضحی پیدا نکردم که این به چه معناست. این شبیه مقادیر اولیه بیزی برای زنجیره‌ها است، اما من شک دارم که این موضوع مرتبط باشد، زیرا تابع glm() در R یک آمار متداول است...
مقادیر شروع در تابع glm() چیست؟
96972
من یک سوال در مورد تفسیر پارامتر برای GLM با متغیر وابسته توزیع شده گاما دارم. این همان چیزی است که R برای GLM من با یک پیوند ورود به سیستم برمی‌گرداند: تماس: glm (فرمول = درآمد ~ قد + سن + تحصیلات + متاهل + جنسیت + زبان + دبیرستان، خانواده = گاما (لینک = گزارش)، داده = جعلی) انحراف باقیمانده ها: Min 1Q Median 3Q Max -1.47399 -0.31490 -0.05961 0.18374 1.94176 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 6.2202325 0.2182771 28.497 < 2e-16 *** ارتفاع 0.0082530 0.0011930 6.918 5.58e-12 *** سن 0.060 0.58 0.191 0.848 educat 0.0119425 0.0009816 12.166 < 2e-16 *** متاهل -0.0178813 0.0173453 -1.031 0.303 جنسیت -0.3179608 -0.3179608 -0.3179608 -0.3179608 -0.3179608 2e-16 *** language 0.0050755 0.0279452 0.182 0.856 دبیرستان 0.3466434 0.0167621 20.680 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاما 0.1747557 در نظر گرفته شده است) انحراف صفر: 757.46 در 2999 درجه آزادی: 050 devi باقی مانده است. 2992 درجه آزادی AIC: 49184 چگونه پارامترها را تفسیر کنم؟ اگر من exp(coef()) مدل خود را محاسبه کنم، ~ 500 برای رهگیری دریافت می کنم. حالا من معتقدم که اگر همه متغیرهای دیگر ثابت نگه داشته شوند، این به معنای درآمد مورد انتظار نیست، اینطور نیست؟ از آنجایی که میانگین یا «میانگین (سن)» در ~ 2000 قرار دارد. علاوه بر این، من نمی دانم چگونه جهت و مقدار ضرایب متغیرهای کمکی را تفسیر کنم.
نحوه تفسیر پارامترها در GLM با Family=Gamma
11945
من یک مدل رگرسیون lin-log مانند $$Y = b_0 + b_1 \log(x_1 + 1) + e.$$ دارم توزیع x_1$ بسیار منحرف است، بنابراین من از لگاریتم طبیعی برای بدست آوردن گاوسی مانند بیشتر استفاده می کنم. توزیع از آنجا که 3 مقدار از 100 مقدار به عنوان ورودی صفر است، من یک ثابت c را اضافه می کنم، در مورد من به اضافه 1، برای جلوگیری از -Inf. تخمین حاصل از b_1$ حدود -0.14 است. بدون ثابت، تفسیر واضح است: تغییر 1% در $x$ منجر به تغییر $0.01\cdot b_1$ در $y$ می‌شود. من با ثابت مبارزه می کنم. چگونه می توانم آن را در تفسیر خود حساب کنم؟ اگر مقدار c را تغییر دهم، البته تخمین های دیگری دریافت می کنم. من + 1 را انتخاب کردم زیرا این به مقادیر ثبت مثبت منجر می شود (مقادیر $x_1$ نیز در اصل مثبت هستند). یا باید یک مقدار کوچک فقط به سه 0 اضافه کنم؟ پیشاپیش خیلی ممنون و لطفاً یک پاسخ غیر ریاضی ؛-) مارکو
تفسیر رگرسیون lin-log که در آن متغیر کمکی log (x1 + 1) تبدیل شده است
62466
من در حال مطالعه پاسخ 500 نفر به افزایش دما با استفاده از رگرسیون خطی بر روی هر درجه دما (از 10 درجه سانتی گراد تا 28 درجه سانتی گراد) هستم. بنابراین، این امکان برای من وجود داشت که رهگیری و شیب را برای هر یک از 500 موضوع محاسبه کنم. من علاقه مند به شناسایی سه گروه از افراد هستم که از نظر آماری یکسان هستند: * گروه 1: کسانی که قوی هستند و مستقل از اثر دما پاسخ می دهند. اینها موضوعاتی هستند که شیب تقریباً صفر دارند. * گروه 2: کسانی که دارای شیب منفی / رو به پایین هستند * گروه 3: کسانی که دارای شیب مثبت / رو به بالا هستند. من شیب را برای هر موضوع محاسبه کرده‌ام و سپس داده‌ها را از پایین‌ترین به بالاترین شیب مرتب کرده‌ام. آیا می توانید به من کمک کنید تا از مرتبط ترین پارامترها و ابزارهای آماری استفاده کنم که به من امکان می دهد افراد (از نظر آماری همگن) هر یک از این سه گروه را شناسایی کنم؟ من استفاده از آزمون t، تکنیک‌های خوشه‌بندی، PCA و تشخیص را در نظر گرفتم، اما برای انتخاب و نحوه انجام آن با استفاده از SAS یا R به کمک شما نیاز دارم. برای توضیح بهتر، بخشی از داده‌ها در اینجا آمده است: Sub. C15 C16 C17 C18 C19 شیب 1 30,55 30,05 29,56 29,07 28,58 -0,49 2 22,22 21,83 21,44 21,05 20,67 -0,316 3 20 19,78 19,39 19,01 18,63 -0,38 4 61,07 60,69 60,31 59,93 59,55 -0,38 5 49,29 48,92 48,55 48,18 47,81 -0,37 6 52,54 52,18 51,81 51,44 51,08 -0,37 238 18,19 18,18 18,18 18,18 18,18 -0,0017 239 -10,23 -10,23 -10,23 -10,24 -10,24 -0 ,0010 240 -14,44 -14,44 -14,44 -14,44 -14,44 -0,0006 241 19,76 19,75 19,75 19,75 19,75 -0,0006 242 13,55 13,55 13,55 13,55 13,55 0, 0010 243 19,93 19,93 19,93 19,93 19,94 0,0012 244 55,69 55,69 55,69 55,69 55,69 0,0016 495 -28,70 -28,43 -28,16 -27,90 -27 ,63 0,27 496 -9,71 -9،40 -9،10 -8،80 -8،49 0،30 497 -12،29 -11،98 -11،67 -11،35 -11،04 0،31 498 -43،85 -43 ,48 -43,11 -42,74 -42,37 0,37 499 -29,41 -28,97 -28,52 -28,07 -27,62 0,45 500 -8,54 -7,98 -7,43 -6,87 -6,31 0,56 ستون 'C15-C19' ( به عنوان مثال) مقادیر پیش بینی شده صفت مورد نظر در هر دما هستند. این مقادیر نتایج به دست آمده با استفاده از مدل هنجار واکنش بود. شیب برای هر موضوع در اینجا با استفاده از رگرسیون خطی محاسبه می شود و پس از آن داده ها بر اساس مقادیر شیب مرتب شده اند. در این مثال: 1. آزمودنی‌های (1 تا 6) کمترین شیب منفی را دارند و با توجه به کاهش آنها در پاسخ به افزایش دما، مورد توجه مطالعه ما باقی می‌مانند. 2. موضوعات (238-244) در اینجا به عنوان نمونه ای از سوژه هایی هستند که شیب تقریباً (صفر) دارند و در مطالعه ما جالب تر هستند زیرا نشان دهنده موارد قوی هستند و عملکرد آنها تحت تأثیر افزایش دما قرار نمی گیرد. (495-500) آنهایی هستند که بیشترین شیب مثبت را دارند. ما به آنها علاقه مند هستیم زیرا عملکرد آنها حتی در شرایط سخت و دمای بالا افزایش می یابد. **حالا سوال ما این است:** چگونه می توان با دقت بیشتری (بر اساس یک ابزار آماری) موضوعاتی را که باید با هر یک از 3 گروه مطابقت داشته باشد شناسایی کرد؟ در مرحله اول، فکر می کنیم می توانیم از آزمون t برای شناسایی آزمودنی های هر گروه استفاده کنیم. برخی از افراد به ما توصیه کردند که از رویکردهای خوشه‌بندی یا تمایز استفاده کنیم. اما ما نتوانستیم بفهمیم که چگونه این کار را به درستی انجام دهیم. ما سابقه ای در SAS داریم. ما می پرسیم چگونه مشکل خود را حل کنیم و با مثالی از نحوه حل مشکل در SAS به ما کمک می کنیم.
گروه بندی موضوعات مشابه بر اساس شیب
97846
من سعی می کنم توزیع زمان صرف شده در صفحات وب را متناسب کنم. هدف من خوشه بندی کاربران بر اساس زمان صرف شده است. مجموعه داده‌های من مانند موارد زیر است. (p1، p2 و p3 صفحات وب هستند و زمان (بر حسب ثانیه) صرف شده در آن صفحات توسط هر کاربر فهرست شده است). کاربر p1 p2 p3 1 10 20 0 2 0 5 7 3 25 0 2 اگر توزیع کاربر '1' معادل کاربر 'n' باشد، آنها به همان خوشه اختصاص داده می شوند. چگونه می توان به این امر دست یافت؟ من از python 'scipy' استفاده می کنم. داده های اصلی زمان صرف شده یک کاربر در 452 صفحه وب. 289 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1180 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1687 1627 0 0 0 0 1469 0 0 0 0 0 1470 851 1340 0 1546 0 98 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 775 0 0 815 849 0 1623 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1177 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1635 1621 0 0 0 0 0 0 0 0 0 601 1274 0 1554 0 87 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 630 0 0 0 15 0 632 0 0 0
توزیع متناسب با زمان صرف شده برای صفحات وب
10639
طبق ویکی پدیا، توزیع لامبدای Wilks، توزیع هتلینگ را تعمیم می دهد. من با دیدن این که چگونه کار می کند، مشکلاتی دارم. من می‌توانم ببینم که چگونه توزیع هتلینگ توزیع t Student را تعمیم می‌دهد (یک RV که به عنوان قانون هتلینگ با $p=1$ توزیع می‌شود، فقط مربع توزیع RV به عنوان t Student است)، اما نمی‌توانم ببینم چگونه به لامبدای Wilks برسیم. آیا تنظیماتی از پارامترهای $p,m,n$ وجود دارد که RV توزیع شده به صورت لامبدای Wilks مقداری تبدیل از RV هتلینگ باشد؟
توزیع لامبدای Wilks دقیقاً چگونه توزیع هتلینگ را تعمیم می دهد؟
48411
> با استفاده از قضیه حد مرکزی، $$\lim_{n \to \infty} را ارزیابی کنید > \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2 ^{j+n}}$$ راه حل من: اجازه دهید $\{X_n\}$ دنباله ای از iid R.V باشد که هر کدام $Geo(\frac{1}{2})$ دارند سپس $E(X_n)=1$ و $Var(X_n)=2 < \infty,n\in N$ همچنین $S_n=\sum_{k=1}^nX_k\sim NB(n,\frac{1}{ 2})$ توسط Lindeberg-Levy CLT، $$\begin{align} \lim_{n \to \infty}P[\frac{S_n-E(S_n)}{\sqrt{V(S_n)}}\leq x] &= \Phi(x)، \forall x \in R\\ \به معنای \lim_{ n \to \infty}P[\frac{S_n-n}{\sqrt{2n)}}\leq x] &= \Phi(x)، \forall x \in R\end{align}$$ اکنون $x=0$ $$\begin{align} \lim_{n \to \infty}P[S_n \leq n]&= \Phi(0) \\ \implies \ قرار دهید lim_{n \to \infty} \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2^{j+n}} &=\frac{1}{2}\end{align}$$ درست می‌گویم؟ آیا راه دیگری برای حل محدودیت وجود دارد؟ به طوری که من می توانم حد را بررسی کنم (اگرچه برای سوال داده شده کاملا غیر ضروری است). لطفا کمک کنید. پیشاپیش ممنون
$\lim_{n \to \infty} \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2^{j+n}}$ را ارزیابی کنید
48410
من با استفاده از رگرسیون لجستیک، اثر یک پیش‌بینی‌کننده طبقه‌ای را بر روی یک متغیر وابسته باینری مدل‌سازی می‌کنم. من مدل‌ها را با/بدون پیش‌بین با استفاده از آزمون نسبت درستنمایی مقایسه می‌کنم. دو دسته از پیش بینی کننده فقط با مقادیر 1 (بدون 0) برای متغیر وابسته همراه است. ضرایب رگرسیون برای این دسته ها (به صورت تغییرات در log(شانس) در مقایسه با یک دسته مرجع) بسیار بزرگ و بسیار مشکوک هستند، زیرا این دسته مرجع همیشه با مقادیر پاسخ 1 همراه است (اما برای یک مورد)، و بنابراین من این کار را انجام می دهم. ضرایب رگرسیون نزدیک به 0 برای این دو دسته انتظار می رود. مقایسه بین دسته مرجع و سایر دسته‌ها که دارای توزیع متعادل‌تر 1 و 0 هستند، با آنچه من از بازرسی بصری داده‌ها انتظار دارم مطابقت دارد. حذف موارد مرتبط با این دو دسته «مشکل‌آمیز» logLikelihood مدل‌ها را تغییر نمی‌دهد، اما چون تعداد پارامترها را تغییر می‌دهد، نتایج آزمون نسبت درستنمایی را تحت تأثیر قرار می‌دهد. مدل‌ها با استفاده از تابع glm با خانواده دوجمله‌ای و پیوند لاجیت در R برازش می‌شوند. بنابراین سؤال من این است: از چه مدلی (یا رویه‌ای) باید استفاده کنم تا: (1) اهمیت کلی تأثیر پیش‌بین بر متغیر وابسته را آزمایش کنم؟ آیا باید قبل از انجام آزمون نسبت احتمال، داده‌های دسته‌های «مشکل‌آمیز» را در مدل نگه دارم یا نه؟ (2) این دو مقوله مشکل را با دیگران مقایسه کنید؟ هر اشاره ای قابل تقدیر است،
دسته های عاملی بدون واریانس چگونه بر رگرسیون لجستیک تأثیر می گذارند؟
92719
من به دنبال روشی برای یافتن فواصل اطمینان برای NPS (نمره خالص پروموتر) هستم. یک روش قبلاً در اینجا پیشنهاد شده بود. اما من به استفاده از بوت استرپ فکر می کنم. به نظر شما روش زیر منطقی است؟ آیا بسیار بهتر از آنچه توسط whuber پیشنهاد شده است؟ NPS=function(x){ if(sum(!x%%1==0)>0){stop(Non-integers found in the scores.)} if(sum(x>10|x<0) >0){stop(نمرات در مقیاس 0 تا 10 نیست.)} sum(ifelse(x<7,-1,ifelse(x>8,1,0)))/length(x)*100 } NPSconfInt=function(x, اطمینان=.9, iterations=10000){ quantile(bootstrap (x,تکرارها,NPS)$thetastar,c((1-اعتماد)/2, 1-(1-اعتماد)/2)) } library(bootstrap) npsData=c(1,5,6,8,9,7,0,10,7,8,6,5,7,8,2,8,10,9,8,7,10, 10) hist(npsData، breaks=11) NPS(npsData) NPSconfInt(npsData،.7)
فواصل اطمینان NPS با بوت استرپ
53021
من 63 ردیف و 17 ستون در مجموعه داده cocomo81 دارم (اطلاعات را اینجا ببینید). 16 ستون اول ورودی های شبکه و ستون هفدهم خروجی های تخمین زده شده است. من 2/3 از داده ها را برای آموزش و اعتبار سنجی (یعنی 42 ردیف)، 1/3 برای آزمایش (یعنی از ردیف های 43 تا 63) گرفتم. ردیف 1 را برای تمرین با وزنه های تصادفی و سپس ردیف 2 را با وزنه های به روز ارسال کردم (در هنگام ارسال ردیف اول دریافت شد) و به همین ترتیب تا 41 ردیف (1-1000 تکرار) و میانگین خطای دریافت شده در هر ردیف را به عنوان خطا در نظر گرفتم- 1. برای دریافت خطا از (خروجی تخمینی-خروجی واقعی) استفاده کردم. بعد از این من ردیف 42 را برای اعتبار سنجی فرستادم و به همان روش قبلی خطا گرفتم و وزن را به روز کردم بنابراین خطای اعتبار 1 را دریافت کردم (بدون تکرار). سپس ردیف های 43 تا 63 را برای تمرین با وزنه های به روز شده ارسال کردم و به همان روش قبلی خطا را دریافت کردم (اینجا تکراری وجود ندارد). من برای به‌روزرسانی وزن‌ها و عملکرد فعال‌سازی سیگموئید از پس انتشار استفاده کردم. کاری که من انجام دادم کار درستی است یا نه؟ آقای من گفت که خطاهای اعتبارسنجی و خطاهای تست در مقایسه با خطاهای آموزشی باید کمتر باشد اما من مقادیر زیادی می‌گیرم. پس لطفا به من بگویید، چه مشکلی دارد؟
درباره یافتن خطاهای تست
48419
من یک تحلیلگر/مدل آماتور داده هستم که سعی می کنم چند تکنیک جدید را به خودم بیاموزم. من سیستمی دارم که در آن، در صورت وقوع یک رویداد، دو نتیجه می‌تواند رخ دهد (0 یا 1)، و تعدادی مدل پیش‌بینی طراحی شده‌اند تا بر اساس رویدادهای قبلی، احتمال نتیجه 1 را ارائه دهند. برخی از این مدل‌ها بدیهی است که بهتر از سایرین هستند، اما من به دنبال راهی برای ارزیابی کمی عملکرد مدل‌هایی هستم که در آنها کمتر آشکار است. برای مثال، با توجه به دو مدل (p1 و p2) و دو رویداد (out1, out2): p1 = 0.70 p2 = 0.60 out1 = 1 p1 = 0.65 p2 = 0.55 out2 = 0 در رویداد اول، من انتظار دارم که بیشتر افراد p1 را در نظر بگیرند. بهتر است، زیرا احتمال بالاتری را برای نتیجه 1 پیش بینی کرده است. در رویداد دوم، من انتظار دارم که بیشتر p2 را در نظر بگیرند بهتر است، حتی اگر هر دو مدل در جهت اشتباه پیش‌بینی کرده‌اند، p2 احتمال کمتری از اشتباه بودن نتیجه را پیش‌بینی می‌کند. این به من نشان می دهد که به سادگی به هر مدل بر اساس چیزی مانند اگر (p > 0.5 && out = 1) امتیاز ++; اگر (p <= 0.5 && out = 0) امتیاز ++; برای ارزیابی دقیق این مدل ها کافی نیست. سوالات من این است: * برای ارزیابی این مدل ها از چه روش هایی می توان استفاده کرد؟ * این روش ها در آنچه در مورد مدل ها به ما می گویند چه تفاوتی دارند؟ به عنوان مثال برخی از روش‌ها به سمت مدل‌هایی که اغلب صحیح هستند، اما به ندرت دارای احتمالات خارج از محدوده 0.45 < p 0.55 هستند، یا به سمت مدل‌هایی که کمتر صحیح هستند اما به طور منظم احتمالاتی در محدوده‌های 0 <= p < 0.2 و 0.8 < p< دارند، منحرف می‌شوند. = 1؟ * (کمی کمتر مرتبط اما جالب است) چگونه این روش ها به سیستمی تبدیل می شوند که بیش از دو نتیجه دارد؟
روش‌های ارزیابی مدل‌های پیش‌بینی در سیستم‌های دو نتیجه‌ای
58679
در این صفحه، من به بخش خوبی تناسب علاقه مند هستم که نزدیک به انتهای صفحه است و شامل جدول توابع انحراف است. نویسنده بیان می کند که انحراف مقیاس شده، یعنی $D^*= \frac{D(y, \mu)}{\phi} $ دارای یک توزیع $ \chi^2_{n -p} $ محدود است، که در آن $ n $ تعداد مشاهده و $ p $ تعداد پارامترهای پیش بینی شده است. او سپس ادامه می دهد که در حالتی که $ \phi $ ناشناخته است، می توان آن را به صورت $ \hat{\phi} = \frac{D}{n - p} $ پیش بینی کرد. اگر اینطور باشد، آیا انحراف مقیاس شده برابر با $ \frac{D(y, \mu)}{\frac{D}{n - p}} = n - p $ نخواهد بود؟ فکر می‌کنم اختلاف بین $ D(y, \mu) $ و $ D $ (بدون آرگومان) را اشتباه متوجه شده‌ام. چیزی مشابه با آماره مجذور کای پیرسون مقیاس شده رخ می دهد. آیا کسی می تواند نحوه محاسبه انحراف مقیاس شده را در صورتی که $ \phi $ ناشناخته است و چگونه با g.o.f ادامه دهد توضیح دهد. تست؟
خوبی تناسب در GLM با انحراف مقیاس‌پذیر
105281
**مشکل** کیسه ای با شش نشانه مجزا در آن وجود دارد (مثلاً یک قالب شش وجهی). هر نشانه دارای یک مقدار ناشناخته از یک عدد واقعی است. یک آزمایش شامل ترسیم پنج نشانه (پنج رول قالب) و گفتن مجموع آن است (برای روشن شدن، شما شناسه هر نشانه را می دانید، نه ارزش آن را). تعداد آزمایش‌های مورد انتظار برای تعیین مقادیر هر شش توکن چقدر است؟ **نمایش جبری** شش مجهول $x_1، x_2، ...، x_6$ وجود دارد. هر آزمایش معادله‌ای به شکل $x_{d_1} + x_{d_2} + x_{d_3} + x_{d_4} + x_{d_5} = r$ به شما می‌دهد، که در آن هر یک از $d_i$s به‌طور تصادفی انتخاب می‌شوند ( به طور مستقل، هر کدام با احتمال 1/6) از $\{1,2,3,4,5,6\}$. راه منطقی برای حل آن تبدیل هر آزمایش به یک معادله خطی به شکل $$n_{1,i}x_1+n_{2,i}x_2+n_{3,i}x_3+n_{4,i} است. x_4+n_{5,i}x_5+n_{6,i}x_6=r_i$$ و سپس سیستم معادلات خطی حاصل را در نظر بگیرید. در بسیاری از (احتمالاً اکثر) موارد، شش آزمایش کافی است. اما ممکن است که یک ترکیب تاس یکسان را بیش از یک بار بدست آوریم (یا دقیقاً یا به عنوان جایگشت)، که باعث می شود شش معادله به صورت خطی مستقل نباشند، که نیاز به آزمایش دیگری دارد. و همچنین ممکن است آخرین آزمایش معادله ای تولید کند که ترکیبی خطی از برخی از معادلات قبلی است. (به عنوان مثال، اگر $x_1+x_1+x_2+x_2+x_3=r_1$ و $x_3+x_4+x_4+x_5+x_5=r_2$، سپس $x_1+x_2+x_3+x_4+x_5=(r_1+r_2)/2$ ) بنابراین مشکل این است که برای به دست آوردن 6 معادله مستقل خطی چند آزمایش لازم است؟ **تلاش های من** فکر کردم با در نظر گرفتن احتمال اینکه آزمایش بعدی معادله خطی مستقلی ایجاد کند، آن را با ایجاد یک آزمایش در یک زمان حل کنم. سپس می توانم تعداد مورد انتظار آزمایشی را پیدا کنم تا به 2 برسد، سپس تعداد مورد انتظار آزمایشی را به 3 برسانم، و غیره. اما نمی دانستم چگونه ادامه دهم. من فکر کردم مواردی را در مواردی در نظر بگیرم که اولین آزمایش تکراری نداشته باشد / یک جفت / دو جفت / یک سه گانه / یک چهار تایی / دو جفت / یک جفت و یک سه گانه، اما به سرعت غیرقابل اجرا می شود. .
تعداد آزمایشات مورد انتظار برای به دست آوردن 6 بردار مستقل خطی
10092
من سعی می کنم رگرسیون لجستیک را در رابطه با مدل امتیازدهی اعتباری درک کنم. من می خواهم اهمیت 20/ln(2) را در رگرسیون لجستیک درک کنم. چرا و چگونه استفاده می شود؟
20/ln(2) در رگرسیون لجستیک به چه معناست؟
96970
من از یک الگوریتم یادگیری ماشین نظارت شده در برخی از داده های بزرگ استفاده می کنم. ویژگی های بسیار بیشتر از مشاهدات وجود دارد. برای کاهش تعداد ویژگی‌ها، می‌خواهم برخی ویژگی‌ها را انتخاب کنم. با این حال، یک چیز وجود دارد که من در مورد آن سردرگم هستم. آیا می توانم ابتدا با استفاده از داده های مشاهدات _all_، انتخاب ویژگی را انجام دهم و سپس آموزش و آزمایش طبقه بندی کننده را انجام دهم؟
انتخاب ویژگی برای طبقه بندی کننده
58671
من سعی می کنم بفهمم که آیا از نمودار زیر باقیمانده های OLS که رابطه خطی برقرار نیست و احتمالاً یک رابطه مکعبی بهتر است؟ از آنجایی که هم در ابتدا و هم در وسط واریانس بزرگتر است و دو خم در یک رگرسیون می تواند واریانس این نواحی را کاهش دهد. یا این چیزی است که از این نمودار قابل تعیین نیست؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PLSos.jpg) [ویرایش پس از نظرات] ساختار میانگین یک عبارت درجه دوم و احتمالاً یک ترم مکعب را نشان می دهد، اما این مورد آخر کوچک به نظر می رسد . ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ndwch.jpg)
آیا واریانس باقیمانده OLS می تواند یک رابطه چند جمله ای را نشان دهد؟
95682
ما مجموعه‌ای از 60000 فایل داریم و یک نرم‌افزار داریم که سعی می‌کند به هر فایل نگاه کند و مشخص کند که محتویات مربوط به چه تاریخی است. مایلیم 99% مطمئن باشیم که نرم افزار ما در 95% +/- 5% مواقع تاریخ صحیح را انتخاب می کند. ما به صورت دستی 658 تست ایجاد کردیم که هر کدام یک فایل و تاریخ صحیح را می گیرند و بررسی می کنند که آیا نرم افزار تاریخ صحیح را انتخاب کرده است یا خیر. اگر 95 درصد از آزمون‌های ما موفق شده است، 99 درصد اطمینان خود را که در بالا ذکر شد برآورده کرده‌ایم. ما با استفاده از این ماشین حساب به عدد 658 رسیدیم http://www.surveysystem.com/sscalc.htm آیا به درستی آمار را برای مشکل خود اعمال می کنیم؟ با تشکر
آیا اندازه نمونه خود را به درستی انتخاب می کنیم؟
48412
فرض کنید مطالعه زیر را انجام می دهیم. ما 2 وب سرور (سرور A و سرور B) داریم که در حال پردازش درخواست های کاربر هستند. هر دو روی یک سخت افزار اجرا می شوند، اما یکی از آنها (سرور B) از الگوریتم کمی متفاوت برای پردازش درخواست استفاده می کند. هنگامی که درخواست کاربر وارد می شود، ما 50/50 شانس پردازش آن را در هر سرور داریم. بنابراین کاری که توسط هر سرور انجام می شود در دراز مدت یکسان است. ما 1 ساعت گزارش سیستم داریم که حاوی اطلاعاتی درباره همه درخواست‌های این ساعت است (_تمام جمعیت، نه نمونه_): چه سروری درخواست را پردازش کرده و چه مدت طول کشید تا پردازش شود. به عنوان مثال: 21:00:00 SERVER-A 0.11s 21:00:00 SERVER-A 0.13s 21:00:00 SERVER-B 0.09s 21:00:00 SERVER-A 0.16s 21:00:00 SERVER- B 0.11s 21:00:01 SERVER-A 0.14s گزارش بسیار بزرگ است (~250K درخواست از هر سرور، ~500K در کل). به نظر می رسد که سرور B کمی سریعتر است (میانگین زمان پاسخ کمتر است). سوال این است که برای نشان دادن اهمیت آماری تفاوت زمان پاسخگویی آن دو سرور از کدام تست استفاده کنم؟
آزمون آماری برای تجزیه و تحلیل عملکرد سیستم های کامپیوتری؟
96977
به عنوان مثال من یک مجموعه داده به صورت زیر دارم: (2042.044,2218.153,3670.893,5149.684,5533.429,7111.183,11041.569,15459.771,783,477,1701.520,4085) داده ها در توزیع Burr برای محاسبه پارامترهای آن در R؟ fitdist توزیع Burr را ارائه نمی دهد. آیا می توانم به صراحت تابع توزیع احتمال خود را برای محاسبات مورد نیاز تعریف کنم؟ لطفا کمک کنید چون من تازه وارد R هستم.
چگونه مجموعه ای از داده ها را در Burr Distribution در R قرار دهم؟
95688
اجازه دهید $X$ و $Y$ متغیرهای تصادفی مستقل باشند، که هر کدام به طور یکنواخت بین $0$ و $1$ توزیع شده‌اند. احتمال اینکه > $(X−1/2)^2+(Y−1/2)^2≤1/9$ را پیدا کنید. حداقل 8$ رقم صحیح بعد از اعشار را بدهید. نمی دانم با این سوال از کجا شروع کنم. آیا کسی می تواند مرا در مسیر درست راهنمایی کند؟
احتمال توزیع یکنواخت؟
59106
من یک آزمایش لیست با N=150 دارم. به گروه کنترل 3 عامل و به گروه درمان 4 عامل داده شد که به طور تصادفی به این گروه ها تقسیم شدند. هر گروه باید گزارش می داد که چند عامل برای آنها اعمال می شود. من 18 دسته از این آزمایش را انجام داده ام. در اکثر آنها، میانگین گروه درمان بالاتر از میانگین گروه کنترل است یا اگر برعکس باشد، این تفاوت معنی دار نیست. اما در دو دسته از گروه ها، میانگین گروه درمان کمتر است. نسبت به میانگین گروه کنترل و این تفاوت معنی دار است... سوالات از قبل تست شده بودند و به نظر می رسید که خوب کار کنند. پس چرا این نتایج در 2 آف دسته است؟ یک میلیون تشکر پیشاپیش برای هر گونه توصیه و پیشنهاد، TP
میانگین کنترل کمتر از میانگین درمان در یک آزمایش فهرست - چرا؟
54551
ما یک متغیر وابسته متریک (اختلال، مقیاس 0-40) و تعداد بیشتری از علائم یک اختلال روانی داریم، که هر کدام در مقیاس 0 (موجود) - 3 (بسیار شدید) هستند. ما سعی می کنیم دریابیم که آیا علائم با سطوح مختلف اختلال همراه است یا خیر. ما این را در دو مرحله آزمایش می کنیم. اول، ما از یک رگرسیون خطی استفاده می کنیم، که اختلال را با علائم فردی پیش بینی می کند، که در آن علائم حدود 45٪ از واریانس اختلال را توضیح می دهند. دوم، ما از متریک LMG بسته R RELAIMPO (Grömping، 2006؛ اهمیت نسبی) برای تخصیص سهم های R^2 منحصر به فرد به هر علامت استفاده می کنیم. نتیجه این است که علائم فردی در واریانس توضیح داده شده اختلال به شدت متفاوت است. محدوده برآورد بین 1٪ و 20٪ توضیح داده شده است. این به خوبی با **فرضیه ما** مطابقت دارد: > برخی از علائم نسبت به سایرین آسیب‌رسان‌تر هستند، زیرا چیزهای متفاوتی هستند (و نه صرفاً شاخص‌های نهفته قابل تعویض یکسان). > اختلال به ماهیت علائم بستگی دارد (بنابراین، مجموع نمرات علائم > ممکن است اطلاعات را مبهم کند). با این حال، یک مرورگر **فرضیه جایگزین** را مطرح کرد: > اختلال به شدت علائم بستگی دارد، صرف نظر از ماهیت علائم. این فرضیه بیان می‌کند که همه علائمی که واریانس زیاد را توضیح می‌دهند، نشانه‌هایی هستند که میانگین بالایی دارند، و علائمی که مقادیر متوسط ​​واریانس را توضیح می‌دهند، علائم متوسط ​​​​شدید هستند، و علائمی که فقط واریانس کمی را توضیح می‌دهند، فقط > جزئی هستند. ناتوان کننده من کاملاً نمی دانم که چگونه این ایده را آزمایش کنم، و از ورودی بسیار سپاسگزارم. ( _EDIT_ : یکی از همکارانم پیشنهاد داد که یک مدل فرضیه صفر را آزمایش کنیم که فقط از مجموع امتیازها استفاده می کند (یعنی مجبور کردن همه بتاها یکسان باشند) در مقابل مدل با بتای فردی (آزمون 13 درجه آزادی)، اما صادقانه بگویم، من این کار را نمی کنم. درک کنید که چه کاری انجام می دهد و چگونه کمک می کند).
مقایسه دو مدل رگرسیون، اهمیت نسبی علائم فردی
11943
من از `auto.arima()` برای پیش بینی استفاده می کنم. هنگامی که من از داده های ساخته شده مانند AirPassengers استفاده می کنم، فصلی بودن را ثبت می کند. اما، اگر من داده ها را در هر قالب دیگری وارد کنم (به صورت برداری یا از یک برگه اکسل)، فصلی بودن را تشخیص نمی دهد. آیا فرمت خاصی وجود دارد که در آن فصلی بودن را تشخیص دهد یا من کار اشتباهی انجام می دهم؟ آیا داده ها باید در قالب خاصی وارد شوند؟
مشکل در استفاده از auto.arima() در R
10096
در حال حاضر مصرف انرژی روزانه یک خانه را از دی ماه امسال رصد می کنم. این مصرف روزانه به چندین متغیر بستگی دارد، از جمله دمای بیرون، تابش خورشید و غیره. در فواصل منظم (هر دو هفته یک بار) الگوریتم کنترلگر گرمایش را تغییر می‌دهم تا ببینم آیا می‌توانم صرفه‌جویی در مصرف انرژی را بهبود بخشم یا خیر. روشی که باید برای آزمایش اینکه آیا چنین تغییری تأثیری بر یک سری زمانی دارد یا خیر، باید دنبال کرد؟ من یک مثال کوتاه در BHH2 پیدا کردم (جایی که آنها تأثیر یک قانون را بر سطوح آلودگی تجزیه و تحلیل می کنند) اما من نیاز به بحث دقیق تری دارم. **به‌روزرسانی** در اینجا نمودار داده‌هایی است که من با آن کار می‌کنم: ![انرژی در مقابل زمان](http://farm4.static.flickr.com/3301/5694800429_70e184727c_d.jpg) این میزان مصرف انرژی روزانه را نشان می‌دهد. خط سبز نشان می دهد که چه زمانی تغییر را به الگوریتم وارد کردیم. همانطور که می بینید، حتی قبل از اینکه ما این تغییر را معرفی کنیم، احتمالاً به دلیل گرم شدن دمای بیرون، روندی به سمت مصرف انرژی کمتر وجود داشت. چیزی که من باید بدانم این است که آیا معرفی این تغییر به طور قابل توجهی آن روند را برجسته کرده است یا خیر. همچنین توجه داشته باشید که از آن زمان، ما داده های بسیار بیشتری از آنچه در این نمودار نشان داده شده است جمع آوری کرده ایم.
چگونه می توان اثر دستکاری های مختلف یک متغیر مستقل را بر روی یک متغیر وابسته در یک سری زمانی آزمایش کرد؟
48415
من امروز به شما مراجعه می کنم زیرا با مشکل بزرگی روبرو هستم که نمی توانم توضیح دهم. من یک رگرسیون لجستیک چند جمله ای (با استفاده از بسته mlogit) روی داده های رفتاری اجرا کرده ام. من داده ها را با انجام mlogit <- mlogit.data(Merge, Choice = Choice، shape = long، alt.var = Comp، drop.index = TRUE) روی داده های Merge خود آماده می کنم. که موارد زیر را به من می دهد: تاریخ زمان ActivityX ActivityY دما رفتار دره سن ماه سال کودک انتخاب فردی 1.F 01/05/2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 TRUE 1.R 01/05 2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 FALSE 1.M 01/05/2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 FALSE 1.RUN 01/05/2012 F 0012 00:00:00 فوورن 8 5 2012 Y 26 FALSE 2.F 01/05/2012 00:05:00 90 76 10 F Fuorn 8 5 2012 Y 26 TRUE 2.R 01/05/2012 00:05:00 90 F 8 721 26 نادرست 2.M 01/05/2012 00:05:00 90 76 10 F Fuorn 8 5 2012 Y 26 FALSE 2.RUN 01/05/2012 00:05:00 90 76 10 F Fuorn 8 Y352. اف 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 FALSE 3.R 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 FAL0SE Y 26 FALSE 3.R. 05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 TRUE 3.RUN 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 FALSE 1/020 4.F 15:00 0 0 10 R Fuorn 8 5 2012 Y 26 FALSE 4.R 01/05/2012 00:15:00 0 0 10 R Fuorn 8 5 2012 Y 26 TRUE 4.M 01/05/2012 00:0012 R Fuorn 8 5 2012 Y 26 FALSE 4.RUN 01/05/2012 00:15:00 0 0 10 R Fuorn 8 5 2012 Y 26 FALSE 5.F 01/05/2012 00:20:00 0 0 0 9 R Fuorn 26 نادرست 5.R 01/05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26 TRUE 5.M 01/05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26/R FALSE 1. 05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26 FALSE سپس من رگرسیون خود را اجرا کردم: m1 <- mlogit (انتخاب ~ 1 | دما + دره + سن + بچه + ماه، mlogit) و نتایج قابل توجهی به من داد: برآورد Std. خطای t-value Pr(>|t|) M:(intercept) -4.2153e-01 5.7533e-02 -7.3268 2.358e-13 *** R:(intercept) 6.2325e-01 3.4958e-02 17.8 <2.8. e-16 *** RUN:( intercept) -1.2275e+01 4.0526e-01 -30.2895 < 2.2e-16 *** M:Temp 1.5371e-02 9.8680e-04 15.5764 < 2.2e-16e-16 -39 R. -02 6.7926e-04 -58.6975 < 2.2e-16 *** RUN:Temp -4.4532e-02 6.8696e-03 -6.4825 9.023e-11 *** M:ValleyTrupchun -3.61154e-3.61154 -3.61154e-3.6154e-3.6115 -3.61154 -3.6154e-3.6. 2.2e-16 *** R:ValleyTrupchun -4.0186e-02 9.7968e-03 -4.1020 4.096e-05 *** RUN:ValleyTrupchun 1.2895e+00 8.5357e-02-06-02 <15. سن -1.1026e-02 2.6902e-03 -4.0985 4.158e-05 *** R:Age 1.9465e-02 1.6479e-03 11.8119 < 2.2e-16 *** RUN:سن 5.60-5.61. 3.3294 0.0008703 *** M:kidY 6.0686e-02 2.2638e-02 2.6807 0.0073460 ** R:kidY -4.1638e-01 1.2391e-02-02 -33.60 R. 6.2311e-01 1.0410e-01 5.9854 2.158e-09 *** M:ماه -2.0466e-01 8.4448e-03 -24.2346 < 2.2e-16 *** R:ماه 2.0466e-01 4.6157 3.917e-06 *** RUN:Month 9.8715e-01 5.6209e-02 17.5622 < 2.2e-16 *** این نتایج مطابق با چیزی بود که من انتظار داشتم در ادبیات پیدا کنم، بنابراین کاملاً خوشحال بودم. قدم بعدی من این بود که نتایج خود را ترسیم کنم و اینجا زمانی است که من کمی مشکل دارم. اول از همه، وقتی داده‌های اصلی خود را رسم می‌کنم و آن‌ها را با نتیجه رگرسیونم مقایسه می‌کنم، تفاوت‌های زیادی پیدا می‌کنم. برای مثال، وقتی درصد زمان صرف شده در یک رفتار (M برای حرکت، F برای تغذیه، R برای استراحت و دویدن برای دویدن، در رگرسیون من F مرجع است) را در تابع سن رسم می‌کنم، متوجه می‌شوم که هر چه سن بالاتر باشد. هر فرد بیشتر استراحت می کند و بیشتر حرکت می کند، اما تخمینی که من از رگرسیون به دست آوردم نشان می دهد که آنها باید بیشتر استراحت کنند (وقتی بزرگتر شوند) اما
predict() - رگرسیون لجستیک چند جمله ای
65768
آیا کسی می تواند مقالات خوبی در رابطه با داده کاوی مسکن به من پیشنهاد دهد. من مدتی در گوگل جستجو کردم و نتوانستم مقاله جدیدی پیدا کنم. من فرض می کنم که مردم انجام هرگونه استخراج مربوط به داده های مسکن را متوقف کرده اند. آیا کسی دیگر روی آن کار نمی کند؟ من به استفاده از تکنیک های داده کاوی برای پیش بینی قیمت مسکن، خوشه بندی و نوع رتبه بندی خانه ها بر اساس عوامل متعددی مانند موقعیت مکانی، اطلاعات نرخ جرم و جنایت، نرخ مهاجرت و غیره فکر می کنم. تقریباً مطمئن هستم که این چیز جالبی نیست. کار زیادی با آن وجود ندارد. اما به این فکر می کردم که چیزی قابل انتشار داشته باشم. آیا کسی می تواند مجموعه داده های خوبی را به من پیشنهاد دهد که دارای اطلاعات مکانی، اطلاعات قیمت و سایر اطلاعات جمعیتی باشد. من یکی را در http://archive.ics.uci.edu/ml/datasets/Housing پیدا کردم. آیا موارد دیگری وجود دارد؟
نگرانی در مورد داده کاوی مسکن
58677
18 نفر که بر اساس بیان نیمه کمی یک پروتئین (کم در مقابل زیاد) به 2 گروه تقسیم شده اند. گروه 1 (سطح پروتئین پایین) 6 نفر و گروه 2 (سطح پروتئین بالا) 12 نفر دارند. در گروه 1، 5 نفر از 6 نفر به یک بیماری خاص مبتلا شدند، در حالی که تنها 2 نفر از 12 نفر در گروه 2 به این بیماری مبتلا شدند. من می خواهم تعیین کنم که آیا ارتباط آماری معنی داری بین سطوح پایین پروتئین و ایجاد این بیماری خاص وجود دارد یا خیر. اگر کسی بتواند من را به سمت تست هایی که باید استفاده کنم راهنمایی کند، عالی است.
آزمایش اینکه آیا دو گروه تشکیل شده از یک متغیر پیوسته در یک نتیجه باینری تفاوت دارند یا خیر
15912
ویکی‌پدیا می‌گوید که Blum Blum Shub یک مولد شبه تصادفی است که مقدار i را می‌توان مستقیماً برای یک دانه مشخص محاسبه کرد. ویکی‌پدیا همچنین می‌گوید که این ژنراتور برای کاربردهای شبیه‌سازی بسیار کند است. آیا مولد استانداردی با ویژگی محاسبات مستقیم وجود دارد که برای مونت کارلو به اندازه کافی سریع باشد؟ آیا دلیلی وجود دارد که این وجود نداشته باشد؟
دنباله شبه تصادفی که مقادیر آن را می توان مستقیماً برای دانه داده شده محاسبه کرد؟
48418
> یک روزنامه هر روز یک تن کاغذ روزنامه مصرف می کند. کاغذ روزنامه خود را از > یک توزیع کننده محلی خریداری می کند. این توزیع کننده کاغذ روزنامه را در رول های یک تنی > با ارزان ترین قیمت عرضه می کند، اما متأسفانه تحویل آن نامنظم است. از این رو، > تعداد رول های کاغذ روزنامه در انبار کاغذ نو به طور تصادفی متفاوت است. > اگر در یک روز خاص، رول در انبار وجود نداشته باشد، روزنامه > رول را از یک تامین کننده اضطراری می خرد و استفاده می کند. فرض کنید $Y_n$ تعداد > رول های دریافت شده از توزیع کننده محلی در روز $n$ باشد. عرضه در > عصر می رسد، در حالی که یک تن در صبح مصرف می شود. بگذارید X_n$ باشد > تعداد رول‌های موجود در انبار در ابتدای روز $n$ قبل از اینکه تقاضای > یک تن برآورده شود و عرضه برای روز $n$ برسد. > بنابراین $X_{n=1} = X_n - 1 + Y_n$ اگر $X_n>0$ و $X_{n+1} = X_n$ باشد $X_n = 0$. > > فرض کنید که متغیرهای تصادفی $\{Y_n, n \geq 0\}$ مستقل از > $X_{0}$ هستند. علاوه بر این، فرض کنید که آنها به طور طبیعی مستقل و > به طور یکسان توزیع شده اند و $P(Y_n = k) = a_k، k = 0,1،...$. > > * فرض کنید $a_k = 0$ برای $k \geq 2$ و $X_0 \{0, 1\}$، فرآیند $X_n$ در این شرایط چه مقادیری می‌تواند داشته باشد؟ > از ماتریس انتقال من، گفتم اگر ما فقط به مقادیر زمانی که $i، j$ $0$ و $1$ هستند نگاه کنیم، ماتریس کوچک $2 \times 2$ از کل ماتریس انتقال یک مرحله ای را به دست خواهیم آورد و به همین ترتیب این فقط $$\pmatrix{a_0 & a_1 \\ a_0 & a_1}$$ خواهد بود و بنابراین تنها مقادیری که $X_n$ می‌تواند در این موقعیت بگیرد، $a_0$ و $a_1$. اما در پاسخ ها می گوید باید $0$ و $1$ باشد. چرا این است؟
وقتی $P(Y = k) = a_k = 0$ برای $k \geq 2$، فرآیند $X_n$ چه مقادیری می تواند داشته باشد
10094
من هم تجزیه SVD و هم مقیاس بندی چند بعدی یک ماتریس داده 6 بعدی را انجام دادم تا درک بهتری از ساختار داده ها داشته باشم. متأسفانه، تمام مقادیر منفرد از یک ترتیب هستند، به این معنی که ابعاد داده ها واقعاً 6 است. با این حال، من می خواهم بتوانم مقادیر بردارهای منفرد را تفسیر کنم. به عنوان مثال، به نظر می رسد اولی در هر بعد کم و بیش برابر است (یعنی «(1،1،1،1،1،1)»)، و دومی نیز ساختار جالبی دارد (چیزی شبیه «(1، -1،1،-1،-1،1)`). چگونه می توانم این بردارها را تفسیر کنم؟ ممکن است به من برخی ادبیات در این زمینه را اشاره کنید؟
چگونه نتایج کاهش ابعاد/مقیاس‌گذاری چند بعدی را تفسیر کنیم؟
10095
### فرضیات: در یک ANOVA که در آن مفروضات نرمال بودن نقض می شود، تبدیل Box-Cox را می توان به متغیر پاسخ اعمال کرد. لامبدا را می توان با استفاده از حداکثر احتمال برای بهینه سازی عادی بودن باقیمانده های مدل تخمین زد. ### سوال: وقتی تخمین‌های «لامبدا» در مدل تهی و مدل کامل متفاوت است، «لامبدا» چگونه باید تخمین زده شود؟ ### داده‌های من: در داده‌های من، تخمین لامبدا برای مدل تهی «-2.3» و تخمین لامبدا برای مدل کامل «-2.8» است. تبدیل پاسخ با استفاده از این پارامترهای مختلف و انجام ANOVA از قبل منجر به آمارهای F مختلف می شود. من در زیر یک نسخه ساده شده از تجزیه و تحلیل را با استفاده از توزیع های بتا با پارامترهای مختلف برای شبیه سازی غیر نرمال بودن تولید کرده ام. متأسفانه، در این مثال، نتایج ANOVA نسبت به برآوردهای مختلف «لامبدا» حساس نیست. بنابراین، به طور کامل مشکل را نشان نمی دهد. library(ggplot2) library(MASS) library(car) #تولید داده های تصادفی توزیع شده بتا n=200 df <- rbind(data.frame(x=factor(rep(a1,n)), y=rbeta(n ,2,5))، # data.frame چوله چپ بیشتر (x=factor(rep(a2,n)), y=rbeta(n,2,2))) # چاپ اریب سمت چپ کمتر(qplot(data=df, color=x, x=y, geom=density)) print(تجزیه واریانس تبدیل نشده:) m .null <- lm(y ~ 1, df) m.full <- lm(y ~ x, df) print(anova(m.null, m.full)) # برآورد پارامترهای تبدیل Box-Cox Maximum Liklihood برای هر دو مدل bc.null <- boxcox(m.null); bc.null.opt <- bc.null$x[which.max(bc.null$y)] bc.full <- boxcox(m.full); bc.full.opt <- bc.full$x[which.max(bc.full$y)] print(paste(ML Box-Cox برآورد برای مدل null:bc.null.opt)) print(paste (تخمین ML Box-Cox برای مدل کامل:bc.full.opt)) df$y.bc.null <- bcPower(df$y, bc.null.opt) df$y.bc.full <- bcPower(df$y, bc.full.opt) print(qplot(data=df, x=x, y=y.bc.null, geom= boxplot)) print(qplot(data=df, x=x, y=y.bc.full, geom=boxplot)) print(تحلیل واریانس با تبدیل Box-Cox بهینه برای مدل تهی) m.bc_null.null <- lm(y.bc.null ~ 1, data=df) m.bc_null.full <- lm(y.bc .null ~ x, data=df) print(anova(m.bc_null.null, m.bc_null.full)) print(Analysis of Variance with Optimal Box-Cox transform for full model) m.bc_full.null <- lm(y.bc.null ~ 1, data=df) m.bc_full.full <- lm(y.bc.null ~ x، data=df) print(anova(m.bc_full.null، m.bc_full.full))
تخمین لامبدا برای تبدیل جعبه کاکس برای ANOVA
29565
من یک کاربر گاه به گاه روش های داده کاوی هستم و به سادگی نمی دانم که چالش های اصلی و مسیرهای تحقیقاتی برای طراحان روش چیست. با تشکر از تخصص شما، Peuhp
چالش های اصلی در داده کاوی
29564
من خودم این کتاب را مطالعه می کنم و برای یکی از تمرین ها، به ویژه 3.9.2، به کمک نیاز دارم: فرض کنید، برای یک جمعیت خاص، می توانیم درآمد سیاهه را از ارتفاع لگ به صورت زیر پیش بینی کنیم: * فردی که 66 اینچ قد دارد پیش بینی می شود. تا 30 هزار دلار درآمد داشته باشد. * هر افزایش 1 درصدی در قد با افزایش پیش بینی شده 0.8 درصدی درآمد مطابقت دارد. * درآمد تقریباً 95٪ افراد در ضریب 1.1 ارزش های پیش بینی شده قرار می گیرد. (الف) معادله خط رگرسیون و انحراف استاندارد باقیمانده رگرسیون را ارائه دهید. برای این قسمت از گلوله های اول و دوم برای بدست آوردن معادله $\ln(30000) = 0.008\ln(66) + c$ استفاده می کنم و با حل $c$ معادله رگرسیون $\ln(درآمدها) را بدست می آوریم. ) = 0.008 \ln(ارتفاع) + 10.257$. آیا این درست است؟ برای بخش دوم سوال، برای تعیین چگونگی یافتن انحراف استاندارد باقیمانده رگرسیون به کمک نیاز دارم. اگر $p$ مقدار خط پیش‌بینی در نمودار باقی‌مانده باشد، بر اساس گلوله سوم، به این ترتیب است که $p \pm 2\sigma = p \pm 1.1p$. با این حال، من مطمئن نیستم که واقعاً چگونه $\sigma$ را محاسبه کنم. (ب) فرض کنید انحراف استاندارد ارتفاع چوب در این جمعیت 5 درصد است. پس، آیا $R^2$ مدل رگرسیون در اینجا توضیح داده شده است؟ نمی دانم از کجا باید در این مورد شروع کرد... آیا می توانم راهنمایی دریافت کنم، لطفا؟
برای استخراج آمار رگرسیون به کمک نیاز دارید
95309
من باید یک مقاله آزمایشی را ارزیابی کنم که شامل موارد دوگانه و چندگانه باشد. من در حال حاضر از R استفاده می کنم. اما در R IRT مدل های امتیاز دهی آیتم های دوگانه و چندگانه متفاوت است و هیچ راهی برای ترکیب هر دو نوع آیتم پیدا نکردم، بنابراین چگونه می توانم هر دو اقلام دوگانه و چندگانه را در یکی ترکیب کنم. به طور خاص - 1. آیا برنامه / تابعی در R وجود دارد که هم آیتم های دوگانه و هم چندگانه را مدیریت کند. سپس هر نرم افزار منبع باز IRT دیگری که بتواند موارد دوگانه و چندگانه را با هم مدیریت کند
اختلاط اقلام دوگانه و چندگانه در یک آزمون
97843
اغلب بین نتایج آزمون Skewness & Kurtosis و نرمال بودن تفاوت وجود دارد و من همیشه شک دارم که آیا بهتر است آزمون های پارامتریک یا ناپارامتریک را انتخاب کنم (من از SPSS استفاده می کنم). گاهی اوقات هیستوگرام ها نشان می دهند که آیا توزیع نرمال به نظر می رسد یا نه، و من متوجه شدم که اغلب S&K نشانگرهای بهتری هستند، اما وقتی که دفعه قبل آنالیز کردم متفاوت بود و واقعاً نمی دانم چه کار کنم... خواندم که به عنوان مثال. هنگامی که گروه ها متساوی تعداد هستند، در انتخاب بین آزمون t-Student و غیرپارامتری بهتر است که t-Student را انتخاب کنید، حتی اگر توزیع ها نرمال نباشد. آیا این درست است؟
چه چیزی در انتخاب آزمون های پارامتریک یا ناپارامتریک - نتایج آزمون چولگی و کشیدگی یا نرمال بودن مهم تر است؟
112761
ترکیب توزیع $\Gamma$ با تابع log-link در یک مدل خطی تعمیم یافته می تواند یک مدل مفید باشد. با این حال، در تجربه من، الگوریتم حداقل مربعات وزنی تکراری (IWLS) (به طور خاص، پیاده سازی در R از طریق «glm») همیشه همگرا نیست. log-link پیوند متعارفی برای توزیع $\Gamma$ نیست، و به همین دلیل شما نمی توانید از نتایج استاندارد خانواده های نمایی برای بحث در مورد سوالات مربوط به وجود و منحصر به فرد بودن راه حل معادله امتیاز استفاده کنید. تجزیه و تحلیل به طور خاص از توزیع $\Gamma$ با پیوند log کاملاً ساده است، اما ممکن است این سوال توسط دیگران قبل از من مطرح شده باشد. من فقط نتوانستم چیزی در ادبیات پیدا کنم. بنابراین سوال من این است که آیا ارجاعی در جنبه های عددی مدل های خطی تعمیم یافته با توزیع $\Gamma$ و log-link وجود دارد؟ من به طور خاص به بحث های مربوط به الگوریتم IWLS و اینکه آیا جایگزین های پایدارتری وجود دارد علاقه مند هستم. **ویرایش:** یک مثال کوچک. فرض کنید $Y$ به طور معمول با $\log Y \sim \mathcal{N}(\beta_0 + \beta_1 x, \sigma^2)$ توزیع شده است. سپس $$\log(E Y) = \beta_0 + \sigma^2/2 + \beta_1 x$$ و $VY = (e^{\sigma^2} - 1) (EY)^2$. بنابراین این مدل دارای همان ساختار میانگین واریانس یک مدل $\Gamma$ با log-link و پارامتر پراکندگی $\psi = e^{\sigma^2} - 1$ است. اگر پارامترسازی مجدد رهگیری را در نظر داشته باشیم، این مدل را می‌توان با استفاده از «glm» با «family = Gamma(log) برازش داد. تخمین پارامتر MLE نخواهد بود و برآوردها در مقایسه با تبدیل ساده $Y$ و استفاده از lm کارآمد نیستند. سیگما <- 4 بتا <- 1 بتا 0 <- 1 n <- 100 x <- rnorm(n) y <- exp(beta0 + بتا * x + rnorm(n، 0، سیگما)) fit1 <- lm(log( y) ~ x) sigmasqhat <- sum(fit1$residuals^2) / (n-2) betastart <- coef(fit1) + c(sigmasqhat / 2, 0) fit <- glm(y ~ x, start = betastart, family = gamma(log)) کد بالا باید چند بار اجرا شود تا کشف شود مجموعه داده های مشکل ساز حدود 2 تا 3 درصد مواقع با خطا مواجه می شوم. بیشتر اوقات، الگوریتم با حداکثر تعداد تکرارهای پیش‌فرض (که 25 است) همگرا نمی‌شود، اما این مشکل را می‌توان به راحتی با افزایش «maxit» برطرف کرد. خطاهایی که من با آن مواجه می شوم عبارتند از 'NA/NaN/Inf در 'x' و 'حلقه داخلی 1. نمی تواند اندازه گام را تصحیح کند. مثال بالا برای اهداف آموزشی برای بررسی تفاوت ها و شباهت های بین مدل های log-normal و $\Gamma$ در نظر گرفته شد. من همچنین چند مجموعه داده دارم که به نظر می رسد یک مدل $\Gamma$ با یک log-link به خوبی مطابقت دارد. تطبیق مدل با مجموعه داده ها مشکلی نیست، اما هنگامی که بوت استرپ می کنم، با مشکلات همگرایی مشابهی در تعدادی از مجموعه داده های بوت استرپ مواجه می شوم.
پایداری عددی IWLS برای مدل‌های گاما با log-link
112762
من می دانم که وارد کردن متغیرهایی که دارای چند خطی (همبستگی بالا) هستند در تحلیل رگرسیون درست نیست. اما اگر از **رگرسیون گام به گام به عقب** استفاده می‌کنم، آیا می‌توانم همه پیش‌بینی‌کننده‌های بسیار همبسته را اضافه کنم و انتظار داشته باشم که بهترین پیش‌بینی‌کننده‌ها در پایان در مدل باقی بمانند یا تجزیه و تحلیل ممکن است خراب شود؟ تجربه من با داده‌های خودم منجر به حذف متغیرهای اضافی (با چند خطی) شد، بنابراین به نظر می‌رسد مشکلی وجود ندارد، اما من می‌خواهم روش خود را گزارش کنم و می‌خواهم بدانم آیا آن را درست انجام داده‌ام یا تصادفاً نتیجه داده است. بنابراین به اختصار بگوییم: **آیا وارد کردن متغیرهایی با چند خطی در تحلیل رگرسیون گام به گام به عقب درست است؟**
پیش بینی کننده های بسیار همبسته در رگرسیون گام به گام به عقب؟
29569
یک بار شنیدم که یادگیری مولد، یادگیری افتراقی و یادگیری حداکثر حاشیه را می توان برحسب تعریف مربوط به تابع ضرر از هم جدا کرد. من مطمئن نیستم چگونه به آن دست یابیم؟
تفاوت و ارتباط بین یادگیری مولد، یادگیری افتراقی و یادگیری حداکثر حاشیه
112760
من از بسته mlogit استفاده کرده ام و سعی می کنم نتایجی را که از مدل خود دارم خلاصه کنم. من یک سوال در مورد مقدار مرجع دارم و در یک لحظه به آن خواهم رسید. redata.full <- mlogit(no.C~ 1| WR+age+age2+BP+noC.1yr, data=redata, reflevel=0, na.action=na.fail) no.C = تعداد فرزندان WR = سن خطر + سن 2 = رابطه غیر خطی که با افزایش سن تولید افراد BP کاهش می یابد = فشار مرور noC.1yr = تعداد فرزندان تولید شده در سال قبل از اینکه تشخیص دهم داده ها ماهیت ترتیبی دارند، اما من از روش های افراد دیگری پیروی می کنم که این کار را انجام داده اند و به جای رگرسیون لجستیک ترتیبی از رویکرد مبتنی بر مرجع استفاده می کنند. با این حال، من هنوز در توجیهی غیر از استناد به طرف مقابل و گفتن او هم این کار را کرد! اگه کسی پیشنهادی داره ممنون میشم نتایج من برای این مدل عبارتند از: فراخوانی: mlogit(فرمول = no.C ~ 1 | WR + سن + سن 2 + BP + noC.1yr، داده = redata، na.action = na.fail، reflevel = 0، روش = nr، print.level = 0) فرکانس های جایگزین: 0 1 2 0.233766 0.675325 0.090909 nr روش 5 تکرار، 0h:0m:0s g'(-H)^-1g = 2.16E-07 گرادیان نزدیک به صفر ضرایب : برآورد Std. خطای t-value Pr(>|t|) 1:(intercept) -0.281226 1.225763 -0.2294 0.81854 2: (intercept) -0.605312 1.997179 -0.3031 0.718:W173 . 0.518854 1.6330 0.10248 2:WR 1.347976 0.689916 1.9538 0.05072. 1: سن 0.314075 0.275486 1.1401 0.25425 2: سن -0.422368 0.395240 -1.0686 0.28523 1: سن 2 -0.018998 0.018928 0.014141445 - 0.0141446 0.022572 0.018949 1.1912 0.23359 1:BP -0.143720 0.173585 -0.8280 0.40770 2:BP -0.074553 0.33122108 0.3312108-0.3312108 -0. 0.574304 0.377821 1.5200 0.12850 2:noC.1yr 1.251673 0.626033 1.9994 0.04557 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -116.6 McFadden R^2: 0.079844 آزمون نسبت درستنمایی: chisq = 20.271 (p. ) exp(cbind(OddsRatio = coef(redata.full)، ci)) OddsRatio 2.5 % 97.5 % 1: (intercept) 0.7548580 0.06831155 8.341351 2:(intercept) 0.549.5903 27.360107 1:WR 2.3332750 0.84394900 6.450831 2:WR 3.8496270 0.99577472 14.882511 1: سن 1.368999294.36899274. 2: سن 0.6554925 0.30209181 1.422317 1: سن2 0.9811815 0.95379086 1.009359 2: سن2 1.0228284 0.9855376153P 0.9855379086 0.8661299 0.61634947 1.217136 2:BP 0.9281585 0.48504538 1.776078 1:noC.1yr 1.7758933 0.84686262401C. 3.4961862 1.02497823 11.925441 من تأیید تفسیرهای خود را می خواهم: مدل بهتر از تهی است - به دست آمده از آزمون نسبت درستنمایی. سؤال: چگونه می توانم آزمایش کنم که مدل واقعاً چقدر خوب کار می کند (یعنی خوب بودن تناسب)؟ تست Hosmer-Lemshow؟ من هشدارهایی را در مورد استفاده از شبه R مک فادین خوانده ام که واقعاً برای رگرسیون چند جمله ای قابل اعمال نیستند. من یک تست HL با کتابخانه «ResourceSelection» پیدا کردم و می گوید مدل من اصلاً خوب کار نمی کند. حالا چی؟ تفسیر: WR و noC.1yr تنها متغیرهایی هستند که کمی معنی دار هستند. اما این فقط بین مقدار مرجع 0 و تولید 2 گوساله است. برای این متغیرها بین 0 یا 1 تفاوت معناداری وجود ندارد. سئوال: من در تلاش بوده ام تا جایی در تصویر مشخص کنم که t-value چیست - این فقط یک آزمون t است؟ چگونه می توانم به برآورد قابل توجه اشاره کنم؟ شانس تخمین زده شده برای تولید 2 فرزند در مقابل 0 3.85 (95% CI = 1.0-14.88) بود که معنی دار بود (t= 1.99، P=0.05) با اشاره به بیانیه من در مورد تعیین مقدار مرجع. وقتی دقیقاً همین مدل را با استفاده از سایر گزینه‌های 0 یا 1 فرزندم اجرا می‌کنم - نتایج کاملاً متفاوتی دریافت می‌کنم که متغیرها مهم هستند. اگر از 2 به عنوان مقدار مرجع استفاده کنم، Age+WR+noC.yr قابل توجه است. اگر از 1 استفاده کنم، فقط سن علامت است. بنابراین، از کدام یک استفاده کنیم؟ خوانده‌ام که می‌خواهید یکی را انتخاب کنید که بیشترین ارتباط را با فرضیه‌تان دارد، اما در این مورد می‌توانم هر یک از ۳ سطح را ایجاد کنم.
تفسیر خروجی رگرسیون لجستیک چند جمله ای از R
59107
من رگرسیون لجستیکی سالانه را بر روی داده های سری زمانی اجرا کردم. مهم‌ترین متغیر مستقل دارای ضرایبی است که در سال‌های متمادی معنی‌دار است، این مایه تسکین است. اما «متغيرهاي كنترل» ضرايب غير معني داري دارند. من از یک متخصص آمار دور هستم. نمونه من در مقایسه با ادبیاتی که آن آزمایش را انجام داد بسیار کوچک است، زیرا من در حال تجزیه و تحلیل یک صنعت فرعی هستم که شرکت های بسیار کمی در آن وجود دارد. اما من نمی توانم نمونه ام را تغییر دهم. در ادبیات، نویسندگانی که این تحلیل دقیق را بر روی نمونه‌های بزرگتر انجام داده‌اند، ضرایب قابل توجهی برای متغیرهای کنترلی نیز یافته‌اند، از این واقعیت استفاده می‌کنند که: «بنابراین تأثیر متغیر اصلی تأثیری مجزا از متغیرهای کنترل‌کننده است». از آنجایی که نمی توانم بگویم، آیا باید همبستگی بین این متغیرها را با متغیر اصلی آزمایش کنم و برخی از آنها را که هر سال همبستگی بسیار بالایی با آن دارند حذف کنم و بیان کنم که اینها متغیرهای اضافی هستند؟ اگر چنین است، کدام سطح بالا در نظر گرفته می شود؟ 0.75، 0.8 من قصد دارم بگویم: * متغیر اصلی قابل توجه است، اما متغیر کنترل کننده نیست * دو دلیل بالقوه وجود دارد: 1) نمونه های سالانه من بسیار کوچک هستند 2) تأثیر متغیر اصلی مانند تأثیر برخی از این موارد است. متغیرهای کنترلی * برای رد کردن 2)، من همبستگی را آزمایش کردم و متوجه شدم که bla bla bla (اگر همبستگی کم باشد، احتمالاً نمونه ها خیلی کوچک هستند، اگر زیاد باشند، برخی از متغیرها را حذف می کنم و رگرسیون ها را دوباره اجرا کنید) با تشکر! (غیر بومی انگلیسی زبان، متاسفم) ## ------------------------------------- ---------------------- به دنبال پاسخ پیتر (متشکرم!)، فکر می کنم باید جزئیاتی را در مورد آنچه مطالعه خود را آزمایش می کنم اضافه کنم: _** گرایش است برای توزیع سود سهام (1 یا 0) وابسته به مرحله چرخه عمر شرکت (با استفاده از یک نسبت). در هر سال، ضریب سود تاخیری بسیار معنی دار است. و برای برخی از سال ها (به اندازه کافی برای پایان نامه دانشجویی من)، ضریب مرحله چرخه عمر شرکت قابل توجه است. نشانه های همه متغیرهای کنترلی دیگر همانطور که پیش بینی می شود (بیشتر اوقات)، اما همیشه دور از اهمیت هستند. امیدوارم این مدل من را بی ربط نکند. مربع R شبه من خیلی بالاست. (به هر حال، آیا این شبه R متغیرهایی را در نظر می گیرد که غیرمعنادار هستند یا ارزش مدل فقط شامل متغیرهایی است که ضریب معنی داری دارند؟)
رگرسیون لجستیک: متغیرهای کنترلی معنی دار نیستند، چه نتیجه ای باید بگیرم/آزمون بیشتر؟
29560
من 15 سرپرست دارم که 21 کارمند را از 1 (بهترین) تا 21 (بدترین) رتبه‌بندی کرده‌اند، اما رتبه‌بندی‌ها کاملاً ترتیبی است - هیچ اطلاعات فاصله‌ای در دسترس نیست. آیا می توانم رتبه های هر دو (یا بیشتر) ناظران را با هم مقایسه کنم و تعیین کنم که ارزیابی های آنها چقدر با هم هماهنگ است؟ من از Excel 2010 (یا قلم/کاغذ) برای تحلیل خود استفاده خواهم کرد، به نرم افزار آماری دسترسی ندارم. داده های نمونه (آیا سرپرست 3 شبیه 1 است یا 2)؟ رتبه بندی سرپرست 1 سرپرست 2 ناظر 3 کارمند 1 1 3 1 کارمند 2 2 2 3 کارمند 3 3 1 2
آیا می توانم رتبه بندی های ترتیبی را مقایسه کنم (و اگر چنین است، چگونه)؟
15913
فرض کنید من دو ویژگی طبقه‌بندی وابسته A، B دارم. من یک دیتافریم X دارم که احتمالات (یا تعداد مورد انتظار) را برای همه ترکیبات همه دسته‌های A و B فهرست می‌کند. بیایید دو دسته را در هر ویژگی فرض کنیم، چارچوب داده می‌تواند به این شکل باشد. : X <- data.frame(A = c(1،1،2،2)، B = 1:2، PROB = c(0.1,0.3,0.2,0.4)) X خروجی: A B PROB 1 1 1 .1 2 1 2 .3 3 2 1 .2 4 2 2 .4 حالا می خواهم یک ستون B را به دیتافریم Y دیگر اضافه کنم که فقط یک ستون A دارد. Y وجود دارد و دارای سطرهای بسیار بیشتر از X و همچنین ستون های اضافی است. یک Y مصنوعی می تواند به این شکل باشد: Y <- data.frame(A=sample(2, size=10000, replace=TRUE), B=NA, C=sample(5, size=10000, replace=TRUE), D =sample (3، اندازه = 10000، جایگزین = TRUE)) محتویات ستون B جدید باید به طور تصادفی با استفاده از احتمالات شرطی برای B با توجه به مقدار ستون A نمونه برداری شود. من با R تازه کار هستم و به این فکر می کردم که آیا می توان این عملیات را زیباتر از نوشتن حلقه ای که روی همه دسته های A تکرار می شود انجام داد. شاید یک کلاس مدل اختصاصی که «پیش‌بینی» برای آن اعمال شود؟ همچنین، من فاقد دانش اصطلاحات آماری هستم -- قدردان هر گونه اشاره ای در مورد چگونگی ارجاع به این نوع نسبت (؟) در ادبیات هستم.
بر اساس توزیع احتمال، یک ستون به یک دیتافریم اضافه کنید
95307
غلظت ناخالصی ها در یک نیمه هادی در تولید ریزپردازنده برای کامپیوتر یک متغیر تصادفی توزیع شده نرمال با میانگین 127 قسمت در میلیون و انحراف استاندارد 22 قسمت در میلیون است. یک نیمه هادی تنها در صورتی قابل قبول است که غلظت ناخالصی های آن کمتر از 150 قسمت در میلیون باشد. نسبت نیمه هادی هایی که برای استفاده قابل قبول هستند چقدر است؟ (مساحت زیر منحنی نرمال برای ارزش $Z=1.5$0.668$ است).
نمونه برداری در توزیع نرمال
110831
من در حال تلاش برای ساختن مدلی برای رد خودکار تکلیف منبع‌جمعی هستم (مثلاً: رونویسی نام انسان از داده‌های سرشماری). مجموعه داده های من دارای 5 پیش بینی کننده است و متغیر وابسته یا صحیح است یا نادرست. با این حال، مشکلات کمی وجود دارد که من داشته ام. 1. مجموعه داده‌ها با 5% (گاهی تا 10%) موارد نادرست و 95% موارد صحیح نامتعادل است. 2. همچنین الگوهای پیش بینی کننده برای کارهای نادرست و صحیح مشابه است. من رگرسیون لجستیک را امتحان کردم، اما جواب نداد. اما، برای من بسیار مهم است که بتوانم آن 5 درصد کارهای نادرست را پیش بینی کنم، زیرا بسیار حیاتی است. در چنین شرایطی برای حرکت رو به جلو چه جهتی باید باشد؟ من از کمک شما قدردانی می کنم. با تشکر
مقادیر در پیش بینی ها برای دو مقدار ممکن در متغیر وابسته الگوی یکسانی دارند؟
95300
فرض کنید من یک مدل غیر خطی دارم، مثلاً probit/logit، چگونه می توانم اهمیت یک ضریب را در مقابل اهمیت اثر حاشیه ای آن درک کنم؟ بگویید، من فقط باید _اهمیت_ یک متغیر را بدانم، آیا اولی کافی است؟
اهمیت ضرایب و اهمیت اثرات حاشیه ای
59108
در مثال‌های ارائه شده در این لینک، من نمی‌توانم تصمیم بگیرم که توزیع یک‌وجهی است یا دووجهی. فکر می‌کنم بین تک‌وجهی و دووجهی است، اما نمی‌دانم که آیا این نوع طبقه وجود دارد یا نه. کسی میتونه یه چیزی پیشنهاد بده تا من راحت بفهمم که در چه صورت باید بگم توزیع تک وجهی یا دووجهی!
چگونه می توان تصمیم گرفت که توزیع در توزیع اندازه دانه تک وجهی است یا دووجهی؟
15911
من سعی می کنم مدلی برای پیش بینی رزرو تا 15 روز قبل بسازم. بنابراین، اگر بخواهم پیش‌بینی کنم فردا چند رزرو وجود دارد، از داده‌های تاریخی تعداد کل رزرو در دو روز قبل استفاده می‌کنم، زیرا هنگام استفاده از مدل برای پیش‌بینی فردا، امروز تمام نمی‌شود... آیا که منطقی است؟ من فکر می‌کنم این یک مدل خوب و بی‌طرفانه است، اما از همه داده‌های موجود استفاده نمی‌کند، یعنی اینکه امروز چه تعداد رزرو برای فردا انجام شده است. بنابراین، اگر می‌خواهم مدل من بیشتر «زمان واقعی» باشد و رزروهای فعلی را نیز در نظر بگیرد، چگونه این کار را انجام دهم؟ آیا به داده های رزرو در طول روز نگاه می کنم و فقط نسبت یا چیزی را تنظیم می کنم؟ به عنوان مثال، اگر من از مدل خود در ساعت 13:00 استفاده کنم، متوجه می شوم که 20 رزرو اضافی دارم، و می دانم که از نظر تاریخی 40٪ از رزروهای اضافی تا ساعت 13:00 انجام می شود، آیا من فقط 20+ 20* (60/40) می کنم. ) = 50. پس اکنون باید 50 عدد بیشتر از آنچه که دیروز به من گفته بود را انتظار داشته باشم؟ این تمام چیزی است که می توانم به آن فکر کنم. **ویرایش:** به عنوان مثال اگر در یک بازی بیس بال انجام سه اینینگ 1 ساعت طول می کشد، می توانید مطمئن باشید که تکمیل 6 اینینگ بعدی بسیار بیشتر از 2 ساعت طول می کشد. خوب، اگر می دانستید که از نظر تاریخی 3 اینینگ اول 25 درصد از زمان ها را تشکیل می دهد، چه؟ با چسبیدن به مثال بازی با توپ، این تصویر خوبی از مشکل من است که فکر می کنم شما دیو را درک می کنید، اما مطمئن نیستم که آن را برای دیگران روشن کرده باشم... اگر می خواهید مدت زمان بازی با توپ را پیش بینی کنید، می توانید ممکن است فرمولی بر اساس تیم های فعلی، پرتاب کننده ها و غیره داشته باشد. اما، بازی را در نظر بگیرید که در آن یک بازی 2.5 ساعته را پیش بینی کرده اید، و در مرحله چهارم هستید، و قبلاً 3 گرفته شده است. ساعت، حالا چه کار می کنی؟ دیو، من تکنیک‌های مختلفی را امتحان کرده‌ام، شامل روش‌های arima فصلی، و غیره. برای درک این مفهوم، وب گردی بیشتری انجام خواهم داد. من بسیار علاقه مند به یک جلسه چت هستم. لطفاً وقتی در دسترس هستید به من اطلاع دهید، من +11 ساعت EST هستم.
چگونه می توان رزروهای آینده را زمانی که داده های روز جاری ناقص است پیش بینی کرد؟
105519
من دو تخمین پارامتر OLS (غیر مستقل) دارم که هر کدام خطای استاندارد خود را دارند. من سعی می کنم بفهمم که خطای استاندارد اختلاف تخمین ها چقدر باید باشد. کسی میتونه کمک کنه؟ آیا این خیلی کلی است؟
خطای استاندارد اختلاف برآوردها
32716
فرض کنید یک مدل ARIMA(p,d,q) خیلی ضعیف با داده ها مطابقت دارد. چه راه هایی برای بهبود تناسب وجود دارد؟ آیا راهی برای انجام آن بدون حدس زدن و بررسی وجود دارد؟ **ویرایش.** من از auto.arima() برای جستجوی یک مدل ARIMA استفاده می کنم. اما تناسب ضعیفی دارد.
بهبود مدل ARIMA
115231
یک نمونه تصادفی با اندازه n = 40 گرفته شده است. برای مشاهده اینکه آیا به نظر می‌رسد این نمونه از توزیع نرمال انتخاب شده است، یک آزمایش برازش خوب انجام دهید. تعداد فواصل برای داده های نمونه برابر است با: 4 5 8 10 20 چگونه این را محاسبه می کنید؟
خوبی تناسب
50708
من در حال تلاش برای تخمین مدل زیر در Stata هستم (تنها بسته آماری که با آن آشنا هستم): $$ Y_{t}=\alpha_{t} + \beta_{t}X_{t}+\varepsilon_{t} $$ که $X$ و $Y$ سری هستند و $\alpha_{t}$ و $\beta_{t}$ پارامترهای متغیر با زمان تعریف شده در معادلات حالت هستند: $$ \alpha_{t}=\alpha_{t-1}+\eta_{1t} \\ \beta_{t}=\beta_{t-1}+\eta_{2t} $$ که فرض می‌شود یک پیاده‌روی تصادفی را دنبال می‌کنند . $\varepsilon$، $\eta_{1t}$، $\eta_{2t}$ فرض می‌شود که نویز سفید مستقل گاوسی هستند. من علاقه مند به یافتن ارزش $\beta$ در طول زمان هستم. مقاله ای که من روی آن کار می کنم، تخمین توسط فیلتر کالمن را پیشنهاد می کند. من سعی کرده‌ام تابع «sspace» را در اینجا درک و پیاده‌سازی کنم، اما معتقدم که قادر به مدیریت تغییرات زمان نیست. آیا هیچ کدام از اینها در Stata 11 قابل دستیابی است؟
رگرسیون خطی با پارامترهای متغیر با زمان
59109
من طراحی 2 سطحی (DOE) با 4 فاکتور (A,B,C,D) دارم. من قبلاً تخمین های هر اثر اصلی و همه اثرات متقابل را محاسبه کرده ام. چگونه می توانم نمودار احتمال عادی را بسازم تا ببینم کدام اثرات مهم هستند؟ من بسته‌های زیادی را در R برای طراحی آزمایش نگاه کردم، اما نمی‌توانم بسته‌ای را پیدا کنم که طرح را تولید کند. چگونه می توانم طرح را با تمام تخمین هایی که با کد در R دارم بسازم متشکرم.
احتمال نرمال را برای برآورد اثر در طرح فاکتوریل در R رسم کنید
59100
من از رویه جوهانسن برای آزمایش هم انباشتگی یک بردار 4 کم نور برداری (مجموعه زمانی) استفاده می کنم. ابتدا ثابت بودن دیفرانسیل هر بردار مجزا را آزمایش کردم، همه آنها یک ریشه واحد دارند، بنابراین ما در آنجا خوب هستیم. سپس باید تعداد بهینه تأخیرها را برای آزمایش هم انباشتگی با استفاده از جوهانسن پیدا کنم، ما فرض می کنیم که فرآیند زیربنایی یک فرآیند «VAR» است. و این همان جایی است که مشکل رخ می دهد، من معمولا K=1 را پیدا می کنم (K چندین معیار اطلاعاتی را به حداقل می رساند). من از بسته «urca» و تابع «ca.jo» برای اجرای آزمایش‌های «trace» و «eigen» استفاده می‌کنم، اما «ca.jo» فقط به «K>1» اجازه می‌دهد (که به دلیل مدل منطقی است). این K=1 به چه معناست؟ اضافه می‌کنم که اگر «K=2» را انتخاب کنم، هر دو تست یوهانسن قابل توجه هستند و فرآیند در واقع یکپارچه به نظر می‌رسد...
ادغام یک فرآیند VAR(1).
66613
به منظور تأیید فرض خطرات متناسب، من نمودار زیر را ترسیم کردم: $$\log(-\log(S(t))) = \log(\Lambda(t))$$ اگر خطرات واقعاً برای دو نفر متناسب باشند. گروه‌ها، این منحنی‌ها باید موازی با فاصله عمودی نسبت خطر ورود به سیستم (که در صورت وجود فرض خطرات متناسب ثابت است) باشند. من از کد R زیر برای ساختن چنین نموداری استفاده کردم (با استفاده از بسته‌های «survival» و «rms»: foo <- survfit(Surv(TIME, HADEVENT)~CASE, data=bar) survplot(foo, log=T, xlim=c(0,5*365.25), ylim=c(-10,-2), col=c(قرمز،آبی)) شکل را به دست آوردم در زیر برای گروه های مطالعه من نشان داده شده است، و من مطمئن نیستم که از آن چه استفاده کنم. برای مقادیر کوچک $t$ ($t \leq 120$ روز)، فرض خطرات متناسب به هیچ وجه بر اساس بازرسی بصری برقرار نیست. برای مقادیر بزرگتر ($ \gt 1$ سال)، به نظر بسیار معقول است. ![bla](http://i.stack.imgur.com/RT54b.png) من همچنین یک مدل Cox PH نصب کردم و از «cox.zph» برای ارزیابی فرض تناسب با نتایج زیر استفاده کردم: foocox <- coxph (Surv(TIME, HADEVENT)~CASE, data=bar) print(cox.zph(foocox)) rho chisq p CASE -0.0372 46 1.18e-11 بر اساس $p$-value، به این نتیجه رسیدم که فرضیه صفر تناسب به شدت رد شده است. در اینجا نمودار «cox.zph» است، که همچنین خیلی امیدوارکننده به نظر نمی رسد (مثلاً باید ثابت باشد): ![coxzph](http://i.stack.imgur.com/Nnm5e.png) در اینجا یک فرکانس وجود دارد. جدول برای داده های من (`CASE=0` یک نمونه مطابق 1:1 برای مورد `CASE=1` است): رویداد CASE بدون رویداد n 0 10.464 93.832 104.296 1 22.903 81.393 104.296 **ویرایش** : پس از فیلتر کردن زمان های بسیار بزرگ -- که نادرست بودند -- مقدار p$-$ بسیار قابل توجهی را از طریق `cox.zph` به دست آوردم که نشان می دهد فرض تناسب نقض شده است. با توجه به این شرایط، گزینه های من چیست؟ آیا ادامه کار با مدل‌های خطر متناسب بر اساس نمودار «cox.zph» برای مقادیر بزرگ‌تر $t$ توجیه دارد؟ آیا باید به نحوی از استفاده از آنها برای $t \lt 1$ بر اساس بازرسی چشمی خودداری کنم؟
رسیدگی به موارد مرزی فرض خطرات متناسب
110833
فرض کنید یک معادله خطی ساده وجود دارد، که در آن متغیر وابسته y (سری زمانی، اندازه‌گیری‌های موجود) به x1 و x2 بستگی دارد. اگر ضریب پارامتر x2 وابسته به زمان باشد و ضریب x1 یک متغیر قطعی باشد. چگونه پی دی اف ضریب پارامتر x2 را پیدا کنیم. با توجه به مشاهدات سری زمانی y، x1 و x2. لطفا به من بگویید چگونه این را حل کنم. کالمن/فیلتر ذرات؟
چگونه pdf یک پارامتر وابسته به زمان را در مدل رگرسیون خطی با دریفت پیدا کنیم؟
8389
من به یک عبارت بسته نیاز دارم برای احتمال اینکه 2 مقداری که به طور تصادفی از یک توزیع نرمال گرفته شده اند، حداکثر با T جدا شوند، به عنوان تابعی از T و واریانس توزیع. من می توانم مشکل را به عنوان یک ادغام فرموله کنم، اما نمی توانم آن را حل کنم. من با یک تقریب با انگیزه خوشحال خواهم شد. من می‌توانم برخی فرضیات ساده‌کننده درباره توزیع ایجاد کنم، اگر این کمک کند.
این احتمال وجود دارد که دو مقدار به طور تصادفی از یک توزیع نرمال با حداکثر T از هم جدا شوند
61349
من در حال تجزیه و تحلیل یک آزمایش تشخیصی هستم (بر خلاف استاندارد طلایی، با استفاده از جدول 2x2). من می‌خواهم نسبت‌های احتمال را محاسبه کنم (حساسیت / (1-ویژگی) و غیره) با این حال من چندین مجموعه داده با 0 مثبت کاذب دارم، بنابراین ویژگی 1 .... من با داده‌های دیگری مواجه شده‌ام (مثلاً در پایگاه‌های شواهد برای دستورالعمل‌های بالینی برای بررسی عفونت پری پروتزی لگن یا زانو توسط AAOS) که در آن من می دانم که نویسندگان 0 مثبت کاذب داشتند اما هنوز فواصل اطمینان را برای احتمال ارائه کرده اند. نسبت ها آیا کسی می داند که چگونه محاسبات خود را برای این اجازه تنظیم کرده اند؟ با تشکر
نحوه محاسبه فواصل اطمینان برای نسبت‌های احتمال از جدول 2×2 در حضور سلول‌های با صفر
66610
من می خواهم جفت اعداد تصادفی با همبستگی خاص تولید کنم. با این حال، رویکرد معمول استفاده از ترکیب خطی دو متغیر نرمال در اینجا معتبر نیست، زیرا ترکیب خطی متغیرهای یکنواخت دیگر یک متغیر توزیع یکنواخت نیست. من نیاز دارم که دو متغیر یکنواخت باشند. آیا ایده ای در مورد چگونگی تولید جفت متغیرهای یکنواخت با یک همبستگی معین دارید؟
جفت اعداد تصادفی را ایجاد کنید که به طور یکنواخت توزیع و همبسته شده اند
95302
تفاوت بین حاشیه نویسی مبتنی بر دانش و حاشیه نویسی مبتنی بر پیکره در زمینه آموزش الگوریتم یادگیری ماشین چیست؟
حاشیه نویسی مبتنی بر دانش در مقابل حاشیه نویسی مبتنی بر مجموعه
110832
هر دو روش رگرسیون برای متغیرهای وابسته گسسته هستند. من یک متغیر وابسته گسسته دارم مانند $\{A, B, C, D, E\}$, و $A$, $B$, $C$, $D$, $E$ می توانند داده های اصلی باشند (10, 20، 30...) یا داده های غیر اصلی (مانند ماشین، قطار و کشتی). کدام مدل برای هر مورد مناسب است؟
چه زمانی از رگرسیون چند جمله ای و رگرسیون پواسون استفاده می کنیم؟
29563
من از rlm در بسته R MASS برای رگرسیون یک مدل خطی چند متغیره استفاده می کنم. برای تعدادی از نمونه ها خوب کار می کند، اما من ضرایب شبه تهی را برای یک مدل خاص دریافت می کنم: Call: rlm (فرمول = Y ~ X1 + X2 + X3 + X4، داده = mymodel، حداکثر = 50، na.action = na .omit) باقیمانده ها: Min 1Q Median 3Q Max -7.981e+01 -6.022e-03 -1.696e-04 8.458e-03 7.706e+01 Coefficients: Value Std. مقدار خطای t (رهگیری) 0.0002 0.0001 1.8418 X1 0.0004 0.0000 13.4478 X2 -0.0004 0.0000 -23.1100 X3 -0.0001 0.0501 -0.0002 -0.0501 -0.0002 X3 8.1489 خطای استاندارد باقیمانده: 0.01086 در 49052 درجه آزادی (83 مشاهده به دلیل عدم وجود حذف شد) برای مقایسه، این ضرایب محاسبه شده توسط lm(): فراخوانی: lm (فرمول = Y ~ X1 + X2 + X3 + X4، داده = mymodel, na.action = na.omit) باقیمانده ها: حداقل 1Q میانه 3Q Max -76.784 -0.459 0.017 0.538 78.665 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) -0.016633 0.011622 -1.431 0.152 X1 0.046897 0.004172 11.240 < 2e-16 *** X2 -0.054944 0.054944 - X2 -0.054944 *** X3 0.022627 0.019496 1.161 0.246 X4 0.051336 0.009952 5.159 2.5e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 2.574 در 49052 درجه آزادی (83 مشاهده حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.0182، R-squad تعدیل شده: 0.01812 F-آمار: 227.3-P: 49-52F < 2.2e-16 نمودار lm هیچ نقطه پرت به خصوص بالا را نشان نمی دهد، همانطور که با فاصله کوک اندازه گیری می شود: ![lm diagnostic](http://i.stack.imgur.com/98Hxj.png) **ویرایش** برای مرجع و پس از تایید نتایج بر اساس پاسخ ارائه شده توسط ماکرو، دستور R برای تنظیم پارامتر تنظیم، `k`، در برآوردگر Huber است. ('k=100' در این مورد): rlm(y ~ x، psi = psi.huber، k = 100)
چرا برآوردهای ضریب رگرسیون rlm() با lm() در R متفاوت است؟
66611
فکر می‌کنم یک مشکل کاملاً ساده دارم، اما می‌خواهم توضیح دهم که آیا بهترین روش برای استفاده است یا خیر. بگویید من خط بیمه دارم و درآمد خالص (£) از این تجارت برای سال های 2011، 2012، 2013 1,000,000 است. 4,500,000; و به ترتیب 5000000. از این رو، درصد افزایش از 11-12 350 درصد و از 12-13 11.1 درصد است. در حال حاضر، میانگین این 180.5٪ است که نشان دهنده میانگین درصد افزایش در تمام سال ها است، اما به من پیشنهاد شده است که در عوض داده ها را با میانگین وزنی نشان دهم. من کنجکاو هستم ... آیا وزن تفاوت درآمد هر سال است؟ یعنی میانگین وزنی = $((3.5)*350\% + (0.5)*11.1\%)/4 = 307\%$ یا وزن ها احتمالاً خود مقادیر هستند؟ یا شاید گزینه دیگری وجود دارد؟ شاید یک میانگین استاندارد کافی باشد؟ خیلی ممنون از ورودی های شما
میانگین وزنی درصد افزایش
15919
هنگام قرار دادن یک کامپیوتر مخصوصاً برای اجرای R و برنامه های مشابه، باید به دنبال چه چیزی باشم. مقدار زیادی قدرت پردازنده و رم داده شده است، اما چیزهایی مانند SSD و آیا R روی کارت گرافیک اجرا می شود چطور؟ (مانند OpenCL..) پیشاپیش متشکرم.
مشخصات کامپیوتر برای R؟
66616
من در حال نوشتن الگوریتمی هستم که در آن، با توجه به یک مدل، احتمالات را برای لیستی از مجموعه داده ها محاسبه می کنم و سپس باید هر یک از احتمالات را عادی سازی کنم (به احتمال). بنابراین چیزی شبیه به [0.00043، 0.00004، 0.00321] ممکن است تبدیل به ممکن است مانند [0.2، 0.03، 0.77] باشد. مشکل من این است که احتمالات لاگ، که من با آن کار می کنم، بسیار کوچک هستند (به عنوان مثال، در فضای گزارش، مقادیر مانند -269647.432، -231444.981 و غیره هستند). در کد ++C من، وقتی می‌خواهم دو تا از آنها را اضافه کنم (با گرفتن توان آنها) پاسخ Inf را دریافت می‌کنم. من سعی کردم آنها را در log-space (جمع / تفریق log) اضافه کنم، اما دوباره به همان مشکل برخورد کردم. آیا کسی می تواند نظر تخصصی خود را در این مورد به اشتراک بگذارد؟
تبدیل (نرمال سازی) مقادیر احتمال بسیار کوچک به احتمال
50704
مدل اصلی من این است: $Y=\alpha(\delta*X_1^{-\rho}+(1-\delta)*X_2^{-\rho})^{-\eta/\rho}exp(e_t) $ که من تا حدی به آن خطی می کنم: $ln(Y)=ln(\alpha)-(\eta/\rho)*ln(\delta*X_1^{-\rho}+(1-\delta)*X_2^{-\rho})+e_t $ من از یک الگوریتم حداقل مربعات غیرخطی برای تخمین پارامترها استفاده کرده ام. اکنون، من سعی می‌کنم تعیین کنم که آیا تقاطع در این مدل تا حدی خطی شده (در این مورد $ln(\alpha)$) برای سال‌های مختلف داده‌ای که دارم متفاوت است یا خیر. من 3 سال داده دارم، با حدود 24 مشاهده در هر سال. اولین فکر من این است که فقط یک متغیر ساختگی برای هر سال به عنوان $ln(\beta*Year)$ اضافه کنم و فقط تست کنم که آیا دو ضریب حاصل (سه سال منهای یک سال مقایسه) به طور مشترک از نظر آماری با صفر با استفاده از F متفاوت هستند یا خیر. -تست اما من شک دارم که این درست باشد زیرا من سعی می‌کنم آزمایش کنم که آیا یک پارامتر ($ln(\alpha)$) در طول سال‌ها تغییر می‌کند، نه اینکه همه پارامترها در طول سال‌ها تغییر کنند. فکر دوم من این است که نمونه را بر اساس سال تقسیم کنم، سه رگرسیون مختلف را اجرا کنم و به نحوی آزمایش کنم که آیا همه پارامترهای $ln(\alpha)$ متفاوت هستند یا خیر. من نمی دانم از چه آزمایشی استفاده کنم یا چگونه از آن برای انجام این کار استفاده کنم. من به این فکر می‌کنم که شاید یک آزمون t با واریانس نابرابر روی هر جفت ضرایب، اما احساس می‌کنم که آزمایش‌های زوجی روی هر پارامتر، یک آزمون «مشترک» قانونی برای من به همراه ندارد. من همچنین در مورد تست Chow خوانده‌ام، اما دوباره می‌خواهم آزمایش کنم که آیا فقط یک پارامتر در میان جمعیت‌های فرعی متفاوت است، نه همه پارامترها، این همان کاری است که تست Chow انجام می‌دهد. نظری در مورد اینکه روش صحیح چیست؟ با تشکر
چگونه می توان آزمایش کرد که یک پارامتر خاص در یک مدل غیر خطی در بین جمعیت های فرعی متفاوت است؟
61341
**زمینه:** اگرچه تجزیه و تحلیل مکاتبات عمدتاً برای تجسم شباهت‌های دسته‌بندی‌های دو یا چند متغیر اسمی استفاده می‌شود، سعی کردم به شرح زیر باشد: از 39 دانش‌آموز (از همان نظرسنجی که در این سؤال بود) خواسته شد تا از دوستان خود در مورد عادات سیگار کشیدن بپرسند. چهار پاسخ ممکن (من سیگار می کشم، قبلاً می کشیدم، اما دیگر نمی کنم؛ تلاش کرده ام و حتی امتحان نکرده ام). سپس ماتریسی را با دو ستون ایجاد کردم: اول متغیر اسمی با 39 دسته (دانش آموزان من، در ادامه با اعداد مشخص شده اند) و دومی نیز اسمی با 4 دسته (سطح سیگار) است. این داده ها به عنوان ورودی در تجزیه و تحلیل مکاتبات استفاده شد و نمودار حاصل در زیر مشاهده می شود. **سوالات:** در مورد برخی از تفاسیر طرح مطمئن نیستم. * آیا می توان در مورد فراوانی دسته های متغیر دوم (سیگاری) چیزی بگوییم؟ برای مثال به نظر می رسد که تعداد پاسخ دهندگان در نزدیکی دسته من تلاش کرده ام بیشتر است. آیا به این معنی است که اکثر شرکت کنندگان فقط سیگار کشیدن را امتحان کرده اند؟ * اگر دو پاسخگو به هم نزدیک باشند (مثلاً 6 و 18)، آیا به این معنی است که دوستان آنها «رفتار» سیگار کشیدن مشابهی دارند؟ * مثلاً آن دسته از پاسخ دهندگانی که دوستانشان بیشتر سیگار می کشیدند، اما دیگر سیگار نمی کشیدند، در کجای نقشه قرار دارند؟ آیا آنها کسانی هستند که نزدیک برچسب من قبلاً بودم، اما دیگر ندارم (پاسخگویان 3، 22، ...) یا کسانی هستند که برچسب آنها با محور x زاویه مشابهی با برچسب من قبلاً داشتم، اما دارم است. دیگر نه (پاسخ دهندگان 3، 22، 30، 29، 10، 21، ...) یا کسانی که طرح ریزی آنها به هر محوری شبیه به طرح برچسب من قبلا می کردم، اما من دیگر انجام نمی دهم (پاسخ دهندگان 5، 8، 2، 25 وقتی به محور x پیش بینی می شوند)؟ * آیا نمودار زیر چیزی در مورد میزان وابستگی بین دو متغیر می گوید؟ اگر متغیرها مستقل باشند نمودار زیر چگونه باید باشد؟ ![تحلیل مکاتبات](http://i.stack.imgur.com/zpFUe.jpg)
چگونه می توان این نمودار تحلیل مطابقت با افراد را به عنوان متغیر اسمی تفسیر کرد؟
66618
من به تازگی آزمایشی را انجام داده بودم که در آن مشتری می خواهد 20٪ بهبود طول سوراخ را از یک سوراخ کننده پایه ببیند. سوراخ کننده پایه در شرایط خاص مشتری که در نهایت در آن سوراخ خواهد شد، آزمایش نشده است. مشتری قصد دارد در آینده 40000 سوراخ کند. مطمئن نیستم که این اطلاعات کمی مهم است یا نه، اما می‌خواستم مطمئن شوم که می‌دانم میانگین جمعیت واقعی طول سوراخ هنوز وجود ندارد. تحت شرایط خاص متناسب با مشتری، سوراخ کننده پایه 3 بار با نتایج زیر شلیک شد: [7.68، 8.72، 8.08] اینچ. سه طرح سوراخ‌کننده جدید به امید اجرای کامل سوراخ‌کننده پایه ساخته شد و هر طرح 3 بار با نتایج زیر شلیک شد: * D1 [8.04، 8.93، 10.05] اینچ * D2 [11.15، 6.91، 9.21] اینچ * D3 [7.1] , 7.6، 7.02] اینچ از آنجایی که من در آمار نسبتاً تازه کار هستم نمی دانم که آیا برخی از شما متخصصان می توانید به من کمک کنید که چه اطلاعاتی را می توان از نتایج این آزمایش ها به دست آورد. اگر بتوانید به من در جهت درست راهنمایی کنید که در به دست آوردن این بینش های پیشنهادی شما باید به چه روش هایی مراجعه کنم، بسیار کمک کننده خواهد بود. می‌دانم که تلاش از جانب من تشویق می‌شود، بنابراین می‌خواهم برخی از تلاش‌های اولیه‌ام برای آمار استنباطی را درج کنم و شاید شما بتوانید من را در جایی که اشتباه می‌کنم تصحیح کنید یا کارهای دیگری که باید/می‌توانم انجام دهم را درج کنید. برآورد نیازهای حجم نمونه: حل برای حجم نمونه به انحراف استاندارد جامعه، $\sigma$ نیاز دارد. اغلب ما آن را نمی دانیم، بنابراین باید از یک برآورد یا «ارزش برنامه ریزی» به جای آن استفاده کنیم. در اینجا چند گزینه وجود دارد: 1. برآورد σ از مطالعات قبلی با استفاده از همان جمعیت مورد علاقه. 2. انجام یک مطالعه آزمایشی برای انتخاب یک نمونه اولیه. از نمونه انحراف استاندارد از مطالعه آزمایشی 3 استفاده کنید. از قضاوت یا بهترین حدس برای $\sigma$ استفاده کنید. یک حدس معمول، محدوده داده ها (مقدار بالا - مقدار کم) تقسیم بر 4 است. سوالی که من پرسیدم این است: برای ایجاد اطمینان 95٪ (با فرض توزیع نرمال) چه حداقل حجم نمونه لازم است (با فرض توزیع نرمال) که میانگین نمونه $\ است. pm$ 1 اینچ از میانگین جمعیت واقعی، $\mu$؟ از آنجایی که ما تخمینی از $\sigma$ از مطالعات قبلی نداریم، گزینه 2 را انتخاب می کنیم و اطلاعات خود را به عنوان مطالعات آزمایشی در نظر می گیریم. داده‌های طول سوراخ‌کاری طرح 2 آزمایشی به شرح زیر است: [11.15، 9.21، 6.91] اینچ. میانگین نمونه 9.09 اینچ و انحراف استاندارد نمونه 2.12 اینچ است. با فرض اینکه انحراف معیار جمعیت برابر با انحراف استاندارد نمونه باشد، یک نمونه چقدر باید شلیک شود تا فاصله اطمینان 95% با حاشیه خطا (E) 1 اینچ فراهم شود؟ $$n = \frac{(z_{\alpha /2})^2 (\sigma)^2}{E^2}$$ $$n = \frac{(1.96)^2 (2.12)^2} {(1)^2}$$ $$n = 17$$ تفسیر: برای اینکه 95 درصد از میانگین نمونه ما حاوی میانگین جامعه واقعی، $\mu$ باشد، به حجم نمونه 17 نیاز داریم. عکس ها یا، 95 آزمایش از 100 آزمایش که از 17 عکس سوراخ‌سازی تشکیل شده‌اند، در طول متوسط ​​آن 1 اینچ $\pm$ طراحی سوراخ، میانگین طول سوراخ واقعی واقعی طراحی سوراخ را شامل می‌شوند. با این حال، برای من روشن نیست که چگونه با این نتیجه رو به جلو حرکت کنم. آیا این بدان معناست که باید 17 عکس اضافی به عنوان نمونه خود بسازم یا باید 14 عکس دیگر برای اضافه کردن به 3 عکس اصلی ایجاد کنم؟ چگونه اطلاعات جدید را مدیریت کنم؟ من شک دارم که خطای استاندارد میانگین با اندازه گیری های بیشتر کاهش می یابد و بنابراین حجم نمونه مورد نیاز را تنظیم می کنم؟ اگر فرض نکنیم که انحراف استاندارد جمعیت با انحراف استاندارد نمونه برابر است، می‌توانیم مقدار برنامه‌ریزی را برای انحراف استاندارد جمعیت به صورت محدوده طول‌های سوراخ مشاهده شده تقسیم بر 4 تنظیم کنیم (گزینه 3). از آنجا می‌توانیم حداقل تعداد عکس‌هایی را که باید با حاشیه خطای 1 اینچی گرفته شود تا جمعیت واقعی را در 95 درصد مواقع گرفته شود، تخمین بزنیم. داده‌های طول سوراخ‌کاری طرح 2 آزمایشی به شرح زیر است: [11.15، 9.21، 6.91] اینچ. $$\text{Planning Value for Std. توسعه دهنده} = \frac{\text{محدوده}}{4}$$$$\text{PV} = \frac{(11.15-6.91)}{4} = 1.06$$$$n = \frac{( z_{\alpha /2})^2 (\sigma)^2}{E^2}$$ $$n = \frac{(1.96)^2 (1.06)^2}{(1)^2}$$ $$n = 4.3$$ تعبیر: برای اینکه 95 درصد از میانگین نمونه ما حاوی میانگین جامعه واقعی باشد، $\mu$، به حجم نمونه 4 نیاز داریم. عکس ها یا، 95 آزمایش از 100 آزمایش که از 4 عکس سوراخ‌سازی تشکیل شده‌اند، در طول متوسط ​​آن 1 اینچ $\pm$ طراحی سوراخ، میانگین طول سوراخ واقعی واقعی طراحی سوراخ را شامل می‌شوند. بنابراین کدام روش مناسب تر است (گزینه 2 یا 3)؟ و چگونه باید از این اطلاعات استفاده کرد؟ در هر دو مورد نیاز به شلیک بیشتر بود. اما اگر برعکس اتفاق بیفتد چه چیزی به من می گوید؟ به عنوان مثال برای شارژ طرح 3، با استفاده از هر دو روش گزینه 2 و 3، به ترتیب n = 0.37 شات و n = 0.08 شات دریافت کردم. در نهایت، سعی کردم تخمین بزنم که چه درصدی احتمال دارد که طرح شارژ جدید، جمعیت، میانگین، طول سوراخ، پیشرفت مورد نیاز را برآورده کند. با در نظر گرفتن میانگین ضربات پایه 8.16 اینچ و اضافه کردن 20٪ به آن، طول هدف را 9.792 دلار $\حدود 9.792 دلار دریافت کردم.
از حجم نمونه کوچک چه نتیجه ای می توان گرفت؟
26368
من در حال مطالعه برخی از مطالب در مورد تجزیه و تحلیل داده های فضایی بوده ام و سابقه خوبی در GLMs دارم. در حال حاضر به دنبال یافتن نمونه ای در مدل های خطی تعمیم یافته فضایی هستم، اما تا کنون نمونه ای را پیدا نکرده ام. من از برخی بسته های R مانند GeoR مطلع هستم. و غیره اما نتوانستیم نمونه مشخصی که شامل کدها، داده ها و تجزیه و تحلیل باشد پیدا کنم. میخواستم بدونم کسی میتونه کمک کنه لطفا پیوندها یا مقالات را به اشتراک بگذارید. با تشکر
نمونه هایی از مدل های خطی تعمیم یافته فضایی
61343
برای مدل زیر: $$T = A_0 + A_1M+ A_2M^2 + A_3\ln(P) + A_4\ln(P)^2+A_5M\ln(P)$$ جایی که: > $T$ = متغیر وابسته > > $P$ = متغیر مستقل > > $M$ = متغیر مستقل > > $A_0 \dots A_5$ = ضرایب رگرسیون. من می خواهم بدانم این معادله با کدام کلاس از مدل رگرسیون مطابقت دارد، وقتی از این مدل استفاده می کنید، و چگونه پارامترهای $A_0 \dots A_n$ را پیدا می کنید.
این چه مدلی است و پارامترهای آن را چگونه تخمین می زنید؟
26364
سپس مدل‌های خطی را با «نقطه (n_clust، error)» با هدف شناسایی بهترین ترکیبی که سعی می‌کنم یک خوشه k-means را روی داده‌هایم انجام دهم (ماتریسی با 2000 مورد و 10 متغیر) برازش می‌کنم. نمی دانم چند خوشه را انتخاب کنم. برای حل این مشکل، من استراتژی را اتخاذ کردم که در آن مقادیر مختلف K تنظیم شده است. نتایج خطا و تعداد خوشه های استفاده شده در دو بردار ذخیره می شوند. سپس مدل‌های خطی را برازش کردم که بالاترین مجموع R-squared را به من می‌دهد. من از این استراتژی برای انتخاب بهترین مقدار K استفاده کردم. نکته این است که من چندین بار این فرآیند را انجام داده ام و توجه داشته ام که بردار خطا بین هر اجرا متفاوت است. این به من مقادیر متفاوتی از بهترین K داد. یک جایگزین برای پایدار کردن نتایج k-means، استفاده از تابع «set.seed()» قبل از «kmean()» است. با این حال من می ترسم که نتیجه، با وجود ثابت، سازگاری ندارد. کسی می تواند به من سرنخ بدهد؟ `set.seed()` فقط مانع تغییرپذیری نمی شود؟ آیا استراتژی دیگری برای انتخاب بهترین K وجود دارد؟ با تشکر n_clust=خطای NULL=NULL برای (i در 1:200){ cl <- kmeans(نمرات، i، iter.max=100) خطا <- c(error,cl$tot.withinss) n_clust <- c(n_clust, i) } r2=NULL for(i در 3:197){ a <- lm(خطا[1:i] ~ n_clust[1:i]) b <- lm(خطا[i+1:200] ~ n_clust[i+1:200]) rsqd <- as.numeric(summary.lm( a)[8]) + as.numeric(summary.lm(b)[8]) r2 <- c(r2, rsqd)} id_n <- 3 + which(r2==max(r2))
تغییرپذیری در نتایج خوشه‌های k-means: قبل از تنظیم set.seed()؟
55759
پس از حذف 25٪ (21 مشاهده) از نمونه به عنوان نگهدارنده، انتخاب مدل بر روی 75٪ از نمونه اصلی منجر به یک رگرسیون خطی چند متغیره با R2 54٪ شد. یک رگرسیون ساده از مقادیر نگهدارنده در پیش‌بینی‌های آن‌ها تحت مدل برازش شده منجر به R2 8٪ و R2 تنظیم شده از 2٪ شد. پارامتر شیب رگرسیون معنی دار نبود. آیا کسی می‌تواند تفسیری غیر از این که به‌طور بالقوه یک مشکل جدی در اینجا وجود دارد بیاندیشد، به اندازه‌ای که مدل اصلی شش متغیره زیر سؤال می‌رود؟ آیا راه بهتری برای استفاده از نمونه نگهدارنده برای اعتبارسنجی مدل وجود داشت؟ با تشکر
R2 نمونه اعتبارسنجی
55757
اگر من نیاز به تعیین مقدار یک نقطه داده در هر صدک توزیع داشته باشم (مانند lognormal، weibull، و غیره)، آیا می توانم از CDF آن استفاده کنم و %iles را برای بدست آوردن مقدار وصل کنم؟ برای مثال با وارد کردن 0.95 در فرمول CDF، مقدار 95% ile را پیدا کنید. اساساً، من باید تعیین کنم که اگر نمودار توزیع ترسیم شود، چه نقاط داده ای را در هر %ile به دست می‌آورم. آیا CDF همین را به من می گوید؟ لطفا سریع راهنمایی کنید با تشکر
تابع توزیع تجمعی
61347
برخی از سیستم های آزمون تطبیقی ​​(مانند ابزارهای ارزیابی مدرسه) از مدل 1pl IRT استفاده می کنند، در حالی که برخی دیگر از 2pl یا 3pl استفاده می کنند. آیا هنگام ایجاد یک تست هوش تطبیقی، یک قانون کلی وجود دارد که کدام مدل را در کالیبره کردن دشواری آیتم و توانایی آزمون‌کنندگان انتخاب کنیم؟ من نمی توانم هیچ تحقیقی را بیابم که بینش هایی در تناسب بین موارد تست IQ و انواع مختلف مدل های IRT ارائه دهد. پیشاپیش سپاس فراوان!
آیتم های تست تطبیقی ​​IQ در مدل IRT 1pl، 2pl یا 3pl؟
22479
من سعی می کنم قرائت های یک فلومتر قدیمی و یک فلومتر دیجیتال جدید را با هم مقایسه کنم تا بفهمم که آیا تفاوت قابل توجهی دارند یا خیر. با متر جدید من خواندن را در شرایط مختلف انجام دادم. کالیبره شده در 30 ثانیه، کالیبره شده در 60 ثانیه، کالیبره نشده در 30 ثانیه و کالیبره نشده در 60 ثانیه. من می خواهم فلومتر قدیمی خود (ستون اول در مجموعه داده) را با سایر قرائت ها (ستون های 2:5 در مجموعه داده) مقایسه کنم. من از anova برای مقایسه گروه ها استفاده کردم و تفاوت هایی پیدا کردم اما با TukeyHSD گیر کردم... سوال من این است: آیا این روش درستی برای انجام مقایسه است... من از راهنمایی هایی در مورد چگونگی انجام این کار سپاسگزارم... در اینجا مجموعه داده و کد من است.... 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4L)، .Label = c(site1، site2، site3، site4)، class = factor)، old_dev = c(2.09، 1.927، 2.11، 2.114، 2.11، 1.995، 2.605، 2.563، 2.393، 2.286، 2.529، 2.371، 2.214، 2.128، 2.302، 2.204، 2.274، 3.513، 2.61، 3.502، 3.155، 3.131، 3.55، 3.656، 3.613، 3.616، 3.656، 3.613، 3.616 3.649، 3.519، 3.322، 3.352، 3.323، 3.144، 2.869، 3.383، 3.076، 2.978، 3.189، 2.934، 2.813، 3.015، 3.015 2.952، 2.988، 2.976، 3.049، 2.869، 2.965، 2.895، 2.064، 1.333، 1.432، 1.599، 1.52، 1.51، 2.718، 2.784، 2.718، 2.242، 1.998، 1.175، 1.791، 2.152، 3.414، 3.278)، new_dev_unc30 = c(2.6، 2.6، 2.7، 2.6، 2.3، 2.6، 3.2، 2.8، .2. 2.6، 2.5، 1.4، 2.7، 2.6، 2.2، 4.1، 3.4، 3.7، 4، 4. 4.1، 3.7، 4، 3.6، 2، 2.4، 3.7، 2، 2.8، 3، 1.8، 1.8، 3، 1.9، 3.1، 1.1، 2.2، 1.6، 1.2، 1.4، 1.4، 1.3، 1. 0.7، دو 2.7، 2.6، 2.2، 4.1، 3.8، 3.9، 4.5، 4، 4.2، 4.6، 2، 2.6، 2.6، 3، 3.4، 3.5، 3.9، 2، 3.4، 2.3، 2، 3.4، 2.3، 2.3، 2.3، 2.3، 3.3 2.1، 2.4، 3.1، 2.1، 3، 3.2، 1.9، 1.9، 3، 2.1، 3.1، 1.3، 1.5، 1.6، 1.2، 1.8، 1.1، 1.2، 2.1، 1.9، 3، 2.1، 1.6، 1.2، 1.8، 1.1، 1.2، 2.1، 2.1، 1.0.8. 0.9، 1.4، 1.5، 0.8، 2)، new_dev_cal30 = c(2.4، 2.5، 2.5، 2.8، 2.4، 2.3، 3.1، 2.6، 2، 3.5، 1.6، 2.5، 2.5، 2.5، 2.5، 2.5، 2.5، . 4.5، 3.3، 4.3، 4.3، 4.3، 4.4، 4.5، 1.1، 1.9، 4، 3.5، 3.1، 3.8، 3.5، 2.2، 3.5، 2، 3.6، 3.7، 2، 3.6، 3.7، 2.3، 3.7، 2.3، 3.7. 3.3، 2.7، 2.3، 3.2، 2.3، 0.9، 3.2، 2.9، 3.1، 0.9، 2.3، 1.3، 1.4، 1.5، 1.1، 1.3، 2.7، 1.7، 2.1، 2.1، 1.7، 2.1، 1.6. 1.1، 1.4، 1.6)، new_dev_cal60 = c(2.6، 2.5، 2.4، 2.3، 2.5، 2.3، 3.2، 2.8، 1.9، 3.1، 2.1، 2.7، 2.4، 1.8، 2.7، 2.4، 1.8، 2.3، 2.6. 3.5، 4.3، 4.3، 4.3، 3.8، 4.4، 1.4، 2، 4.2، 3.3، 3.2، 3.3، 3.4، 2.1، 3.4، 2.5، 3.8، 3.8، 3.9، 3.8، 3.8، 3.9، 3.2، 3.6. 2.3، 2.6، 3.1، 2.2، 0.8، 3.2، 2.6، 3.1، 0.9، 1.7، 1.2، 1.5، 1.2، 1، 1.1، 2.6، 1.6، 1.9، 0.6، 1.6، 1.9، 0.6، 3.1، 0.9. 1.4، 1.4))، .Names = c(SiteNumber، old_dev، new_dev_unc30، new_dev_unc60، new_dev_cal30، new_dev_cal60)، class = data.frame، row.names = c( NA، -68L)) این چیزی است که من انجام دادم: str(meter) attach(meter) boxplot(list(old_dev,new_dev_unc30,new_dev_unc60,new_dev_cal30,new_dev_cal60)) خلاصه (اولین تست <- aov(old_dev ~ new_dev_unc30 + new_dev_unc60 + new_dev_cal30 + new_dev_cal30 + new_dev_cal) test(H???0)Tu_key6
چگونه می توان آزمایش کرد که خواندن از دو دستگاه به طور قابل توجهی متفاوت است؟
85629
من در تشخیص اینکه داده های من به بهترین وجه در کدام توزیع قرار می گیرند، با مشکلاتی روبرو هستم. داده‌های من از یک مقیاس آنالوگ بصری 100 میلی‌متری است، بنابراین نقاط داده از 0 تا 100 متغیر است. از شرکت‌کنندگان خواسته شد با استفاده از این مقیاس‌ها «لنگش» یک حیوان را نمره دهند. 4 حیوان وجود داشت که همگی با شدت لنگش متفاوت بودند. آیا در فرض اینکه داده‌های من را می‌توان در نظر گرفت، درست است: 1. پیوسته - همانطور که در مقیاس پیوسته اندازه‌گیری می‌شود یا 2. دوجمله‌ای (با 100 مجموع دوجمله‌ای) به‌عنوان چیزی که در هر نقطه از مقیاسی که من از آن استفاده می‌کنم اتفاق افتاده یا رخ نداده است. GLMM برای ساختن مدل من. من داده ها را از طریق استفاده از گاما (باید مقادیر صفر خود را مجدداً رمزگذاری می کردم)، پواسون و دوجمله ای اجرا کرده ام. و با بررسی نتایج روی نمودار میله ای داده ها، نمی دانم کدام درست است.
توزیع. چگونه می توان از مقیاس های آنالوگ بصری تشخیص داد که چه داده های توزیعی متناسب است
61344
در مقاله ای توسط فاراکلاس و همکاران، محققان یک ماشین حساب خطر مرگ و میر ناشی از عفونت بافت نرم نکروزان ایجاد کردند. آنها از رگرسیون لجستیک برای ایجاد مدلی با مرگ و میر ناشی از عفونت نکروزان بافت نرم به عنوان پیامد اصلی استفاده می کنند و سپس ناحیه زیر منحنی (AUC) را محاسبه می کنند. آنها از روش بوت استرپ برای یافتن منطقه ROC اصلاح شده با خوش بینی بوت استرپ استفاده می کنند. اگر بخواهم این کار را در `R` انجام دهم، چگونه به نظر می رسد؟ کدی که با آن بازی می‌کردم چیزی شبیه به زیر است: library(boot) library(ROCR) auc_calc <- function(داده‌ها، شاخص‌ها، نتایج) { d <- داده[شاخص‌ها،] # استفاده از glm برای رگرسیون لجستیک # آیا دوباره ایجاد کنم مدل glm برای هر مجموعه داده؟ fit <- glm(نتایج[شاخص،] ~ X1 + X2 + X3، داده=d، خانواده=دوجمله) fit.predict <- predict(fit, type=response) # استفاده از ROCR برای محاسبه AUC pred <- پیش بینی (fit.predict, outcomes[indeces,]) perf <- performance(pred, auc) # برگرداندن AUC return(perf@y.values[[1]]) } boot.results <- boot(data=my.data, statistic=auc_calc, R=10000, outcomes=my.outcomes) درست است؟ یا آیا من کار اشتباهی انجام می دهم - یعنی باید در یک مدل glm بگذرم تا اینکه هر بار دوباره آن را محاسبه کنم؟ مثل همیشه ممنون از کمک
دریافت AUC معتبر بوت استرپ در R
8382
بنابراین من داده هایی دارم که توسط مبدل آنالوگ به دیجیتال کوانتیزه شده است. (داده های پیوسته به داده های گسسته تبدیل شده اند و مقادیر از 0 تا مقدار اشباع متغیر است که در این مورد 127 است). این ابزار خاصی که برای جمع‌آوری داده‌ها استفاده کردم کاملاً نویزدار است، فرض کنید نویز گاوسی به مقدار واقعی اضافه شده است. خوشبختانه، هنگام اندازه گیری تکی، زمان کافی برای انجام چندین اندازه گیری و میانگین آنها برای کاهش نویز دارم. توجه داشته باشید که نرخ نمونه برداری در اینجا مشکلی نیست زیرا چیزی که من اندازه گیری می کنم کاملاً پایدار است. بدیهی است که در نظر گرفتن میانگین ساده یک نتیجه مغرضانه ایجاد می کند زیرا مقادیر نمی توانند از 0 یا 127 تجاوز کنند (به عنوان مثال، اگر سعی کنید از یک میانگین قدیمی ساده بر روی چیزی با مقدار واقعی 126 استفاده کنید، مقدار تخمینی دریافت خواهید کرد که کمتر از 126. این به این دلیل است که نویز گاوسی اضافه شده به دلیل برش دادن مقداری بالاتر از 127 به شما نمی دهد). بنابراین چگونه می توانم میانگین را بگیرم تا نتیجه یک برآوردگر بی طرفانه از مقدار واقعی به من بدهد؟
چگونه میانگین داده های کوانتیزه و کوتاه شده را محاسبه کنیم؟
1376
من به دنبال یک نسخه قوی از آزمون هتلینگ $T^2$ برای میانگین یک بردار هستم. به عنوان داده، من یک ماتریس $m\ \times\ n$، $X$، هر ردیف یک i.i.d دارم. نمونه یک RV $n$-بعدی، $x$. فرضیه صفری که می‌خواهم آزمایش کنم، $E[x] = \mu$ است، که در آن $\mu$ یک بردار $n$-بعدی ثابت است. به نظر می رسد که آزمون هتلینگ کلاسیک در توزیع x$ مستعد غیر عادی بودن است (درست مانند آنالوگ 1-d، آزمون t Student مستعد ابتلا به انحراف و کشیدگی است). وضعیت نسخه قوی این آزمون چیست؟ من به دنبال چیزی نسبتا سریع و مفهومی ساده هستم. مقاله ای در COMPSTAT 2008 در مورد این موضوع وجود داشت، اما من به روند رسیدگی دسترسی ندارم. هیچ کمکی؟
نسخه قوی تست هتلینگ $T^2$
22472
_(در صورت نیاز کد R را نادیده بگیرید، زیرا سوال اصلی من مستقل از زبان است)_ اگر بخواهم به تغییرپذیری یک آمار ساده (مثلاً میانگین) نگاه کنم، می دانم که می توانم آن را از طریق تئوری انجام دهم مانند: x = rnorm (50) # تخمین خطای استاندارد از خلاصه تئوری(lm(x~1)) #همانند... sd(x) / sqrt(length(x)) یا با بوت استرپ مانند: library(boot) # تخمین خطای استاندارد از bootstrap (x.bs = boot(x, function(x, inds) mean(x[inds]), 1000)) # که به سادگی *انحراف* استاندارد توزیع بوت استرپ است. .. sd(x.bs$t) * * * با این حال، آنچه من تعجب می کنم این است که **آیا می تواند مفید/معتبر(؟) باشد که به _error_ استاندارد یک نگاه کنیم. توزیع بوت استرپ در شرایط خاص؟** وضعیتی که من با آن سر و کار دارم یک تابع غیرخطی نسبتاً پر سر و صدا است، مانند: # شبیه سازی مجموعه داده set.seed(12345) n = 100 x = runif(n, 0, 20) y = SSasymp (x، 5، 1، -1) + rnorm(n، sd=2) dat = data.frame(x، y) در اینجا مدل حتی با استفاده از مجموعه داده اصلی همگرا نمی شود، > (fit = nls(y ~ SSasymp(x, Asym, R0, lrc), dat)) خطا در numericDeriv(form[[3L]], names(ind ), env) : مقدار از دست رفته یا بی نهایتی که هنگام ارزیابی مدل تولید می شود، بنابراین آماری که من به آن علاقه مندم، تخمین های تثبیت شده تری از این nls هستند. پارامترها - شاید معنی آنها در تعدادی از تکرارهای بوت استرپ. # برآوردهای پارامتر متوسط ​​bootstrap nls fit.bs = boot(dat, function(dat, inds) tryCatch(coef(nls(y ~ SSasymp(x, Asym, R0, lrc), dat[inds, ])), error= تابع (e) c(NA، NA، NA))، 100) pars = colMeans(fit.bs$t، na.rm=T) اینها واقعاً در پارک توپ چیزی هستند که من برای شبیه سازی داده های اصلی استفاده کردم: > pars [1] 5.606190 1.859591 -1.390816 یک نسخه رسم شده به نظر می رسد: # Plot with(dat, plot(x ، y)) newx = seq(min(x)، max(x)، len=100) خطوط (newx، SSasymp(newx، pars[1]، pars[2]، pars[3])) خطوط(newx، SSasymp(newx، 5، 1، -1)، col='red') افسانه('downtomright', c( 'واقعی'، 'پیش بینی شده')، bty='n'، lty=1، col=2:1) ​​![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/xHyqE.png) حالا، اگر من تغییرپذیری این تخمین‌های پارامتر _stabilized_ را بخواهم، فکر می‌کنم می‌توانم، با فرض نرمال بودن این توزیع بوت استرپ، فقط خطاهای استاندارد آنها را محاسبه کنم: > application(fit.bs$t, 2, function(x) sd(x, na.rm=T) / sqrt(length(na.omit(x)))) [1] 0.08369921 0.17230957 0.08386824 ** آیا این رویکرد معقولی است؟ آیا رویکرد کلی بهتری برای استنتاج پارامترهای مدل‌های غیرخطی ناپایدار مانند این وجود دارد؟** (فکر می‌کنم به جای تکیه بر تئوری برای بیت آخر، می‌توانم لایه دوم نمونه‌گیری مجدد را در اینجا انجام دهم، اما ممکن است زمان زیادی طول بکشد. بسته به مدل، حتی هنوز مطمئن نیستم که آیا این خطاهای استاندارد برای هر چیزی مفید هستند یا خیر، زیرا اگر تعداد تکرارهای بوت استرپ را افزایش دهم، به 0 نزدیک می شوند. با تشکر، و اتفاقاً من یک مهندس هستم، پس لطفاً مرا ببخشید که یک تازه کار نسبتاً در اینجا هستم.
استفاده از خطای استاندارد توزیع بوت استرپ
97849
من از یک الگوریتم ژنتیک (GA) برای تخمین حداقل مقدار یک تابع درستنمایی $L[x]$ استفاده می‌کنم که برای ارزیابی ریاضی بسیار پیچیده است. این تابع احتمال، خوبی تناسب بین یک مدل (که به پارامتر $x$ بستگی دارد) و مجموعه ای از $M$ مشاهدات $O=\{a_1، a_2، ...، a_M\}$ را کمی می کند. پس از تکرارهای کافی (زمانی که مقدار بهینه یافت شده توسط GA برای مدتی تغییر نکرده باشد) GA را متوقف می کنم و مقدار $x_0$ را برای پارامتر مدل $x$ که روی آن ثابت شده است، فرض می کنم، یکی است که برآورده می شود: $$L [x_0] \sim min(L[x])$$ که «بهترین» تناسب مدل/مشاهده را مشخص می‌کند. اکنون، من می‌خواهم یک عدم قطعیت به این مقدار $x_0$ اختصاص دهم که برای آن یک فرآیند بوت استرپ را با جایگزینی اعمال می‌کنم. این به این معنی است که من GA را دوباره چندین بار N$ اجرا می‌کنم (هر بار با استفاده از یک نمونه تصادفی از مشاهدات $M$ که از $O$ گرفته شده است) که منجر به مقادیر $N$ برای پارامتر $x$ می‌شود: $(x_1، x_2، ...، x_N)$. در نهایت من انحراف استاندارد مقادیر $N$ را که توسط GA برگردانده شده است به عنوان عدم قطعیت (خطا) $x_0$ اختصاص می دهم: $$e_{x_0} = std(x_1, x_2, ..., x_N)$$ این فرآیند خوب کار می کند، اما از آنجایی که من مجبور می شوم GA را چندین بار N$ اجرا کنم، این می تواند به سرعت در زمان محاسباتی غیرقابل مدیریت شود. سوال این است: آیا روشی سریعتر/از لحاظ محاسباتی ارزانتر برای تخصیص عدم قطعیت به مقدار پارامتر تخمین زده شده از طریق الگوریتم ژنتیک وجود دارد؟
روش ارزان‌تر/سریع‌تر برای برآورد عدم قطعیت‌ها نسبت به بوت استرپ
56228
من این سری زمانی روزانه از قیمت های مشاهده شده را دارم: $P_1,P_2,..., P_n$. من می‌خواهم با برگرداندن کار کنم: $ 0، P_2-P_1،...، P_n - P_{n-1}$. به من گفته شده است که عبارت اول (P_1-P_0= P_1-?) را با تنظیم 0 حذف کنم. به نظر می رسد که این 0 با سایر اصطلاحات بسیار متفاوت است و راه حل خوبی نیست. (حتی فکر می کنم اصلا راه حلی نیست). راه حلی که من در نظر گرفتم در اینجا آمده است: * 0 چون در روز اول هیچ بازگشتی وجود ندارد * {P_1} برای سازگاری با سری زمانی * هیچ چیز، فقط به سادگی مشکل را حذف کنید نظر شما در مورد این مشکل چیست؟ این همچنان در مورد مشکل مشابهی بود که من هنگام انجام میانگین متحرک داشتم. در ابتدای سری زمانی اصطلاحات گمشده مشابهی وجود دارد. وقتی میانگین متحرک p را انجام می‌دهم، معمولاً آخرین مقدار p را قبل از تاریخم می‌گیرم. * من همین مشکل را نسبت به قبل دارم: در ابتدای سری زمانی، داده های کافی برای جمع آوری با عبارت p وجود ندارد. آیا ترفندی برای رفع این مشکل وجود دارد؟ * آیا گرفتن مقادیر p بعد از تاریخ من چیزی را تغییر می دهد؟ مقادیر $[(p-1)/2] قبل و بعد از تاریخ من؟ این عبارت کلی میانگین متحرک من را تغییر نمی دهد، بلکه فقط مقادیر شروع و پایان سری زمانی من را تغییر می دهد. آیا مهم است؟ چگونه؟
عادی سازی / میانگین متحرک