_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
21107
|
به ذهنم خطور کرد که نحوه نوشتن یک اصطلاح تعاملی در BUGS بستگی به انواع پیشبینیکنندههایی دارد که در حال «تعامل» هستند. فرض کنید داده هایی طولانی هستند (به جای گسترده). سپس، یک مدل با تعامل بین دو عامل، A و B، مانند ANOVA دو طرفه، ممکن است چیزی شبیه به y[i] ~ dnorm(mu[i], tau) mu[i] <- A[a_level[ i]] + B[b_level[i]] + A.B[a_level[i]،b_level[i]] A.B[،] ~ dnorm(0، ab.tau) با این حال، یک مدل با تعامل بین یک عامل A و یک پیشبینیکننده پیوسته C ممکن است چیزی شبیه به y[i] ~ dnorm(mu[i], tau) mu[i] <- A[a_level[i] ] + betaC*C[i] + betaX[a_level[i]]*C[i] betaX ~ dnorm(0، betaX.tau) بنابراین، چند سوال: 1. آیا این فعل و انفعالات به درستی نوشته شده اند؟ 2. چه تعاملات مهم دیگری وجود دارد؟ بدیهی است که دو پیش بینی کننده پیوسته مورد دیگری است. 3. آیا تفاوت هایی در نحوه نوشتن این رگرسیون خطی در مقابل رگرسیون لجستیک وجود دارد؟ 4. آیا تفاوت هایی در پیشین هایی وجود دارد که باید برای انواع مختلف تعاملات مشخص شود؟ این ممکن است نیاز به یک ویکی انجمن باشد، مطمئن نیستم.
|
شرایط تعامل و اشکالات
|
45686
|
من در حال حاضر فایل های ورود به سیستم با اندازه های مختلف دارم و سعی می کنم کل احتمال خطا بودن یک رویداد را محاسبه کنم. به عنوان مثال: > Log file #1: دارای مجموعا 1000 ورودی و 20 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 20/1000 = 0.02 خواهد بود > > Log File #2: دارای مجموعا 2500 ورودی و 35 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 35/2500 خواهد بود. = 0.014 > > Log File #3: در مجموع دارای 5000 ورودی است و 60 مورد از آنها خطا هستند > بنابراین احتمال شرطی برای آن فایل 60/5000 = 0.012 خواهد بود. من فکر می کردم چگونه می توانم احتمال کل یک رویداد را بدست بیاورم. که رخ می دهد یک خطا برای تمام فایل های ورود به سیستم ترکیبی؟ هر کمکی بسیار قابل قدردانی خواهد بود، و اگر بتوانید از مثالی که من آوردم برای توضیح به من استفاده کنید، عالی خواهد بود. رویدادهای فایل لاگ کاملاً متفاوت است، فایلهای گزارش برای سیستمهای کاملاً متفاوت هستند. آیا (میزان خطا/تعداد کل رویدادها) = 115/8500 = 0.0135 خواهد بود؟
|
مشکل احتمال کل
|
109812
|
من در مورد رویکرد تئوری اطلاعات-AIC انتخاب مدل مطالعه میکردم که در آن از مقادیر AIC برای انتخاب مجموعه مدلهای کاندید استفاده میشود. من در این مورد کاملاً واضح هستم. سوال من این است: برای مدل اثرات مختلط، چگونه مقادیر AIC را محاسبه کنیم. برای مثال من چندین مدل رهگیری تصادفی و شیب ثابت مانند این دارم: mdl1<-lme(y ~ x1,random=(~1|state),data=data,method=ML) mdl2<-lme(y ~ x1 + x2 ,random=(~1|state),data=data,method=ML) mdl3<-lme(y ~ x2,random=(~1|state),data=data,method=ML) mdl4<-lme(y ~ x3,random=(~1|state),data=data,method=ML) mdl5 <-lme(y ~ x3 + x1,random=(~1|state),data=data,method=ML) . . . . mdlx<-lme(y ~ xi,random=(~1|state),data=data,method=ML) می توانم همه این مدل ها را برای تولید مقدار AIC برای هر مدل مقایسه کنم و سپس بهترین مدل ها را بر اساس آن انتخاب کنم. با این حال من با این مقاله برخورد کردم که می گوید این مقدار AIC در مدل جلوه های ترکیبی صحیح نیست. در مورد یک مقدار AIC شرطی برای مدل اثرات مختلط صحبت می کند http://biomet.oxfordjournals.org/content/92/2/351.abstract من از یک پیشینه آماری قوی نیستم و این مقاله ریاضیات و معادلات زیادی دارد. امیدوارم کسی بتواند به من توضیح دهد که چگونه می توانم این را به بهترین شکل بفهمم و احتمالاً چگونه مقادیر AIC شرطی را در R محاسبه کنم. بسیار متشکرم
|
رویکرد IT-AIC برای مدل اثرات مختلط
|
41903
|
فرض کنید چارچوب داده زیر را دارم: id time sale_yn number travel_nr nمتغیرهای با متغیرهای خاص مشاهده abc 10 0 1 1 abc 11 0 2 1 abc 12 1 3 1 abc 13 0 1 2 def 10 0 1 3 def 15 16 0 1 4 تعریف 17 0 2 4 def 18 1 3 4 هر ردیف مشاهده ای از یک شخص خاص است (با شناسه متمایز می شود). هر شخصی چندین بار از یک مغازه بازدید می کند (به شماره مراجعه کنید). پس از مدتی ممکن است مشتری خریدی انجام دهد (در آن صورت sale_yn == 1). مدل رگرسیون باید سفرهای مختلفی را که مشتری انجام داده است در نظر بگیرد تا پیش بینی کند که آیا فروش اتفاق می افتد یا خیر. با رگرسیون لجستیک، هر مشاهده باید مستقل از یکدیگر باشد، اما بازدیدهایی که زودتر اتفاق افتاده است نیز به خرید کمک می کند. چه شکلی از رگرسیون می تواند این را در نظر بگیرد؟
|
رگرسیون با مشاهدات وابسته
|
49762
|
در صفحه 232 از یک همراه R برای رگرسیون کاربردی فاکس و وایزبرگ یادداشت می کنند > فقط خانواده گاوسی دارای واریانس ثابت است و در همه GLM های دیگر > واریانس شرطی y در $\bf{x}$ بستگی به $\mu( x)$ قبلاً، آنها متذکر شدند که واریانس شرطی پواسون $\mu$ و واریانس دوجمله ای است. $\frac{\mu(1-\mu)}{N}$. برای گاوسیان، این یک فرض آشنا و اغلب بررسی شده است (همسانی). به طور مشابه، من اغلب می بینم که واریانس شرطی پواسون به عنوان یک فرض رگرسیون پواسون مورد بحث قرار می گیرد، همراه با راه حل هایی برای مواردی که نقض می شود (مانند دوجمله ای منفی، صفر تورم و غیره). با این حال، من هرگز واریانس شرطی برای دوجمله ای را به عنوان یک فرض در رگرسیون لجستیک نمی بینم. کمی گوگل هیچ اشاره ای به آن پیدا نکرد. من اینجا چه چیزی را از دست داده ام؟ ویرایش بعد از نظر @whuber: همانطور که پیشنهاد شد من در حال جستجوی Hosmer & Lemeshow هستم. جالب است و فکر می کنم نشان می دهد که چرا من (و شاید دیگران) گیج شده ایم. مثلاً کلمه «فرض» در فهرست کتاب نیست. علاوه بر این، ما این را داریم (ص. 175) > در رگرسیون لجستیک، ما باید در درجه اول به ارزیابی بصری تکیه کنیم، زیرا > توزیع تشخیص بر اساس این فرضیه که مدل متناسب است > تنها در تنظیمات محدود خاصی شناخته شده است. چند قطعه، اما بر روی نمودارهای پراکنده باقیمانده های مختلف در مقابل احتمال تخمین زده شده تمرکز کنید. این نمودارها (حتی برای یک مدل خوب، مشخصه الگوی «بلبی» نمودارهای مشابه در رگرسیون OLS را ندارند، و بنابراین قضاوت کردن آنها دشوارتر است. علاوه بر این، آنها چیزی شبیه به نمودارهای چندکی نشان نمی دهند. در R، plot.lm یک پیشنهاد ارائه می دهد. مجموعهای از نمودارهای پیشفرض برای ارزیابی مدلها، معادلی برای رگرسیون لجستیکی نمیدانم، اگرچه ممکن است در برخی از بستهها به نمودارهای متفاوتی نیاز باشد مدل SAS در PROC LOGISTIC برخی از نقشه ها را ارائه می دهد.
|
مفروضات مدل های خطی تعمیم یافته
|
49763
|
ایده در اینجا این است که شما یک بازی 5 در مقابل 5 دارید که در آن هر بازیکن از یک شخصیت منحصر به فرد (از این پس 'قهرمان') استفاده می کند و هزاران مسابقه از این بازی انجام شده است. هدف تجزیه و تحلیل، جستجوی بهترین ترکیبهای دو قهرمانی است - آنهایی که عملکرد بهتری از مقدار مورد انتظارشان دارند. بعضی از هیروها وقتی با هیروهای خاص دیگر ترکیب می شوند بهتر عمل می کنند و بعضی دیگر در مسیر یکدیگر قرار می گیرند و عملکرد بدتری دارند. بدون نرمال سازی، بهترین ترکیب دو قهرمان، بدون تعجب، قهرمانان شماره 1 و 2 از نظر درصد برد انفرادی هستند. این هیچ نتیجه معنی داری به همراه ندارد، بنابراین باید داده ها را عادی/استاندارد کنیم. در اینجا مجموعه داده مورد نظر است: صفحه گسترده. این 97 است 2 را انتخاب کنید، اما به دلیل تکراری بودن دو برابر شد. به طور خلاصه، هدف سوال من تعیین فرمول صحیح برای استفاده از **ستون E** است. به خاطر داشته باشید که این یک فرمت 5 در مقابل 5 است، بنابراین 3 هیروی دیگر که هم تیمی این ترکیب هستند و دشمن 5 هیروی نامشخص هستند (اما احتمالاً می توان با ارزش 50٪ برنده فرض کرد). به عنوان مثال، درصد برد نرمال شده مورد انتظار برای تیمی که دارای قهرمانانی است که در صورت استفاده به تنهایی 61% و 59% درصد برد دارند (به همراه هر سه قهرمان ناشناخته دیگر) چقدر است؟ فکر اولیه من 0.59+(1-.59)*.61 بود، اما این توقع بیش از حد بالای 84% را به همراه دارد، احتمالاً به این دلیل که 3 عضو دیگر تیم انتظار را پایین آورده اند. من مطمئن نیستم که چگونه ادامه دهم - من ده ها روش دیگر را امتحان کرده ام اما هیچ کدام به ارقام واقعی نزدیک نیستند. با تشکر
|
چگونه می توان درصد برد مورد انتظار را در جایی که فقط 2 مقدار از 5 مقدار مشخص است محاسبه کرد؟
|
49764
|
من یک سوال در اوایل داده های میزان عفونت در 6 بیمارستان مختلف به مدت دو سال (N = 12) پیشنهاد کردم. پس از صحبت با چند نفر، به این نتیجه رسیدم که آزمون Wilcoxon-Mann-Whitney (Mann-Whitney U، Wilcoxon rank-sum) بهترین گزینه است. چیزی که من نگران آن هستم این است که آیا می توانم از نرخ ها استفاده کنم و خروجی دقیقاً به چه معناست (من هرگز مجبور نبودم این آزمایش را در SAS اجرا کنم، بنابراین حتی مطمئن نیستم که آن را به درستی انجام دهم). دو سوال مطرح می شود: 1.) آیا این آزمایش نشان می دهد که هیچ تفاوت/تفاوتی بین میزان آلودگی در سال 2011 و میزان آلودگی در سال 2012 وجود ندارد؟ 2.) به من گفته شد که تست Wilcoxon دقیق با حجم نمونه کوچک بهترین است، بنابراین در اجرای این آزمایش همراه با آزمایش، مقدار p یک طرفه 0.03 دریافت می کنم، اما یک p-value دو طرفه 0.06 است. . آیا این را مانند هر آزمایش دیگری تفسیر می کنم؟ و آیا یک CI مرتبط با این تست وجود دارد یا اینکه شما به شدت مقدار p را گزارش میدهید و آن را رها میکنید؟ اطلاعات بیشتر: نرخ = تعداد عفونت ها/ کل روزهای بیمار من احساس می کنم این می تواند به عنوان یک آزمایش زوجی نیز اجرا شود که من را به تفاوت بین تست های علامت و رتبه امضا شده که هنگام اجرای Proc Univariate در SAS ظاهر می شوند، هدایت می کند.
|
خروجی Wilcoxon-Mann-Whitney
|
49765
|
با استفاده از قضیه فاکتورسازی کلاس نمایی، به $Y = \sum (x_i)^2$ رسیدم تا آمار کامل و کافی برای $\sigma^2$ باشد. با استفاده از این آمار کافی به عنوان شرط، آیا باید MLE را برای استخراج MVUE برای $\sigma^2$ دریافت کنم؟ من نمی دانم چگونه برای دریافت MVUE اقدام کنم.
|
UMVUE برای $\sigma^2$ در $\mathcal N(0, \sigma^2 )$ چیست؟
|
41906
|
به سوال مرتبط، اما قدیمی مراجعه کنید: تصحیح مقادیر p برای آزمایشهای متعدد که در آن تستها همبستگی دارند (ژنتیک). روش های مقایسه چندگانه مبتنی بر بوت استرپ دارای مزیت در نظر گرفتن ساختار وابستگی pvalues هستند. با این حال، راهاندازی مدلهای رگرسیون کمی دشوارتر است. چندین روش پیشنهاد شده است. من حداقل با سه راه برای تنظیم p-value در چنین مسائلی برخورد کرده ام. تا جایی که من می بینم، بهترین راه حل واحدی وجود ندارد. سوال این است: **چه روش هایی در دسترس هستند و مزایا/معایب هر کدام چیست؟** تعاریف زیر را پیشنهاد می کنم: $\vec{\theta_0}$ بردار مقادیر فرضی پارامترها است که در زیر فرض می شود. فرضیه صفر کامل $\hat{\vec{\theta}}$ برآوردگر پارامترها است که بر روی نمونه اصلی محاسبه شده است. $\hat{\vec{\theta}^*}$ تخمینگر پارامترها است که بر روی یکی از نمونههای بوت استرپ محاسبه میشود. $T$، $T^*$ آمار محوری هستند که بر روی داده های اصلی و نمونه بوت استرپ محاسبه می شوند. فرض میشود که تمام آمار محوری Wald است، یعنی $T = \frac{\theta}{\operatorname{SE}\theta}$. $m$ تعداد شرایط مورد علاقه در همه رگرسیون ها است.
|
(بهترین) روشها برای اصلاح مقایسههای چندگانه با بوت استرپ برای چندین مدل glm چیست؟
|
94994
|
من از پانل 2249 مدرسه با داده های 2002-2008 استفاده می کنم. برخی از مدارس مدارس تک جنسیتی هستند در حالی که برخی دیگر دارای جنسیت مختلط هستند. پیشینه ای در مورد رگرسیون من: عوامل تعیین کننده عملکرد مدرسه را در نظر بگیرید (که با **درصد** دانش آموزان مدرسه که 5 نمره A*-C در GCSE می گیرند اندازه گیری می شود: **sch5ac**). با استفاده از متغیرهای توضیحی زیر شروع کنید: - **stdschk2aps**: معیاری از عملکرد تحصیلی دانش آموزان هنگام ورود به مدرسه. متغیر به گونه ای استاندارد شده است که میانگین صفر و انحراف معیار یک داشته باشد. - **schfsm**: **درصد** دانش آموزان مدرسه که واجد شرایط دریافت وعده های غذایی رایگان مدرسه هستند. این را می توان به عنوان نماینده ای برای نسبت دانش آموزان خانواده های کم درآمد در نظر گرفت. - **schsen**: **درصد** دانش آموزان مدرسه که به عنوان دارای نیازهای آموزشی ویژه طبقه بندی شده اند (یعنی نیاز به حمایت اضافی دارند). مدارس بودجه اضافی برای کمک به حمایت از این دانش آموزان دریافت می کنند. از من خواسته می شود تا با استفاده از برآوردگر درونی، تأثیر هر یک از این متغیرها را بر روی متغیر وابسته (sch5ac) برای مدارس تک جنسیتی تخمین بزنم. sch5ac=beta_0+beta_1*schsen+beta_2*schfsm+beta_3*stdschk2aps ضرایب زیر را دریافت میکنم: beta_1= 0.215 beta_2= -0.357 beta_3= 6.935 هر دو schsen و schfsm بهعنوان درصد متغیر 5 اندازهگیری میشوند. بنابراین آیا افزایش 1% در schsen منجر به افزایش 0.215% در sch5ac می شود؟ از آنجایی که stdschk2aps به عنوان درصد اندازه گیری نمی شود، اما متغیر وابسته sch5ac است، آیا افزایش واحد در stdschk2aps sch5ac را 6.935 ** درصد افزایش می دهد؟** هر کمکی عالی خواهد بود، متشکرم Kai
|
تفسیر رگرسیون واحدهای درصد
|
58676
|
من دادههای شمارش غیر تودرتو دارم که از یک ناحیه به ناحیه دیگر بر اساس نسبت ناحیهای که در هر یک قرار دارد، درون یابی کردهام. این کدهای پستی مربوط به شهرستانها است، بنابراین اکثر آنها کاملاً لانه میکنند، و تعدادی در اطراف لبهها باید به این روش توزیع شوند. من می دانم که بهتر است این عدم قطعیت را از طریق مدل منتشر کنیم (مثلاً Bannerjee Carlin و Gelfand، فصل 6، بخش 2)، اما این راه، فعلاً خارج از محدوده این پروژه است، و من معتقدم که خطا وجود دارد. بسیار کوچک خواهد بود. این تقسیم بندی به نسبت مساحت، توزیع معقولی از شمارش را برای من به ارمغان می آورد: 0 1 (1,5] (5,10] (10,250] 0.30 0.35 0.22 0.06 0.06 مدل های NBD که من روی آن اجرا کرده ام با موفقیت همگرا شده اند، و تخمین پارامترها را در همان پارک اصلی به عنوان رگرسیون پواسون در همان نقطه گزارش کنید داده ها یک پیام هشدار دهنده در مورد مقادیر غیرصحیح برمی گردند، اما آیا بایسی وجود دارد که از اجرای یک رگرسیون دو جمله ای منفی بر روی داده های شمارش غیرصحیح باشد ::glm.nb`.
|
متغیر وابسته غیر صحیح در مدل های دوجمله ای منفی
|
62467
|
وقتی با همکارانم درباره ابزارهای تجزیه و تحلیل داده های کیفی صحبت می کنم، Atlas.ti و Nvivo دو نامی هستند که اغلب ظاهر می شوند. با این حال، به نظر می رسد تعداد کمی از افراد واقعاً هر دو را امتحان کرده باشند. پس از بررسی وب سایت های شرکت ها، یک نکته مهم برای من این است که Nvivo به زودی نسخه بومی Mac OSX را ارائه خواهد کرد. دانشگاه من راه حل های مبتنی بر وب را برای هر دو ابزار ارائه می دهد، اما من ترجیح می دهم برای حفظ حریم خصوصی و پاسخگویی بهتر آنها را مستقیماً روی دستگاه خود اجرا کنم.
|
مزایا و معایب Atlas.ti 7 در مقابل Nvivo 10 چیست؟
|
45681
|
من از عوامل هم افزایی برای آزمایش هم افزایی بین دو متغیر استفاده می کنم. معادله به اندازه کافی ساده است، جایی که $OR_{12}$ نسبت شانس ترکیبی برای متغیرهای 1 و 2 است: $ SF = \dfrac{OR_{12}}{(OR_1 \times OR_2)}$ چگونه ترکیب را محاسبه کنم نسبت شانس برای متغیرهای 1 و 2؟ من همه داده ها را دارم و نسبت شانس را با $\exp(\beta_j)$ محاسبه خواهم کرد. به عنوان نکته جانبی، نسبتهای شانس برای متغیرهای دیگر تنظیم میشوند، بنابراین من نمیتوانم فقط از جدول $4 \times 2$ همانطور که در مقاله پیوند داده شده است استفاده کنم. من حدس می زنم که این نسبتاً ساده است اما راه حل روشنی پیدا نکرده ام. چندین سوال در انجمن به متاآنالیز می پردازد، اما من نمی خواهم هیچ اشتباه یا فرضیه ضعیفی داشته باشم. من از کمک شما قدردانی می کنم! خروجی جزئی LR: Estimate Std. خطای z مقدار Pr(>|z|) var1 -14.09922 769.21550 -0.018 0.98538 var2 -3.38497 2.19931 -1.539 0.12378 var1:var2 -1.61902 -1.61902 0.501 -1.61902 0.501 - 0.5
|
نسبت شانس ترکیبی بین دو عامل را محاسبه کنید
|
53028
|
من در اینجا به یک رگرسیون خطی کلاسیک اشاره میکنم که نمایش واقعی آن با معادله $y_i=x_i'\beta+u_i$، که طبق معمول $x_i$ یک بردار $K\times 1$ از متغیرهای توضیحی مستقل است، $\ است. beta$ یک بردار $K\times 1$ از پارامترها و $u_i$ عبارت خطای مشاهده iام و با ساختن نمایش واقعی است. $u_i$ مستقل از $x_i$ در نظر گرفته می شود. اولین سوال من در این مورد اساسی است: اگر استقلال بین $x_i$ و $u_i$ را فرض کنیم، آیا این به معنای $E[u_i^d|x_i]=E[u_i^d]$ برای $d=1,2، است. $ - بنابراین، آیا می توانیم قانون انتظارات تکراری را در نتیجه به همه لحظات تعمیم دهیم؟ ثانیاً، اساس بسیاری از کتاب های درسی برای ادعای مستقل بودن $x_i$ و $u_i$ در مدل رگرسیون کلاسیک چیست؟ منظورم از استقلال، عدم همبستگی نیست، بلکه $f(u,x)=f(u)f(x)$. من میدانم که دو فرض استاندارد کلیدی که این مدل ویژگیهای نمونه کوچک بر آن استوار است، برونزایی دقیق $E[u_i|X]=0$، و عبارات خطای معمولی توزیع شده $u_i|x_i \thicksim N(0, \sigma است. ^2) دلار. ادعای استقلال بین $x_i$ و $u_i$ از کجا در کتاب های درسی سرچشمه می گیرد؟ آیا این دو گزاره به طور مشترک با هم دلالت دارند یا این یک فرض جداگانه است؟ اگر مورد دوم است، چرا به طور انحصاری در مجموعه مفروضات مدلهای رگرسیون خطی کلاسیک که فقط برونزایی دقیق و خطاهای معمولی توزیع شده را فرض میکنند، ذکر نشده است؟
|
مفروضات استقلال در مدل رگرسیون کلاسیک و لحظات بالاتر
|
53025
|
امیدوارم کسی بتواند در مورد اجرای فرآیندهای گاوسی (GP) با PYMC راهنمایی هایی به من بدهد. به طور خاص، من مطمئن نیستم که چگونه از چندین مدل فرعی GP به درستی در یک مدل pymc استفاده کنم. به طور خاص، آنچه من میخواهم پیادهسازی کنم طبقهبندیکنندهای است که ورودی آن یک سیگنال متغیر با زمان است (یک قطعه صوتی، در این مورد). برای مشخص بودن، هدف این است که از سیگنال ورودی مشخص شود که آیا نهنگ وجود دارد یا نه (به مسابقه تشخیص نهنگ Kaggle مراجعه کنید). بنابراین، دو دسته وجود دارد، نهنگ یا بدون نهنگ، که من به ترتیب 1، 0 را رمزگذاری می کنم و با یک متغیر تصادفی برنولی مدل می کنم. در آزمایشهای «نهنگ»، یک تماس نهنگ در جایی در سیگنال صوتی تعبیه شده است. در هر آزمایشی مشخص نمیدانیم تماس چه زمانی شروع میشود یا به پایان میرسد، اما فرض میکنیم که تماس کاملاً کلیشهای است، و بنابراین از آزمایشی به آزمایشی دیگر تفاوت کمی دارد (اما در هر آزمایش «نهنگ»، نسخهای پر سر و صدا از آن را مشاهده میکنیم) . من سعی میکنم سیگنال پسزمینه (بدون نهنگ) را با استفاده از زیرمدلهای GP که تابع میانگین قبلی و تابع کوواریانس مشترک دارند، و سیگنال «نهنگ» با استفاده از یک زیرمدل GP با تابع کوواریانس متفاوت (و احتمالاً میانگین قبلی متفاوت) مدلسازی کنم. ، اما در چیزی که من در اینجا کد کرده ام، همه زیرمدل ها صفر میانگین هستند). در آزمایشهای «نهنگ»، تماس در سیگنال پسزمینه تعبیه میشود که از «t_start» شروع میشود و برای واحدهای زمانی «call_dur» ادامه مییابد. 't_start' و 'call_dur' هر دو متغیرهای تصادفی هستند. سوال من این است که آیا واقعاً به مدلهای فرعی جداگانه برای هر سیگنال نهنگ نیاز دارم یا نه یا اینکه میتوانم از یک مدل فرعی بدون نهنگ استفاده کنم و به آن بگویم که برای هر آزمایش یک واقعیت جدید ترسیم کند. (به نظرات در کد، زیر مراجعه کنید). کد زیر بسیار آهسته اجرا میشود - به نظر میرسد که نمونهبرداری از هر زیرمدل GP زمان زیادی طول میکشد - آنقدر کند که مفید نباشد. آیا راهی برای دور زدن این موضوع وجود دارد؟ با تشکر برای هر گونه پیشنهاد! کد ---- زیر ---- از __future__ import division import numpy به عنوان np import pymc به عنوان pm import pymc.gp به عنوان pmgp # برای مشخص بودن، در اینجا مقادیر # ارسال شده از طریق شی params #input_T = 4000 #params هستند. t_start_mean = 0.25 * input_T #params.t_start_var = 0.1 * input_T #params.call_dur_mean = 0.4 * input_T #params.call_dur_var = 0.05 * input_T #params.n_fmesh = 25 #whale_prior = 0.5 def make_hbayes_model(params, whale_prior, sigs, the sigs, a obssi't: از سیگنالهای یکبعدی (قطعههای صوتی) بهعنوان یک آرایه # numpy با اندازه sig_N x sig_T ارسال میشوند، به عنوان مثال، آزمایشهای sig_N، هر یک از آزمایشهای مدت زمان sig_T میتواند یکی از دو دسته باشد - «نهنگ» (1)، یا «نه» -نهنگ'(0). # در آزمایشهای «نهنگ»، یک تماس نهنگ # جایی در قطعه صوتی تعبیه شده است، در آزمایشهای «بدون نهنگ» وجود ندارد. # هنگام آموزش مدل، دستههای واقعی در 'obs_wtf'، # یعنی نهنگ درست/نادرست، 0 برای بدون نهنگ، 1 برای نهنگ منتقل میشوند. sig_N, sig_T = np.shape(sigs) fmesh_nowhale = np.linspace(0, sig_T, params.n_fmesh) # fmesh برای no-whale GP # حدس بزنید در چه کسری از کل قطعه که نهنگ تعبیه شده para_frams فراخوانی می کند =__c .call_dur_mean / sig_T # fmesh برای 'نهنگ' GP fmesh_whale = np.linspace(0, params.call_dur_mean, int(params.n_fmesh*call_dur_frac)) اگر obs_wtf None باشد: # هنگام پیشبینی obs_wtf_flag هنگام آموزش obs_wtf_flag = True_flag = False # متغیر تصادفی برای تولید دسته (نهنگ یا بدون نهنگ) # 'نهنگ_پیش' مقدار شناخته شده (از داده های آموزشی) Pr(نهنگ) # 'wtf' است که البته هنگام آموزش مشاهده می شود، اما چیزی است که ما می خواهیم برای پیشبینی زمانی که، اوه، # پیشبینی wtf = pm.Bernoulli('wtf', p=whale_prior, value=obs_wtf,observed=obs_wtf_flag) # باید بدانیم چند نهنگ تا بدانیم به چند سیگنال صوتی نیاز داریم # برای جاسازی یک فراخوان نهنگ N_whales = np.sum(wtf.value) # در آزمایشات 'نهنگ'، ما می دانیم که یک ندای نهنگ تعبیه شده است، اما نمی دانیم دقیقا از کجا # شروع می شود یا دقیقاً چقدر طول می کشد. قطعه کامل فقط 2 ثانیه طول می کشد، و تماس حدود 1 ثانیه طول می کشد، بنابراین می دانیم که باید به سمت ابتدای قطعه ('st_start') شروع شود. توجه داشته باشید که # 't_start' و 'call_dur' نشان دهنده شاخص ها هستند، نه زمان واقعی (آنها در زیر گرد شده اند). t_start = pm.TruncatedNormal('t_start', mu=params.t_start_mean, tau=1.0/params.t_start_var, a=1,b=sig_T-2, value=np.zeros(N_whales)+params.t_start_mean) call_dur = .TruncatedNormal('call_dur', mu=params.call_dur_mean, tau=1.0/params.call_dur_var, a=1,b=sig_T-t_start, value=np.zeros(N_whales)+params.call_dur_mean) # فقط فعلاً این را کدنویسی کنید، بعداً آن را قابل یادگیری کنید sig_obs_var = 1
|
نحوه پیاده سازی چندین مدل فرعی GP در PYMC
|
58675
|
اکنون میدانم که چگونه میتوان متغیرها را برای یک PDF حاشیهای تغییر داد. اکنون، با توجه به دو تابعی که پارامترها را به صورت مکانی تعریف میکنند: $C_A(x)$ و $C_B(x)$، آیا میتوان Joint PDF، $f(C_A,C_B)$ را ساخت؟ توجه: اگر C_A و C_B مستقل باشند، من می فهمم که $f(C_A,C_B)=f(C_A)f(C_B)$.
|
تغییر PDF مشترک متغیرها
|
45687
|
سرعت رشد باکتری ها در 4 فلاسک اندازه گیری شد، 3 فلاسک با آنتی بیوتیک های مختلف تلقیح شده بود، 1 فلاسک به عنوان شاهد نگهداری شد. اندازه گیری ها هر 20 دقیقه به مدت 3 ساعت انجام شد. آزمایش 6 بار تکرار شد. من می دانم که ANOVA دو طرفه نامناسب است زیرا هر نقطه زمانی را مستقل تلقی می کند، اما مطمئن نیستم که کدام ANOVA مناسب باشد
|
کدام ANOVA مناسب است؟
|
81751
|
من میخواهم یک توصیهکننده مبتنی بر محتوا در یک محیط محدود با توجه به قدرت پردازنده و حافظه بسازم (به طور خاص: یک دستگاه تلفن همراه، اما ساخت توصیهکننده روی یک سرور راه دور قابل قبول نیست). کدام الگوریتم یا اکتشافی در چنین شرایطی امکان پذیر است؟
|
یک الگوریتم خوب و کارآمد برای یک توصیه کننده مبتنی بر محتوا چیست؟
|
62469
|
من سعی می کنم یک رگرسیون برای مدل کردن ریسک نکول دولتی کشورهای اتحادیه اروپا انجام دهم. داده های من شامل رتبه های اعتباری (مقدار عددی اختصاص داده شده 0-20)، اسپرد CDS، سود اوراق قرضه، بازده اوراق، تورم و تولید ناخالص داخلی سرانه است. با این حال، من از نظر تنظیم رگرسیون کمی سردرگم هستم. من باید یک رگرسیون پانل انجام دهم. اما من همچنین به این فکر میکردم که برای هر کشور سری زمانی جداگانه انجام دهم. آیا این منطقی است؟ یا فقط باید پنل را به تنهایی انجام دهم؟ همچنین میدانم که باید برای سرانه تولید ناخالص داخلی و احتمالاً تورم ثبتنام کنم. آیا این درست است؟ آیا باید این کار را برای هر متغیر دیگری انجام دهم؟ چه زمانی سیاههها را میگیرید؟ اصل پشت این چیست؟ استاد من این را به درستی برای ما توضیح نداد. همچنین چه زمانی لگ یا تمایز انجام می دهیم؟ اهمیت و هدف از انجام این کار چیست و چه زمانی باید این کار را انجام دهیم؟ آیا باید هر کدام از اینها را برای متغیرهایم انجام دهم؟ من این را میپرسم زیرا هنگام اجرای تجزیه و تحلیل سریهای زمانی کشوری فردی مدام دچار ناهمگونی میشوم، اما وقتی به ماتریس همبستگی نگاه میکنم، هیچ ارقام بالا یا ظاهر عجیبی را نشان نمیدهد، بنابراین بگویید این یک مشکل است.
|
مدلسازی رگرسیون تابلویی در اقتصاد سنجی
|
62460
|
پارامترهای 'start'، 'etastart'، 'mustart' در تابع glm() چیست؟ من در اسناد و اینترنت جستجو کردم اما توضیح واضحی پیدا نکردم که این به چه معناست. این شبیه مقادیر اولیه بیزی برای زنجیرهها است، اما من شک دارم که این موضوع مرتبط باشد، زیرا تابع glm() در R یک آمار متداول است...
|
مقادیر شروع در تابع glm() چیست؟
|
96972
|
من یک سوال در مورد تفسیر پارامتر برای GLM با متغیر وابسته توزیع شده گاما دارم. این همان چیزی است که R برای GLM من با یک پیوند ورود به سیستم برمیگرداند: تماس: glm (فرمول = درآمد ~ قد + سن + تحصیلات + متاهل + جنسیت + زبان + دبیرستان، خانواده = گاما (لینک = گزارش)، داده = جعلی) انحراف باقیمانده ها: Min 1Q Median 3Q Max -1.47399 -0.31490 -0.05961 0.18374 1.94176 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 6.2202325 0.2182771 28.497 < 2e-16 *** ارتفاع 0.0082530 0.0011930 6.918 5.58e-12 *** سن 0.060 0.58 0.191 0.848 educat 0.0119425 0.0009816 12.166 < 2e-16 *** متاهل -0.0178813 0.0173453 -1.031 0.303 جنسیت -0.3179608 -0.3179608 -0.3179608 -0.3179608 -0.3179608 2e-16 *** language 0.0050755 0.0279452 0.182 0.856 دبیرستان 0.3466434 0.0167621 20.680 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاما 0.1747557 در نظر گرفته شده است) انحراف صفر: 757.46 در 2999 درجه آزادی: 050 devi باقی مانده است. 2992 درجه آزادی AIC: 49184 چگونه پارامترها را تفسیر کنم؟ اگر من exp(coef()) مدل خود را محاسبه کنم، ~ 500 برای رهگیری دریافت می کنم. حالا من معتقدم که اگر همه متغیرهای دیگر ثابت نگه داشته شوند، این به معنای درآمد مورد انتظار نیست، اینطور نیست؟ از آنجایی که میانگین یا «میانگین (سن)» در ~ 2000 قرار دارد. علاوه بر این، من نمی دانم چگونه جهت و مقدار ضرایب متغیرهای کمکی را تفسیر کنم.
|
نحوه تفسیر پارامترها در GLM با Family=Gamma
|
11945
|
من یک مدل رگرسیون lin-log مانند $$Y = b_0 + b_1 \log(x_1 + 1) + e.$$ دارم توزیع x_1$ بسیار منحرف است، بنابراین من از لگاریتم طبیعی برای بدست آوردن گاوسی مانند بیشتر استفاده می کنم. توزیع از آنجا که 3 مقدار از 100 مقدار به عنوان ورودی صفر است، من یک ثابت c را اضافه می کنم، در مورد من به اضافه 1، برای جلوگیری از -Inf. تخمین حاصل از b_1$ حدود -0.14 است. بدون ثابت، تفسیر واضح است: تغییر 1% در $x$ منجر به تغییر $0.01\cdot b_1$ در $y$ میشود. من با ثابت مبارزه می کنم. چگونه می توانم آن را در تفسیر خود حساب کنم؟ اگر مقدار c را تغییر دهم، البته تخمین های دیگری دریافت می کنم. من + 1 را انتخاب کردم زیرا این به مقادیر ثبت مثبت منجر می شود (مقادیر $x_1$ نیز در اصل مثبت هستند). یا باید یک مقدار کوچک فقط به سه 0 اضافه کنم؟ پیشاپیش خیلی ممنون و لطفاً یک پاسخ غیر ریاضی ؛-) مارکو
|
تفسیر رگرسیون lin-log که در آن متغیر کمکی log (x1 + 1) تبدیل شده است
|
62466
|
من در حال مطالعه پاسخ 500 نفر به افزایش دما با استفاده از رگرسیون خطی بر روی هر درجه دما (از 10 درجه سانتی گراد تا 28 درجه سانتی گراد) هستم. بنابراین، این امکان برای من وجود داشت که رهگیری و شیب را برای هر یک از 500 موضوع محاسبه کنم. من علاقه مند به شناسایی سه گروه از افراد هستم که از نظر آماری یکسان هستند: * گروه 1: کسانی که قوی هستند و مستقل از اثر دما پاسخ می دهند. اینها موضوعاتی هستند که شیب تقریباً صفر دارند. * گروه 2: کسانی که دارای شیب منفی / رو به پایین هستند * گروه 3: کسانی که دارای شیب مثبت / رو به بالا هستند. من شیب را برای هر موضوع محاسبه کردهام و سپس دادهها را از پایینترین به بالاترین شیب مرتب کردهام. آیا می توانید به من کمک کنید تا از مرتبط ترین پارامترها و ابزارهای آماری استفاده کنم که به من امکان می دهد افراد (از نظر آماری همگن) هر یک از این سه گروه را شناسایی کنم؟ من استفاده از آزمون t، تکنیکهای خوشهبندی، PCA و تشخیص را در نظر گرفتم، اما برای انتخاب و نحوه انجام آن با استفاده از SAS یا R به کمک شما نیاز دارم. برای توضیح بهتر، بخشی از دادهها در اینجا آمده است: Sub. C15 C16 C17 C18 C19 شیب 1 30,55 30,05 29,56 29,07 28,58 -0,49 2 22,22 21,83 21,44 21,05 20,67 -0,316 3 20 19,78 19,39 19,01 18,63 -0,38 4 61,07 60,69 60,31 59,93 59,55 -0,38 5 49,29 48,92 48,55 48,18 47,81 -0,37 6 52,54 52,18 51,81 51,44 51,08 -0,37 238 18,19 18,18 18,18 18,18 18,18 -0,0017 239 -10,23 -10,23 -10,23 -10,24 -10,24 -0 ,0010 240 -14,44 -14,44 -14,44 -14,44 -14,44 -0,0006 241 19,76 19,75 19,75 19,75 19,75 -0,0006 242 13,55 13,55 13,55 13,55 13,55 0, 0010 243 19,93 19,93 19,93 19,93 19,94 0,0012 244 55,69 55,69 55,69 55,69 55,69 0,0016 495 -28,70 -28,43 -28,16 -27,90 -27 ,63 0,27 496 -9,71 -9،40 -9،10 -8،80 -8،49 0،30 497 -12،29 -11،98 -11،67 -11،35 -11،04 0،31 498 -43،85 -43 ,48 -43,11 -42,74 -42,37 0,37 499 -29,41 -28,97 -28,52 -28,07 -27,62 0,45 500 -8,54 -7,98 -7,43 -6,87 -6,31 0,56 ستون 'C15-C19' ( به عنوان مثال) مقادیر پیش بینی شده صفت مورد نظر در هر دما هستند. این مقادیر نتایج به دست آمده با استفاده از مدل هنجار واکنش بود. شیب برای هر موضوع در اینجا با استفاده از رگرسیون خطی محاسبه می شود و پس از آن داده ها بر اساس مقادیر شیب مرتب شده اند. در این مثال: 1. آزمودنیهای (1 تا 6) کمترین شیب منفی را دارند و با توجه به کاهش آنها در پاسخ به افزایش دما، مورد توجه مطالعه ما باقی میمانند. 2. موضوعات (238-244) در اینجا به عنوان نمونه ای از سوژه هایی هستند که شیب تقریباً (صفر) دارند و در مطالعه ما جالب تر هستند زیرا نشان دهنده موارد قوی هستند و عملکرد آنها تحت تأثیر افزایش دما قرار نمی گیرد. (495-500) آنهایی هستند که بیشترین شیب مثبت را دارند. ما به آنها علاقه مند هستیم زیرا عملکرد آنها حتی در شرایط سخت و دمای بالا افزایش می یابد. **حالا سوال ما این است:** چگونه می توان با دقت بیشتری (بر اساس یک ابزار آماری) موضوعاتی را که باید با هر یک از 3 گروه مطابقت داشته باشد شناسایی کرد؟ در مرحله اول، فکر می کنیم می توانیم از آزمون t برای شناسایی آزمودنی های هر گروه استفاده کنیم. برخی از افراد به ما توصیه کردند که از رویکردهای خوشهبندی یا تمایز استفاده کنیم. اما ما نتوانستیم بفهمیم که چگونه این کار را به درستی انجام دهیم. ما سابقه ای در SAS داریم. ما می پرسیم چگونه مشکل خود را حل کنیم و با مثالی از نحوه حل مشکل در SAS به ما کمک می کنیم.
|
گروه بندی موضوعات مشابه بر اساس شیب
|
97846
|
من سعی می کنم توزیع زمان صرف شده در صفحات وب را متناسب کنم. هدف من خوشه بندی کاربران بر اساس زمان صرف شده است. مجموعه دادههای من مانند موارد زیر است. (p1، p2 و p3 صفحات وب هستند و زمان (بر حسب ثانیه) صرف شده در آن صفحات توسط هر کاربر فهرست شده است). کاربر p1 p2 p3 1 10 20 0 2 0 5 7 3 25 0 2 اگر توزیع کاربر '1' معادل کاربر 'n' باشد، آنها به همان خوشه اختصاص داده می شوند. چگونه می توان به این امر دست یافت؟ من از python 'scipy' استفاده می کنم. داده های اصلی زمان صرف شده یک کاربر در 452 صفحه وب. 289 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1180 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1687 1627 0 0 0 0 1469 0 0 0 0 0 1470 851 1340 0 1546 0 98 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 775 0 0 815 849 0 1623 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1177 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1635 1621 0 0 0 0 0 0 0 0 0 601 1274 0 1554 0 87 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 630 0 0 0 15 0 632 0 0 0
|
توزیع متناسب با زمان صرف شده برای صفحات وب
|
10639
|
طبق ویکی پدیا، توزیع لامبدای Wilks، توزیع هتلینگ را تعمیم می دهد. من با دیدن این که چگونه کار می کند، مشکلاتی دارم. من میتوانم ببینم که چگونه توزیع هتلینگ توزیع t Student را تعمیم میدهد (یک RV که به عنوان قانون هتلینگ با $p=1$ توزیع میشود، فقط مربع توزیع RV به عنوان t Student است)، اما نمیتوانم ببینم چگونه به لامبدای Wilks برسیم. آیا تنظیماتی از پارامترهای $p,m,n$ وجود دارد که RV توزیع شده به صورت لامبدای Wilks مقداری تبدیل از RV هتلینگ باشد؟
|
توزیع لامبدای Wilks دقیقاً چگونه توزیع هتلینگ را تعمیم می دهد؟
|
48411
|
> با استفاده از قضیه حد مرکزی، $$\lim_{n \to \infty} را ارزیابی کنید > \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2 ^{j+n}}$$ راه حل من: اجازه دهید $\{X_n\}$ دنباله ای از iid R.V باشد که هر کدام $Geo(\frac{1}{2})$ دارند سپس $E(X_n)=1$ و $Var(X_n)=2 < \infty,n\in N$ همچنین $S_n=\sum_{k=1}^nX_k\sim NB(n,\frac{1}{ 2})$ توسط Lindeberg-Levy CLT، $$\begin{align} \lim_{n \to \infty}P[\frac{S_n-E(S_n)}{\sqrt{V(S_n)}}\leq x] &= \Phi(x)، \forall x \in R\\ \به معنای \lim_{ n \to \infty}P[\frac{S_n-n}{\sqrt{2n)}}\leq x] &= \Phi(x)، \forall x \in R\end{align}$$ اکنون $x=0$ $$\begin{align} \lim_{n \to \infty}P[S_n \leq n]&= \Phi(0) \\ \implies \ قرار دهید lim_{n \to \infty} \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2^{j+n}} &=\frac{1}{2}\end{align}$$ درست میگویم؟ آیا راه دیگری برای حل محدودیت وجود دارد؟ به طوری که من می توانم حد را بررسی کنم (اگرچه برای سوال داده شده کاملا غیر ضروری است). لطفا کمک کنید. پیشاپیش ممنون
|
$\lim_{n \to \infty} \sum_{j=0}^{n}{{j+n-1} \choose j}\frac{1}{2^{j+n}}$ را ارزیابی کنید
|
48410
|
من با استفاده از رگرسیون لجستیک، اثر یک پیشبینیکننده طبقهای را بر روی یک متغیر وابسته باینری مدلسازی میکنم. من مدلها را با/بدون پیشبین با استفاده از آزمون نسبت درستنمایی مقایسه میکنم. دو دسته از پیش بینی کننده فقط با مقادیر 1 (بدون 0) برای متغیر وابسته همراه است. ضرایب رگرسیون برای این دسته ها (به صورت تغییرات در log(شانس) در مقایسه با یک دسته مرجع) بسیار بزرگ و بسیار مشکوک هستند، زیرا این دسته مرجع همیشه با مقادیر پاسخ 1 همراه است (اما برای یک مورد)، و بنابراین من این کار را انجام می دهم. ضرایب رگرسیون نزدیک به 0 برای این دو دسته انتظار می رود. مقایسه بین دسته مرجع و سایر دستهها که دارای توزیع متعادلتر 1 و 0 هستند، با آنچه من از بازرسی بصری دادهها انتظار دارم مطابقت دارد. حذف موارد مرتبط با این دو دسته «مشکلآمیز» logLikelihood مدلها را تغییر نمیدهد، اما چون تعداد پارامترها را تغییر میدهد، نتایج آزمون نسبت درستنمایی را تحت تأثیر قرار میدهد. مدلها با استفاده از تابع glm با خانواده دوجملهای و پیوند لاجیت در R برازش میشوند. بنابراین سؤال من این است: از چه مدلی (یا رویهای) باید استفاده کنم تا: (1) اهمیت کلی تأثیر پیشبین بر متغیر وابسته را آزمایش کنم؟ آیا باید قبل از انجام آزمون نسبت احتمال، دادههای دستههای «مشکلآمیز» را در مدل نگه دارم یا نه؟ (2) این دو مقوله مشکل را با دیگران مقایسه کنید؟ هر اشاره ای قابل تقدیر است،
|
دسته های عاملی بدون واریانس چگونه بر رگرسیون لجستیک تأثیر می گذارند؟
|
92719
|
من به دنبال روشی برای یافتن فواصل اطمینان برای NPS (نمره خالص پروموتر) هستم. یک روش قبلاً در اینجا پیشنهاد شده بود. اما من به استفاده از بوت استرپ فکر می کنم. به نظر شما روش زیر منطقی است؟ آیا بسیار بهتر از آنچه توسط whuber پیشنهاد شده است؟ NPS=function(x){ if(sum(!x%%1==0)>0){stop(Non-integers found in the scores.)} if(sum(x>10|x<0) >0){stop(نمرات در مقیاس 0 تا 10 نیست.)} sum(ifelse(x<7,-1,ifelse(x>8,1,0)))/length(x)*100 } NPSconfInt=function(x, اطمینان=.9, iterations=10000){ quantile(bootstrap (x,تکرارها,NPS)$thetastar,c((1-اعتماد)/2, 1-(1-اعتماد)/2)) } library(bootstrap) npsData=c(1,5,6,8,9,7,0,10,7,8,6,5,7,8,2,8,10,9,8,7,10, 10) hist(npsData، breaks=11) NPS(npsData) NPSconfInt(npsData،.7)
|
فواصل اطمینان NPS با بوت استرپ
|
53021
|
من 63 ردیف و 17 ستون در مجموعه داده cocomo81 دارم (اطلاعات را اینجا ببینید). 16 ستون اول ورودی های شبکه و ستون هفدهم خروجی های تخمین زده شده است. من 2/3 از داده ها را برای آموزش و اعتبار سنجی (یعنی 42 ردیف)، 1/3 برای آزمایش (یعنی از ردیف های 43 تا 63) گرفتم. ردیف 1 را برای تمرین با وزنه های تصادفی و سپس ردیف 2 را با وزنه های به روز ارسال کردم (در هنگام ارسال ردیف اول دریافت شد) و به همین ترتیب تا 41 ردیف (1-1000 تکرار) و میانگین خطای دریافت شده در هر ردیف را به عنوان خطا در نظر گرفتم- 1. برای دریافت خطا از (خروجی تخمینی-خروجی واقعی) استفاده کردم. بعد از این من ردیف 42 را برای اعتبار سنجی فرستادم و به همان روش قبلی خطا گرفتم و وزن را به روز کردم بنابراین خطای اعتبار 1 را دریافت کردم (بدون تکرار). سپس ردیف های 43 تا 63 را برای تمرین با وزنه های به روز شده ارسال کردم و به همان روش قبلی خطا را دریافت کردم (اینجا تکراری وجود ندارد). من برای بهروزرسانی وزنها و عملکرد فعالسازی سیگموئید از پس انتشار استفاده کردم. کاری که من انجام دادم کار درستی است یا نه؟ آقای من گفت که خطاهای اعتبارسنجی و خطاهای تست در مقایسه با خطاهای آموزشی باید کمتر باشد اما من مقادیر زیادی میگیرم. پس لطفا به من بگویید، چه مشکلی دارد؟
|
درباره یافتن خطاهای تست
|
48419
|
من یک تحلیلگر/مدل آماتور داده هستم که سعی می کنم چند تکنیک جدید را به خودم بیاموزم. من سیستمی دارم که در آن، در صورت وقوع یک رویداد، دو نتیجه میتواند رخ دهد (0 یا 1)، و تعدادی مدل پیشبینی طراحی شدهاند تا بر اساس رویدادهای قبلی، احتمال نتیجه 1 را ارائه دهند. برخی از این مدلها بدیهی است که بهتر از سایرین هستند، اما من به دنبال راهی برای ارزیابی کمی عملکرد مدلهایی هستم که در آنها کمتر آشکار است. برای مثال، با توجه به دو مدل (p1 و p2) و دو رویداد (out1, out2): p1 = 0.70 p2 = 0.60 out1 = 1 p1 = 0.65 p2 = 0.55 out2 = 0 در رویداد اول، من انتظار دارم که بیشتر افراد p1 را در نظر بگیرند. بهتر است، زیرا احتمال بالاتری را برای نتیجه 1 پیش بینی کرده است. در رویداد دوم، من انتظار دارم که بیشتر p2 را در نظر بگیرند بهتر است، حتی اگر هر دو مدل در جهت اشتباه پیشبینی کردهاند، p2 احتمال کمتری از اشتباه بودن نتیجه را پیشبینی میکند. این به من نشان می دهد که به سادگی به هر مدل بر اساس چیزی مانند اگر (p > 0.5 && out = 1) امتیاز ++; اگر (p <= 0.5 && out = 0) امتیاز ++; برای ارزیابی دقیق این مدل ها کافی نیست. سوالات من این است: * برای ارزیابی این مدل ها از چه روش هایی می توان استفاده کرد؟ * این روش ها در آنچه در مورد مدل ها به ما می گویند چه تفاوتی دارند؟ به عنوان مثال برخی از روشها به سمت مدلهایی که اغلب صحیح هستند، اما به ندرت دارای احتمالات خارج از محدوده 0.45 < p 0.55 هستند، یا به سمت مدلهایی که کمتر صحیح هستند اما به طور منظم احتمالاتی در محدودههای 0 <= p < 0.2 و 0.8 < p< دارند، منحرف میشوند. = 1؟ * (کمی کمتر مرتبط اما جالب است) چگونه این روش ها به سیستمی تبدیل می شوند که بیش از دو نتیجه دارد؟
|
روشهای ارزیابی مدلهای پیشبینی در سیستمهای دو نتیجهای
|
58679
|
در این صفحه، من به بخش خوبی تناسب علاقه مند هستم که نزدیک به انتهای صفحه است و شامل جدول توابع انحراف است. نویسنده بیان می کند که انحراف مقیاس شده، یعنی $D^*= \frac{D(y, \mu)}{\phi} $ دارای یک توزیع $ \chi^2_{n -p} $ محدود است، که در آن $ n $ تعداد مشاهده و $ p $ تعداد پارامترهای پیش بینی شده است. او سپس ادامه می دهد که در حالتی که $ \phi $ ناشناخته است، می توان آن را به صورت $ \hat{\phi} = \frac{D}{n - p} $ پیش بینی کرد. اگر اینطور باشد، آیا انحراف مقیاس شده برابر با $ \frac{D(y, \mu)}{\frac{D}{n - p}} = n - p $ نخواهد بود؟ فکر میکنم اختلاف بین $ D(y, \mu) $ و $ D $ (بدون آرگومان) را اشتباه متوجه شدهام. چیزی مشابه با آماره مجذور کای پیرسون مقیاس شده رخ می دهد. آیا کسی می تواند نحوه محاسبه انحراف مقیاس شده را در صورتی که $ \phi $ ناشناخته است و چگونه با g.o.f ادامه دهد توضیح دهد. تست؟
|
خوبی تناسب در GLM با انحراف مقیاسپذیر
|
105281
|
**مشکل** کیسه ای با شش نشانه مجزا در آن وجود دارد (مثلاً یک قالب شش وجهی). هر نشانه دارای یک مقدار ناشناخته از یک عدد واقعی است. یک آزمایش شامل ترسیم پنج نشانه (پنج رول قالب) و گفتن مجموع آن است (برای روشن شدن، شما شناسه هر نشانه را می دانید، نه ارزش آن را). تعداد آزمایشهای مورد انتظار برای تعیین مقادیر هر شش توکن چقدر است؟ **نمایش جبری** شش مجهول $x_1، x_2، ...، x_6$ وجود دارد. هر آزمایش معادلهای به شکل $x_{d_1} + x_{d_2} + x_{d_3} + x_{d_4} + x_{d_5} = r$ به شما میدهد، که در آن هر یک از $d_i$s بهطور تصادفی انتخاب میشوند ( به طور مستقل، هر کدام با احتمال 1/6) از $\{1,2,3,4,5,6\}$. راه منطقی برای حل آن تبدیل هر آزمایش به یک معادله خطی به شکل $$n_{1,i}x_1+n_{2,i}x_2+n_{3,i}x_3+n_{4,i} است. x_4+n_{5,i}x_5+n_{6,i}x_6=r_i$$ و سپس سیستم معادلات خطی حاصل را در نظر بگیرید. در بسیاری از (احتمالاً اکثر) موارد، شش آزمایش کافی است. اما ممکن است که یک ترکیب تاس یکسان را بیش از یک بار بدست آوریم (یا دقیقاً یا به عنوان جایگشت)، که باعث می شود شش معادله به صورت خطی مستقل نباشند، که نیاز به آزمایش دیگری دارد. و همچنین ممکن است آخرین آزمایش معادله ای تولید کند که ترکیبی خطی از برخی از معادلات قبلی است. (به عنوان مثال، اگر $x_1+x_1+x_2+x_2+x_3=r_1$ و $x_3+x_4+x_4+x_5+x_5=r_2$، سپس $x_1+x_2+x_3+x_4+x_5=(r_1+r_2)/2$ ) بنابراین مشکل این است که برای به دست آوردن 6 معادله مستقل خطی چند آزمایش لازم است؟ **تلاش های من** فکر کردم با در نظر گرفتن احتمال اینکه آزمایش بعدی معادله خطی مستقلی ایجاد کند، آن را با ایجاد یک آزمایش در یک زمان حل کنم. سپس می توانم تعداد مورد انتظار آزمایشی را پیدا کنم تا به 2 برسد، سپس تعداد مورد انتظار آزمایشی را به 3 برسانم، و غیره. اما نمی دانستم چگونه ادامه دهم. من فکر کردم مواردی را در مواردی در نظر بگیرم که اولین آزمایش تکراری نداشته باشد / یک جفت / دو جفت / یک سه گانه / یک چهار تایی / دو جفت / یک جفت و یک سه گانه، اما به سرعت غیرقابل اجرا می شود. .
|
تعداد آزمایشات مورد انتظار برای به دست آوردن 6 بردار مستقل خطی
|
10092
|
من سعی می کنم رگرسیون لجستیک را در رابطه با مدل امتیازدهی اعتباری درک کنم. من می خواهم اهمیت 20/ln(2) را در رگرسیون لجستیک درک کنم. چرا و چگونه استفاده می شود؟
|
20/ln(2) در رگرسیون لجستیک به چه معناست؟
|
96970
|
من از یک الگوریتم یادگیری ماشین نظارت شده در برخی از داده های بزرگ استفاده می کنم. ویژگی های بسیار بیشتر از مشاهدات وجود دارد. برای کاهش تعداد ویژگیها، میخواهم برخی ویژگیها را انتخاب کنم. با این حال، یک چیز وجود دارد که من در مورد آن سردرگم هستم. آیا می توانم ابتدا با استفاده از داده های مشاهدات _all_، انتخاب ویژگی را انجام دهم و سپس آموزش و آزمایش طبقه بندی کننده را انجام دهم؟
|
انتخاب ویژگی برای طبقه بندی کننده
|
58671
|
من سعی می کنم بفهمم که آیا از نمودار زیر باقیمانده های OLS که رابطه خطی برقرار نیست و احتمالاً یک رابطه مکعبی بهتر است؟ از آنجایی که هم در ابتدا و هم در وسط واریانس بزرگتر است و دو خم در یک رگرسیون می تواند واریانس این نواحی را کاهش دهد. یا این چیزی است که از این نمودار قابل تعیین نیست؟  [ویرایش پس از نظرات] ساختار میانگین یک عبارت درجه دوم و احتمالاً یک ترم مکعب را نشان می دهد، اما این مورد آخر کوچک به نظر می رسد . 
|
آیا واریانس باقیمانده OLS می تواند یک رابطه چند جمله ای را نشان دهد؟
|
95682
|
ما مجموعهای از 60000 فایل داریم و یک نرمافزار داریم که سعی میکند به هر فایل نگاه کند و مشخص کند که محتویات مربوط به چه تاریخی است. مایلیم 99% مطمئن باشیم که نرم افزار ما در 95% +/- 5% مواقع تاریخ صحیح را انتخاب می کند. ما به صورت دستی 658 تست ایجاد کردیم که هر کدام یک فایل و تاریخ صحیح را می گیرند و بررسی می کنند که آیا نرم افزار تاریخ صحیح را انتخاب کرده است یا خیر. اگر 95 درصد از آزمونهای ما موفق شده است، 99 درصد اطمینان خود را که در بالا ذکر شد برآورده کردهایم. ما با استفاده از این ماشین حساب به عدد 658 رسیدیم http://www.surveysystem.com/sscalc.htm آیا به درستی آمار را برای مشکل خود اعمال می کنیم؟ با تشکر
|
آیا اندازه نمونه خود را به درستی انتخاب می کنیم؟
|
48412
|
فرض کنید مطالعه زیر را انجام می دهیم. ما 2 وب سرور (سرور A و سرور B) داریم که در حال پردازش درخواست های کاربر هستند. هر دو روی یک سخت افزار اجرا می شوند، اما یکی از آنها (سرور B) از الگوریتم کمی متفاوت برای پردازش درخواست استفاده می کند. هنگامی که درخواست کاربر وارد می شود، ما 50/50 شانس پردازش آن را در هر سرور داریم. بنابراین کاری که توسط هر سرور انجام می شود در دراز مدت یکسان است. ما 1 ساعت گزارش سیستم داریم که حاوی اطلاعاتی درباره همه درخواستهای این ساعت است (_تمام جمعیت، نه نمونه_): چه سروری درخواست را پردازش کرده و چه مدت طول کشید تا پردازش شود. به عنوان مثال: 21:00:00 SERVER-A 0.11s 21:00:00 SERVER-A 0.13s 21:00:00 SERVER-B 0.09s 21:00:00 SERVER-A 0.16s 21:00:00 SERVER- B 0.11s 21:00:01 SERVER-A 0.14s گزارش بسیار بزرگ است (~250K درخواست از هر سرور، ~500K در کل). به نظر می رسد که سرور B کمی سریعتر است (میانگین زمان پاسخ کمتر است). سوال این است که برای نشان دادن اهمیت آماری تفاوت زمان پاسخگویی آن دو سرور از کدام تست استفاده کنم؟
|
آزمون آماری برای تجزیه و تحلیل عملکرد سیستم های کامپیوتری؟
|
96977
|
به عنوان مثال من یک مجموعه داده به صورت زیر دارم: (2042.044,2218.153,3670.893,5149.684,5533.429,7111.183,11041.569,15459.771,783,477,1701.520,4085) داده ها در توزیع Burr برای محاسبه پارامترهای آن در R؟ fitdist توزیع Burr را ارائه نمی دهد. آیا می توانم به صراحت تابع توزیع احتمال خود را برای محاسبات مورد نیاز تعریف کنم؟ لطفا کمک کنید چون من تازه وارد R هستم.
|
چگونه مجموعه ای از داده ها را در Burr Distribution در R قرار دهم؟
|
95688
|
اجازه دهید $X$ و $Y$ متغیرهای تصادفی مستقل باشند، که هر کدام به طور یکنواخت بین $0$ و $1$ توزیع شدهاند. احتمال اینکه > $(X−1/2)^2+(Y−1/2)^2≤1/9$ را پیدا کنید. حداقل 8$ رقم صحیح بعد از اعشار را بدهید. نمی دانم با این سوال از کجا شروع کنم. آیا کسی می تواند مرا در مسیر درست راهنمایی کند؟
|
احتمال توزیع یکنواخت؟
|
59106
|
من یک آزمایش لیست با N=150 دارم. به گروه کنترل 3 عامل و به گروه درمان 4 عامل داده شد که به طور تصادفی به این گروه ها تقسیم شدند. هر گروه باید گزارش می داد که چند عامل برای آنها اعمال می شود. من 18 دسته از این آزمایش را انجام داده ام. در اکثر آنها، میانگین گروه درمان بالاتر از میانگین گروه کنترل است یا اگر برعکس باشد، این تفاوت معنی دار نیست. اما در دو دسته از گروه ها، میانگین گروه درمان کمتر است. نسبت به میانگین گروه کنترل و این تفاوت معنی دار است... سوالات از قبل تست شده بودند و به نظر می رسید که خوب کار کنند. پس چرا این نتایج در 2 آف دسته است؟ یک میلیون تشکر پیشاپیش برای هر گونه توصیه و پیشنهاد، TP
|
میانگین کنترل کمتر از میانگین درمان در یک آزمایش فهرست - چرا؟
|
54551
|
ما یک متغیر وابسته متریک (اختلال، مقیاس 0-40) و تعداد بیشتری از علائم یک اختلال روانی داریم، که هر کدام در مقیاس 0 (موجود) - 3 (بسیار شدید) هستند. ما سعی می کنیم دریابیم که آیا علائم با سطوح مختلف اختلال همراه است یا خیر. ما این را در دو مرحله آزمایش می کنیم. اول، ما از یک رگرسیون خطی استفاده می کنیم، که اختلال را با علائم فردی پیش بینی می کند، که در آن علائم حدود 45٪ از واریانس اختلال را توضیح می دهند. دوم، ما از متریک LMG بسته R RELAIMPO (Grömping، 2006؛ اهمیت نسبی) برای تخصیص سهم های R^2 منحصر به فرد به هر علامت استفاده می کنیم. نتیجه این است که علائم فردی در واریانس توضیح داده شده اختلال به شدت متفاوت است. محدوده برآورد بین 1٪ و 20٪ توضیح داده شده است. این به خوبی با **فرضیه ما** مطابقت دارد: > برخی از علائم نسبت به سایرین آسیبرسانتر هستند، زیرا چیزهای متفاوتی هستند (و نه صرفاً شاخصهای نهفته قابل تعویض یکسان). > اختلال به ماهیت علائم بستگی دارد (بنابراین، مجموع نمرات علائم > ممکن است اطلاعات را مبهم کند). با این حال، یک مرورگر **فرضیه جایگزین** را مطرح کرد: > اختلال به شدت علائم بستگی دارد، صرف نظر از ماهیت علائم. این فرضیه بیان میکند که همه علائمی که واریانس زیاد را توضیح میدهند، نشانههایی هستند که میانگین بالایی دارند، و علائمی که مقادیر متوسط واریانس را توضیح میدهند، علائم متوسط شدید هستند، و علائمی که فقط واریانس کمی را توضیح میدهند، فقط > جزئی هستند. ناتوان کننده من کاملاً نمی دانم که چگونه این ایده را آزمایش کنم، و از ورودی بسیار سپاسگزارم. ( _EDIT_ : یکی از همکارانم پیشنهاد داد که یک مدل فرضیه صفر را آزمایش کنیم که فقط از مجموع امتیازها استفاده می کند (یعنی مجبور کردن همه بتاها یکسان باشند) در مقابل مدل با بتای فردی (آزمون 13 درجه آزادی)، اما صادقانه بگویم، من این کار را نمی کنم. درک کنید که چه کاری انجام می دهد و چگونه کمک می کند).
|
مقایسه دو مدل رگرسیون، اهمیت نسبی علائم فردی
|
11943
|
من از `auto.arima()` برای پیش بینی استفاده می کنم. هنگامی که من از داده های ساخته شده مانند AirPassengers استفاده می کنم، فصلی بودن را ثبت می کند. اما، اگر من داده ها را در هر قالب دیگری وارد کنم (به صورت برداری یا از یک برگه اکسل)، فصلی بودن را تشخیص نمی دهد. آیا فرمت خاصی وجود دارد که در آن فصلی بودن را تشخیص دهد یا من کار اشتباهی انجام می دهم؟ آیا داده ها باید در قالب خاصی وارد شوند؟
|
مشکل در استفاده از auto.arima() در R
|
10096
|
در حال حاضر مصرف انرژی روزانه یک خانه را از دی ماه امسال رصد می کنم. این مصرف روزانه به چندین متغیر بستگی دارد، از جمله دمای بیرون، تابش خورشید و غیره. در فواصل منظم (هر دو هفته یک بار) الگوریتم کنترلگر گرمایش را تغییر میدهم تا ببینم آیا میتوانم صرفهجویی در مصرف انرژی را بهبود بخشم یا خیر. روشی که باید برای آزمایش اینکه آیا چنین تغییری تأثیری بر یک سری زمانی دارد یا خیر، باید دنبال کرد؟ من یک مثال کوتاه در BHH2 پیدا کردم (جایی که آنها تأثیر یک قانون را بر سطوح آلودگی تجزیه و تحلیل می کنند) اما من نیاز به بحث دقیق تری دارم. **بهروزرسانی** در اینجا نمودار دادههایی است که من با آن کار میکنم:  این میزان مصرف انرژی روزانه را نشان میدهد. خط سبز نشان می دهد که چه زمانی تغییر را به الگوریتم وارد کردیم. همانطور که می بینید، حتی قبل از اینکه ما این تغییر را معرفی کنیم، احتمالاً به دلیل گرم شدن دمای بیرون، روندی به سمت مصرف انرژی کمتر وجود داشت. چیزی که من باید بدانم این است که آیا معرفی این تغییر به طور قابل توجهی آن روند را برجسته کرده است یا خیر. همچنین توجه داشته باشید که از آن زمان، ما داده های بسیار بیشتری از آنچه در این نمودار نشان داده شده است جمع آوری کرده ایم.
|
چگونه می توان اثر دستکاری های مختلف یک متغیر مستقل را بر روی یک متغیر وابسته در یک سری زمانی آزمایش کرد؟
|
48415
|
من امروز به شما مراجعه می کنم زیرا با مشکل بزرگی روبرو هستم که نمی توانم توضیح دهم. من یک رگرسیون لجستیک چند جمله ای (با استفاده از بسته mlogit) روی داده های رفتاری اجرا کرده ام. من داده ها را با انجام mlogit <- mlogit.data(Merge, Choice = Choice، shape = long، alt.var = Comp، drop.index = TRUE) روی داده های Merge خود آماده می کنم. که موارد زیر را به من می دهد: تاریخ زمان ActivityX ActivityY دما رفتار دره سن ماه سال کودک انتخاب فردی 1.F 01/05/2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 TRUE 1.R 01/05 2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 FALSE 1.M 01/05/2012 00:00:00 80 58 10 F Fuorn 8 5 2012 Y 26 FALSE 1.RUN 01/05/2012 F 0012 00:00:00 فوورن 8 5 2012 Y 26 FALSE 2.F 01/05/2012 00:05:00 90 76 10 F Fuorn 8 5 2012 Y 26 TRUE 2.R 01/05/2012 00:05:00 90 F 8 721 26 نادرست 2.M 01/05/2012 00:05:00 90 76 10 F Fuorn 8 5 2012 Y 26 FALSE 2.RUN 01/05/2012 00:05:00 90 76 10 F Fuorn 8 Y352. اف 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 FALSE 3.R 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 FAL0SE Y 26 FALSE 3.R. 05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 TRUE 3.RUN 01/05/2012 00:10:00 51 47 10 M Fuorn 8 5 2012 Y 26 FALSE 1/020 4.F 15:00 0 0 10 R Fuorn 8 5 2012 Y 26 FALSE 4.R 01/05/2012 00:15:00 0 0 10 R Fuorn 8 5 2012 Y 26 TRUE 4.M 01/05/2012 00:0012 R Fuorn 8 5 2012 Y 26 FALSE 4.RUN 01/05/2012 00:15:00 0 0 10 R Fuorn 8 5 2012 Y 26 FALSE 5.F 01/05/2012 00:20:00 0 0 0 9 R Fuorn 26 نادرست 5.R 01/05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26 TRUE 5.M 01/05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26/R FALSE 1. 05/2012 00:20:00 0 0 9 R Fuorn 8 5 2012 Y 26 FALSE سپس من رگرسیون خود را اجرا کردم: m1 <- mlogit (انتخاب ~ 1 | دما + دره + سن + بچه + ماه، mlogit) و نتایج قابل توجهی به من داد: برآورد Std. خطای t-value Pr(>|t|) M:(intercept) -4.2153e-01 5.7533e-02 -7.3268 2.358e-13 *** R:(intercept) 6.2325e-01 3.4958e-02 17.8 <2.8. e-16 *** RUN:( intercept) -1.2275e+01 4.0526e-01 -30.2895 < 2.2e-16 *** M:Temp 1.5371e-02 9.8680e-04 15.5764 < 2.2e-16e-16 -39 R. -02 6.7926e-04 -58.6975 < 2.2e-16 *** RUN:Temp -4.4532e-02 6.8696e-03 -6.4825 9.023e-11 *** M:ValleyTrupchun -3.61154e-3.61154 -3.61154e-3.6154e-3.6115 -3.61154 -3.6154e-3.6. 2.2e-16 *** R:ValleyTrupchun -4.0186e-02 9.7968e-03 -4.1020 4.096e-05 *** RUN:ValleyTrupchun 1.2895e+00 8.5357e-02-06-02 <15. سن -1.1026e-02 2.6902e-03 -4.0985 4.158e-05 *** R:Age 1.9465e-02 1.6479e-03 11.8119 < 2.2e-16 *** RUN:سن 5.60-5.61. 3.3294 0.0008703 *** M:kidY 6.0686e-02 2.2638e-02 2.6807 0.0073460 ** R:kidY -4.1638e-01 1.2391e-02-02 -33.60 R. 6.2311e-01 1.0410e-01 5.9854 2.158e-09 *** M:ماه -2.0466e-01 8.4448e-03 -24.2346 < 2.2e-16 *** R:ماه 2.0466e-01 4.6157 3.917e-06 *** RUN:Month 9.8715e-01 5.6209e-02 17.5622 < 2.2e-16 *** این نتایج مطابق با چیزی بود که من انتظار داشتم در ادبیات پیدا کنم، بنابراین کاملاً خوشحال بودم. قدم بعدی من این بود که نتایج خود را ترسیم کنم و اینجا زمانی است که من کمی مشکل دارم. اول از همه، وقتی دادههای اصلی خود را رسم میکنم و آنها را با نتیجه رگرسیونم مقایسه میکنم، تفاوتهای زیادی پیدا میکنم. برای مثال، وقتی درصد زمان صرف شده در یک رفتار (M برای حرکت، F برای تغذیه، R برای استراحت و دویدن برای دویدن، در رگرسیون من F مرجع است) را در تابع سن رسم میکنم، متوجه میشوم که هر چه سن بالاتر باشد. هر فرد بیشتر استراحت می کند و بیشتر حرکت می کند، اما تخمینی که من از رگرسیون به دست آوردم نشان می دهد که آنها باید بیشتر استراحت کنند (وقتی بزرگتر شوند) اما
|
predict() - رگرسیون لجستیک چند جمله ای
|
65768
|
آیا کسی می تواند مقالات خوبی در رابطه با داده کاوی مسکن به من پیشنهاد دهد. من مدتی در گوگل جستجو کردم و نتوانستم مقاله جدیدی پیدا کنم. من فرض می کنم که مردم انجام هرگونه استخراج مربوط به داده های مسکن را متوقف کرده اند. آیا کسی دیگر روی آن کار نمی کند؟ من به استفاده از تکنیک های داده کاوی برای پیش بینی قیمت مسکن، خوشه بندی و نوع رتبه بندی خانه ها بر اساس عوامل متعددی مانند موقعیت مکانی، اطلاعات نرخ جرم و جنایت، نرخ مهاجرت و غیره فکر می کنم. تقریباً مطمئن هستم که این چیز جالبی نیست. کار زیادی با آن وجود ندارد. اما به این فکر می کردم که چیزی قابل انتشار داشته باشم. آیا کسی می تواند مجموعه داده های خوبی را به من پیشنهاد دهد که دارای اطلاعات مکانی، اطلاعات قیمت و سایر اطلاعات جمعیتی باشد. من یکی را در http://archive.ics.uci.edu/ml/datasets/Housing پیدا کردم. آیا موارد دیگری وجود دارد؟
|
نگرانی در مورد داده کاوی مسکن
|
58677
|
18 نفر که بر اساس بیان نیمه کمی یک پروتئین (کم در مقابل زیاد) به 2 گروه تقسیم شده اند. گروه 1 (سطح پروتئین پایین) 6 نفر و گروه 2 (سطح پروتئین بالا) 12 نفر دارند. در گروه 1، 5 نفر از 6 نفر به یک بیماری خاص مبتلا شدند، در حالی که تنها 2 نفر از 12 نفر در گروه 2 به این بیماری مبتلا شدند. من می خواهم تعیین کنم که آیا ارتباط آماری معنی داری بین سطوح پایین پروتئین و ایجاد این بیماری خاص وجود دارد یا خیر. اگر کسی بتواند من را به سمت تست هایی که باید استفاده کنم راهنمایی کند، عالی است.
|
آزمایش اینکه آیا دو گروه تشکیل شده از یک متغیر پیوسته در یک نتیجه باینری تفاوت دارند یا خیر
|
15912
|
ویکیپدیا میگوید که Blum Blum Shub یک مولد شبه تصادفی است که مقدار i را میتوان مستقیماً برای یک دانه مشخص محاسبه کرد. ویکیپدیا همچنین میگوید که این ژنراتور برای کاربردهای شبیهسازی بسیار کند است. آیا مولد استانداردی با ویژگی محاسبات مستقیم وجود دارد که برای مونت کارلو به اندازه کافی سریع باشد؟ آیا دلیلی وجود دارد که این وجود نداشته باشد؟
|
دنباله شبه تصادفی که مقادیر آن را می توان مستقیماً برای دانه داده شده محاسبه کرد؟
|
48418
|
> یک روزنامه هر روز یک تن کاغذ روزنامه مصرف می کند. کاغذ روزنامه خود را از > یک توزیع کننده محلی خریداری می کند. این توزیع کننده کاغذ روزنامه را در رول های یک تنی > با ارزان ترین قیمت عرضه می کند، اما متأسفانه تحویل آن نامنظم است. از این رو، > تعداد رول های کاغذ روزنامه در انبار کاغذ نو به طور تصادفی متفاوت است. > اگر در یک روز خاص، رول در انبار وجود نداشته باشد، روزنامه > رول را از یک تامین کننده اضطراری می خرد و استفاده می کند. فرض کنید $Y_n$ تعداد > رول های دریافت شده از توزیع کننده محلی در روز $n$ باشد. عرضه در > عصر می رسد، در حالی که یک تن در صبح مصرف می شود. بگذارید X_n$ باشد > تعداد رولهای موجود در انبار در ابتدای روز $n$ قبل از اینکه تقاضای > یک تن برآورده شود و عرضه برای روز $n$ برسد. > بنابراین $X_{n=1} = X_n - 1 + Y_n$ اگر $X_n>0$ و $X_{n+1} = X_n$ باشد $X_n = 0$. > > فرض کنید که متغیرهای تصادفی $\{Y_n, n \geq 0\}$ مستقل از > $X_{0}$ هستند. علاوه بر این، فرض کنید که آنها به طور طبیعی مستقل و > به طور یکسان توزیع شده اند و $P(Y_n = k) = a_k، k = 0,1،...$. > > * فرض کنید $a_k = 0$ برای $k \geq 2$ و $X_0 \{0, 1\}$، فرآیند $X_n$ در این شرایط چه مقادیری میتواند داشته باشد؟ > از ماتریس انتقال من، گفتم اگر ما فقط به مقادیر زمانی که $i، j$ $0$ و $1$ هستند نگاه کنیم، ماتریس کوچک $2 \times 2$ از کل ماتریس انتقال یک مرحله ای را به دست خواهیم آورد و به همین ترتیب این فقط $$\pmatrix{a_0 & a_1 \\ a_0 & a_1}$$ خواهد بود و بنابراین تنها مقادیری که $X_n$ میتواند در این موقعیت بگیرد، $a_0$ و $a_1$. اما در پاسخ ها می گوید باید $0$ و $1$ باشد. چرا این است؟
|
وقتی $P(Y = k) = a_k = 0$ برای $k \geq 2$، فرآیند $X_n$ چه مقادیری می تواند داشته باشد
|
10094
|
من هم تجزیه SVD و هم مقیاس بندی چند بعدی یک ماتریس داده 6 بعدی را انجام دادم تا درک بهتری از ساختار داده ها داشته باشم. متأسفانه، تمام مقادیر منفرد از یک ترتیب هستند، به این معنی که ابعاد داده ها واقعاً 6 است. با این حال، من می خواهم بتوانم مقادیر بردارهای منفرد را تفسیر کنم. به عنوان مثال، به نظر می رسد اولی در هر بعد کم و بیش برابر است (یعنی «(1،1،1،1،1،1)»)، و دومی نیز ساختار جالبی دارد (چیزی شبیه «(1، -1،1،-1،-1،1)`). چگونه می توانم این بردارها را تفسیر کنم؟ ممکن است به من برخی ادبیات در این زمینه را اشاره کنید؟
|
چگونه نتایج کاهش ابعاد/مقیاسگذاری چند بعدی را تفسیر کنیم؟
|
10095
|
### فرضیات: در یک ANOVA که در آن مفروضات نرمال بودن نقض می شود، تبدیل Box-Cox را می توان به متغیر پاسخ اعمال کرد. لامبدا را می توان با استفاده از حداکثر احتمال برای بهینه سازی عادی بودن باقیمانده های مدل تخمین زد. ### سوال: وقتی تخمینهای «لامبدا» در مدل تهی و مدل کامل متفاوت است، «لامبدا» چگونه باید تخمین زده شود؟ ### دادههای من: در دادههای من، تخمین لامبدا برای مدل تهی «-2.3» و تخمین لامبدا برای مدل کامل «-2.8» است. تبدیل پاسخ با استفاده از این پارامترهای مختلف و انجام ANOVA از قبل منجر به آمارهای F مختلف می شود. من در زیر یک نسخه ساده شده از تجزیه و تحلیل را با استفاده از توزیع های بتا با پارامترهای مختلف برای شبیه سازی غیر نرمال بودن تولید کرده ام. متأسفانه، در این مثال، نتایج ANOVA نسبت به برآوردهای مختلف «لامبدا» حساس نیست. بنابراین، به طور کامل مشکل را نشان نمی دهد. library(ggplot2) library(MASS) library(car) #تولید داده های تصادفی توزیع شده بتا n=200 df <- rbind(data.frame(x=factor(rep(a1,n)), y=rbeta(n ,2,5))، # data.frame چوله چپ بیشتر (x=factor(rep(a2,n)), y=rbeta(n,2,2))) # چاپ اریب سمت چپ کمتر(qplot(data=df, color=x, x=y, geom=density)) print(تجزیه واریانس تبدیل نشده:) m .null <- lm(y ~ 1, df) m.full <- lm(y ~ x, df) print(anova(m.null, m.full)) # برآورد پارامترهای تبدیل Box-Cox Maximum Liklihood برای هر دو مدل bc.null <- boxcox(m.null); bc.null.opt <- bc.null$x[which.max(bc.null$y)] bc.full <- boxcox(m.full); bc.full.opt <- bc.full$x[which.max(bc.full$y)] print(paste(ML Box-Cox برآورد برای مدل null:bc.null.opt)) print(paste (تخمین ML Box-Cox برای مدل کامل:bc.full.opt)) df$y.bc.null <- bcPower(df$y, bc.null.opt) df$y.bc.full <- bcPower(df$y, bc.full.opt) print(qplot(data=df, x=x, y=y.bc.null, geom= boxplot)) print(qplot(data=df, x=x, y=y.bc.full, geom=boxplot)) print(تحلیل واریانس با تبدیل Box-Cox بهینه برای مدل تهی) m.bc_null.null <- lm(y.bc.null ~ 1, data=df) m.bc_null.full <- lm(y.bc .null ~ x, data=df) print(anova(m.bc_null.null, m.bc_null.full)) print(Analysis of Variance with Optimal Box-Cox transform for full model) m.bc_full.null <- lm(y.bc.null ~ 1, data=df) m.bc_full.full <- lm(y.bc.null ~ x، data=df) print(anova(m.bc_full.null، m.bc_full.full))
|
تخمین لامبدا برای تبدیل جعبه کاکس برای ANOVA
|
29565
|
من یک کاربر گاه به گاه روش های داده کاوی هستم و به سادگی نمی دانم که چالش های اصلی و مسیرهای تحقیقاتی برای طراحان روش چیست. با تشکر از تخصص شما، Peuhp
|
چالش های اصلی در داده کاوی
|
29564
|
من خودم این کتاب را مطالعه می کنم و برای یکی از تمرین ها، به ویژه 3.9.2، به کمک نیاز دارم: فرض کنید، برای یک جمعیت خاص، می توانیم درآمد سیاهه را از ارتفاع لگ به صورت زیر پیش بینی کنیم: * فردی که 66 اینچ قد دارد پیش بینی می شود. تا 30 هزار دلار درآمد داشته باشد. * هر افزایش 1 درصدی در قد با افزایش پیش بینی شده 0.8 درصدی درآمد مطابقت دارد. * درآمد تقریباً 95٪ افراد در ضریب 1.1 ارزش های پیش بینی شده قرار می گیرد. (الف) معادله خط رگرسیون و انحراف استاندارد باقیمانده رگرسیون را ارائه دهید. برای این قسمت از گلوله های اول و دوم برای بدست آوردن معادله $\ln(30000) = 0.008\ln(66) + c$ استفاده می کنم و با حل $c$ معادله رگرسیون $\ln(درآمدها) را بدست می آوریم. ) = 0.008 \ln(ارتفاع) + 10.257$. آیا این درست است؟ برای بخش دوم سوال، برای تعیین چگونگی یافتن انحراف استاندارد باقیمانده رگرسیون به کمک نیاز دارم. اگر $p$ مقدار خط پیشبینی در نمودار باقیمانده باشد، بر اساس گلوله سوم، به این ترتیب است که $p \pm 2\sigma = p \pm 1.1p$. با این حال، من مطمئن نیستم که واقعاً چگونه $\sigma$ را محاسبه کنم. (ب) فرض کنید انحراف استاندارد ارتفاع چوب در این جمعیت 5 درصد است. پس، آیا $R^2$ مدل رگرسیون در اینجا توضیح داده شده است؟ نمی دانم از کجا باید در این مورد شروع کرد... آیا می توانم راهنمایی دریافت کنم، لطفا؟
|
برای استخراج آمار رگرسیون به کمک نیاز دارید
|
95309
|
من باید یک مقاله آزمایشی را ارزیابی کنم که شامل موارد دوگانه و چندگانه باشد. من در حال حاضر از R استفاده می کنم. اما در R IRT مدل های امتیاز دهی آیتم های دوگانه و چندگانه متفاوت است و هیچ راهی برای ترکیب هر دو نوع آیتم پیدا نکردم، بنابراین چگونه می توانم هر دو اقلام دوگانه و چندگانه را در یکی ترکیب کنم. به طور خاص - 1. آیا برنامه / تابعی در R وجود دارد که هم آیتم های دوگانه و هم چندگانه را مدیریت کند. سپس هر نرم افزار منبع باز IRT دیگری که بتواند موارد دوگانه و چندگانه را با هم مدیریت کند
|
اختلاط اقلام دوگانه و چندگانه در یک آزمون
|
97843
|
اغلب بین نتایج آزمون Skewness & Kurtosis و نرمال بودن تفاوت وجود دارد و من همیشه شک دارم که آیا بهتر است آزمون های پارامتریک یا ناپارامتریک را انتخاب کنم (من از SPSS استفاده می کنم). گاهی اوقات هیستوگرام ها نشان می دهند که آیا توزیع نرمال به نظر می رسد یا نه، و من متوجه شدم که اغلب S&K نشانگرهای بهتری هستند، اما وقتی که دفعه قبل آنالیز کردم متفاوت بود و واقعاً نمی دانم چه کار کنم... خواندم که به عنوان مثال. هنگامی که گروه ها متساوی تعداد هستند، در انتخاب بین آزمون t-Student و غیرپارامتری بهتر است که t-Student را انتخاب کنید، حتی اگر توزیع ها نرمال نباشد. آیا این درست است؟
|
چه چیزی در انتخاب آزمون های پارامتریک یا ناپارامتریک - نتایج آزمون چولگی و کشیدگی یا نرمال بودن مهم تر است؟
|
112761
|
ترکیب توزیع $\Gamma$ با تابع log-link در یک مدل خطی تعمیم یافته می تواند یک مدل مفید باشد. با این حال، در تجربه من، الگوریتم حداقل مربعات وزنی تکراری (IWLS) (به طور خاص، پیاده سازی در R از طریق «glm») همیشه همگرا نیست. log-link پیوند متعارفی برای توزیع $\Gamma$ نیست، و به همین دلیل شما نمی توانید از نتایج استاندارد خانواده های نمایی برای بحث در مورد سوالات مربوط به وجود و منحصر به فرد بودن راه حل معادله امتیاز استفاده کنید. تجزیه و تحلیل به طور خاص از توزیع $\Gamma$ با پیوند log کاملاً ساده است، اما ممکن است این سوال توسط دیگران قبل از من مطرح شده باشد. من فقط نتوانستم چیزی در ادبیات پیدا کنم. بنابراین سوال من این است که آیا ارجاعی در جنبه های عددی مدل های خطی تعمیم یافته با توزیع $\Gamma$ و log-link وجود دارد؟ من به طور خاص به بحث های مربوط به الگوریتم IWLS و اینکه آیا جایگزین های پایدارتری وجود دارد علاقه مند هستم. **ویرایش:** یک مثال کوچک. فرض کنید $Y$ به طور معمول با $\log Y \sim \mathcal{N}(\beta_0 + \beta_1 x, \sigma^2)$ توزیع شده است. سپس $$\log(E Y) = \beta_0 + \sigma^2/2 + \beta_1 x$$ و $VY = (e^{\sigma^2} - 1) (EY)^2$. بنابراین این مدل دارای همان ساختار میانگین واریانس یک مدل $\Gamma$ با log-link و پارامتر پراکندگی $\psi = e^{\sigma^2} - 1$ است. اگر پارامترسازی مجدد رهگیری را در نظر داشته باشیم، این مدل را میتوان با استفاده از «glm» با «family = Gamma(log) برازش داد. تخمین پارامتر MLE نخواهد بود و برآوردها در مقایسه با تبدیل ساده $Y$ و استفاده از lm کارآمد نیستند. سیگما <- 4 بتا <- 1 بتا 0 <- 1 n <- 100 x <- rnorm(n) y <- exp(beta0 + بتا * x + rnorm(n، 0، سیگما)) fit1 <- lm(log( y) ~ x) sigmasqhat <- sum(fit1$residuals^2) / (n-2) betastart <- coef(fit1) + c(sigmasqhat / 2, 0) fit <- glm(y ~ x, start = betastart, family = gamma(log)) کد بالا باید چند بار اجرا شود تا کشف شود مجموعه داده های مشکل ساز حدود 2 تا 3 درصد مواقع با خطا مواجه می شوم. بیشتر اوقات، الگوریتم با حداکثر تعداد تکرارهای پیشفرض (که 25 است) همگرا نمیشود، اما این مشکل را میتوان به راحتی با افزایش «maxit» برطرف کرد. خطاهایی که من با آن مواجه می شوم عبارتند از 'NA/NaN/Inf در 'x' و 'حلقه داخلی 1. نمی تواند اندازه گام را تصحیح کند. مثال بالا برای اهداف آموزشی برای بررسی تفاوت ها و شباهت های بین مدل های log-normal و $\Gamma$ در نظر گرفته شد. من همچنین چند مجموعه داده دارم که به نظر می رسد یک مدل $\Gamma$ با یک log-link به خوبی مطابقت دارد. تطبیق مدل با مجموعه داده ها مشکلی نیست، اما هنگامی که بوت استرپ می کنم، با مشکلات همگرایی مشابهی در تعدادی از مجموعه داده های بوت استرپ مواجه می شوم.
|
پایداری عددی IWLS برای مدلهای گاما با log-link
|
112762
|
من می دانم که وارد کردن متغیرهایی که دارای چند خطی (همبستگی بالا) هستند در تحلیل رگرسیون درست نیست. اما اگر از **رگرسیون گام به گام به عقب** استفاده میکنم، آیا میتوانم همه پیشبینیکنندههای بسیار همبسته را اضافه کنم و انتظار داشته باشم که بهترین پیشبینیکنندهها در پایان در مدل باقی بمانند یا تجزیه و تحلیل ممکن است خراب شود؟ تجربه من با دادههای خودم منجر به حذف متغیرهای اضافی (با چند خطی) شد، بنابراین به نظر میرسد مشکلی وجود ندارد، اما من میخواهم روش خود را گزارش کنم و میخواهم بدانم آیا آن را درست انجام دادهام یا تصادفاً نتیجه داده است. بنابراین به اختصار بگوییم: **آیا وارد کردن متغیرهایی با چند خطی در تحلیل رگرسیون گام به گام به عقب درست است؟**
|
پیش بینی کننده های بسیار همبسته در رگرسیون گام به گام به عقب؟
|
29569
|
یک بار شنیدم که یادگیری مولد، یادگیری افتراقی و یادگیری حداکثر حاشیه را می توان برحسب تعریف مربوط به تابع ضرر از هم جدا کرد. من مطمئن نیستم چگونه به آن دست یابیم؟
|
تفاوت و ارتباط بین یادگیری مولد، یادگیری افتراقی و یادگیری حداکثر حاشیه
|
112760
|
من از بسته mlogit استفاده کرده ام و سعی می کنم نتایجی را که از مدل خود دارم خلاصه کنم. من یک سوال در مورد مقدار مرجع دارم و در یک لحظه به آن خواهم رسید. redata.full <- mlogit(no.C~ 1| WR+age+age2+BP+noC.1yr, data=redata, reflevel=0, na.action=na.fail) no.C = تعداد فرزندان WR = سن خطر + سن 2 = رابطه غیر خطی که با افزایش سن تولید افراد BP کاهش می یابد = فشار مرور noC.1yr = تعداد فرزندان تولید شده در سال قبل از اینکه تشخیص دهم داده ها ماهیت ترتیبی دارند، اما من از روش های افراد دیگری پیروی می کنم که این کار را انجام داده اند و به جای رگرسیون لجستیک ترتیبی از رویکرد مبتنی بر مرجع استفاده می کنند. با این حال، من هنوز در توجیهی غیر از استناد به طرف مقابل و گفتن او هم این کار را کرد! اگه کسی پیشنهادی داره ممنون میشم نتایج من برای این مدل عبارتند از: فراخوانی: mlogit(فرمول = no.C ~ 1 | WR + سن + سن 2 + BP + noC.1yr، داده = redata، na.action = na.fail، reflevel = 0، روش = nr، print.level = 0) فرکانس های جایگزین: 0 1 2 0.233766 0.675325 0.090909 nr روش 5 تکرار، 0h:0m:0s g'(-H)^-1g = 2.16E-07 گرادیان نزدیک به صفر ضرایب : برآورد Std. خطای t-value Pr(>|t|) 1:(intercept) -0.281226 1.225763 -0.2294 0.81854 2: (intercept) -0.605312 1.997179 -0.3031 0.718:W173 . 0.518854 1.6330 0.10248 2:WR 1.347976 0.689916 1.9538 0.05072. 1: سن 0.314075 0.275486 1.1401 0.25425 2: سن -0.422368 0.395240 -1.0686 0.28523 1: سن 2 -0.018998 0.018928 0.014141445 - 0.0141446 0.022572 0.018949 1.1912 0.23359 1:BP -0.143720 0.173585 -0.8280 0.40770 2:BP -0.074553 0.33122108 0.3312108-0.3312108 -0. 0.574304 0.377821 1.5200 0.12850 2:noC.1yr 1.251673 0.626033 1.9994 0.04557 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -116.6 McFadden R^2: 0.079844 آزمون نسبت درستنمایی: chisq = 20.271 (p. ) exp(cbind(OddsRatio = coef(redata.full)، ci)) OddsRatio 2.5 % 97.5 % 1: (intercept) 0.7548580 0.06831155 8.341351 2:(intercept) 0.549.5903 27.360107 1:WR 2.3332750 0.84394900 6.450831 2:WR 3.8496270 0.99577472 14.882511 1: سن 1.368999294.36899274. 2: سن 0.6554925 0.30209181 1.422317 1: سن2 0.9811815 0.95379086 1.009359 2: سن2 1.0228284 0.9855376153P 0.9855379086 0.8661299 0.61634947 1.217136 2:BP 0.9281585 0.48504538 1.776078 1:noC.1yr 1.7758933 0.84686262401C. 3.4961862 1.02497823 11.925441 من تأیید تفسیرهای خود را می خواهم: مدل بهتر از تهی است - به دست آمده از آزمون نسبت درستنمایی. سؤال: چگونه می توانم آزمایش کنم که مدل واقعاً چقدر خوب کار می کند (یعنی خوب بودن تناسب)؟ تست Hosmer-Lemshow؟ من هشدارهایی را در مورد استفاده از شبه R مک فادین خوانده ام که واقعاً برای رگرسیون چند جمله ای قابل اعمال نیستند. من یک تست HL با کتابخانه «ResourceSelection» پیدا کردم و می گوید مدل من اصلاً خوب کار نمی کند. حالا چی؟ تفسیر: WR و noC.1yr تنها متغیرهایی هستند که کمی معنی دار هستند. اما این فقط بین مقدار مرجع 0 و تولید 2 گوساله است. برای این متغیرها بین 0 یا 1 تفاوت معناداری وجود ندارد. سئوال: من در تلاش بوده ام تا جایی در تصویر مشخص کنم که t-value چیست - این فقط یک آزمون t است؟ چگونه می توانم به برآورد قابل توجه اشاره کنم؟ شانس تخمین زده شده برای تولید 2 فرزند در مقابل 0 3.85 (95% CI = 1.0-14.88) بود که معنی دار بود (t= 1.99، P=0.05) با اشاره به بیانیه من در مورد تعیین مقدار مرجع. وقتی دقیقاً همین مدل را با استفاده از سایر گزینههای 0 یا 1 فرزندم اجرا میکنم - نتایج کاملاً متفاوتی دریافت میکنم که متغیرها مهم هستند. اگر از 2 به عنوان مقدار مرجع استفاده کنم، Age+WR+noC.yr قابل توجه است. اگر از 1 استفاده کنم، فقط سن علامت است. بنابراین، از کدام یک استفاده کنیم؟ خواندهام که میخواهید یکی را انتخاب کنید که بیشترین ارتباط را با فرضیهتان دارد، اما در این مورد میتوانم هر یک از ۳ سطح را ایجاد کنم.
|
تفسیر خروجی رگرسیون لجستیک چند جمله ای از R
|
59107
|
من رگرسیون لجستیکی سالانه را بر روی داده های سری زمانی اجرا کردم. مهمترین متغیر مستقل دارای ضرایبی است که در سالهای متمادی معنیدار است، این مایه تسکین است. اما «متغيرهاي كنترل» ضرايب غير معني داري دارند. من از یک متخصص آمار دور هستم. نمونه من در مقایسه با ادبیاتی که آن آزمایش را انجام داد بسیار کوچک است، زیرا من در حال تجزیه و تحلیل یک صنعت فرعی هستم که شرکت های بسیار کمی در آن وجود دارد. اما من نمی توانم نمونه ام را تغییر دهم. در ادبیات، نویسندگانی که این تحلیل دقیق را بر روی نمونههای بزرگتر انجام دادهاند، ضرایب قابل توجهی برای متغیرهای کنترلی نیز یافتهاند، از این واقعیت استفاده میکنند که: «بنابراین تأثیر متغیر اصلی تأثیری مجزا از متغیرهای کنترلکننده است». از آنجایی که نمی توانم بگویم، آیا باید همبستگی بین این متغیرها را با متغیر اصلی آزمایش کنم و برخی از آنها را که هر سال همبستگی بسیار بالایی با آن دارند حذف کنم و بیان کنم که اینها متغیرهای اضافی هستند؟ اگر چنین است، کدام سطح بالا در نظر گرفته می شود؟ 0.75، 0.8 من قصد دارم بگویم: * متغیر اصلی قابل توجه است، اما متغیر کنترل کننده نیست * دو دلیل بالقوه وجود دارد: 1) نمونه های سالانه من بسیار کوچک هستند 2) تأثیر متغیر اصلی مانند تأثیر برخی از این موارد است. متغیرهای کنترلی * برای رد کردن 2)، من همبستگی را آزمایش کردم و متوجه شدم که bla bla bla (اگر همبستگی کم باشد، احتمالاً نمونه ها خیلی کوچک هستند، اگر زیاد باشند، برخی از متغیرها را حذف می کنم و رگرسیون ها را دوباره اجرا کنید) با تشکر! (غیر بومی انگلیسی زبان، متاسفم) ## ------------------------------------- ---------------------- به دنبال پاسخ پیتر (متشکرم!)، فکر می کنم باید جزئیاتی را در مورد آنچه مطالعه خود را آزمایش می کنم اضافه کنم: _** گرایش است برای توزیع سود سهام (1 یا 0) وابسته به مرحله چرخه عمر شرکت (با استفاده از یک نسبت). در هر سال، ضریب سود تاخیری بسیار معنی دار است. و برای برخی از سال ها (به اندازه کافی برای پایان نامه دانشجویی من)، ضریب مرحله چرخه عمر شرکت قابل توجه است. نشانه های همه متغیرهای کنترلی دیگر همانطور که پیش بینی می شود (بیشتر اوقات)، اما همیشه دور از اهمیت هستند. امیدوارم این مدل من را بی ربط نکند. مربع R شبه من خیلی بالاست. (به هر حال، آیا این شبه R متغیرهایی را در نظر می گیرد که غیرمعنادار هستند یا ارزش مدل فقط شامل متغیرهایی است که ضریب معنی داری دارند؟)
|
رگرسیون لجستیک: متغیرهای کنترلی معنی دار نیستند، چه نتیجه ای باید بگیرم/آزمون بیشتر؟
|
29560
|
من 15 سرپرست دارم که 21 کارمند را از 1 (بهترین) تا 21 (بدترین) رتبهبندی کردهاند، اما رتبهبندیها کاملاً ترتیبی است - هیچ اطلاعات فاصلهای در دسترس نیست. آیا می توانم رتبه های هر دو (یا بیشتر) ناظران را با هم مقایسه کنم و تعیین کنم که ارزیابی های آنها چقدر با هم هماهنگ است؟ من از Excel 2010 (یا قلم/کاغذ) برای تحلیل خود استفاده خواهم کرد، به نرم افزار آماری دسترسی ندارم. داده های نمونه (آیا سرپرست 3 شبیه 1 است یا 2)؟ رتبه بندی سرپرست 1 سرپرست 2 ناظر 3 کارمند 1 1 3 1 کارمند 2 2 2 3 کارمند 3 3 1 2
|
آیا می توانم رتبه بندی های ترتیبی را مقایسه کنم (و اگر چنین است، چگونه)؟
|
15913
|
فرض کنید من دو ویژگی طبقهبندی وابسته A، B دارم. من یک دیتافریم X دارم که احتمالات (یا تعداد مورد انتظار) را برای همه ترکیبات همه دستههای A و B فهرست میکند. بیایید دو دسته را در هر ویژگی فرض کنیم، چارچوب داده میتواند به این شکل باشد. : X <- data.frame(A = c(1،1،2،2)، B = 1:2، PROB = c(0.1,0.3,0.2,0.4)) X خروجی: A B PROB 1 1 1 .1 2 1 2 .3 3 2 1 .2 4 2 2 .4 حالا می خواهم یک ستون B را به دیتافریم Y دیگر اضافه کنم که فقط یک ستون A دارد. Y وجود دارد و دارای سطرهای بسیار بیشتر از X و همچنین ستون های اضافی است. یک Y مصنوعی می تواند به این شکل باشد: Y <- data.frame(A=sample(2, size=10000, replace=TRUE), B=NA, C=sample(5, size=10000, replace=TRUE), D =sample (3، اندازه = 10000، جایگزین = TRUE)) محتویات ستون B جدید باید به طور تصادفی با استفاده از احتمالات شرطی برای B با توجه به مقدار ستون A نمونه برداری شود. من با R تازه کار هستم و به این فکر می کردم که آیا می توان این عملیات را زیباتر از نوشتن حلقه ای که روی همه دسته های A تکرار می شود انجام داد. شاید یک کلاس مدل اختصاصی که «پیشبینی» برای آن اعمال شود؟ همچنین، من فاقد دانش اصطلاحات آماری هستم -- قدردان هر گونه اشاره ای در مورد چگونگی ارجاع به این نوع نسبت (؟) در ادبیات هستم.
|
بر اساس توزیع احتمال، یک ستون به یک دیتافریم اضافه کنید
|
95307
|
غلظت ناخالصی ها در یک نیمه هادی در تولید ریزپردازنده برای کامپیوتر یک متغیر تصادفی توزیع شده نرمال با میانگین 127 قسمت در میلیون و انحراف استاندارد 22 قسمت در میلیون است. یک نیمه هادی تنها در صورتی قابل قبول است که غلظت ناخالصی های آن کمتر از 150 قسمت در میلیون باشد. نسبت نیمه هادی هایی که برای استفاده قابل قبول هستند چقدر است؟ (مساحت زیر منحنی نرمال برای ارزش $Z=1.5$0.668$ است).
|
نمونه برداری در توزیع نرمال
|
110831
|
من در حال تلاش برای ساختن مدلی برای رد خودکار تکلیف منبعجمعی هستم (مثلاً: رونویسی نام انسان از دادههای سرشماری). مجموعه داده های من دارای 5 پیش بینی کننده است و متغیر وابسته یا صحیح است یا نادرست. با این حال، مشکلات کمی وجود دارد که من داشته ام. 1. مجموعه دادهها با 5% (گاهی تا 10%) موارد نادرست و 95% موارد صحیح نامتعادل است. 2. همچنین الگوهای پیش بینی کننده برای کارهای نادرست و صحیح مشابه است. من رگرسیون لجستیک را امتحان کردم، اما جواب نداد. اما، برای من بسیار مهم است که بتوانم آن 5 درصد کارهای نادرست را پیش بینی کنم، زیرا بسیار حیاتی است. در چنین شرایطی برای حرکت رو به جلو چه جهتی باید باشد؟ من از کمک شما قدردانی می کنم. با تشکر
|
مقادیر در پیش بینی ها برای دو مقدار ممکن در متغیر وابسته الگوی یکسانی دارند؟
|
95300
|
فرض کنید من یک مدل غیر خطی دارم، مثلاً probit/logit، چگونه می توانم اهمیت یک ضریب را در مقابل اهمیت اثر حاشیه ای آن درک کنم؟ بگویید، من فقط باید _اهمیت_ یک متغیر را بدانم، آیا اولی کافی است؟
|
اهمیت ضرایب و اهمیت اثرات حاشیه ای
|
59108
|
در مثالهای ارائه شده در این لینک، من نمیتوانم تصمیم بگیرم که توزیع یکوجهی است یا دووجهی. فکر میکنم بین تکوجهی و دووجهی است، اما نمیدانم که آیا این نوع طبقه وجود دارد یا نه. کسی میتونه یه چیزی پیشنهاد بده تا من راحت بفهمم که در چه صورت باید بگم توزیع تک وجهی یا دووجهی!
|
چگونه می توان تصمیم گرفت که توزیع در توزیع اندازه دانه تک وجهی است یا دووجهی؟
|
15911
|
من سعی می کنم مدلی برای پیش بینی رزرو تا 15 روز قبل بسازم. بنابراین، اگر بخواهم پیشبینی کنم فردا چند رزرو وجود دارد، از دادههای تاریخی تعداد کل رزرو در دو روز قبل استفاده میکنم، زیرا هنگام استفاده از مدل برای پیشبینی فردا، امروز تمام نمیشود... آیا که منطقی است؟ من فکر میکنم این یک مدل خوب و بیطرفانه است، اما از همه دادههای موجود استفاده نمیکند، یعنی اینکه امروز چه تعداد رزرو برای فردا انجام شده است. بنابراین، اگر میخواهم مدل من بیشتر «زمان واقعی» باشد و رزروهای فعلی را نیز در نظر بگیرد، چگونه این کار را انجام دهم؟ آیا به داده های رزرو در طول روز نگاه می کنم و فقط نسبت یا چیزی را تنظیم می کنم؟ به عنوان مثال، اگر من از مدل خود در ساعت 13:00 استفاده کنم، متوجه می شوم که 20 رزرو اضافی دارم، و می دانم که از نظر تاریخی 40٪ از رزروهای اضافی تا ساعت 13:00 انجام می شود، آیا من فقط 20+ 20* (60/40) می کنم. ) = 50. پس اکنون باید 50 عدد بیشتر از آنچه که دیروز به من گفته بود را انتظار داشته باشم؟ این تمام چیزی است که می توانم به آن فکر کنم. **ویرایش:** به عنوان مثال اگر در یک بازی بیس بال انجام سه اینینگ 1 ساعت طول می کشد، می توانید مطمئن باشید که تکمیل 6 اینینگ بعدی بسیار بیشتر از 2 ساعت طول می کشد. خوب، اگر می دانستید که از نظر تاریخی 3 اینینگ اول 25 درصد از زمان ها را تشکیل می دهد، چه؟ با چسبیدن به مثال بازی با توپ، این تصویر خوبی از مشکل من است که فکر می کنم شما دیو را درک می کنید، اما مطمئن نیستم که آن را برای دیگران روشن کرده باشم... اگر می خواهید مدت زمان بازی با توپ را پیش بینی کنید، می توانید ممکن است فرمولی بر اساس تیم های فعلی، پرتاب کننده ها و غیره داشته باشد. اما، بازی را در نظر بگیرید که در آن یک بازی 2.5 ساعته را پیش بینی کرده اید، و در مرحله چهارم هستید، و قبلاً 3 گرفته شده است. ساعت، حالا چه کار می کنی؟ دیو، من تکنیکهای مختلفی را امتحان کردهام، شامل روشهای arima فصلی، و غیره. برای درک این مفهوم، وب گردی بیشتری انجام خواهم داد. من بسیار علاقه مند به یک جلسه چت هستم. لطفاً وقتی در دسترس هستید به من اطلاع دهید، من +11 ساعت EST هستم.
|
چگونه می توان رزروهای آینده را زمانی که داده های روز جاری ناقص است پیش بینی کرد؟
|
105519
|
من دو تخمین پارامتر OLS (غیر مستقل) دارم که هر کدام خطای استاندارد خود را دارند. من سعی می کنم بفهمم که خطای استاندارد اختلاف تخمین ها چقدر باید باشد. کسی میتونه کمک کنه؟ آیا این خیلی کلی است؟
|
خطای استاندارد اختلاف برآوردها
|
32716
|
فرض کنید یک مدل ARIMA(p,d,q) خیلی ضعیف با داده ها مطابقت دارد. چه راه هایی برای بهبود تناسب وجود دارد؟ آیا راهی برای انجام آن بدون حدس زدن و بررسی وجود دارد؟ **ویرایش.** من از auto.arima() برای جستجوی یک مدل ARIMA استفاده می کنم. اما تناسب ضعیفی دارد.
|
بهبود مدل ARIMA
|
115231
|
یک نمونه تصادفی با اندازه n = 40 گرفته شده است. برای مشاهده اینکه آیا به نظر میرسد این نمونه از توزیع نرمال انتخاب شده است، یک آزمایش برازش خوب انجام دهید. تعداد فواصل برای داده های نمونه برابر است با: 4 5 8 10 20 چگونه این را محاسبه می کنید؟
|
خوبی تناسب
|
50708
|
من در حال تلاش برای تخمین مدل زیر در Stata هستم (تنها بسته آماری که با آن آشنا هستم): $$ Y_{t}=\alpha_{t} + \beta_{t}X_{t}+\varepsilon_{t} $$ که $X$ و $Y$ سری هستند و $\alpha_{t}$ و $\beta_{t}$ پارامترهای متغیر با زمان تعریف شده در معادلات حالت هستند: $$ \alpha_{t}=\alpha_{t-1}+\eta_{1t} \\ \beta_{t}=\beta_{t-1}+\eta_{2t} $$ که فرض میشود یک پیادهروی تصادفی را دنبال میکنند . $\varepsilon$، $\eta_{1t}$، $\eta_{2t}$ فرض میشود که نویز سفید مستقل گاوسی هستند. من علاقه مند به یافتن ارزش $\beta$ در طول زمان هستم. مقاله ای که من روی آن کار می کنم، تخمین توسط فیلتر کالمن را پیشنهاد می کند. من سعی کردهام تابع «sspace» را در اینجا درک و پیادهسازی کنم، اما معتقدم که قادر به مدیریت تغییرات زمان نیست. آیا هیچ کدام از اینها در Stata 11 قابل دستیابی است؟
|
رگرسیون خطی با پارامترهای متغیر با زمان
|
59109
|
من طراحی 2 سطحی (DOE) با 4 فاکتور (A,B,C,D) دارم. من قبلاً تخمین های هر اثر اصلی و همه اثرات متقابل را محاسبه کرده ام. چگونه می توانم نمودار احتمال عادی را بسازم تا ببینم کدام اثرات مهم هستند؟ من بستههای زیادی را در R برای طراحی آزمایش نگاه کردم، اما نمیتوانم بستهای را پیدا کنم که طرح را تولید کند. چگونه می توانم طرح را با تمام تخمین هایی که با کد در R دارم بسازم متشکرم.
|
احتمال نرمال را برای برآورد اثر در طرح فاکتوریل در R رسم کنید
|
59100
|
من از رویه جوهانسن برای آزمایش هم انباشتگی یک بردار 4 کم نور برداری (مجموعه زمانی) استفاده می کنم. ابتدا ثابت بودن دیفرانسیل هر بردار مجزا را آزمایش کردم، همه آنها یک ریشه واحد دارند، بنابراین ما در آنجا خوب هستیم. سپس باید تعداد بهینه تأخیرها را برای آزمایش هم انباشتگی با استفاده از جوهانسن پیدا کنم، ما فرض می کنیم که فرآیند زیربنایی یک فرآیند «VAR» است. و این همان جایی است که مشکل رخ می دهد، من معمولا K=1 را پیدا می کنم (K چندین معیار اطلاعاتی را به حداقل می رساند). من از بسته «urca» و تابع «ca.jo» برای اجرای آزمایشهای «trace» و «eigen» استفاده میکنم، اما «ca.jo» فقط به «K>1» اجازه میدهد (که به دلیل مدل منطقی است). این K=1 به چه معناست؟ اضافه میکنم که اگر «K=2» را انتخاب کنم، هر دو تست یوهانسن قابل توجه هستند و فرآیند در واقع یکپارچه به نظر میرسد...
|
ادغام یک فرآیند VAR(1).
|
66613
|
به منظور تأیید فرض خطرات متناسب، من نمودار زیر را ترسیم کردم: $$\log(-\log(S(t))) = \log(\Lambda(t))$$ اگر خطرات واقعاً برای دو نفر متناسب باشند. گروهها، این منحنیها باید موازی با فاصله عمودی نسبت خطر ورود به سیستم (که در صورت وجود فرض خطرات متناسب ثابت است) باشند. من از کد R زیر برای ساختن چنین نموداری استفاده کردم (با استفاده از بستههای «survival» و «rms»: foo <- survfit(Surv(TIME, HADEVENT)~CASE, data=bar) survplot(foo, log=T, xlim=c(0,5*365.25), ylim=c(-10,-2), col=c(قرمز،آبی)) شکل را به دست آوردم در زیر برای گروه های مطالعه من نشان داده شده است، و من مطمئن نیستم که از آن چه استفاده کنم. برای مقادیر کوچک $t$ ($t \leq 120$ روز)، فرض خطرات متناسب به هیچ وجه بر اساس بازرسی بصری برقرار نیست. برای مقادیر بزرگتر ($ \gt 1$ سال)، به نظر بسیار معقول است.  من همچنین یک مدل Cox PH نصب کردم و از «cox.zph» برای ارزیابی فرض تناسب با نتایج زیر استفاده کردم: foocox <- coxph (Surv(TIME, HADEVENT)~CASE, data=bar) print(cox.zph(foocox)) rho chisq p CASE -0.0372 46 1.18e-11 بر اساس $p$-value، به این نتیجه رسیدم که فرضیه صفر تناسب به شدت رد شده است. در اینجا نمودار «cox.zph» است، که همچنین خیلی امیدوارکننده به نظر نمی رسد (مثلاً باید ثابت باشد):  در اینجا یک فرکانس وجود دارد. جدول برای داده های من (`CASE=0` یک نمونه مطابق 1:1 برای مورد `CASE=1` است): رویداد CASE بدون رویداد n 0 10.464 93.832 104.296 1 22.903 81.393 104.296 **ویرایش** : پس از فیلتر کردن زمان های بسیار بزرگ -- که نادرست بودند -- مقدار p$-$ بسیار قابل توجهی را از طریق `cox.zph` به دست آوردم که نشان می دهد فرض تناسب نقض شده است. با توجه به این شرایط، گزینه های من چیست؟ آیا ادامه کار با مدلهای خطر متناسب بر اساس نمودار «cox.zph» برای مقادیر بزرگتر $t$ توجیه دارد؟ آیا باید به نحوی از استفاده از آنها برای $t \lt 1$ بر اساس بازرسی چشمی خودداری کنم؟
|
رسیدگی به موارد مرزی فرض خطرات متناسب
|
110833
|
فرض کنید یک معادله خطی ساده وجود دارد، که در آن متغیر وابسته y (سری زمانی، اندازهگیریهای موجود) به x1 و x2 بستگی دارد. اگر ضریب پارامتر x2 وابسته به زمان باشد و ضریب x1 یک متغیر قطعی باشد. چگونه پی دی اف ضریب پارامتر x2 را پیدا کنیم. با توجه به مشاهدات سری زمانی y، x1 و x2. لطفا به من بگویید چگونه این را حل کنم. کالمن/فیلتر ذرات؟
|
چگونه pdf یک پارامتر وابسته به زمان را در مدل رگرسیون خطی با دریفت پیدا کنیم؟
|
8389
|
من به یک عبارت بسته نیاز دارم برای احتمال اینکه 2 مقداری که به طور تصادفی از یک توزیع نرمال گرفته شده اند، حداکثر با T جدا شوند، به عنوان تابعی از T و واریانس توزیع. من می توانم مشکل را به عنوان یک ادغام فرموله کنم، اما نمی توانم آن را حل کنم. من با یک تقریب با انگیزه خوشحال خواهم شد. من میتوانم برخی فرضیات سادهکننده درباره توزیع ایجاد کنم، اگر این کمک کند.
|
این احتمال وجود دارد که دو مقدار به طور تصادفی از یک توزیع نرمال با حداکثر T از هم جدا شوند
|
61349
|
من در حال تجزیه و تحلیل یک آزمایش تشخیصی هستم (بر خلاف استاندارد طلایی، با استفاده از جدول 2x2). من میخواهم نسبتهای احتمال را محاسبه کنم (حساسیت / (1-ویژگی) و غیره) با این حال من چندین مجموعه داده با 0 مثبت کاذب دارم، بنابراین ویژگی 1 .... من با دادههای دیگری مواجه شدهام (مثلاً در پایگاههای شواهد برای دستورالعملهای بالینی برای بررسی عفونت پری پروتزی لگن یا زانو توسط AAOS) که در آن من می دانم که نویسندگان 0 مثبت کاذب داشتند اما هنوز فواصل اطمینان را برای احتمال ارائه کرده اند. نسبت ها آیا کسی می داند که چگونه محاسبات خود را برای این اجازه تنظیم کرده اند؟ با تشکر
|
نحوه محاسبه فواصل اطمینان برای نسبتهای احتمال از جدول 2×2 در حضور سلولهای با صفر
|
66610
|
من می خواهم جفت اعداد تصادفی با همبستگی خاص تولید کنم. با این حال، رویکرد معمول استفاده از ترکیب خطی دو متغیر نرمال در اینجا معتبر نیست، زیرا ترکیب خطی متغیرهای یکنواخت دیگر یک متغیر توزیع یکنواخت نیست. من نیاز دارم که دو متغیر یکنواخت باشند. آیا ایده ای در مورد چگونگی تولید جفت متغیرهای یکنواخت با یک همبستگی معین دارید؟
|
جفت اعداد تصادفی را ایجاد کنید که به طور یکنواخت توزیع و همبسته شده اند
|
95302
|
تفاوت بین حاشیه نویسی مبتنی بر دانش و حاشیه نویسی مبتنی بر پیکره در زمینه آموزش الگوریتم یادگیری ماشین چیست؟
|
حاشیه نویسی مبتنی بر دانش در مقابل حاشیه نویسی مبتنی بر مجموعه
|
110832
|
هر دو روش رگرسیون برای متغیرهای وابسته گسسته هستند. من یک متغیر وابسته گسسته دارم مانند $\{A, B, C, D, E\}$, و $A$, $B$, $C$, $D$, $E$ می توانند داده های اصلی باشند (10, 20، 30...) یا داده های غیر اصلی (مانند ماشین، قطار و کشتی). کدام مدل برای هر مورد مناسب است؟
|
چه زمانی از رگرسیون چند جمله ای و رگرسیون پواسون استفاده می کنیم؟
|
29563
|
من از rlm در بسته R MASS برای رگرسیون یک مدل خطی چند متغیره استفاده می کنم. برای تعدادی از نمونه ها خوب کار می کند، اما من ضرایب شبه تهی را برای یک مدل خاص دریافت می کنم: Call: rlm (فرمول = Y ~ X1 + X2 + X3 + X4، داده = mymodel، حداکثر = 50، na.action = na .omit) باقیمانده ها: Min 1Q Median 3Q Max -7.981e+01 -6.022e-03 -1.696e-04 8.458e-03 7.706e+01 Coefficients: Value Std. مقدار خطای t (رهگیری) 0.0002 0.0001 1.8418 X1 0.0004 0.0000 13.4478 X2 -0.0004 0.0000 -23.1100 X3 -0.0001 0.0501 -0.0002 -0.0501 -0.0002 X3 8.1489 خطای استاندارد باقیمانده: 0.01086 در 49052 درجه آزادی (83 مشاهده به دلیل عدم وجود حذف شد) برای مقایسه، این ضرایب محاسبه شده توسط lm(): فراخوانی: lm (فرمول = Y ~ X1 + X2 + X3 + X4، داده = mymodel, na.action = na.omit) باقیمانده ها: حداقل 1Q میانه 3Q Max -76.784 -0.459 0.017 0.538 78.665 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) -0.016633 0.011622 -1.431 0.152 X1 0.046897 0.004172 11.240 < 2e-16 *** X2 -0.054944 0.054944 - X2 -0.054944 *** X3 0.022627 0.019496 1.161 0.246 X4 0.051336 0.009952 5.159 2.5e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 2.574 در 49052 درجه آزادی (83 مشاهده حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.0182، R-squad تعدیل شده: 0.01812 F-آمار: 227.3-P: 49-52F < 2.2e-16 نمودار lm هیچ نقطه پرت به خصوص بالا را نشان نمی دهد، همانطور که با فاصله کوک اندازه گیری می شود:  **ویرایش** برای مرجع و پس از تایید نتایج بر اساس پاسخ ارائه شده توسط ماکرو، دستور R برای تنظیم پارامتر تنظیم، `k`، در برآوردگر Huber است. ('k=100' در این مورد): rlm(y ~ x، psi = psi.huber، k = 100)
|
چرا برآوردهای ضریب رگرسیون rlm() با lm() در R متفاوت است؟
|
66611
|
فکر میکنم یک مشکل کاملاً ساده دارم، اما میخواهم توضیح دهم که آیا بهترین روش برای استفاده است یا خیر. بگویید من خط بیمه دارم و درآمد خالص (£) از این تجارت برای سال های 2011، 2012، 2013 1,000,000 است. 4,500,000; و به ترتیب 5000000. از این رو، درصد افزایش از 11-12 350 درصد و از 12-13 11.1 درصد است. در حال حاضر، میانگین این 180.5٪ است که نشان دهنده میانگین درصد افزایش در تمام سال ها است، اما به من پیشنهاد شده است که در عوض داده ها را با میانگین وزنی نشان دهم. من کنجکاو هستم ... آیا وزن تفاوت درآمد هر سال است؟ یعنی میانگین وزنی = $((3.5)*350\% + (0.5)*11.1\%)/4 = 307\%$ یا وزن ها احتمالاً خود مقادیر هستند؟ یا شاید گزینه دیگری وجود دارد؟ شاید یک میانگین استاندارد کافی باشد؟ خیلی ممنون از ورودی های شما
|
میانگین وزنی درصد افزایش
|
15919
|
هنگام قرار دادن یک کامپیوتر مخصوصاً برای اجرای R و برنامه های مشابه، باید به دنبال چه چیزی باشم. مقدار زیادی قدرت پردازنده و رم داده شده است، اما چیزهایی مانند SSD و آیا R روی کارت گرافیک اجرا می شود چطور؟ (مانند OpenCL..) پیشاپیش متشکرم.
|
مشخصات کامپیوتر برای R؟
|
66616
|
من در حال نوشتن الگوریتمی هستم که در آن، با توجه به یک مدل، احتمالات را برای لیستی از مجموعه داده ها محاسبه می کنم و سپس باید هر یک از احتمالات را عادی سازی کنم (به احتمال). بنابراین چیزی شبیه به [0.00043، 0.00004، 0.00321] ممکن است تبدیل به ممکن است مانند [0.2، 0.03، 0.77] باشد. مشکل من این است که احتمالات لاگ، که من با آن کار می کنم، بسیار کوچک هستند (به عنوان مثال، در فضای گزارش، مقادیر مانند -269647.432، -231444.981 و غیره هستند). در کد ++C من، وقتی میخواهم دو تا از آنها را اضافه کنم (با گرفتن توان آنها) پاسخ Inf را دریافت میکنم. من سعی کردم آنها را در log-space (جمع / تفریق log) اضافه کنم، اما دوباره به همان مشکل برخورد کردم. آیا کسی می تواند نظر تخصصی خود را در این مورد به اشتراک بگذارد؟
|
تبدیل (نرمال سازی) مقادیر احتمال بسیار کوچک به احتمال
|
50704
|
مدل اصلی من این است: $Y=\alpha(\delta*X_1^{-\rho}+(1-\delta)*X_2^{-\rho})^{-\eta/\rho}exp(e_t) $ که من تا حدی به آن خطی می کنم: $ln(Y)=ln(\alpha)-(\eta/\rho)*ln(\delta*X_1^{-\rho}+(1-\delta)*X_2^{-\rho})+e_t $ من از یک الگوریتم حداقل مربعات غیرخطی برای تخمین پارامترها استفاده کرده ام. اکنون، من سعی میکنم تعیین کنم که آیا تقاطع در این مدل تا حدی خطی شده (در این مورد $ln(\alpha)$) برای سالهای مختلف دادهای که دارم متفاوت است یا خیر. من 3 سال داده دارم، با حدود 24 مشاهده در هر سال. اولین فکر من این است که فقط یک متغیر ساختگی برای هر سال به عنوان $ln(\beta*Year)$ اضافه کنم و فقط تست کنم که آیا دو ضریب حاصل (سه سال منهای یک سال مقایسه) به طور مشترک از نظر آماری با صفر با استفاده از F متفاوت هستند یا خیر. -تست اما من شک دارم که این درست باشد زیرا من سعی میکنم آزمایش کنم که آیا یک پارامتر ($ln(\alpha)$) در طول سالها تغییر میکند، نه اینکه همه پارامترها در طول سالها تغییر کنند. فکر دوم من این است که نمونه را بر اساس سال تقسیم کنم، سه رگرسیون مختلف را اجرا کنم و به نحوی آزمایش کنم که آیا همه پارامترهای $ln(\alpha)$ متفاوت هستند یا خیر. من نمی دانم از چه آزمایشی استفاده کنم یا چگونه از آن برای انجام این کار استفاده کنم. من به این فکر میکنم که شاید یک آزمون t با واریانس نابرابر روی هر جفت ضرایب، اما احساس میکنم که آزمایشهای زوجی روی هر پارامتر، یک آزمون «مشترک» قانونی برای من به همراه ندارد. من همچنین در مورد تست Chow خواندهام، اما دوباره میخواهم آزمایش کنم که آیا فقط یک پارامتر در میان جمعیتهای فرعی متفاوت است، نه همه پارامترها، این همان کاری است که تست Chow انجام میدهد. نظری در مورد اینکه روش صحیح چیست؟ با تشکر
|
چگونه می توان آزمایش کرد که یک پارامتر خاص در یک مدل غیر خطی در بین جمعیت های فرعی متفاوت است؟
|
61341
|
**زمینه:** اگرچه تجزیه و تحلیل مکاتبات عمدتاً برای تجسم شباهتهای دستهبندیهای دو یا چند متغیر اسمی استفاده میشود، سعی کردم به شرح زیر باشد: از 39 دانشآموز (از همان نظرسنجی که در این سؤال بود) خواسته شد تا از دوستان خود در مورد عادات سیگار کشیدن بپرسند. چهار پاسخ ممکن (من سیگار می کشم، قبلاً می کشیدم، اما دیگر نمی کنم؛ تلاش کرده ام و حتی امتحان نکرده ام). سپس ماتریسی را با دو ستون ایجاد کردم: اول متغیر اسمی با 39 دسته (دانش آموزان من، در ادامه با اعداد مشخص شده اند) و دومی نیز اسمی با 4 دسته (سطح سیگار) است. این داده ها به عنوان ورودی در تجزیه و تحلیل مکاتبات استفاده شد و نمودار حاصل در زیر مشاهده می شود. **سوالات:** در مورد برخی از تفاسیر طرح مطمئن نیستم. * آیا می توان در مورد فراوانی دسته های متغیر دوم (سیگاری) چیزی بگوییم؟ برای مثال به نظر می رسد که تعداد پاسخ دهندگان در نزدیکی دسته من تلاش کرده ام بیشتر است. آیا به این معنی است که اکثر شرکت کنندگان فقط سیگار کشیدن را امتحان کرده اند؟ * اگر دو پاسخگو به هم نزدیک باشند (مثلاً 6 و 18)، آیا به این معنی است که دوستان آنها «رفتار» سیگار کشیدن مشابهی دارند؟ * مثلاً آن دسته از پاسخ دهندگانی که دوستانشان بیشتر سیگار می کشیدند، اما دیگر سیگار نمی کشیدند، در کجای نقشه قرار دارند؟ آیا آنها کسانی هستند که نزدیک برچسب من قبلاً بودم، اما دیگر ندارم (پاسخگویان 3، 22، ...) یا کسانی هستند که برچسب آنها با محور x زاویه مشابهی با برچسب من قبلاً داشتم، اما دارم است. دیگر نه (پاسخ دهندگان 3، 22، 30، 29، 10، 21، ...) یا کسانی که طرح ریزی آنها به هر محوری شبیه به طرح برچسب من قبلا می کردم، اما من دیگر انجام نمی دهم (پاسخ دهندگان 5، 8، 2، 25 وقتی به محور x پیش بینی می شوند)؟ * آیا نمودار زیر چیزی در مورد میزان وابستگی بین دو متغیر می گوید؟ اگر متغیرها مستقل باشند نمودار زیر چگونه باید باشد؟ 
|
چگونه می توان این نمودار تحلیل مطابقت با افراد را به عنوان متغیر اسمی تفسیر کرد؟
|
66618
|
من به تازگی آزمایشی را انجام داده بودم که در آن مشتری می خواهد 20٪ بهبود طول سوراخ را از یک سوراخ کننده پایه ببیند. سوراخ کننده پایه در شرایط خاص مشتری که در نهایت در آن سوراخ خواهد شد، آزمایش نشده است. مشتری قصد دارد در آینده 40000 سوراخ کند. مطمئن نیستم که این اطلاعات کمی مهم است یا نه، اما میخواستم مطمئن شوم که میدانم میانگین جمعیت واقعی طول سوراخ هنوز وجود ندارد. تحت شرایط خاص متناسب با مشتری، سوراخ کننده پایه 3 بار با نتایج زیر شلیک شد: [7.68، 8.72، 8.08] اینچ. سه طرح سوراخکننده جدید به امید اجرای کامل سوراخکننده پایه ساخته شد و هر طرح 3 بار با نتایج زیر شلیک شد: * D1 [8.04، 8.93، 10.05] اینچ * D2 [11.15، 6.91، 9.21] اینچ * D3 [7.1] , 7.6، 7.02] اینچ از آنجایی که من در آمار نسبتاً تازه کار هستم نمی دانم که آیا برخی از شما متخصصان می توانید به من کمک کنید که چه اطلاعاتی را می توان از نتایج این آزمایش ها به دست آورد. اگر بتوانید به من در جهت درست راهنمایی کنید که در به دست آوردن این بینش های پیشنهادی شما باید به چه روش هایی مراجعه کنم، بسیار کمک کننده خواهد بود. میدانم که تلاش از جانب من تشویق میشود، بنابراین میخواهم برخی از تلاشهای اولیهام برای آمار استنباطی را درج کنم و شاید شما بتوانید من را در جایی که اشتباه میکنم تصحیح کنید یا کارهای دیگری که باید/میتوانم انجام دهم را درج کنید. برآورد نیازهای حجم نمونه: حل برای حجم نمونه به انحراف استاندارد جامعه، $\sigma$ نیاز دارد. اغلب ما آن را نمی دانیم، بنابراین باید از یک برآورد یا «ارزش برنامه ریزی» به جای آن استفاده کنیم. در اینجا چند گزینه وجود دارد: 1. برآورد σ از مطالعات قبلی با استفاده از همان جمعیت مورد علاقه. 2. انجام یک مطالعه آزمایشی برای انتخاب یک نمونه اولیه. از نمونه انحراف استاندارد از مطالعه آزمایشی 3 استفاده کنید. از قضاوت یا بهترین حدس برای $\sigma$ استفاده کنید. یک حدس معمول، محدوده داده ها (مقدار بالا - مقدار کم) تقسیم بر 4 است. سوالی که من پرسیدم این است: برای ایجاد اطمینان 95٪ (با فرض توزیع نرمال) چه حداقل حجم نمونه لازم است (با فرض توزیع نرمال) که میانگین نمونه $\ است. pm$ 1 اینچ از میانگین جمعیت واقعی، $\mu$؟ از آنجایی که ما تخمینی از $\sigma$ از مطالعات قبلی نداریم، گزینه 2 را انتخاب می کنیم و اطلاعات خود را به عنوان مطالعات آزمایشی در نظر می گیریم. دادههای طول سوراخکاری طرح 2 آزمایشی به شرح زیر است: [11.15، 9.21، 6.91] اینچ. میانگین نمونه 9.09 اینچ و انحراف استاندارد نمونه 2.12 اینچ است. با فرض اینکه انحراف معیار جمعیت برابر با انحراف استاندارد نمونه باشد، یک نمونه چقدر باید شلیک شود تا فاصله اطمینان 95% با حاشیه خطا (E) 1 اینچ فراهم شود؟ $$n = \frac{(z_{\alpha /2})^2 (\sigma)^2}{E^2}$$ $$n = \frac{(1.96)^2 (2.12)^2} {(1)^2}$$ $$n = 17$$ تفسیر: برای اینکه 95 درصد از میانگین نمونه ما حاوی میانگین جامعه واقعی، $\mu$ باشد، به حجم نمونه 17 نیاز داریم. عکس ها یا، 95 آزمایش از 100 آزمایش که از 17 عکس سوراخسازی تشکیل شدهاند، در طول متوسط آن 1 اینچ $\pm$ طراحی سوراخ، میانگین طول سوراخ واقعی واقعی طراحی سوراخ را شامل میشوند. با این حال، برای من روشن نیست که چگونه با این نتیجه رو به جلو حرکت کنم. آیا این بدان معناست که باید 17 عکس اضافی به عنوان نمونه خود بسازم یا باید 14 عکس دیگر برای اضافه کردن به 3 عکس اصلی ایجاد کنم؟ چگونه اطلاعات جدید را مدیریت کنم؟ من شک دارم که خطای استاندارد میانگین با اندازه گیری های بیشتر کاهش می یابد و بنابراین حجم نمونه مورد نیاز را تنظیم می کنم؟ اگر فرض نکنیم که انحراف استاندارد جمعیت با انحراف استاندارد نمونه برابر است، میتوانیم مقدار برنامهریزی را برای انحراف استاندارد جمعیت به صورت محدوده طولهای سوراخ مشاهده شده تقسیم بر 4 تنظیم کنیم (گزینه 3). از آنجا میتوانیم حداقل تعداد عکسهایی را که باید با حاشیه خطای 1 اینچی گرفته شود تا جمعیت واقعی را در 95 درصد مواقع گرفته شود، تخمین بزنیم. دادههای طول سوراخکاری طرح 2 آزمایشی به شرح زیر است: [11.15، 9.21، 6.91] اینچ. $$\text{Planning Value for Std. توسعه دهنده} = \frac{\text{محدوده}}{4}$$$$\text{PV} = \frac{(11.15-6.91)}{4} = 1.06$$$$n = \frac{( z_{\alpha /2})^2 (\sigma)^2}{E^2}$$ $$n = \frac{(1.96)^2 (1.06)^2}{(1)^2}$$ $$n = 4.3$$ تعبیر: برای اینکه 95 درصد از میانگین نمونه ما حاوی میانگین جامعه واقعی باشد، $\mu$، به حجم نمونه 4 نیاز داریم. عکس ها یا، 95 آزمایش از 100 آزمایش که از 4 عکس سوراخسازی تشکیل شدهاند، در طول متوسط آن 1 اینچ $\pm$ طراحی سوراخ، میانگین طول سوراخ واقعی واقعی طراحی سوراخ را شامل میشوند. بنابراین کدام روش مناسب تر است (گزینه 2 یا 3)؟ و چگونه باید از این اطلاعات استفاده کرد؟ در هر دو مورد نیاز به شلیک بیشتر بود. اما اگر برعکس اتفاق بیفتد چه چیزی به من می گوید؟ به عنوان مثال برای شارژ طرح 3، با استفاده از هر دو روش گزینه 2 و 3، به ترتیب n = 0.37 شات و n = 0.08 شات دریافت کردم. در نهایت، سعی کردم تخمین بزنم که چه درصدی احتمال دارد که طرح شارژ جدید، جمعیت، میانگین، طول سوراخ، پیشرفت مورد نیاز را برآورده کند. با در نظر گرفتن میانگین ضربات پایه 8.16 اینچ و اضافه کردن 20٪ به آن، طول هدف را 9.792 دلار $\حدود 9.792 دلار دریافت کردم.
|
از حجم نمونه کوچک چه نتیجه ای می توان گرفت؟
|
26368
|
من در حال مطالعه برخی از مطالب در مورد تجزیه و تحلیل داده های فضایی بوده ام و سابقه خوبی در GLMs دارم. در حال حاضر به دنبال یافتن نمونه ای در مدل های خطی تعمیم یافته فضایی هستم، اما تا کنون نمونه ای را پیدا نکرده ام. من از برخی بسته های R مانند GeoR مطلع هستم. و غیره اما نتوانستیم نمونه مشخصی که شامل کدها، داده ها و تجزیه و تحلیل باشد پیدا کنم. میخواستم بدونم کسی میتونه کمک کنه لطفا پیوندها یا مقالات را به اشتراک بگذارید. با تشکر
|
نمونه هایی از مدل های خطی تعمیم یافته فضایی
|
61343
|
برای مدل زیر: $$T = A_0 + A_1M+ A_2M^2 + A_3\ln(P) + A_4\ln(P)^2+A_5M\ln(P)$$ جایی که: > $T$ = متغیر وابسته > > $P$ = متغیر مستقل > > $M$ = متغیر مستقل > > $A_0 \dots A_5$ = ضرایب رگرسیون. من می خواهم بدانم این معادله با کدام کلاس از مدل رگرسیون مطابقت دارد، وقتی از این مدل استفاده می کنید، و چگونه پارامترهای $A_0 \dots A_n$ را پیدا می کنید.
|
این چه مدلی است و پارامترهای آن را چگونه تخمین می زنید؟
|
26364
|
سپس مدلهای خطی را با «نقطه (n_clust، error)» با هدف شناسایی بهترین ترکیبی که سعی میکنم یک خوشه k-means را روی دادههایم انجام دهم (ماتریسی با 2000 مورد و 10 متغیر) برازش میکنم. نمی دانم چند خوشه را انتخاب کنم. برای حل این مشکل، من استراتژی را اتخاذ کردم که در آن مقادیر مختلف K تنظیم شده است. نتایج خطا و تعداد خوشه های استفاده شده در دو بردار ذخیره می شوند. سپس مدلهای خطی را برازش کردم که بالاترین مجموع R-squared را به من میدهد. من از این استراتژی برای انتخاب بهترین مقدار K استفاده کردم. نکته این است که من چندین بار این فرآیند را انجام داده ام و توجه داشته ام که بردار خطا بین هر اجرا متفاوت است. این به من مقادیر متفاوتی از بهترین K داد. یک جایگزین برای پایدار کردن نتایج k-means، استفاده از تابع «set.seed()» قبل از «kmean()» است. با این حال من می ترسم که نتیجه، با وجود ثابت، سازگاری ندارد. کسی می تواند به من سرنخ بدهد؟ `set.seed()` فقط مانع تغییرپذیری نمی شود؟ آیا استراتژی دیگری برای انتخاب بهترین K وجود دارد؟ با تشکر n_clust=خطای NULL=NULL برای (i در 1:200){ cl <- kmeans(نمرات، i، iter.max=100) خطا <- c(error,cl$tot.withinss) n_clust <- c(n_clust, i) } r2=NULL for(i در 3:197){ a <- lm(خطا[1:i] ~ n_clust[1:i]) b <- lm(خطا[i+1:200] ~ n_clust[i+1:200]) rsqd <- as.numeric(summary.lm( a)[8]) + as.numeric(summary.lm(b)[8]) r2 <- c(r2, rsqd)} id_n <- 3 + which(r2==max(r2))
|
تغییرپذیری در نتایج خوشههای k-means: قبل از تنظیم set.seed()؟
|
55759
|
پس از حذف 25٪ (21 مشاهده) از نمونه به عنوان نگهدارنده، انتخاب مدل بر روی 75٪ از نمونه اصلی منجر به یک رگرسیون خطی چند متغیره با R2 54٪ شد. یک رگرسیون ساده از مقادیر نگهدارنده در پیشبینیهای آنها تحت مدل برازش شده منجر به R2 8٪ و R2 تنظیم شده از 2٪ شد. پارامتر شیب رگرسیون معنی دار نبود. آیا کسی میتواند تفسیری غیر از این که بهطور بالقوه یک مشکل جدی در اینجا وجود دارد بیاندیشد، به اندازهای که مدل اصلی شش متغیره زیر سؤال میرود؟ آیا راه بهتری برای استفاده از نمونه نگهدارنده برای اعتبارسنجی مدل وجود داشت؟ با تشکر
|
R2 نمونه اعتبارسنجی
|
55757
|
اگر من نیاز به تعیین مقدار یک نقطه داده در هر صدک توزیع داشته باشم (مانند lognormal، weibull، و غیره)، آیا می توانم از CDF آن استفاده کنم و %iles را برای بدست آوردن مقدار وصل کنم؟ برای مثال با وارد کردن 0.95 در فرمول CDF، مقدار 95% ile را پیدا کنید. اساساً، من باید تعیین کنم که اگر نمودار توزیع ترسیم شود، چه نقاط داده ای را در هر %ile به دست میآورم. آیا CDF همین را به من می گوید؟ لطفا سریع راهنمایی کنید با تشکر
|
تابع توزیع تجمعی
|
61347
|
برخی از سیستم های آزمون تطبیقی (مانند ابزارهای ارزیابی مدرسه) از مدل 1pl IRT استفاده می کنند، در حالی که برخی دیگر از 2pl یا 3pl استفاده می کنند. آیا هنگام ایجاد یک تست هوش تطبیقی، یک قانون کلی وجود دارد که کدام مدل را در کالیبره کردن دشواری آیتم و توانایی آزمونکنندگان انتخاب کنیم؟ من نمی توانم هیچ تحقیقی را بیابم که بینش هایی در تناسب بین موارد تست IQ و انواع مختلف مدل های IRT ارائه دهد. پیشاپیش سپاس فراوان!
|
آیتم های تست تطبیقی IQ در مدل IRT 1pl، 2pl یا 3pl؟
|
22479
|
من سعی می کنم قرائت های یک فلومتر قدیمی و یک فلومتر دیجیتال جدید را با هم مقایسه کنم تا بفهمم که آیا تفاوت قابل توجهی دارند یا خیر. با متر جدید من خواندن را در شرایط مختلف انجام دادم. کالیبره شده در 30 ثانیه، کالیبره شده در 60 ثانیه، کالیبره نشده در 30 ثانیه و کالیبره نشده در 60 ثانیه. من می خواهم فلومتر قدیمی خود (ستون اول در مجموعه داده) را با سایر قرائت ها (ستون های 2:5 در مجموعه داده) مقایسه کنم. من از anova برای مقایسه گروه ها استفاده کردم و تفاوت هایی پیدا کردم اما با TukeyHSD گیر کردم... سوال من این است: آیا این روش درستی برای انجام مقایسه است... من از راهنمایی هایی در مورد چگونگی انجام این کار سپاسگزارم... در اینجا مجموعه داده و کد من است.... 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4L)، .Label = c(site1، site2، site3، site4)، class = factor)، old_dev = c(2.09، 1.927، 2.11، 2.114، 2.11، 1.995، 2.605، 2.563، 2.393، 2.286، 2.529، 2.371، 2.214، 2.128، 2.302، 2.204، 2.274، 3.513، 2.61، 3.502، 3.155، 3.131، 3.55، 3.656، 3.613، 3.616، 3.656، 3.613، 3.616 3.649، 3.519، 3.322، 3.352، 3.323، 3.144، 2.869، 3.383، 3.076، 2.978، 3.189، 2.934، 2.813، 3.015، 3.015 2.952، 2.988، 2.976، 3.049، 2.869، 2.965، 2.895، 2.064، 1.333، 1.432، 1.599، 1.52، 1.51، 2.718، 2.784، 2.718، 2.242، 1.998، 1.175، 1.791، 2.152، 3.414، 3.278)، new_dev_unc30 = c(2.6، 2.6، 2.7، 2.6، 2.3، 2.6، 3.2، 2.8، .2. 2.6، 2.5، 1.4، 2.7، 2.6، 2.2، 4.1، 3.4، 3.7، 4، 4. 4.1، 3.7، 4، 3.6، 2، 2.4، 3.7، 2، 2.8، 3، 1.8، 1.8، 3، 1.9، 3.1، 1.1، 2.2، 1.6، 1.2، 1.4، 1.4، 1.3، 1. 0.7، دو 2.7، 2.6، 2.2، 4.1، 3.8، 3.9، 4.5، 4، 4.2، 4.6، 2، 2.6، 2.6، 3، 3.4، 3.5، 3.9، 2، 3.4، 2.3، 2، 3.4، 2.3، 2.3، 2.3، 2.3، 3.3 2.1، 2.4، 3.1، 2.1، 3، 3.2، 1.9، 1.9، 3، 2.1، 3.1، 1.3، 1.5، 1.6، 1.2، 1.8، 1.1، 1.2، 2.1، 1.9، 3، 2.1، 1.6، 1.2، 1.8، 1.1، 1.2، 2.1، 2.1، 1.0.8. 0.9، 1.4، 1.5، 0.8، 2)، new_dev_cal30 = c(2.4، 2.5، 2.5، 2.8، 2.4، 2.3، 3.1، 2.6، 2، 3.5، 1.6، 2.5، 2.5، 2.5، 2.5، 2.5، 2.5، . 4.5، 3.3، 4.3، 4.3، 4.3، 4.4، 4.5، 1.1، 1.9، 4، 3.5، 3.1، 3.8، 3.5، 2.2، 3.5، 2، 3.6، 3.7، 2، 3.6، 3.7، 2.3، 3.7، 2.3، 3.7. 3.3، 2.7، 2.3، 3.2، 2.3، 0.9، 3.2، 2.9، 3.1، 0.9، 2.3، 1.3، 1.4، 1.5، 1.1، 1.3، 2.7، 1.7، 2.1، 2.1، 1.7، 2.1، 1.6. 1.1، 1.4، 1.6)، new_dev_cal60 = c(2.6، 2.5، 2.4، 2.3، 2.5، 2.3، 3.2، 2.8، 1.9، 3.1، 2.1، 2.7، 2.4، 1.8، 2.7، 2.4، 1.8، 2.3، 2.6. 3.5، 4.3، 4.3، 4.3، 3.8، 4.4، 1.4، 2، 4.2، 3.3، 3.2، 3.3، 3.4، 2.1، 3.4، 2.5، 3.8، 3.8، 3.9، 3.8، 3.8، 3.9، 3.2، 3.6. 2.3، 2.6، 3.1، 2.2، 0.8، 3.2، 2.6، 3.1، 0.9، 1.7، 1.2، 1.5، 1.2، 1، 1.1، 2.6، 1.6، 1.9، 0.6، 1.6، 1.9، 0.6، 3.1، 0.9. 1.4، 1.4))، .Names = c(SiteNumber، old_dev، new_dev_unc30، new_dev_unc60، new_dev_cal30، new_dev_cal60)، class = data.frame، row.names = c( NA، -68L)) این چیزی است که من انجام دادم: str(meter) attach(meter) boxplot(list(old_dev,new_dev_unc30,new_dev_unc60,new_dev_cal30,new_dev_cal60)) خلاصه (اولین تست <- aov(old_dev ~ new_dev_unc30 + new_dev_unc60 + new_dev_cal30 + new_dev_cal30 + new_dev_cal) test(H???0)Tu_key6
|
چگونه می توان آزمایش کرد که خواندن از دو دستگاه به طور قابل توجهی متفاوت است؟
|
85629
|
من در تشخیص اینکه داده های من به بهترین وجه در کدام توزیع قرار می گیرند، با مشکلاتی روبرو هستم. دادههای من از یک مقیاس آنالوگ بصری 100 میلیمتری است، بنابراین نقاط داده از 0 تا 100 متغیر است. از شرکتکنندگان خواسته شد با استفاده از این مقیاسها «لنگش» یک حیوان را نمره دهند. 4 حیوان وجود داشت که همگی با شدت لنگش متفاوت بودند. آیا در فرض اینکه دادههای من را میتوان در نظر گرفت، درست است: 1. پیوسته - همانطور که در مقیاس پیوسته اندازهگیری میشود یا 2. دوجملهای (با 100 مجموع دوجملهای) بهعنوان چیزی که در هر نقطه از مقیاسی که من از آن استفاده میکنم اتفاق افتاده یا رخ نداده است. GLMM برای ساختن مدل من. من داده ها را از طریق استفاده از گاما (باید مقادیر صفر خود را مجدداً رمزگذاری می کردم)، پواسون و دوجمله ای اجرا کرده ام. و با بررسی نتایج روی نمودار میله ای داده ها، نمی دانم کدام درست است.
|
توزیع. چگونه می توان از مقیاس های آنالوگ بصری تشخیص داد که چه داده های توزیعی متناسب است
|
61344
|
در مقاله ای توسط فاراکلاس و همکاران، محققان یک ماشین حساب خطر مرگ و میر ناشی از عفونت بافت نرم نکروزان ایجاد کردند. آنها از رگرسیون لجستیک برای ایجاد مدلی با مرگ و میر ناشی از عفونت نکروزان بافت نرم به عنوان پیامد اصلی استفاده می کنند و سپس ناحیه زیر منحنی (AUC) را محاسبه می کنند. آنها از روش بوت استرپ برای یافتن منطقه ROC اصلاح شده با خوش بینی بوت استرپ استفاده می کنند. اگر بخواهم این کار را در `R` انجام دهم، چگونه به نظر می رسد؟ کدی که با آن بازی میکردم چیزی شبیه به زیر است: library(boot) library(ROCR) auc_calc <- function(دادهها، شاخصها، نتایج) { d <- داده[شاخصها،] # استفاده از glm برای رگرسیون لجستیک # آیا دوباره ایجاد کنم مدل glm برای هر مجموعه داده؟ fit <- glm(نتایج[شاخص،] ~ X1 + X2 + X3، داده=d، خانواده=دوجمله) fit.predict <- predict(fit, type=response) # استفاده از ROCR برای محاسبه AUC pred <- پیش بینی (fit.predict, outcomes[indeces,]) perf <- performance(pred, auc) # برگرداندن AUC return(perf@y.values[[1]]) } boot.results <- boot(data=my.data, statistic=auc_calc, R=10000, outcomes=my.outcomes) درست است؟ یا آیا من کار اشتباهی انجام می دهم - یعنی باید در یک مدل glm بگذرم تا اینکه هر بار دوباره آن را محاسبه کنم؟ مثل همیشه ممنون از کمک
|
دریافت AUC معتبر بوت استرپ در R
|
8382
|
بنابراین من داده هایی دارم که توسط مبدل آنالوگ به دیجیتال کوانتیزه شده است. (داده های پیوسته به داده های گسسته تبدیل شده اند و مقادیر از 0 تا مقدار اشباع متغیر است که در این مورد 127 است). این ابزار خاصی که برای جمعآوری دادهها استفاده کردم کاملاً نویزدار است، فرض کنید نویز گاوسی به مقدار واقعی اضافه شده است. خوشبختانه، هنگام اندازه گیری تکی، زمان کافی برای انجام چندین اندازه گیری و میانگین آنها برای کاهش نویز دارم. توجه داشته باشید که نرخ نمونه برداری در اینجا مشکلی نیست زیرا چیزی که من اندازه گیری می کنم کاملاً پایدار است. بدیهی است که در نظر گرفتن میانگین ساده یک نتیجه مغرضانه ایجاد می کند زیرا مقادیر نمی توانند از 0 یا 127 تجاوز کنند (به عنوان مثال، اگر سعی کنید از یک میانگین قدیمی ساده بر روی چیزی با مقدار واقعی 126 استفاده کنید، مقدار تخمینی دریافت خواهید کرد که کمتر از 126. این به این دلیل است که نویز گاوسی اضافه شده به دلیل برش دادن مقداری بالاتر از 127 به شما نمی دهد). بنابراین چگونه می توانم میانگین را بگیرم تا نتیجه یک برآوردگر بی طرفانه از مقدار واقعی به من بدهد؟
|
چگونه میانگین داده های کوانتیزه و کوتاه شده را محاسبه کنیم؟
|
1376
|
من به دنبال یک نسخه قوی از آزمون هتلینگ $T^2$ برای میانگین یک بردار هستم. به عنوان داده، من یک ماتریس $m\ \times\ n$، $X$، هر ردیف یک i.i.d دارم. نمونه یک RV $n$-بعدی، $x$. فرضیه صفری که میخواهم آزمایش کنم، $E[x] = \mu$ است، که در آن $\mu$ یک بردار $n$-بعدی ثابت است. به نظر می رسد که آزمون هتلینگ کلاسیک در توزیع x$ مستعد غیر عادی بودن است (درست مانند آنالوگ 1-d، آزمون t Student مستعد ابتلا به انحراف و کشیدگی است). وضعیت نسخه قوی این آزمون چیست؟ من به دنبال چیزی نسبتا سریع و مفهومی ساده هستم. مقاله ای در COMPSTAT 2008 در مورد این موضوع وجود داشت، اما من به روند رسیدگی دسترسی ندارم. هیچ کمکی؟
|
نسخه قوی تست هتلینگ $T^2$
|
22472
|
_(در صورت نیاز کد R را نادیده بگیرید، زیرا سوال اصلی من مستقل از زبان است)_ اگر بخواهم به تغییرپذیری یک آمار ساده (مثلاً میانگین) نگاه کنم، می دانم که می توانم آن را از طریق تئوری انجام دهم مانند: x = rnorm (50) # تخمین خطای استاندارد از خلاصه تئوری(lm(x~1)) #همانند... sd(x) / sqrt(length(x)) یا با بوت استرپ مانند: library(boot) # تخمین خطای استاندارد از bootstrap (x.bs = boot(x, function(x, inds) mean(x[inds]), 1000)) # که به سادگی *انحراف* استاندارد توزیع بوت استرپ است. .. sd(x.bs$t) * * * با این حال، آنچه من تعجب می کنم این است که **آیا می تواند مفید/معتبر(؟) باشد که به _error_ استاندارد یک نگاه کنیم. توزیع بوت استرپ در شرایط خاص؟** وضعیتی که من با آن سر و کار دارم یک تابع غیرخطی نسبتاً پر سر و صدا است، مانند: # شبیه سازی مجموعه داده set.seed(12345) n = 100 x = runif(n, 0, 20) y = SSasymp (x، 5، 1، -1) + rnorm(n، sd=2) dat = data.frame(x، y) در اینجا مدل حتی با استفاده از مجموعه داده اصلی همگرا نمی شود، > (fit = nls(y ~ SSasymp(x, Asym, R0, lrc), dat)) خطا در numericDeriv(form[[3L]], names(ind ), env) : مقدار از دست رفته یا بی نهایتی که هنگام ارزیابی مدل تولید می شود، بنابراین آماری که من به آن علاقه مندم، تخمین های تثبیت شده تری از این nls هستند. پارامترها - شاید معنی آنها در تعدادی از تکرارهای بوت استرپ. # برآوردهای پارامتر متوسط bootstrap nls fit.bs = boot(dat, function(dat, inds) tryCatch(coef(nls(y ~ SSasymp(x, Asym, R0, lrc), dat[inds, ])), error= تابع (e) c(NA، NA، NA))، 100) pars = colMeans(fit.bs$t، na.rm=T) اینها واقعاً در پارک توپ چیزی هستند که من برای شبیه سازی داده های اصلی استفاده کردم: > pars [1] 5.606190 1.859591 -1.390816 یک نسخه رسم شده به نظر می رسد: # Plot with(dat, plot(x ، y)) newx = seq(min(x)، max(x)، len=100) خطوط (newx، SSasymp(newx، pars[1]، pars[2]، pars[3])) خطوط(newx، SSasymp(newx، 5، 1، -1)، col='red') افسانه('downtomright', c( 'واقعی'، 'پیش بینی شده')، bty='n'، lty=1، col=2:1)  حالا، اگر من تغییرپذیری این تخمینهای پارامتر _stabilized_ را بخواهم، فکر میکنم میتوانم، با فرض نرمال بودن این توزیع بوت استرپ، فقط خطاهای استاندارد آنها را محاسبه کنم: > application(fit.bs$t, 2, function(x) sd(x, na.rm=T) / sqrt(length(na.omit(x)))) [1] 0.08369921 0.17230957 0.08386824 ** آیا این رویکرد معقولی است؟ آیا رویکرد کلی بهتری برای استنتاج پارامترهای مدلهای غیرخطی ناپایدار مانند این وجود دارد؟** (فکر میکنم به جای تکیه بر تئوری برای بیت آخر، میتوانم لایه دوم نمونهگیری مجدد را در اینجا انجام دهم، اما ممکن است زمان زیادی طول بکشد. بسته به مدل، حتی هنوز مطمئن نیستم که آیا این خطاهای استاندارد برای هر چیزی مفید هستند یا خیر، زیرا اگر تعداد تکرارهای بوت استرپ را افزایش دهم، به 0 نزدیک می شوند. با تشکر، و اتفاقاً من یک مهندس هستم، پس لطفاً مرا ببخشید که یک تازه کار نسبتاً در اینجا هستم.
|
استفاده از خطای استاندارد توزیع بوت استرپ
|
97849
|
من از یک الگوریتم ژنتیک (GA) برای تخمین حداقل مقدار یک تابع درستنمایی $L[x]$ استفاده میکنم که برای ارزیابی ریاضی بسیار پیچیده است. این تابع احتمال، خوبی تناسب بین یک مدل (که به پارامتر $x$ بستگی دارد) و مجموعه ای از $M$ مشاهدات $O=\{a_1، a_2، ...، a_M\}$ را کمی می کند. پس از تکرارهای کافی (زمانی که مقدار بهینه یافت شده توسط GA برای مدتی تغییر نکرده باشد) GA را متوقف می کنم و مقدار $x_0$ را برای پارامتر مدل $x$ که روی آن ثابت شده است، فرض می کنم، یکی است که برآورده می شود: $$L [x_0] \sim min(L[x])$$ که «بهترین» تناسب مدل/مشاهده را مشخص میکند. اکنون، من میخواهم یک عدم قطعیت به این مقدار $x_0$ اختصاص دهم که برای آن یک فرآیند بوت استرپ را با جایگزینی اعمال میکنم. این به این معنی است که من GA را دوباره چندین بار N$ اجرا میکنم (هر بار با استفاده از یک نمونه تصادفی از مشاهدات $M$ که از $O$ گرفته شده است) که منجر به مقادیر $N$ برای پارامتر $x$ میشود: $(x_1، x_2، ...، x_N)$. در نهایت من انحراف استاندارد مقادیر $N$ را که توسط GA برگردانده شده است به عنوان عدم قطعیت (خطا) $x_0$ اختصاص می دهم: $$e_{x_0} = std(x_1, x_2, ..., x_N)$$ این فرآیند خوب کار می کند، اما از آنجایی که من مجبور می شوم GA را چندین بار N$ اجرا کنم، این می تواند به سرعت در زمان محاسباتی غیرقابل مدیریت شود. سوال این است: آیا روشی سریعتر/از لحاظ محاسباتی ارزانتر برای تخصیص عدم قطعیت به مقدار پارامتر تخمین زده شده از طریق الگوریتم ژنتیک وجود دارد؟
|
روش ارزانتر/سریعتر برای برآورد عدم قطعیتها نسبت به بوت استرپ
|
56228
|
من این سری زمانی روزانه از قیمت های مشاهده شده را دارم: $P_1,P_2,..., P_n$. من میخواهم با برگرداندن کار کنم: $ 0، P_2-P_1،...، P_n - P_{n-1}$. به من گفته شده است که عبارت اول (P_1-P_0= P_1-?) را با تنظیم 0 حذف کنم. به نظر می رسد که این 0 با سایر اصطلاحات بسیار متفاوت است و راه حل خوبی نیست. (حتی فکر می کنم اصلا راه حلی نیست). راه حلی که من در نظر گرفتم در اینجا آمده است: * 0 چون در روز اول هیچ بازگشتی وجود ندارد * {P_1} برای سازگاری با سری زمانی * هیچ چیز، فقط به سادگی مشکل را حذف کنید نظر شما در مورد این مشکل چیست؟ این همچنان در مورد مشکل مشابهی بود که من هنگام انجام میانگین متحرک داشتم. در ابتدای سری زمانی اصطلاحات گمشده مشابهی وجود دارد. وقتی میانگین متحرک p را انجام میدهم، معمولاً آخرین مقدار p را قبل از تاریخم میگیرم. * من همین مشکل را نسبت به قبل دارم: در ابتدای سری زمانی، داده های کافی برای جمع آوری با عبارت p وجود ندارد. آیا ترفندی برای رفع این مشکل وجود دارد؟ * آیا گرفتن مقادیر p بعد از تاریخ من چیزی را تغییر می دهد؟ مقادیر $[(p-1)/2] قبل و بعد از تاریخ من؟ این عبارت کلی میانگین متحرک من را تغییر نمی دهد، بلکه فقط مقادیر شروع و پایان سری زمانی من را تغییر می دهد. آیا مهم است؟ چگونه؟
|
عادی سازی / میانگین متحرک
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.