_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
53410
من داده های خود را (ماتریسی از مجاورت های بیان شده توسط کسینوس بین 94 شی) به خوشه ها با روش سلسله مراتبی Ward تقسیم کرده ام و از نظر بصری از نتایج بسیار راضی هستم. با این حال، من می خواهم بررسی کنم که آیا کیفیت خوشه ها خوب است یا خیر. به من گفته شده است که برای روش وارد، آماری که می تواند برای بررسی خوب بودن خوشه ها مفید باشد عبارتند از: * ضریب همبستگی cophenetic، * میانگین مربعات خطای نرمال شده، * میانگین خطای مطلق نرمال شده. با این حال، من نمی دانم چگونه آنها را بخوانم. من ضریب همبستگی خیلی پایینی دارم. (0.56) که بد به نظر می رسد، زیرا همبستگی های خوب به طور متوسط ​​بالای 0.80 است. سپس من یک NMSE 351.14 و NMAE 17.24 دارم. این بد است؟ آیا این خوب است؟ چگونه بگویم؟
کیفیت خوشه بندی: میانگین مربعات خطای نرمال شده یا خطای مطلق؟
8791
بهترین روشی که می توانم برای توصیف این سوال فکر کنم این است که مثالی بزنم: تصور کنید یک کشتی در اطراف اقیانوس آرام در مسیری ناشناخته (احتمالاً تصادفی) در حال حرکت است. برخی از این کشتی‌های پیشاهنگ ابزار بهتری دارند یا خدمه قابل اعتمادتری نسبت به بقیه دارند، بنابراین من وزن دقیقی برای هر یک از آنها تعیین می‌کنم. اگر کشتی ساکن بود، جمع‌آوری تمام گزارش‌ها و محاسبه منطقه‌ای که کشتی در آن قرار دارد (با احتمال زیاد.) مشکل ساده‌ای خواهد بود. بدیهی است که گزارش‌های جدیدتر باید وزن بیشتری داشته باشند و گزارش‌های قدیمی‌تر باید محو شوند، بنابراین مکان محاسبه‌شده کشتی در طول زمان تغییر می‌کند. من شروع به تلاش برای طراحی چیزی شبیه به این کردم اما فکر می کنم دارم آن را خیلی پیچیده می کنم. آیا نامی برای این نوع مشکل وجود دارد؟ آیا پیشنهادی برای یک روش خوب برای حل آن دارید؟ با تشکر
اندازه گیری های گسسته وزنی یک مقدار در طول زمان تغییر می کند
50550
آیا ممکن است دقت و فراخوانی هر دو برابر با 1 باشد. اگر چنین موردی وجود داشته باشد، آیا به این معنی است که سیستم بیش از حد برازش داده است؟
سوال در مورد دقت و یادآوری
70969
آیا کسی می تواند به من کمک کند تا فرمول همبستگی پیرسون را بفهمم؟ نمونه $r$ = میانگین حاصل از نمرات استاندارد متغیرهای $X$ و $Y$. من به نوعی درک می کنم که چرا آنها باید $X$ و $Y$ را استاندارد کنند، اما چگونه می توان محصولات هر دو امتیاز z را درک کرد؟ به این فرمول «ضریب همبستگی محصول-لحظه» نیز می‌گویند، اما منطق عمل محصول چیست؟ مطمئن نیستم که سوالم را روشن کرده باشم یا نه، اما فقط می‌خواهم فرمول را به طور مستقیم به خاطر بسپارم.
چگونه فرمول ضریب همبستگی را بفهمیم؟
95065
اگر با p(x|y) و p(x|z) شروع کنم آیا راهی برای ایجاد توزیع احتمال شرطی مورد انتظار به شکل p(x|(y,z)) وجود دارد؟ همه متغیرها دسته بندی هستند. مشکل خاص من با همترازی چند توالی DNA سر و کار دارد. به طور انتزاعی، من یک مجموعه داده دو بعدی دارم، که در آن هر موقعیت می تواند یکی از چهار مقدار {G,A,C,T} را داشته باشد. ردیف ها ژنوم هستند و ستون ها در موقعیت های هم تراز در ژنوم های مختلف هستند. من می خواهم راهی برای قضاوت در مورد اینکه آیا مقدار مشاهده شده با توجه به اطلاعاتی که در مورد سطر و ستونی که در آن مشاهده شده است تعجب آور است یا خیر. هدف من شناسایی مناطقی از یک کروموزوم (بخشی از یک ردیف، ~ 1000 ستون) است که در آن مقادیر مشاهده شده بر اساس ویژگی های ردیف و ستون های خاص پیش بینی نشده اند. من به راحتی می توانم احتمال مشاهده یک نتیجه معین (مثلا x = G) را برای سطر و ستون استنتاج کنم، اما نمی دانم چگونه می توانم این انتظارات را در یک مجموعه واحد از فرکانس های مورد انتظار ادغام کنم. می‌خواهم بگویم که فرض می‌کنم Y و Z مستقل هستند، اما نمی‌دانم که آیا این در این سناریو معنی‌دار است یا خیر. یکی از محدودیت‌های آشکار این است که اگر یک نتیجه خاص توسط یکی از پیش‌بینی‌کننده‌ها ممنوع شود، آنگاه نمی‌تواند در تقاطع دو پیش‌بینی‌کننده رخ دهد. به عنوان مثال، اگر ستون یکنواخت باشد (مثلاً ژنوم ها تک شکلی هستند) پس فرقی نمی کند که توزیع احتمال برای ردیف مورد نظر چقدر باشد. احساس می‌کنم چیزی بدیهی را از دست داده‌ام، و یک راه‌حل شهودی دارم اما نمی‌توانم آن را به خودم ثابت کنم. هر گونه پیشنهادی قدردانی خواهد شد.
آیا راهی برای ادغام دو توزیع احتمال شرطی وجود دارد؟
97834
من یک مدل ترکیبی را با استفاده از lme4::glmer برای رگرسیون لجستیک اجرا کردم و به طور مداوم این پیام های هشدار را دریافت کردم. من متوجه شدم که هنوز نتایج منظمی وجود دارد، اما آیا آنها تخمین های دقیقی دارند؟ > glmm.ms1<-glmer(as.formula(paste(paste(y[1], x, sep=~), mix[1], sep=+))، + data=rtf2,control= glmerControl(optimizer=bobyqa, + optCtrl=list(maxfun=100000),family=binomial) پیام های هشدار: 1: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل با max|grad| = 0.8766 (tol = 0.001) همگرا نشد 2: در checkConv(attr(opt، مشتقات )، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: degenerate Hessian با 1 مقدار ویژه منفی > coef(summary(glmm.ms1)) تخمین خطای z مقدار Pr(>|z|) (انتقال) 1.810e+00 6.558e-01 2.760464 5.772e-030304e. 2.770e-01 -12.059620 1.726e-33 cldaysbirth -1.555e+00 5.224e-01 -2.975934 2.921e-03 rotaarm -2.057e-01 3.209e-01 -0.6411-0.6415 -3.072e-01 2.955e-01 -1.039510 2.986e-01 bfh2 -1.043e+01 1.160e+03 -0.008996 9.928e-01 bfh3 4.653e-01 bfh3 4.653e-01 bfh2 3.330e-01 bfh4 2.547e-01 4.994e-01 0.509966 6.101e-01 bfh5 3.744e-01 9.926e-01 0.377213 7.060e-102-010 5.928e-02 -1.720396 8.536e-02 جنس مذکر -4.008e-01 2.645e-01 -1.515453 1.297e-01 epiexlbf 6.078e-04 2.796e-04 2.796e-04 2.796e-01796e-1.515453 haz.epi -7.211e-02 1.373e-01 -0.525039 5.996e-01 cldaysbirth:rotaarm 6.928e-01 4.771e-01 1.452148 1.465e-2-01 rotaarth 3.352e-01 1.545527 1.222e-01 پیام های اخطار: 1: در vcov.merMod(object, use.hessian = use.hessian): ماتریس واریانس کوواریانس محاسبه شده از تفاضل محدود Hessian به متغیر مثبت برگشت نمی دهد- سقوط می کند: cov برآورد شده از RX 2: In vcov.merMod(ابژه، همبستگی = همبستگی، sigm = sig): ماتریس واریانس-کوواریانس محاسبه شده از تفاضل محدود Hessian قطعی مثبت نیست: بازگشت به var-cov تخمین زده شده از RX به دلیل حساسیت داده ها، نمی توانم آن را پست کنم کل فرآیند تولید پیام های مشابه، اما من می خواهم بدانم چگونه با این هشدارها رفتار کنم. فکر نمیکنم اینجا چشمم نابینا باشه.
پیام های هشدار از مدل مختلط (گلمر)
8420
به غیر از gapminder.org، لطفاً می توانید من را به نمونه های خوبی (تعاملی یا ایستا) از تجسم هایی که بین کشورها مقایسه می شود راهنمایی کنید؟ با تشکر
نمونه هایی از تجسم شامل مقایسه بین کشورها؟
108934
> بن یک سکه دارد که او ادعا می کند به گونه ای وزن دارد که وقتی آن را برمی گرداند، سرها بیشتر از 50٪ مواقع ظاهر می شوند. او سعی می کند با 100 بار ورق زدن سکه به شما ثابت کند که نتیجه آن 60 سر است. > > این ادعا را آزمایش کنید که نسبت جمعیت سرهای حاصل از > زدن این سکه در واقع بیش از 50 درصد است. از سطح 1% > معنی دار استفاده کنید. > > توزیع نمونه‌ای را که استفاده می‌کنید، مشخص کنید، مقدار آمار آزمون > چقدر است، سپس P-value را پیدا کنید. می دانم که سطح معنی داری 0.01 است. من فقط در مورد چگونگی یافتن فرضیه های صفر و جایگزین گیر کرده ام. $\rm H_0$: آیا μ = 60 خواهد بود، زیرا این میانگین تعداد هدهای او است، و $\rm H_1: μ > 60$؟ متشکرم.
فرضیه های صفر و جایگزین کدامند؟ آیا از تست چپ، راست یا دو دم استفاده خواهید کرد؟
8798
در غیاب حدس‌های پیشینی خوب در مورد تعداد مؤلفه‌های درخواستی در تجزیه و تحلیل مؤلفه‌های مستقل، من به دنبال خودکار کردن فرآیند انتخاب هستم. من فکر می کنم که یک معیار معقول ممکن است عددی باشد که شواهد کلی برای همبستگی بین اجزای محاسبه شده را به حداقل برساند. شبه کد این رویکرد در اینجا آمده است: برای هر تعداد مؤلفه نامزد، n: ICA را اجرا کنید و n را به عنوان تعداد مؤلفه های درخواستی برای هر جفت (c1,c2) ​​از مؤلفه های حاصل مشخص کنید: یک مدل را محاسبه کنید، m1: lm (c1 ~ 1) را محاسبه کنید. مدل، m2: نسبت احتمال محاسبه lm(c1 ~ c2) (AIC(m2)-AIC(m1) ) نشان دهنده احتمال نسبی همبستگی بین c1 و c2 محاسبه میانگین نسبت احتمال ورود به سیستم در بین جفت ها تعداد نهایی مؤلفه ها را انتخاب کنید که میانگین احتمال ورود به سیستم ارتباط مؤلفه را به حداقل می رساند. از مؤلفه‌ها، زیرا ICAهای حاصل از چنین نامزدهایی باید مجبور شوند اطلاعات را از مؤلفه‌های واقعی منفرد در چندین مؤلفه تخمین زده توزیع کنند و میانگین شواهد را افزایش دهند. همبستگی بین جفت اجزا. آیا این منطقی است؟ اگر چنین است، آیا راه سریع‌تری برای دستیابی به یک متریک مجموع ارتباط در بین اجزای تخمین زده شده نسبت به روش میانگین ثبت احتمال‌سنجی پیشنهاد شده در بالا (که می‌تواند از نظر محاسباتی نسبتاً کند باشد) وجود دارد؟ اگر این رویکرد منطقی نباشد، یک روش جایگزین خوب ممکن است چگونه باشد؟
چگونه می توانم تعداد مؤلفه ها را برای تجزیه و تحلیل مؤلفه های مستقل انتخاب کنم؟
93130
من در http://www.unesco.org/webworld/idams/advguide/Chapt5_2.htm خواندم که این درجات آزادی بود که باید استفاده کنم، اما دلیل آن را نمی‌دانم. درک من این بود که آزمون های t به طور کلی دارای n-1 درجه آزادی هستند.
هنگام انجام آزمون t برای معنی داری ضریب رگرسیون، چرا درجات آزادی n - پیش بینی کننده ها - 1 است؟
1272
من مجموعه‌ای از داده‌ها را دارم که از انواع مختلف (قابل اندازه‌گیری، طبقه‌بندی) تشکیل شده است، به‌عنوان مثال: نام اندازه‌گیری‌پذیر_ویژگی_1 categorical_attribute_1 measurable_attribute_2 categorical_attribute_2... تعداد ویژگی‌ها ممکن است به سرعت در طول مطالعه من رشد کند: در صفحه‌گسترده‌ام، من می‌توانم به تعداد موارد جدید. ویژگی... من حدود صد مورد در این طرح طبقه بندی دارم، حدود 70 ویژگی، تا کنون، و من در ابتدای جمع آوری داده های خود هستم. من می خواهم تجزیه و تحلیل آماری این مجموعه داده را انجام دهم. به عنوان مثال، ویژگی های مشترک ورودی هایی که دارای یک categorical_attribute مشابه و این محدوده از مقادیر measurable_attribute هستند، چیست. خوب، من می خواهم روابط بین ویژگی ها را برای ایجاد تصاویر آموزشی ایجاد کنم. با این حال، من مطمئن نیستم که چگونه داده ها را قبل از طبقه بندی سازماندهی کنم. با وجود این، آیا باید داده ها را سازماندهی کنم؟... (اشاره به این سوال) همچنین، به سختی می توانم ورودی های کلاس ها را جمع آوری کنم. بدیهی است که نمی‌خواهم تعصبی را معرفی کنم. من همچنین در تجزیه و تحلیل آماری کاملاً تازه کار هستم (اما مشتاق یادگیری هستم).
نحوه سازماندهی یک مجموعه داده با چندین ویژگی
95061
برای یک پروژه، من برخی از اطلاعات اولیه در مورد آب و هوا، و برخی از اطلاعات اولیه در مورد تولد را جمع آوری کرده ام. هر دو مجموعه داده بر روی یک ایالت واحد، ماساچوست متمرکز شده اند. مجموعه آب و هوا حاوی اطلاعات بسیار ابتدایی است: رویداد آب و هوا (تگرگ، طوفان زمستانی، و غیره)، و ماهی که در آن رخ داده است. به طور مشابه، سوابق تولد صرفاً کل تولدها در یک ماه معین است. مجموعه داده های تولد شامل سوابق 2007-2011 است. مجموعه آب و هوای زمستان شامل رکوردهای 1996-2013 است. بنابراین من فقط از برخی از سوابق آب و هوای زمستان استفاده خواهم کرد. هدف این پروژه تا حدودی زبان زد است، اما ماهیت جدی دارد. امیدوارم ببینم آیا ارتباطی بین رویدادهای جدی آب و هوای زمستان (در یک ماه معین) و افزایش تعداد تولدها در 9 ماه بعد وجود دارد یا خیر. یعنی آیا طوفان های بد مردم را در خانه نگه می دارند و آیا این منجر به تولد بیشتر می شود. من انتظار دارم افزایشی را نسبت به خط پایه مشاهده کنم، زمانی که یک افزایش مشابه در رویدادهای جدی آب و هوایی زمستانی وجود دارد. من به دنبال کسی نیستم که این پروژه را برای من انجام دهد، اما نکات و پیشنهادات بسیار استقبال می شود. من قصد داشتم از استخراج قوانین انجمنی (و بسته قوانین) برای رسیدن به این هدف استفاده کنم، اما هیچ موفقیتی نداشتم. حدس می‌زنم داده‌های من به‌عنوان «داده‌های تراکنش» سازمان‌دهی نشده‌اند، بنابراین مطمئن نیستم که از چه نوع تکنیک داده‌کاوی در اینجا استفاده کنم (من فقط تجربه محدودی با قوانین داشته‌ام). **هیچ پیشنهادی دارید؟** با استفاده از rbind، من قبلاً این دو مجموعه داده را در دو فایل مجزا ترکیب کرده ام که حاوی تمام اطلاعات مربوطه است. **combined.weather1** <\- شامل سه متغیر (YEAR، MONTH، EVENT_TYPE) و 2750 مشاهده است. این شامل اطلاعات 1996-2013 است. متغیر YEAR عدد صحیح است، در حالی که متغیرهای MONTH و EVENT_TYPE فاکتور هستند. **birth.data** <\- شامل سه متغیر (YEAR، MONTH، BIRTH_TOTAL) و شصت مشاهده است. این شامل داده های 2007-2011 است. متغیر YEAR عدد صحیح است، در حالی که متغیرهای MONTH و BIRTH_TOTAL فاکتور هستند. برای پیچیده تر کردن همه چیز، می خواهم برخی از رویدادهای جوی زمستانی کمتر جدی را رد کنم، مانند تگرگ، یخبندان/یخ زدگی و آب و هوای زمستان. شایان ذکر است، در هیچ یک از این رکوردها مقادیر گمشده یا NA وجود ندارد. داده ها تمیز و کامل هستند (و برای همیشه طول کشید تا آماده شوند!). بنابراین، قبل از هر چیز باید یک تکنیک داده کاوی را انتخاب کنم. از آنجا، اگر کسی بتواند در مورد نحوه تنظیم آن برای مقایسه این دو مجموعه داده ساده، در حالی که تفاوت 9 ماهه بین برخی رویدادهای آب و هوای زمستانی و افزایش (احتمالی) تولدها را در نظر بگیرد، کمک کند، بسیار سپاسگزارم. ویرایش: اضافه کردن نمونه ها، در هر درخواست. dput(combined.weather1[1:10])، ساختار(فهرست(YEAR = c(1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, NAME ، 5L، 5L، 5L، 5L، 5L، 5L، 5L، 5L)، .Label = c(آوریل، آگوست، دسامبر، فوریه، ژانویه، ژوئیه، ژوئن، مارس، مه، نوامبر، سپتامبر، اکتبر، آوریل، «آگوست»، «دسامبر»، «فوریه»، «ژانویه»، «ژوئیه»، «ژوئن»، «مارس»، «مه»، «نوامبر»، «اکتبر»)، کلاس = «عامل»)، EVENT_TYPE = ساختار(c(2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L), .Label = c(تگرگ، برف سنگین، طوفان زمستانی، آب و هوای زمستانی، طوفان یخ، یخبندان/یخبندان، آب و هوای زمستانی، کولاک)، کلاس = عامل))، .Names = c(YEAR، MONTH_NAME، EVENT_TYPE)، row.names = c(NA, 10L)، class = data.frame) dput(birth.data[1:10,]) structure(list(YEAR = c(2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, structure) (c(5L, 4L, 8L، 1L، 9L، 7L، 6L، 2L، 12L، 11L)، .Label = c(آوریل، آگوست، دسامبر، فوریه، ژانویه، ژوئیه، ژوئن، مارس، مه، نوامبر، اکتبر، سپتامبر)، کلاس = عامل)، BIRTH_TOTAL = ساختار(c(29L, 9L, 49L, 27L, 57L, 52L, 58L, 59L, 36L, 41L), .Label = c(5,414, 5,459, 5,515, 5,627, 5,667, 5730، 5754، 5801، «5833»، «5853»، «5925»، «5976»، «5979»، «5981»، «6040»، «6051»، «6070»، «6.085»، «6135»، «6158»، «6162» ، 6194، 6198، 6208، «6212»، «6221»، «6227»، «6242»، «6250»، «6260»، «6261»، «6318»، «6341»، «6.342»، «6380»، «6385»، «6396» ، 6،438، 6،444، 6،459، «6466»، «6469»، «6489»، «6506»، «6509»، «6510»، «6520»، «6531»، «6،570»، «6،583»، «6،616»، «6،735»، «6،781» ، 6803، 6820، 6834، 6858، 6933، 7291)، کلاس = عامل))، .Names = c(YEAR، MONTH، BIRTH_TOTAL)، row.names = c(NA, 10L) class = data.frame) ویرایش 2: من پیشنهادات زیر را تکمیل کردم. هر فریم داده بیشتر اصلاح شده است (فضاهای حذف شده، تبدیل به عددی، اضافه کردن متغیرهای DATE و غیره). من اکنون سعی می کنم از تابع ccf() برای یافتن ارتباطی بین رویدادهای شدید آب و هوایی زمستانی و افزایش (احتمالی) در تولدهای نه ماه بعد استفاده کنم. من کد اصلی حذف شده را در زیر قرار داده ام. در حال حاضر، من نوشته ام
استفاده از R-Studio برای داده کاوی برای مقایسه مجموعه داده های مختلف با یکدیگر، به صورت ناهمزمان
112450
من یک پایگاه داده SPSS با 747 بیمار با علائم بیماری و نتایج آزمایشگاهی به عنوان متغیر دارم. با این علائم و نتایج من دو سیستم امتیازدهی ایجاد کرده ام. من نمرات همه متغیرها را جمع می کنم تا به نمره نهایی برسم. با این حال، در یک متغیر من 546 مقدار گم شده دارم. برای 201 بیمار دیگر من این مقدار را دارم. چگونه می توانم با این ارزش های گمشده به بهترین وجه برخورد کنم؟ آیا می توانم از نمونه برداری برای ایجاد امتیاز برای این مقادیر از دست رفته استفاده کنم؟ من برای ایجاد امتیاز نهایی به یک امتیاز در این متغیر نیاز دارم. کسی پیشنهادی داره؟ تشکر بزرگ
مقادیر گمشده در سیستم امتیازدهی بالینی در SPSS
50551
من باید رابطه سرب- تاخیر بین 2 مجموعه داده، بروز سالانه یک بیماری و میانگین سالانه داده های یک عامل محیطی را برای 13 سال متوالی بررسی کنم. هر دو مجموعه به طور معمول توزیع نمی شوند و بنابراین، همبستگی باید با همبستگی اسپیرمن ارزیابی شود. اما تحلیل همبستگی متقاطع در SPSS 16، همبستگی در وقفه ها را با روش پیرسون بررسی می کند. SPSS هیچ گزینه ای برای انتخاب روش برای همبستگی متقابل ندارد. چه کاری می توانم انجام دهم تا Spearman's rho برای تاخیرها را بدست بیاورم؟
همبستگی متقابل با روش اسپیرمن
9835
آیا سیستمی برای حل نمادین انتظارات وجود دارد؟ این به نوعی دنباله‌ی سؤال من است، فهرست ترفندهایی برای حل انتظارات کثیف؟ اساساً، من به دنبال راه‌هایی برای حل یک انتظار کثیف پس از اتمام تمام مسیرهای آشکار هستم. **ویرایش: پس‌زمینه** من سعی می‌کنم موارد زیر را برای $\alpha$ (محدود به بزرگ‌تر از 0) به عنوان تابعی از $\sigma_X^2$، $\sigma_Y^2$، و $p$ حل کنم. $E\left[\ln(F) F^\alpha X^2 (X + Y)^2 + \ln(F) F^{2\alpha}(X + Y)^4\راست] = 0$ جایی که: $Y \sim N(0,\sigma_Y^2)$ X = \left\\{ \begin{آرایه}{cc} N(0,\sigma_X^2 ) & p \\\ 0 & (1-p) \end{array}\right.$ که در آن $\sigma_X^2 \gg \sigma_Y^2$ فرض می‌شود و $p$ است بسیار کوچک (یعنی $X$ یک فرآیند پرش است که بیشتر جرم آن 0 است) $F = F_{|Z|}(|X+Y|)$ جایی که $Z \sim N(0,\sigma_Y^2)$ (یعنی $F$ CDF برای مقدار مطلق یک نرمال است) **ویرایش: پیشینه حتی بیشتر** معادله ای که در بالا سعی می کنم حل کنم شرط مرتبه اول برای مشکل min-MSE: $\min_{\alpha > 0} \left(X^2 - \widehat{X^2}\right)^2 $ که $ \widehat{X^2} = F_{|Z|} \left(|R|\right)^{\alpha}R^2$ و $R = X + Y\,$ تنها متغیر مشاهده شده است. اساساً، من سعی می‌کنم مربع پرش، $X^2$ را تخمین بزنم (با توجه به اینکه فقط می‌توانم فرآیند تجمیع $R$ را مشاهده کنم) با هموار کردن $R^2$. اگر $|R|$ بزرگ باشد، تابع هموارسازی $F_{|Z|}\left(|R|\right)^{\alpha}$ باید نزدیک به 1 باشد و تخمین $X^2$ خواهد بود. نزدیک به $R^2$. اگر $|R|$ کوچک باشد، تخمین $X^2$ نزدیک به 0 خواهد بود.
سیستم هایی برای حل نمادین انتظارات؟
22577
من از بسته «homals» در R استفاده می‌کنم تا داده‌هایم را که حاوی متغیرهای طبقه‌ای (اسمی و ترتیبی) و همچنین عددی هستند، به‌طور بهینه کمی کنم. هدف من کمی کردن متغیرهای طبقه‌بندی با استفاده از مقیاس‌بندی بهینه است. برای دستیابی به این هدف، از محدودیت رتبه‌ای استفاده می‌کنم، زیرا این امر «تحلیل همگنی را به تحلیل مؤلفه اصلی (با مقیاس‌بندی بهینه متغیرها) کاهش می‌دهد». به منظور حفظ تمام اطلاعات موجود در داده، «ndim» را روی تعداد متغیرهای داده تنظیم کردم. متغیرهای طبقه بندی شامل NA هستند. چگونه می توانم داده های کمّی بهینه (به جای ابعاد/مولفه های اصلی) را از نتایج «homals()» به دست بیاورم؟ از آنجایی که من به دنبال اجزای اصلی نیستم، به دنبال objscores نیستم. من تقریباً می توانم کمیت های مورد نظر را استخراج کنم، زیرا از طریق «low.rank» می دانم دقیقاً چگونه هر دسته تغییر می کند. با این حال، این تبدیل‌ها NA را در داده‌ها شامل نمی‌شوند و من نیز می‌خواهم بدانم این مشاهدات گمشده چگونه کمی‌سازی شدند. از انواع اسناد (Package 'homals' (مستندات بسته)، تجزیه و تحلیل همگنی در R: The Package homals و HOMALS) من نتوانستم بفهمم چگونه این کار را انجام دهم. آیا کسی با بسته homals آشنایی دارد که می داند چگونه این کار را انجام دهد یا کسی می داند که چگونه داده های کمی را از نتایج محاسبه کند؟
چگونه می توان داده های مقیاس بندی شده بهینه را از هومال ها در R بدست آورد؟
111738
می‌خواهم پاسخ این سؤال را اصلاح کنم تا مشاهدات وزنی را مجاز بدانم. فکر می‌کنم تنها کاری که باید انجام دهم وزن دادن به ورودی‌های X و Y است. لطفا اگر اشتباه می کنم اصلاح کنید.
رگرسیون محدود و وزنی
66468
X در XARMAX مخفف چیست؟ تو اینترنت سرچ کردم ولی پیدا نکردم آیا XARMA وجود دارد؟ با تشکر
X در XARMAX به چه معناست؟
50554
فرض کنید یک نظرسنجی شامل یک متغیر دوگانه با علاقه اصلی است، مانند سیگاری/غیر سیگاری، همراه با ده متغیر دوگانه دیگر. سپس فرض کنید که بروز افراد سیگاری یک رویداد نادر با نسبت جمعیت نامشخص است. هدف این است که تفاوت‌های بین افراد سیگاری و غیرسیگاری را از پاسخ‌های داده شده به ده متغیر دیگر استنتاج کنیم. 70 درصد سیگاری ها مرد هستند. چگونه می توان اندازه نمونه مناسب را تعیین کرد (مثلاً اطمینان 95٪ و فاصله + 5٪)؟ من فرض می‌کنم $N=Z^2 \frac{P(1-P)}{D^2}$ مناسب نیست.
تعیین اندازه نمونه برای رویداد نادر
8428
من در حال تکمیل تجزیه و تحلیل مجموعه بزرگی از داده ها هستم. من می خواهم مدل خطی استفاده شده در قسمت اول کار را بردارم و با استفاده از LME دوباره آن را جابجا کنم. LME بسیار مشابه است با این استثنا که یکی از متغیرهای مورد استفاده در مدل در جلوه های تصادفی استفاده می شود. این داده ها از مشاهدات زیادی (> 1000) در گروه کوچکی از افراد (~ 10) به دست می آید و من می دانم که مدل سازی اثر موضوع بهتر است به عنوان یک اثر تصادفی انجام شود (این متغیری است که می خواهم آن را تغییر دهم). کد R به شکل زیر است: my_modelB <- lm(فرمول = A ~ B + C + D) lme_model <- lme(fixed=A ~ B + C, random=~1|D, data=my_data, method='REML ') همه چیز به خوبی اجرا می شود و نتایج بسیار مشابه هستند. خوب است اگر بتوانم از چیزی مانند RLRsim یا AIC/BIC برای مقایسه این دو مدل استفاده کنم و تصمیم بگیرم که مناسب ترین است. همکاران من نمی‌خواهند LME را گزارش کنند زیرا راه آسانی برای انتخاب «بهتر» وجود ندارد، حتی اگر فکر می‌کنم LME مدل مناسب‌تر است. پیشنهادی دارید؟
مقایسه LME با LM
66464
اجازه دهید $X$ یک $rv$ با مقدار صحیح با $\mathrm{pgf}$$P(s)$ (توابع تولید کننده احتمال) باشد و فرض کنید که $\mathrm{mgf}$$M(s)$ (تولید لحظه) توابع) برای $s∈(-s_0,s_0),s_0>0$ وجود دارد. چگونه می توانیم ثابت کنیم که $M(s)$ و $P(s)$ مرتبط هستند؟
چگونه نشان دهیم که $\mathrm{mgf}$ $M(s)$ و $\mathrm{pgf}$ $P(s)$ مرتبط هستند؟
26407
آیا مدل خودرگرسیون برداری (VAR) نیاز به توزیع نرمال داده دارد؟ اگر باقیمانده ها توزیع نرمال نداشته باشند چه مشکلاتی وجود دارد؟
آیا داده ها و باقیمانده های یک مدل VAR باید دارای توزیع نرمال باشند؟
32431
من سعی می کنم با کمک برنامه ریزی ژنتیکی، رگرسیون غیرخطی را روی یک مجموعه داده به دست آمده از طراحی کامل فاکتوریل (سطح 2 و 3) انجام دهم. آیا در تلاش برای ساخت یک مدل رگرسیون غیرخطی با طراحی تمام فاکتوریل مشکل اساسی وجود دارد؟ پیشینه من در آمار نیست، و در جایی خواندم که طراحی فاکتوریل کامل (به ویژه زمانی که سطوح کمی استفاده می شود) قرار است حداکثر برای شناسایی سهم عوامل تعامل و عوامل کلیدی استفاده شود، نه برای رگرسیون غیرخطی کامل. از پاسخ های شما سپاسگزارم...
رگرسیون غیرخطی با برنامه‌ریزی ژنتیکی برای داده‌های حاصل از طراحی تمام فاکتوریل
35774
من نمی دانم بهترین راه برای استخراج دانش در مورد داده های سری زمانی دوره ای چیست؟ در مورد من، سعی می‌کنم قیمت‌های ساعتی برق تاریخی را تجزیه و تحلیل کنم تا اطلاعاتی در مورد نوسانات آن، زمانی که پیک‌ها اتفاق می‌افتد، توزیع آن در بین ساعات روز یا چیزی شبیه به آن چگونه است را به دست بیاورم تا بتوانم در مورد زمان گازگیری دستگاه‌ها تصمیم خوبی بگیرم. برای صرفه جویی در هزینه و صرفه جویی در مصرف انرژی ایده اولیه من این بود که سری های زمانی را با محاسبه مقادیر میانگین برای هر ساعت در یک دوره چند ماهه جمع آوری کنم و سپس آنها را برای انتخاب M% ساعت های برتر مرتب کنم و بگویم که آنها به طور متوسط ​​گران ترین هستند و باید از آنها اجتناب کرد. این یک رویکرد بسیار خام است، بنابراین من می‌پرسم که آیا اشتباه آشکاری مرتکب می‌شوم و برخی اطلاعات را نادیده می‌گیرم؟ آیا روش بهتری وجود دارد؟ به نظر من باید از اطلاعاتی در مورد اینکه قیمت های فعلی در مقایسه با میانگین چقدر بالا هستند نیز استفاده شود تا گاهی اوقات مثلاً 3 ساعت از روز و در زمان های دیگر فقط 1 ساعت حذف شود.
چگونه نوسان سری های زمانی دوره ای را تجزیه و تحلیل کنیم؟
70080
فقط تعجب می کنم که چه چیزی را رگرسیون انجام شده با برآوردگرهای واریانس قوی برای داده های خوشه ای می نامید. آیا درست است که بگوییم از رگرسیون OLS با برآوردگرهای واریانس قوی برای داده‌های خوشه‌ای استفاده کرده‌اید، یا اساساً اینطور نیست (یعنی وقتی از برآوردگرهای واریانس قوی برای داده‌های خوشه‌ای استفاده می‌کنید، دیگر OLS را انجام نمی‌دهید). مرجع عالی خواهد بود
نام رگرسیونی که با برآوردگرهای واریانس قوی برای داده های خوشه ای انجام می شود چیست؟
111732
من از 1 DV و 5 IV استفاده کرده ام. من MR را برای آزمایش یک مدل انجام دادم، سن و جنسیت را در بلوک اول، IV ها را در بلوک دوم، و شرایط تعامل را در بلوک سوم وارد کردم. همه مدل ها قابل توجه هستند. چگونه می توانم اهمیت مدل تعامل را تصحیح کنم زیرا اکنون تأثیر قابل توجهی بر DV نشان می دهد. و به هر حال، آیا باز هم رگرسیون چندگانه سلسله مراتبی نامیده می شود، زیرا من هیچ متغیر تعدیل کننده ای را کنترل نمی کنم (به جز سن و جنسیت که در واقع در مطالعه من تعدیل کننده نیستند)؟ یعنی می‌توانم عبارت‌های تعاملی را در همان بلوک اضافه کنم یا باید در بلوک دیگری اضافه شوند؟
اصلاح مدل برهمکنش چون در MR معنادار است
89862
من دستگاهی دارم که روی یک موتور پله ای از طریق سیستم تسمه و قرقره می چرخد. من دوست دارم هم دقت موقعیت و هم دقت این حرکت را بدانم. به نظر من این باید با انجام تعداد زیادی اندازه گیری در زوایای تصادفی تعیین شود تا منحنی زنگوله ایجاد شود و سپس با استفاده از جابجایی میانگین از خطای 0 دقت موقعیتی تعریف شود و دقت حرکت به صورت 3 سیگما تعریف شود. . بقیه دفتر عقیده دارند که دقت محدوده خطاها هنگام چرخش به نقاط تصادفی و دقت محدوده خطاها هنگام چرخش به یک نقطه تعیین شده، دور به یک نقطه تصادفی و سپس بازگشت به نقطه تعیین شده است. آیا این فقط من تجربه گذشته خود را در تولید برای مشکلی به کار می‌برم که نیازی به آن ندارد یا اینکه روش من شایستگی دارد و بقیه فقط محدوده را مشخص می‌کنند که واقعاً آن چیزی نیست که می‌خواهند؟
تعریف دقت در یک حرکت مکانیکی
22572
آیا نرم افزار در نهایت آماردانان را منسوخ می کند؟ چه کاری انجام می شود که نمی توان در رایانه برنامه ریزی کرد؟
آماردانان چه می کنند که نمی تواند خودکار شود؟
89863
من سعی می کنم بفهمم CNN چگونه کار می کند. من می خواهم از آنها در کار تشخیص شی استفاده کنم. من فکر می کنم که CNN شبکه های بدون نظارت است. سوال اصلی من این است که چگونه می توانم بدون استفاده از اهداف تصویر (برچسب های از پیش تعریف شده)، انتشار برگشتی را برای محاسبه تابع خطا که بر وزن شبکه تأثیر می گذارد، پیاده سازی کنم.
انتشار برگشتی در شبکه های عصبی کانولوشنال
9836
آیا کسی می تواند به من مرجع (کتاب/منبع آنلاین) در مورد استفاده از R برای مدلسازی ترکیبی بازاریابی بدهد؟
مدلسازی آمیخته بازار با R
8795
اگر یک سکه را برگردانید و 268 سر و 98 دم بدست آورید، می توانید احتمال عادلانه بودن سکه را از چند طریق محاسبه کنید. یک مشاهده ساده و اکتشافی به احتمال زیاد به این نتیجه می رسد که چنین سکه ای ناعادلانه است. من p-value را در R با این موارد محاسبه کردم: > coin <- pbinom(98, 366, 0.5) > coin*2 [1] 2.214369e-19 این مقدار کوچکتر از 0.05 است، بنابراین ما این فرضیه را رد می کنیم که یک سکه منصفانه اما چه می شود اگر به شما گفته شود که همان سکه 676 بار در طول محاکمه روی آن فرود آمده است. از نظر اکتشافی احتمالاً به همین نتیجه خواهید رسید، اما آیا آزمایش‌های معمولی سکه‌های منصفانه همچنان معتبر هستند؟ در اینجا نموداری برای نشان دادن مشکل وجود دارد: ![](http://i.stack.imgur.com/Lz6Ix.png) چه روش های معتبری برای آزمایش این فرضیه وجود دارد که احتمال برابری وجود دارد که یک رویداد در مناطق سایه دار رخ دهد. ? توجه: 629 حرکت مثبت (413 منفی) در تصویر نمودار وجود دارد. کد R که داده ها را تولید می کند: نیاز(quantmod) علامت <- getSymbols(SLV)[,6] تغییر <- (ticker - lag(ticker, 24)) / lag(ticker, 24) change <- na .locf(change, na.rm=TRUE) # برخی از محاسبات دیگر dens <- density(change) plot(dens) # برخی از موارد قالب بندی
آیا می توان آزمایش سکه منصفانه را برای سکه ای که اغلب روی لبه آن قرار می گیرد اعمال کرد؟
26401
در اینجا چند داده شبیه سازی شده وجود دارد: library(mvtnorm) I <- 3 # موقعیت (ضریب ثابت) J <- 4 # لوله (ضریب تصادفی) K <- 4 # تکرار n <- I*J*K set.seed(123) لوله <- rep(1:J، هر=I) موقعیت <- rep(LETTERS[1:I]، times=J) Mu_i <- 3*(1:I) Mu_ij <- c(t(rmvnorm(J, mean=Mu_i))) لوله <- rep(لوله، هر=K) موقعیت <- rep(موقعیت هر=K) Mu_ij <- rep(Mu_ij، هر=K) dat <- data.frame(لوله، موقعیت، Mu_ij) sigmaw <- 2 dat$y <- rnorm(n، dat$Mu_ij، sigmaw) dat$tube <- factor(dat$tube) > str(dat) 'data.frame': 48 obs. از 4 متغیر: $ tube : فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 1 1 1 1 1 1 ... موقعیت $: فاکتور w/ 3 سطح A، B، C: 1 1 1 1 2 2 2 3 3 ... $ Mu_ij : num 2.44 2.44 2.44 2.44 6.13 ... $ y : num 3.24 2.66 1.33 6.01 7.12 ... > موقعیت لوله head(dat) Mu_ij y 1 1 A 2.439524 3.241067 2 1 A 2.439524 2.6608522342390 2.6608524 341 4 1 A 2.439524 6.013351 5 1 B 6.129288 7.124989 6 1 B 6.129288 2.196053 من یک مدل ترکیبی را با R مناسب می‌کنم، خوب کار می‌کند: > library(lme4) > موقعیت +dat (0) ) خطی مختلط متناسب با مدل توسط REML فرمول: y ~ موقعیت + (0 + موقعیت | لوله) داده ها: dat AIC BIC logLik انحراف REMLdev 212.6 231.3 -96.3 194.8 192.6 اثرات تصادفی: نام گروه ها Variance Std.Dev. لوله Corr positionA 0.30123 0.54885 positionB 0.68317 0.82654 -0.695 positionC 1.66666 1.29099 -0.408 0.940 باقیمانده 3.14003 1.77201 تعداد گروه‌ها: جلوه‌های انبوه: 4× برآورد Std. مقدار خطای t (Intercept) 3.3533 0.5211 6.435 positionB 3.1098 0.8923 3.485 positionC 5.6138 1.0144 5.534 همبستگی اثرات ثابت: (Intr) postn.6 postnB position5 موقعیت1C -0. با SAS خوب کار نمی کند: PROC MIXED DATA=dat ; لوله موقعیت کلاس ; MODEL y = POSITION ; موقعیت تصادفی / موضوع = نوع لوله = UN G GCORR ; اجرا؛ ترک؛ ماتریس G تخمینی را می دهد قطعی مثبت نیست. تخمینی G Matrix Row Effect tube position Col1 Col2 Col3 1 position A 1 0.08895 -0.5823 -0.1545 2 position B 1 -0.5823 0.1455 1.2431 3 موقعیت C 1 -0.1545 1.2435 دوباره ممکن است خراب شود؟
SAS نمی تواند یک مدل ترکیبی را جا دهد
22575
من تقریباً یک سال است که روی پیش بینی بار الکتریکی با همکاری برخی از دانشمندان آب و هوا و با استفاده از داده های دمایی به دست آمده از مدل ها کار کرده ام. به جای استفاده مستقیم از مقادیر دما، از «ناهنجاری» از میانگین سالانه استفاده می کنیم (به نام «اقلیم شناسی»). به نظر می رسد، در علوم آب و هوا، استفاده از اعتبارسنجی متقاطع برای محاسبه این ناهنجاری عمل خوبی است: ناهنجاری های سال X با در نظر گرفتن اقلیم شناسی همه سال های دیگر به جز X، یک نوع روش «K-FOLD» محاسبه می شوند. با K برابر است با تعداد سال های در نظر گرفته شده در کل محاسبه. من یک دانشمند کامپیوتر هستم و برای یک مجله مهندسی می نویسم و ​​می خواستم بدانم که آیا کل این روش برای محاسبه ناهنجاری ها با این نوع 'K-FOLD' واقعاً برای قوی تر کردن کل کار ما ضروری است. من هرگز روال مشابهی را در سایر مقالات پیش‌بینی یا مهندسی نخوانده‌ام و به همین دلیل می‌خواهم از کار غیرضروری (و کدنویسی) در این مرحله از کار اجتناب کنم. ممنون از نظرات شما،
محاسبه مولفه فصلی (سالانه) سری زمانی: استفاده از اعتبارسنجی متقابل؟
56184
آنچه من در مورد طبقه بندی می فهمم این است که برای تشخیص نقاط داده بدون برچسب در یک مجموعه استفاده می شود. بنابراین اگر داده‌هایی داریم که دارای برچسب (سن، قد، وزن و...) هستند، نیازی به طبقه‌بندی نداریم، فقط در مواردی استفاده می‌شود که داده‌ها ممکن است چند بعدی باشند اما طبقه‌بندی نشده باشند، یعنی بدون متغیر (سن، قد، وزن). ,...) آیا درک درستی دارم؟ اگر نه، طبقه بندی دقیقا چیست؟ و چرا و چه زمانی مفید است؟ هر گونه کمک بسیار قدردانی می شود
سوال نرم - چرا و چه زمانی طبقه بندی مفید است
26408
همانطور که متوجه شدم، تعریف نسبت خطر، نسبت دو نرخ خطر است. اغلب ضریب exp (ضریب) از یک مدل کاکس نیز به عنوان تخمین نسبت خطر استفاده می شود. این روش ها دو نتیجه متفاوت، هرچند مشابه، به دست می دهند. آیا شرایطی وجود دارد که در آن استفاده از یک روش در مقابل روش دیگر مناسب باشد؟
تفاوت بین نسبت خطر و ضریب e^ معادله کاکس چیست؟
34362
همبستگی متقابل را می توان برای اندازه گیری «تأخیر» (یا تغییر یا افست) بین دو مجموعه داده (به عنوان مثال، جریان داده) استفاده کرد. آیا روش استانداردی برای اندازه گیری خطاها در «تاخیر» وجود دارد؟ یا بهتر از آن، آیا راه _خوب_ برای اندازه گیری این خطاها وجود دارد؟ (مرتبط: به طور مستقیم جابجایی های زیرپیکسل را بین دو طیف مقایسه کنید - و خطاهای قابل باوری دریافت کنید!) برخی جزئیات بیشتر: من در حال انجام همبستگی متقابل دو بعدی بین تصاویر به منظور دستیابی به ثبت تصویر زیر پیکسل هستم. می‌خواهم بدانم افست‌های اندازه‌گیری شده چقدر دقیق هستند (یعنی آیا زیر پیکسل هستند؟). اینها تصاویری از منابع اخترفیزیکی هستند، اما نه از ستارگان - همه تابش گسترده است. برای تصاویر دارای ستاره، می توانید مرکز ستاره ها را اندازه گیری کنید تا فاصله بین تصاویر را تعیین کنید: این برای این داده ها ممکن نیست. رویکرد گاوسی پیشنهاد شده توسط نستور یکی از مواردی است که من تلاش کرده‌ام، اما در مورد برخی از نکات کاملاً واضح نیستم، به‌ویژه نحوه محاسبه خطاهای پیکسلی منفرد. من مشکوک بودم که زمینه های دیگر ممکن است از همین تکنیک استفاده کنند اما آن را با نام دیگری صدا کنند، به همین دلیل این سوال را اینجا پرسیدم.
اندازه گیری خطا در تاخیر هنگام همبستگی داده ها
89861
من در حال انجام تحقیقاتی در مورد روش هایی برای گسسته سازی یک متغیر پیوسته همراه با یک متغیر هدف باینری برای یافتن نقاط تقسیم بهینه برای به حداکثر رساندن اندازه گیری ناخالصی (جین/آنتروپی) هستم. اول از همه، من در پیدا کردن اصطلاحات قابل استفاده در گوگل مشکل دارم. به نظر می‌رسد «تقسیم بهینه» به انتخاب متغیری که در درخت تصمیم‌گیری بر روی آن تقسیم شود، به جای نحوه تقسیم آن متغیر مرتبط است. آیا عنوان تعریف شده ای برای این مشکل وجود دارد؟ من تصور می کنم برای تبدیل یک متغیر پیوسته به یک متغیر باینری، می توانم به طور بالقوه سعی کنم یک نقطه تقسیم را در هر مقدار متمایز در داده ها تنظیم کنم و آن را انتخاب کنم که حداکثر آنتروپی یا جینی را برمی گرداند. اما برای گسترش آن فراتر از تقسیم‌های باینری، فضای جستجو افزایش می‌یابد تا این روش بسیار گران شود. آیا روش های رایجی برای حل این مشکل وجود دارد؟
چه روش هایی برای یافتن تقسیم های بهینه برای گسسته سازی داده های پیوسته با توجه به یک متغیر هدف وجود دارد
31431
من واقعاً با آمار تازه کار هستم و اکنون داده هایی دارم و می خواهم یک جدول فراوانی با حقوق سالانه (یک متغیر در داده های من) تهیه کنم. در پایان باید بتوانم بگویم حداکثر حقوق 25 درصد اول و حداقل حقوق 10 درصد برتر چقدر است. چگونه باید آن را در SPSS انجام دهم؟
چگونه صدک/چندک را در SPSS تعیین کنیم؟
55452
من با یک مجموعه داده تولید شده مصنوعی کار می کنم که با گوشه های تیز زیادی از هم جدا شده است. به عنوان مثال، یک شکل H را در یک فضای سه بعدی (یا با ابعاد بالاتر) تصور کنید. نقاط داخل H مثبت و نقاط خارج منفی هستند. در برنامه من، بسیاری از نقاط جدید در زمان اجرا ایجاد خواهند شد. من می خواهم آنها را در داخل H شکل طبقه بندی کنم یا نه. من در حال حاضر بررسی دقیقی برای این نقاط با استفاده از روش‌های تشخیص برخورد استاندارد انجام می‌دهم، اما از آنجایی که این کار گران است، می‌خواهم به قیمت کمی دقت، طبقه‌بندی بسیار سریع‌تری را انجام دهم. به عنوان مثال، 90-95٪ طبقه بندی صحیح با مرتبه بزرگی یا سرعت بیشتر از بررسی دقیق برای من ایده آل است. من از یک SVM با هسته تابع پایه شعاعی (RBF) استفاده می کنم، زیرا مجموعه داده من به صورت خطی در فضای اصلی قابل تفکیک نیست. من آن را با استفاده از جستجوی شبکه ای بر روی پارامترهای گاما و nu، با اعتبارسنجی متقاطع 3 برابری، که هم دامنه و هم دانه بندی جستجو را تغییر می دهد، آموزش داده ام. با این حال، بهترین کاری که می توانم انجام دهم دقت حدود 80-85 درصد و زمان اجرای 6-10 ثانیه برای 100000 نقطه داده جدید است که تقریباً همان زمانی است که برای انجام بررسی دقیق لازم است. کجا دارم اشتباه می کنم؟ من به خصوص مشکوک هستم که RBF در کنترل گوشه های تیز ضعیف است (به عنوان مثال شکل H که توضیح دادم، که مرز آن نقاط مثبت و منفی را از هم جدا می کند). آیا باید از هسته دیگری استفاده کنم که با این پارامترها مناسب تر باشد؟ آیا باید از ترکیبی از هسته ها استفاده کنم؟ آیا باید نوعی تجزیه منطقه انجام دهم و هسته های جداگانه ای را برای هر منطقه آموزش دهم؟ آیا باید به جای آن از یک رویکرد ML متفاوت (مثلاً شبکه های عصبی) استفاده کنم؟
انتخاب مدل SVM برای مجموعه داده با گوشه های تیز
26400
من در حال انجام مطالعه‌ای هستم که اهداف زیر را دارد: هدف اصلی مطالعه حاضر بررسی تأثیر پیام‌های غذایی در مورد سلامت غذاها بر دریافت واقعی غذا است. علاوه بر این، یک هدف ثانویه کشف میزانی است که تکانشگری/احساس طلبی، ترجیح چشایی و BMI ممکن است اثرات پیام های مرتبط با غذا را بر مصرف غذا تعدیل یا واسطه کند. من مطمئن نیستم که در این مورد کدام یک مناسب تر است برای میانجیگری یا تعدیل. DV من مصرف غذا و IV پیام های غذایی، تکانشگری/حس طلبی، ترجیح طعم و BMI است. این یک مطالعه تجربی است که شامل سه گروه درمانی است که پیام سالم، پیام ناسالم یا پیامی در مورد کوکی دریافت نمی کنند. از آنها خواسته می‌شود که «کوکی‌ها» را بچشند، رتبه‌بندی کنند و مصرف کنند. رتبه بندی طعم نیز سوالاتی در مورد ترجیح طعم می پرسد. سپس پرسشنامه ای ارائه خواهم کرد که اطلاعاتی در مورد تکانشگری/حس طلبی و همچنین BMI جمع آوری می کند. من به واسطه گرایش دارم اما مطمئن نیستم. من معتقدم که افرادی که در گروه پیام سالم هستند بر اساس تحقیقات قبلی کوکی‌های بیشتری مصرف می‌کنند، اما همچنین فکر می‌کنم که سایر متغیرها نیز بر مصرف کوکی‌ها تأثیر خواهند داشت. اساساً کسانی که تکانشگری بالا، ترجیح طعم برای کوکی و BMI بالاتری دارند، چه به صورت جداگانه یا ترکیبی، کوکی های بیشتری مصرف می کنند. بنابراین من مطمئن نیستم زیرا اشاره کرده ام که داشتن ناظم مناسب تر است یا میانجی. من به نوعی تمایل به میانجیگری دارم، اما می‌خواهم در این مورد شفاف‌سازی شود. همچنین اگر میانجی یا تعدیل باشد کدام IV کدام است؟ همچنین یک فرضیه چگونه خواهد بود؟ من حدس می‌زنم که اگر به عنوان مثال با اعتدال پیش رفتم، ممکن است یک فرضیه چیزی شبیه به این باشد: رابطه بین پیام سلامت و مصرف کوکی‌ها می‌تواند برای کسانی که امتیاز بالاتری در impSS دارند در مقایسه با کسانی که امتیاز بالایی کسب نمی‌کنند قوی‌تر باشد. من ممکن است اشتباه کنم. هر گونه کمکی قدردانی خواهد شد. با تشکر MO
میانجی در مقابل تعدیل کنندگان - مطمئن نیستم که کدام مناسب تر است
50559
فرض کنید می‌خواستم میانگین یک دقیقه‌ای از زمان لازم برای نفس کشیدن را بدانم. بنابراین اساساً من تعداد دفعاتی را که در طول یک دقیقه نفس کشیدم (یک دم و یک بازدم) را ثبت می‌کردم و بر 60 ثانیه تقسیم می‌کردم تا میانگین زمان 1 دقیقه برای ایجاد یک نفس منفرد را بدست بیاورم؟ آیا این توزیعی با انحراف معیار خواهد بود؟
چگونه میانگین زمان برای نفس کشیدن را محاسبه می کنید؟
9833
در درس آمار ابتدایی ام، یاد گرفتم که چگونه فاصله اطمینان 95% مانند میانگین جمعیت، مو را بر اساس **عادی مجانبی** برای حجم نمونه بزرگ بسازم. جدا از **روش های نمونه گیری مجدد**، رویکرد دیگری بر اساس **احتمال نمایه** وجود دارد. آیا کسی می تواند این رویکرد را توضیح دهد؟ در چه شرایطی، 95٪ CI ساخته شده بر اساس نرمال مجانبی و احتمال پروفایل قابل مقایسه است؟ من نتوانستم هیچ مرجعی در این موضوع پیدا کنم، هیچ مرجع پیشنهادی، لطفا؟ چرا بیشتر مورد استفاده قرار نمی گیرد؟
ایجاد فاصله اطمینان 95% بر اساس احتمال پروفایل
50556
من هفته‌هاست که سعی کرده‌ام این یکی را بفهمم، بنابراین توصیه شما بسیار قدردانی می‌شود. من بازدهی ثبت شده برای 5 سال گذشته در شاخص های زیر دارم: NYSE، ارتباطات، رشد و سرمایه بزرگ. من PCA را روی آن‌ها انجام دادم و 2 «عامل غیرقابل مشاهده» را با بارگذاری‌های زیر حفظ کردم: NYSE Index 0.2599870 0.6090115 Communications 0.7952713 -0.5660120 Growth 0.3918862 0.27100 Lake 0.2599870. 0.4850304 رگرسیون متعامد بازده NYSE در 2 امتیاز عامل به من 2 بتا برابر با بارهای عاملی (0.609 و 0.2599) می دهد. بنابراین بتای NYSE عبارتند از: NYSE Index Communications Growth Large Cap NYSE Index 0.316 0.337 0.309 0.359 به ترتیب برای محاسبه دلتا R در NYSE بر حسب فاکتورها: بازگشت به NYSE= 0.316* R3 NYSE + 0. +0.359 R درپوش بزرگ. با این حال این در واقع کار نمی کند... چه چیزی را از دست داده ام؟ چگونه می توانم بازده شاخص NYSE را با استفاده از فاکتورهای رایج PCA محاسبه کنم؟
محاسبه بازده از مدل عاملی
55458
فرض کنید یک مدل خطی دارید که در آن مدل معنادار است اما برخی از ضرایب اینطور نیستند. وقتی برخی از ضرایب معنی دار نیستند، چگونه می توان مدل را تفسیر کرد؟
اگر مدل معنی دار است اما برخی از ضرایب معنی دار نیستند
56182
من نتیجه ای از یک مطالعه در یک مقاله تحقیقاتی دارم که میانگین / انحراف معیار را برای 2 نقطه زمانی (پیش و پس از درمان) و یک مقدار p بر اساس آزمون t-samps زوجی ارائه می دهد. چیزی که من می خواهم محاسبه کنم SD تغییر از قبل به پست است. آیا راهی وجود دارد که بتوانم این را با استفاده از p-value و mean/SD برای هر نقطه زمانی محاسبه کنم؟ پیشاپیش متشکرم - جولی
نحوه محاسبه مجدد تغییر از خط پایه از مقدار p برای آزمون t زوجی
61110
من به دنبال بسته انتساب KNN هستم. من به بسته imputation نگاه می کنم (http://cran.r-project.org/web/packages/imputation/imputation.pdf) اما به دلایلی تابع impute KNN (حتی وقتی از مثال توضیح داده شده است) فقط به نظر می رسد. برای نسبت دادن مقادیر صفر (مطابق زیر). من به اطراف نگاه کردم اما هنوز چیزی پیدا نکردم و از این رو می‌پرسیدم آیا کسی پیشنهاد دیگری برای بسته‌های انتساب خوب KNN دارد؟ W در کد زیر - مقادیر NA با صفر جایگزین می‌شوند - نه با مقدار میانگین Knn نیازمند (انتظار) x = ماتریس (rnorm(100),10,10) x.missing = x > 1 x[x.missing ] = NA kNNImpute(x، 3) x
بسته های R نسبت KNN
55455
این در ادامه سوال قبلی من است. فرض کنید می خواهم به طور تصادفی دو عدد از اعداد 1 تا 8 بکشم، یک عدد زوج و یک عدد فرد. من دو کوزه می‌سازم، یکی با زوج، یکی با اعداد فرد، و از هر کدام یک عدد می‌کشم. بنابراین، همه اعداد احتمال یکسانی برای رسم شدن دارند. این پاسخ پذیرفته شده سوال قبلی من بود. حالا فرض کنید من اعداد 1 تا 9 را دارم. می‌خواهم یک عدد کوچکتر یا مساوی 5 بکشم، یعنی {1،2،3،4،5}، و یک عدد بزرگتر یا مساوی 5، یعنی. {5،6،7،8،9}. چگونه آنها را رسم کنم تا احتمال ترسیم همه اعداد یکسان باشد؟ ایده من این است که دو کوزه ایجاد کنم، یکی با اعداد {1، 1، 2، 2، 3، 3، 4، 4، 5}، دیگری با اعداد {5، 6، 6، 7، 7، 8 ، 8، 9، 9}. اگر یک سکه را برگردانم تا به طور تصادفی یک کوزه را انتخاب کنم، سپس به طور تصادفی یک عدد بکشم، همه اعداد احتمال یکسانی برای کشیدن دارند. اما اگر من یک 5 بکشم و سپس به urn دیگر سوئیچ کنم، این احتمال وجود دارد که من 5 دوم را ترسیم کنم -- این چیزی نیست که من می خواهم اجازه دهم که اتفاق بیفتد. چگونه آن را انجام می دهید؟ _اگر عنوان معنی‌داری برای این سوال می‌شناسید، لطفا آن را ویرایش کنید.
بهترین فرآیند برای رسم اعداد
66465
من گزارشی از داده‌های تماس مشتری دارم و می‌خواهم بدانم از چه نوع آزمون آماری می‌توانم برای آزمایش اهمیت آماری استفاده کنم. مشتریان با یک دلیل تماس منحصر به فرد تماس می گیرند و در یک نوع مشتری، مشتریان جوان یا مشتریان مسن قرار می گیرند. دلیل تماس مشتریان جوان مشتریان مسن استعلام صورتحساب 5 28 مشکل محصول 15 20 ارتقاء محصول 25 12 اعداد نشان دهنده تعداد تماس ها برای هر دلیل تماس از هر نوع مشتری است. می‌خواهم بدانم چگونه می‌توانم آزمایش کنم که آیا تفاوت آماری معنی‌داری (مثلاً با اطمینان 95٪) در نوع مشتریانی که برای هر دلیل تماس تلفن می‌کنند وجود دارد یا خیر. به عنوان مثال، با نگاه کردن به داده ها، به نظر می رسد که تعداد مشتریان مسن بیشتری نسبت به مشتریان جوان با درخواست صورت حساب تماس می گیرند. چگونه می توانم این را به شدت آزمایش کنم؟
چه نوع آزمون آماری می تواند به نشان دادن این کمک کند؟
32435
من یک تابع $\rho$ ساخته‌ام که تعریف زیر را دارد: \begin{equation} \rho(x)= \left\\{ \begin{array}{ll} 4- \frac{8}{x^2 } \text{if } x \lt-2\\\ \frac{x^2}{2} \text{if } x \in [-2,3] \\\ 9-\frac{81}{2*x^2} \text{if } x \gt 3 \end{array} \right. \end{equation} این تابع دارای ویژگی‌های پیوستگی و مشتق‌پذیری است، اما نامتقارن است. آیا می توان با استفاده از روش حداقل مربعات با وزن مجدد تکراری (IRLS) حل کرد؟ تابع $u$ این است: $ u(x)=\begin{equation} \left\\{ \begin{array}{ll} \frac{16}{x^4} \text{ if } x \lt- 2\\\ 1 \text{ if } x \in [-2,3] \\\ \frac{81}{x^4} \text{ if } x \gt 3 \end{array} \right. \end{equation} $ برای روش IRLS، تقارن تابع $u$ اجباری است؟
آیا تقارن تابع u برای تخمین M قوی اجباری است؟
22578
من به دنبال استانداردهای رایج (فرمت های فایل) برای نحوه وارد کردن داده ها توسط اکثر بسته های نرم افزار آماری هستم. دلیلش این است که من قصد دارم یک تابع صادراتی برای بسته نرم افزاری شبیه سازی بسازم. داده هایی که باید صادر شوند شامل سری های زمانی از (1 یا بیشتر) مقادیر برای همه اعضای یک جمعیت است. اندازه جمعیت می تواند در 100000 باشد. طول سری های زمانی معمولاً 1000 ثانیه است. تعداد مقادیر به ازای هر عضو در هر گام می تواند از 1 تا 20 متغیر باشد. این داده ها معمولاً توسط بسته های آماری چگونه وارد می شوند؟
استانداردهای رایج برای فرمت های فایل واردات داده برای نرم افزار آمار؟
35771
من مشکلاتی دارم که به کمک نیاز دارم. من یک رگرسیون لجستیک باینری را اجرا می کنم. DV: انتخاب برند (0/1) IV1: نگرش نسبت به محصول (p<0.05) IV2: حساسیت قیمت (p<0.05) (هر دو IV1 و IV2 در یک مقیاس اندازه گیری می شوند) من متوجه شده ام که نگرش نسبت به محصول قدرتمندتر ($β=1.308$) از حساسیت قیمت ($β=0.956$) در پیش بینی انتخاب برند. با این حال، به گفته استاد راهنمای پایان نامه من، برای ادعای این واقعیت، باید یک آزمون اضافی را انجام دهم. یعنی باید بفهمم این تفاوت قابل توجه است یا نه. بنابراین، چیزی که می‌خواهم بدانم این است که آیا: $β_{Attitude}> β_{قیمت}$ (یا اگر $β_{Attitude}≠ β_{قیمت}$) و آیا این از نظر آماری معنی‌دار است. من خیلی جستجو کردم، اما نمی توانم پیدا کنم که چگونه باید این را تست کنم. کسی نظری داره؟؟ من خوانده‌ام که می‌توان آزمون t را اجرا کرد (با انتخاب برند به عنوان متغیر گروه‌بندی) و به مقادیر t نگاه کرد و اگر t-value برای «نگرش نسبت به محصول» بالاتر باشد، پس قوی‌تر است. یکی با این حال، من 3 گروه (شرط) دارم، بنابراین مطمئن نیستم که بتوانم یک آزمون t را اجرا کنم. آیا می توانم به جای آن از ANOVA استفاده کنم و به مقادیر F نگاه کنم؟ همچنین به اطلاعاتی برخوردم که می‌توانم یک ترم تعامل (نگرش*قیمت) داشته باشم و اینکه p-value برای هر عبارت تعاملی یک آزمون معنادار برای تفاوت در آن ضرایب به من می‌دهد. این روش معتبره؟؟
مقایسه ضرایب در رگرسیون لجستیک
55457
من کتاب های واپنیک در مورد یادگیری آماری رو دیدم... چند فصل اول رو خوندم. به هر حال چیزی که بیش از همه مرا شگفت زده کرد این بود که او فکر می کرد که تیغ اوکام منسوخ شده است. فکر می‌کردم به موقعیتی مربوط می‌شود که در آن فرض ابعاد بالاتر تناسب را به طور قابل توجهی بهبود می‌بخشد. درست فهمیدم؟ آیا درست است که تیغ اوکام دیگر نمی تواند آنطور که واپنیک گفت درست نباشد؟ آیا استدلالی وجود دارد که تیغ Occam را نباید به عنوان پیش فرض در نظر گرفت؟ جملات دقیق از مقدمه ویرایش دوم ماهیت یادگیری آماری آمده است که عبارتند از: > سالهای پس از چاپ اول کتاب، فلسفه کلی را در درک ما از ماهیت مسئله استقرایی نیز تغییر داده است. پس از آزمایش‌های موفق فراوان با SVM، محققان در نقد فلسفه کلاسیک تعمیم بر اساس اصل تیغ اوکام مصمم‌تر شدند.
تیغ اوکام منسوخ شده است؟
26402
در آزمایشم که شرکت کنندگان در آن تصمیم بله و نه می گیرند، از دو معیار همدلی استفاده می کنم زیرا پیش بینی می کنم که این هر دو تأثیرگذار باشند. دو مقیاس پرسشنامه همبستگی ضعیفی دارند اما دقیقاً یکسان نیستند. آیا می توانم این دو مقیاس را در ANOVA مدل مختلط خود وارد کنم یا اینکه آنها به نوعی میانگین یکدیگر را نشان می دهند و اگر بخواهم از هر دو معیار همدلی استفاده کنم باید دو مدل جداگانه اجرا کنم؟ تصمیم مختلط بر اساس هدف درمان با دیدگاه_دریافت_همدلانه_نگرانی /معیارها=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0) PCONVERGE(0.000001، ABSOLUTE) /تثبیت=درمان هدف درمان چشم انداز_نگرانی_همدلانه * درمان چشم انداز_گیری هدف * درمان_نگرانی_همدلانه * دیدگاه_در نظر گرفتن_نگرانی_همدلی * درمان_دریافت دیدگاه * دیدگاه_گیری * نگرانی_همدلانه | SSTYPE(3) /METHOD=ML /PRINT=COB DSCRIPTIVES SOLUTION /RANDOM=INTERCEPT | SUBJECT(id) COVTYPE(VC) /EMMEANS=TABLES(کلی).
دو عامل همبسته را در مدل ترکیبی لحاظ کنید؟
93030
من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن متغیر پاسخ نسبتی است که می تواند از 0-1 (شامل) متغیر باشد. این پاسخ از افراد مشابه تحت چهار شرایط آزمایشی مختلف اندازه گیری شد. من علاقه مند به تعیین تأثیر این شرایط بر پاسخ هستم. من برخی از روش‌های ممکن برای تجزیه و تحلیل این داده‌ها را از طریق رگرسیون توبیت یا بتا خوانده‌ام (می‌دانم که وقتی 0 و 1 در مجموعه داده‌ها هستند نمی‌توان از دومی استفاده کرد، اما تغییری در ادبیات پیدا کردم که این مشکل را برطرف می‌کند. مشکل). با این حال، من راهی برای پیاده سازی چنین مدلی در R برای محاسبه اندازه گیری های مکرر پیدا نکرده ام. من از طریق بسته‌های متعددی که می‌توانند چنین رویه‌هایی را انجام دهند، رفته‌ام، اما به نظر می‌رسد هیچ یک از آنها این قابلیت را ندارند (یا من کاملاً آن را از دست داده‌ام). من کاملاً در اینجا گیر کرده ام و از هرگونه پیشنهادی در مورد نحوه انجام این کار قدردانی می کنم. به عنوان پس‌زمینه، متغیر پاسخ، نسبت دفعاتی است که ملخ ماده به یک سیگنال صوتی پاسخ می‌دهد (لازم به ذکر است که این موارد در چندین محرک به‌طور میانگین محاسبه می‌شوند، به طوری که تعیین کمیت «موفقیت‌ها» و «ممکن است. شکست ها فی نفسه؛ بنابراین نسبت های واقعی هستند و من نمی توانم مستقیماً از توابع دو جمله ای استفاده کنم). بنابراین این مقادیر می توانند از صفر تا یک متغیر باشند. این آزمایش در 4 سطح مختلف نویز پس‌زمینه انجام شد، و من علاقه‌مندم که آیا نویز بر احتمال پاسخ زن تأثیر می‌گذارد یا خیر. من این آزمایش‌ها را برای 21 زن مختلف انجام دادم که همگی در معرض همه سیگنال‌ها در تمام سطوح نویز قرار گرفتند.
داده های متناسب با پاسخ های متعدد
110060
اگر یک سری زمانی ثابت تأیید کند که هر متغیر فقط به متغیر قبل از خود بستگی دارد و p.d.f مشترک. از xi و xi-1 f(xi-1,xi) است که p.d.f مشترک است. از xi,xi+1,xi+2 و از xi,xi+1,xi+2,xi+3؟
p.d.f مشترک متغیرهای سری زمانی ثابت
92928
من می خواهم بدانم تأثیر یک عامل خارجی بر تعداد بازدید از یک وب سایت در یک دوره 4 هفته ای (فقط بازدیدهای جستجو از گوگل) چیست. برای این کار، من تعداد بازدیدهای روزانه را از طریق تحقیقات گوگل اندازه گرفتم. به عنوان مثال من دارم: تاریخ بازدید 01/01/2014 456 02/01/2014 423 03/01/2014 399 ... من این کار را به مدت 4 ماه انجام دادم، شامل 4 هفته ای که فاکتور خارجی اجرا شد. من می خواهم ثابت کنم که آیا تفاوتی در میانگین تعداد بازدید در این 4 هفته وجود دارد یا خیر. اولین ایده من این است که یک آزمون t را بین دو دوره 4 هفته ای مشابه اجرا کنم، یکی 4 هفته با عامل خارجی و دیگری یک سری 4 هفته بدون فاکتور. من در انتخاب آزمون مشکل دارم: آیا باید آزمون t زوجی باشد که هر روز از 4 هفته را با هم مقایسه کند؟ من واقعاً نمی دانم که آیا می توانم نمونه های خود را مستقل در نظر بگیرم زیرا فصلی هفتگی وجود دارد (در آخر هفته ها بازدیدها کمتر از هفته است)
آزمایش برای مقایسه تأثیر روی یک متغیر به صورت روزانه
93037
به طور خاص، من تعجب می کنم که چرا ما این مفهوم Multiple R را داریم (که می توانم آن را به عنوان همبستگی بین نمرات مشاهده شده و پیش بینی شده در رگرسیون چندگانه درک کنم)، و سپس یک مفهوم جداگانه R-squared که فقط مربع یا R است. مطلع شده ام که R-squared درصد تغییرات توضیح داده شده است و R نیست، اما من تمایزی را که بین همبستگی و تنوع توضیح داده شده است، درک نمی کنم.
توضیح واریانس به چه معناست؟
32436
من مجموعه‌ای از داده‌های تک متغیره دارم، که در آن متغیر پاسخ در یک آزمایش، دنباله‌ای از فواصل زمانی بین فشار دادن دکمه‌ها است (آزمودنی‌های آزمایشی من باید یک دکمه را به طور متناوب فشار دهند تا به برخی از شرایط کار واکنش نشان دهند). در نهایت باید یک رگرسیون درون موضوعی انجام دهم تا ببینم آیا پیش‌بینی‌کننده‌های فرضی من واقعاً معنادار هستند یا خیر. با این حال، اولین کاری که می‌خواهم انجام دهم این است که نشان دهم سوژه‌ها فقط دکمه را به‌طور تصادفی فشار نداده‌اند. به عبارت دیگر، باید مطمئن شوم که شخص فقط یک دکمه را با سرعت منظم فشار نداده است (میانگین زمان پاسخ + تغییرپذیری تصادفی). یکی از ایده‌های من این است که بررسی کنم آیا داده‌های من شبیه فرآیند پواسون هستند، که در آن زمان‌های رسیدن به طور تصادفی با سرعت مشخصی اتفاق می‌افتد. بر اساس آنچه تاکنون در مورد استفاده از فرآیند پواسون جستجو کرده‌ام، دو رویکرد برای تطبیق فرآیند پواسون با داده‌های بازه زمانی من وجود دارد: 1) شمارش تعداد دفعاتی که فرد یک دکمه را در هر آزمایش دوره زمانی ثابت فشار داده است. سپس می توانم فرآیند برازش توزیع پواسون را برای شمارش داده ها دنبال کنم. 2) گفته می شود زمان انتظار بین رویدادها در فرآیند پواسون از توزیع نمایی پیروی می کند. بنابراین می توانم سعی کنم توزیع نمایی را با فواصل زمانی متناسب کنم. در این صورت، آیا باید سعی کنم مجموعه ای از توزیع های مختلف مانند نمایی، گاما و وایبول را جا بدهم؟ در هر صورت، من از آزمون کای دو و/یا طرح QQ برای ارزیابی اینکه آیا برازش توزیع قابل رد است یا خیر استفاده می‌کنم. هر توصیه ای بسیار قدردانی خواهد شد. آیا تطبیق فرآیند پواسون با داده های من حتی راه درستی است؟ خوشحال می شوم در مورد هر پیشنهاد دیگری بشنوم. پیشاپیش ممنون
چگونه تست کنیم که آیا رفتار فشار دادن دکمه تصادفی است یا در پاسخ به یک محرک است؟
52950
من در حال ارزیابی تعدادی از عوامل خطر مرتبط با عفونت HIV با رگرسیون لجستیک هستم. ابتدا چند تست مجذور کای یا تست تی انجام خواهم داد تا ببینم آیا هر یک از عوامل با عفونت HIV مرتبط است یا خیر. سپس آن عوامل با مقدار p کمتر از 0.1 را از تحلیل دو متغیره بالا انتخاب می کنم و آنها را در مدل رگرسیون لجستیک چند متغیره (مدل تعدیل شده) قرار می دهم. در این مورد، آیا مقایسه چندگانه برای من نگران کننده است؟ چرا و چرا نه؟
موضوع مقایسه چندگانه در رگرسیون لجستیک چند متغیره
93035
من به دنبال پیاده‌سازی R از الگوریتم فشرده‌سازی داده Lempel-Ziv برای تخمین آنتروپی _source_ یک سری زمانی متشکل از دنباله‌ای از نمادها هستم. به جای اندازه گیری ساده آنتروپی توزیع نماد-فرکانس (تجمیع زمان)، از الگوریتم Lempel-Ziv می توان برای تخمین آنتروپی ترتیب زمانی درون خود توالی استفاده کرد. دنباله‌هایی که من مطالعه می‌کنم از مسیر حرکت حیوانات مشتق شده‌اند. به هر مکان $x,y$ یک برچسب دلخواه (A,B,...,Z) اختصاص داده شده است. به این شکل، مسیر یک حیوان متحرک شبیه B،G،G،S،Y،G،Y،H،D،S،A،B،B،G،G،G،H و غیره است. من علاقه مند به اندازه گیری $\textit{predictability}$ دنباله هستم. روش تخمین آنتروپی منبع (به طور خلاصه) در اطلاعات تکمیلی سانگ و همکاران (2010) توضیح داده شده است، و آنها برآوردگر Lempel-Ziv را به صورت زیر توصیف می کنند: $$ S^{est} = \left( \frac {1} {n} \sum_{i=1} \Lambda_i \right)^{-1} ln~n $$ که $\Lambda_i$ طول کوتاهترین رشته فرعی که از موقعیت $i$ شروع می شود که $\textit{$n't}$ قبلاً از موقعیت 1 تا $i$-1 ظاهر می شود. بنابراین، آیا کسی پیشنهادی برای نحوه محاسبه موارد فوق در R دارد؟ اتفاقاً باید اشاره کنم که من چندین مسیر دارم که می خواهم مقایسه های آنتروپی بین آنها انجام دهم ، اما برخی از مسیرها حاوی شکاف هایی هستند که مربوط به زمان هایی است که حیوان مشاهده نشده است. مرجع: Song, Qu, Blumm & Barabasi (2010) Limits of Predictability in Human Mobility. $\textit{علم}$. 19. http://www.sciencemag.org/content/327/5968/1018.short _**UPDATE:_** تابع زیر همان چیزی است که من به آن رسیدم. با این حال، به جای بررسی همه زیر دنباله‌های ممکن پس از نمایه i'm، و یافتن کوتاه‌ترین زیر دنباله جدید، سریع‌تر از حلقه while استفاده می‌کنیم. به همین ترتیب، من فرهنگ لغت زیررشته های منحصر به فرد تازه به دست آمده را با استفاده از rbind به روز می کنم که کارآمد نیست. OTOH توالی‌هایی که من استفاده می‌کنم کوتاه هستند (<300)، بنابراین مشکلی نیست، اما مطمئناً جایی برای بهبود وجود دارد. پیش بینی پذیری <- تابع (دنباله، حداکثر_رشته) { خروجی <- ماتریس(NA,nrow=طول(توالی)، ncol=1) فرهنگ لغت <- NULL ## چرخه در هر ورودی، i، در دنباله برای (i در 1: (طول(دنباله)-حداکثر_رشته) ) {## فهرستی از زیررشته‌های طولانی‌تر را جمع‌آوری کنید، با شروع از موقعیت من i+0,i+1,i+2,...,i+Max_String کدون <- ماتریس(NA, nrow=Max_String, ncol=1) for (STRL در 0:Max_String) { کدون[STRL,] <- paste(Sequence [i:(i+STRL-1)], collapse=) } ## پیدا کنید کدام یک از این کدون ها قبلا دیده نشده اند جدید <- کدون[!کدون %in% فرهنگ لغت] ## برای عدم وجود کدون جدید ifelse ((طول(جدید)>0) بررسی کنید، <- min(nchar(جدید))، ## را اگر کدونهای جدیدی داریم، پیدا کنید کوتاهترین در میان آنها ضبط <- NA ) ## اگر هیچکدام جدید نیست (چون ما به اندازه کافی در حال جستجو نیستیم)، NA را اختصاص دهید... ## کوتاهترین کدونهای دیده نشده را پیدا کنید خروجی[i،] <- رکورد ## در نهایت، کدون های دیده نشده را به فرهنگ لغت اضافه کنید <- c(فرهنگ لغت، جدید) }##i ## محاسبه آنتروپی منبع (یعنی قابل پیش بینی) از فرمول در Song et al (2010) n <- طول(خروجی[!is.na(خروجی)]) S <- (1/mean(خروجی، na.rm=TRUE)) * log(n) ## آنتروپی منبع؟ ورود طبیعی یعنی واحدها nats هستند؟ بازگشت (S)}
تخمین آنتروپی برای یک دنباله نماد
92927
آمارهای خودآموزی با استفاده از مدلسازی. با این حال، در یافتن توزیع برای این داده ها مشکل دارید. * تعریف شده برای $x >0$ * $P(0) > 0$ * $P(X) \تا 0$ به عنوان $X \to \infty$، (بسیار سریع) * یک قوز من هیچ توزیعی پیدا نکردم که با توضیحات تا اینجا مطابقت دارد. کسی ایده ای دارد؟ با توجه به فرض حجم نمونه اساسا مجانبی، چقدر غیرممکن است که چند جمله ای درجه 10 را با داده ها منحنی کنم و آن را سری تیلور PDF ناشناخته عجیب و غریب من بنامیم؟
دم کج، قوزدار و چپ به 0 نزدیک نمی شود
104372
من دو فرمول متفاوت از رگرسیون کمند برای یک مشکل دارم. برای هر فرمول، بهترین مدل را بر اساس خطای اعتبارسنجی متقاطع انتخاب کردم. اما اکنون، می‌خواهم دو مدل را که از دو فرمول متفاوت رگرسیون کمند به دست می‌آیند، مقایسه کنم. خطای اعتبارسنجی متقاطع این دو مدل به هم نزدیک است، اما تعداد پارامترها متفاوت است. حال سوالی که برای من پیش می آید این است که از کدام آمار آزمون استفاده کنم تا بگویم که یک مدل با در نظر گرفتن تعداد پارامترهای مدل ها به طور قابل توجهی بهتر از مدل های دیگر است.
بهترین معیار برای انتخاب مدل رگرسیون کمند چیست؟
32206
من نتیجه زیر را از تجزیه و تحلیل ANOVA از پنج متغیر مستقل با 5،8،2،2،6 سطح و 5 تکرار برای هر ترکیب دریافت کردم: Df Sum Sq Mean Sq F مقدار Pr(>F) IV1 4 129805 32451 243.35 <2e -16 *** IV2 7 67227 9604 72.02 <2e-16 *** IV3 1 64253 64253 481.83 <2e-16 *** IV4 1 396445 396445 2972.94 <2e-16 *** IV5 5 91672 18334 18334 18334 <2e-16 <2e-16. 637553 133 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 اکنون می‌خواهم کمیت کنم که کدام پارامتر چقدر روی تغییرات نتایج تأثیر دارد. در یک کتاب آمار و پیشنهاد با پاسخ به سوال قبلی ام پیشنهادی را پیدا کردم که به سادگی نسبت مجموع مربع مجموع مجموع مربع را محاسبه کنم. در مورد من به عنوان مجموع مجذورات = 1386955، این منجر به تأثیر 9٪ IV1 و تأثیر 45٪ به دلیل خطاها می شود. **سوال: چرا در اینجا از مجموع مربع ها استفاده می شود و از میانگین مجموع مربع ها استفاده نمی شود؟** میانگین از تقسیم بر تعداد درجات آزادی محاسبه می شود. این برای من بسیار منطقی تر به نظر می رسد: با درجات آزادی بیشتر، مجموع مربع ها به طور خودکار بیشتر می شود، بنابراین باید به نوعی جبران شود. نتایج کاملاً متفاوت خواهد بود: IV1 تأثیر 6 درصدی خواهد داشت و خطا به زیر 1 درصد کاهش می یابد. سوال جانبی: چرا Df برای باقیمانده ها عدد عجیبی است؟ فکر کردم df باقیمانده ها a*b*c*d*...*(n-1) است، در مورد من 5*8*2*2*6*4=3840
چرا مجموع مربع ها را با ANOVA (و نه میانگین) مقایسه کنیم؟
104377
من یک تحلیل رگرسیون گام به گام برای پیش بینی مصرف انرژی با استفاده از متغیرها، قد، وزن، سن، جنسیت و انرژی دریافتی انجام دادم. مدل نهایی شامل متغیرهای جنسیت و وزن است. حالا آیا این مدل نهایی تعامل جنسیت بر اساس وزن را در نظر می گیرد؟ یا باید از این مدل نهایی معادله جدیدی بسازم که تعامل را در خود جای دهد؟
تعامل در تحلیل رگرسیون گام به گام
32439
من سعی می‌کنم با استفاده از بسته موش‌ها در R، انباشت چندگانه را انجام دهم، و انتساب با خطای زیر متوقف می‌شود: خطا در mice.impute.logreg(c(1L, 1L, 2L, 1L, 1L, 1L, 2L, 1L, 1L, 2L, : dims [محصول 145] با طول جسم مطابقت ندارد [146] علاوه بر این: 50 عدد وجود داشت یا اخطارهای بیشتر (از warnings() برای دیدن 50 مورد اول استفاده کنید) > warnings() پیام‌های هشدار: 1: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 2: در runif(طول(d) , 0, a1/10^10) : NAهای تولید شده 3: در runif (طول(d)، 0, a1/10^10) : NAهای تولید شده 4: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 5: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 6: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 7: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 8: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 9: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 10: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 11: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 12: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 13: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 14: در runif (طول(d)، 0، a1/10^10) : NAهای تولید شده 15: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 16: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 17: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 18: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 19: در rchisq(1، sum(ry) - ncol(x)) : NAهای تولید شده 20: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 21: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 22: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 23: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 24: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 25: در runif (طول (d)، 0، a1/10^10) : NAهای تولید شده 26: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 27: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 28: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 29: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 30: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 31: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 32: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 33: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 34: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 35: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 36: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 37: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 38: در runif(طول(d), 0, a1/10^10): NAهای تولید شده 39: در runif(طول (d)، 0، a1/10^10): NAهای تولید شده 40: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 41: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 42: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 43: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 44: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 45: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 46: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 47: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 48: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 49: در runif(طول(d), 0, a1/10^10): NAهای تولید شده 50: در runif(طول (d)، 0، a1/10^10): NAهای تولید شده اگر دانه روی یک مقدار خاص تنظیم شود، خطا در در همان نقطه، در غیر این صورت خطا در تکرارها، انتساب ها و متغیرهای مختلف در اجراهای مختلف رخ می دهد. باشه بنابراین در اینجا ساختار داده است. این از Stata با استفاده از read.dta وارد شد. لیست متغیرها کوتاه شده است و متغیرهایی را که مشکل را نشان می دهند نشان نمی دهد. همه آنها باینری هستند، با یک مقدار از دست رفته، در یک رکورد. > str(peimp.in) 'data.frame': 146 obs. از 164 متغیر: $ id : chr 195 128 218 1106 ... $ distress0 : num 5 6 0 2 1 0 5 1 1 5 ... $ pcs0 : num 47.1 46.9 60.8 44. .. mcs0 $: شماره 33.4 43.8 52.4 38.6 53.1 ... $ pwb0 : num 24 21 28 17 27 NA 8 16 24 8 ... $ swb0 : num 24 25 28 24 28 NA 17 28 24 28 NA 17 28 ... 28 28 24 20 ... $ fwb0 : num 14 21 28 18.7 26 ... $ ccs0 : num 14 22 25 25 26 NA 16 9 23 14 ... $ pn.sf70 : int 2 2 0 4 0 3 4 1 . .. $ pn.sf80 : int 2 1 0 2 0 2 3 3 1 3 ... $ pn.fcgp40 : int 1 1 0 4 0 NA 1 3 3 3 ... $ pn.aqol0 : int 1 1 0 1 0 1 0 1 1 2 ... $ pf.nbs0 : num 51.8 55.6 55.6 40.3 57.5 ... $ rp.nbs0 : num 21.2 45.9 54.9 34.7 57.2 ... $ bp.nbs0 : num 42.6 46.7 62 34.6 62 ... $ gh.nbs0 : num 54.6 54.6 28.6 28.6 $. vt.nbs0 : num 49.6 49.6 70.4 40.7 58.5 ... $ sf.nbs0 : num 37.3 47.3 37.3 42.3
چگونه می توانم این خطا را در انتساب چندگانه موش برطرف کنم؟
51388
با توجه به یک نمونه مرتب شده i.d $X_{(1)}، \dots، X_{(n)}$ از توزیع پیوسته $F(x)$. چگونه می توان نشان داد که: (1) $\text{Pr}(X_{(k)} \leq x) = \text{P}r(N(x) \geq k)$ که در آن $N(x) $ تعداد مقادیر نمونه کمتر از $x$ است. علاوه بر این، $N(x) \sim \text{Bin}(n، F(x))$ و (2) $p(x) = \frac{n!}{(k-1)!(n-k)! } (F(x))^{k-1}(1-F(x))^{n-k}f(x)$ که در آن $f(x)$ چگالی $F(x)$ است. با شروع با سمت راست برابری داده شده در (1)، با توجه به $N(x) \sim \text{Bin}(n, F(x))$، به نظر می رسد که $\text{Pr}( N(x) \geq k) = 1 - F_{\text{Bin}(n، F(x))}(k-1)$ که در آن $F_{\text{Bin}(n، F(x))}(k)$ CDF برای توزیع دو جمله ای است که در $k$ با پارامترهای $n$ و $F(x)$ ارزیابی شده است. از اینجا، چون (1) برابر است، سمت چپ و سمت راست باید یکسان باشند. با توجه به اینکه عبارت سمت چپ در (1) CDF $X_{(k)}$ است، PDF ($p(x)$) را می توان با حل کردن: $\frac{d}{ پیدا کرد. dx}(1 - F_{\text{Bin}(n، F(x))}(x))$ بنابراین، $p(x)$ داده شده در (2) باید به سادگی $f_{\text{Bin} باشد. (ن، F(x))}$(x). بدیهی است که تلاش من در بالا با راه حل مطابقت ندارد. امیدوارم کسی بتونه با این مشکل کمک کنه
اثبات احتمال با استفاده از نمونه های سفارش داده شده
93033
از من خواسته شده است که یک محاسبه توان انجام دهم زیرا آمارگیر معمولی در دسترس نیست. من در حال محاسبه قدرت برای کارآزمایی هستم که در آن نقطه پایانی درصدی از بیمارانی است که پس از دریافت دارو یا دارونما در یک نقطه زمانی معین به بهبودی نمی‌رسند. نسبت موارد:کنترل 1:1 است. من دو ستون از یک جدول را برای پر کردن دارم (تفاوت مطلق و اندازه نمونه) و اندازه نمونه مورد نیاز را با نرخ پاسخ داده شده محاسبه کرده ام: توان %کنترل %cases Abs Diff حجم نمونه 0.8 35 5 24 0.8 45 15 34 0.8 60 30 42 0.8 35 15 71 0.8 45 25 88 0.8 60 40 97 اندازه نمونه را با استفاده از تابع مقایسه دو نسبت، 'pwr.2p.test'، در بسته R pwr P0 <- c(0.35,0.45,0.60,0.35,0.45,0.60 محاسبه کردم ) P1 <- c(0.05،0.15،0.30،0.15،0.25،0.40) lapply(1:length(P0)، تابع(i) pwr.2p.test(h=ES.h(P0[i]، P1[i])، n=NULL، توان=0.8)) من در تلاش برای شناسایی معنای ستون 'تفاوت مطلق' در این زمینه هستم. کسی می تواند کمک کند؟
محاسبه توان - محاسبه تفاوت مطلق
110064
داشتم روی یک تکلیف کار می کردم. مجموعه داده ها واقعاً ساده بود، فقط شامل یک متغیر مستقل $y$ و متغیر وابسته $x$ بود. شخصی به من پیشنهاد داد قبل از اجرای رگرسیون خطی ساده، هیستوگرام $y$ را ترسیم کنم. او به من گفت که با ترسیم فرکانس در محور y و مقدار $y$ روی محور x، و سپس بررسی اینکه آیا به نظر توزیع نرمال است یا خیر، کمک خواهد کرد، اما نمی‌دانم چرا این موضوع مرتبط است. این ممکن است یک سوال تازه کار باشد، اما هر کمکی عالی خواهد بود! **به روز رسانی:** از آنچه که من متوجه شدم، رگرسیون خطی ساده فرض می کند که $e_i$ از توزیع نرمال پیروی می کند. از آنجایی که $y_i=\beta_0 +\beta_1x_i +e_i$ بر اساس فرض ما، پس $y_i$ نیز از توزیع نرمال پیروی می کند. اما من فکر می کنم این چیزی نیست که هیستوگرام به ما بگوید ...
آیا ترسیم هیستوگرام متغیر وابسته قبل از اجرای رگرسیون خطی ساده ضروری است؟
96004
من یک سوال نظری در مورد مدل های رگرسیون دارم. فرض کنید من چندین پاسخ را از $n$ آزمودنی‌ها اندازه‌گیری کردم و این پاسخ‌ها با یکدیگر همبستگی دارند. برای مثال، فرض کنید من ضربان قلب و دمای بدن را از $n$ افراد با فاکتورهای طبقه‌بندی زیر اندازه‌گیری کردم: جنسیت (مرد/مونث) و سن (جوان/بزرگسال). این کاملاً ممکن است که ضربان قلب و دمای بدن در هر فردی تا حدی با هم مرتبط باشند. با نادیده گرفتن همبستگی بین ضربان قلب و دمای بدن، هر پاسخ را به‌طور مستقل مدل‌سازی می‌کنم: $y_{heart\\_rate} = X\beta_{heart\\_rate} + \epsilon_{heart\\_rate}$y_{body \\_temperature} = X\beta_{body\\_temperature} + \epsilon_{body\\_temperature}$ که در آن X$$ برای دو مدل و دارای ابعاد $n \times 2$ و: $\epsilon_{heart\\_rate} \sim N(0,\sigma^2_{heart\\_rate})$$\epsilon_{body\\_temperature } \sim N(0,\sigma^2_{body\\_temperature})$ اگر بخواهم همبستگی را در نظر بگیرم، $X^*$ را تعریف می کنم به عنوان یک ماتریس مورب بلوکی از $X$. یعنی $X^* = \left( \begin{array}{cc} X & 0 \\\ 0 & X \\\ \end{array} \right)$ and $\epsilon^* \sim N_2(0 ,\left( \begin{array}{cc} \sigma^2_{heart\\_rate} & \rho \\\ \rho & \sigma^2_{body\\_temperature} \\\ \end{array} \right))$ برای سادگی فرض کنیم که $\rho$ (همبستگی بین ضربان قلب و دمای بدن) داده شده است. و مدل من این خواهد بود: $ \left( \begin{array}{c} y_{heart\\_rate}\\\ y_{body\\_temperature}\\\ \end{array} \right) = X^* \left( \begin{array}{c} \beta_{heart\\_rate}\\\ \beta_{body\\_temperature}\\\ \end{array} \right) + \epsilon^*$ سوال من این است که آیا $\hat{\beta}_{heart\\_rate}$ و $\hat{\beta}_{body\\_temperature}$ و خطاهای استاندارد آنها در این دو متفاوت خواهد بود. مدل های مختلف
رگرسیون با ساختار همبستگی
114763
من بیشتر از «توزیع گاوسی» در کتابم استفاده می‌کنم، اما شخصی به من پیشنهاد داد که به «توزیع عادی» بروم. در مورد اینکه کدام اصطلاح برای مبتدیان استفاده شود اتفاق نظر وجود دارد؟ البته این دو اصطلاح مترادف هستند، بنابراین این یک سؤال در مورد جوهر نیست، بلکه صرفاً مربوط به این است که کدام اصطلاح بیشتر استفاده می شود. و البته من از هر دو اصطلاح استفاده می کنم. اما از کدام بیشتر باید استفاده کرد؟
هنگام آموزش آمار از عادی یا گاوسی استفاده کنید؟
104375
من مجموعه‌ای از داده‌های کاربر را دارم و می‌خواهم نوعی معیار برای ارزیابی احتمال sybil بودن کاربر (یک حساب جعلی) ایجاد کنم. **اما** من تعداد بسیار محدودی از کاربران دارم که با اطمینان 100% سیبیل هستند. چگونه از یادگیری ماشینی در اینجا استفاده کنم؟ همچنین، در حال حاضر، من یک معیار اکتشافی بر اساس آن داده ها ساخته ام و باید به نحوی آن را ارزیابی کنم. **به طور خلاصه:** من بخش کوچکی از داده ها را دارم که دارای برچسب هستند و فقط کلاس منفی دارند. و باید معیاری برای ارزیابی کاربران ایجاد کرد. علاوه بر این، من باید خوبی آن معیار را ارزیابی کنم؟ چگونه با این مشکل برخورد کنم؟ **ps** خوب است اگر بتوانم این فرآیند را برای مجموعه داده های بزرگ مقیاس کنم.
متریک تشخیص سیبیل
76590
من درک می کنم که چگونه بهترین تقسیم برای جنگل تصادفی برای پیش بینی کننده های عددی (ویژگی ها) انتخاب می شود. پیش بینی کننده های عددی مرتب می شوند سپس برای هر مقدار ناخالصی جینی یا آنتروپی محاسبه می شود و آستانه ای انتخاب می شود که بهترین تقسیم را به دست می دهد. اما چگونه بهترین تقسیم برای پیش بینی طبقه بندی انتخاب می شود زیرا ترتیب خاصی وجود ندارد؟
چگونه تقسیم را در جنگل تصادفی برای پیش بینی کننده های طبقه بندی (ویژگی ها) انتخاب کنیم؟
103951
من یک مدل رگرسیون لجستیک را با متغیرهای y اصلی و x استاندارد شده برازش کرده ام. ضرایب شیب را می توان به راحتی با $\beta^*_j/\sigma_{x_j}$ به مقیاس اصلی خود برگرداند که در آن $\beta^*_j$ خروجی از مدل برازش شده است. با این حال، من مطمئن نیستم که چگونه می توان تخمین رهگیری اصلی را از خروجی بدست آورد. هر کمکی قابل تقدیر است. با تشکر
رهگیری از ضرایب استاندارد شده در رگرسیون لجستیک
30808
آیا عبارتی برای $\text{cov}(a,bc)$ بر حسب $a$، $b$ و $c$ به طور جداگانه وجود دارد؟ به طور دقیق تر، اگر $\text{cov}(a,b)=0$ و $\text{cov}(a,c)>0$، $\text{cov}(a,bc)=0$ است؟
Cov(a,bc) وقتی Cov(a,b)=0 باشد cov(a,c) صفر نیست
106208
من می‌خواهم خوب بودن ویژگی‌ها را با استفاده از انتخاب ویژگی با اعتبارسنجی متقاطع 10 برابری تفسیر کنم. با ChiSquared چیزی شبیه به این دریافت می‌کنم (حذف ویژگی‌ها با merit در همه موارد 0 بود): میانگین شایستگی مشخصه رتبه متوسط ​​13.632 +- 1.6 1 +- 0 8 E8 یا میانگین شایستگی میانگین رتبه ویژگی 3.957 +- 0.306 2.1 +- 0.54 5 E5 8.015 + 2.672 4.2 +- 8.94 23 E23 1.331 +- 3.994 7 +- 2.1 14 E14 1.095 +- 3.285 9 +- 2.68 8 E8 با SVM می‌گیرم: میانگین شایستگی میانگین رتبه ویژگی 34 +- 0 1 +- 0 ویژگی به کلاس من 31.5 +- 2.335 3.5 +- 2.33 13 E12 30.8 +- 1.887 4.2 +- 1.89 4 E3 30.6 +- 1.908 4.4 +- 1.91 9 E8 28.7 +- 3.407 3.4 + 6.4 + 3.407 2.01 7.4 +- 2.01 20 E19 من نتوانستم توضیحاتی در مورد آنچه اعداد به من می گویند پیدا کنم. آیا فقط یک مقدار نسبی است که بگوییم کدام صفت بهتر از سایرین است یا معنایی پشت آن وجود دارد؟
چگونه با ChiSquaredAttributeEval و SVMAttributeEval امتیازات را در Weka تفسیر کنیم؟
30809
من یک سیستم برنامه دارم که در آن وظایف زیادی وجود دارد. هر کار به مدتی برای اجرا نیاز دارد و سیستم نظارت زمان اجرای هر کار را در پایگاه داده می نویسد. من باید میانگین زمان اجرای هر کار را برای یک دوره زمانی طولانی محاسبه کنم (بسیار بیشتر از نیم سال در حالی که حداقل چهار بار در ماه اجرا می شود، در بدترین حالت یک بار در روز اجرا می شود). متأسفانه من نمی توانم فقط میانگین حسابی را محاسبه کنم زیرا کار را می توان تغییر داد و مدت زمان کار افزایش یا کاهش می یابد. همچنین ممکن است برخی از خطاها در کار وجود داشته باشد و از کار بیفتد و آمار زمان را خراب کند. من فکر کردم که ممکن است مفید باشد که میانگین را فقط در چندین مرحله آخر محاسبه کنم، اما به نظر می رسد اطلاعات کافی مرتبط را به من نمی دهد. بنابراین سوال من این است که چگونه می توان میانگین زمان اجرای کار را با این توضیحات محاسبه کرد؟ ps. مطمئن نیستم باید اینجا باشه
میانگین روی داده ها برای یک دوره زمانی طولانی حساب کنید
79892
من 3 مجموعه داده دو بعدی زیر را دارم. مورد 1: (دو متغیر تصادفی پیوسته) A = 1.3، 2.7، 3.9، 4.7، 5.6، 6.3، 7.5، 8.9، 9.1، 10 B = 7.4، 15.3، 24.4، 25.4، 24.4، 25.4، 3.7، 29.6، 3.7، 29.6. 27.8، 39.1 مورد 2: (یک متغیر تصادفی گسسته و یک متغیر تصادفی پیوسته) C = 1، 1، 1، 1، 1، 0، 0، 1، 0، 1 D = 80.7، 85.3، 83.4، 84.6، 87.8، 87 99.5، 83.5، 79.7، 82.4 مورد 3: (یک متغیر تصادفی پیوسته و یک متغیر تصادفی گسسته) E = 1.3، 2.7، 3.9، 4.7، 5.6، 6.3، 7.5، 8.9، 9.1، 10 F = 1، 1، 1، 1، 1، 0، 0 1، 0، 1 اول، من می خواهم آنها را به عنوان یک احتمال نشان دهم توزیع و سپس می خواهید حداکثر احتمال پارامترهای سیگما 1 و سیگما 2 را تخمین بزنید. قدردان کمک شما هستم..
مجموعه داده ها با توزیع احتمال تا تخمین حداکثر احتمال سیگما 1 و سیگما 2
79899
تابع «p.adjust()» در R پارامتر «n» را می‌پذیرد که به‌طور پیش‌فرض طول بردار مقادیر p را که می‌خواهیم تنظیم کنیم، می‌پذیرد: «p.adjust(p، روش = p.adjust.methods، n = length(p))` در مستندات توضیح n می گوید: > n تعداد مقایسه، باید حداقل طول (p) باشد. فقط زمانی این را تنظیم کنید (روی غیر-> پیش‌فرض) زمانی که می‌دانید در حال انجام چه کاری هستید! این به چه معناست؟ چه زمانی تنظیم آن روی مقداری متفاوت از مقدار پیش‌فرض می‌تواند مفید باشد؟
تصحیح P-value در R: پارامتر n برای چیست و چه زمانی باید از آن استفاده کنم؟
32383
من یک سخنرانی دیدم که این قضیه را ذکر کرد. من اکنون در تلاش برای یافتن جزئیات قضیه هستم، اما هیچ شانسی ندارم. امیدوارم اگر بتوانم به طور تقریبی آنچه را که این قضیه بیان کرد، توصیف کنم، کسی بتواند آن را تشخیص دهد و به من اشاره کند. بنابراین، این قضیه اساساً چیزی شبیه به خود-اطلاعات مورد انتظار شرطی کردن مقدار یک متغیر تصادفی را می‌گوید، همیشه بالاتر از خود-اطلاعات قبلی است. آیا آن زنگ ها را به صدا در می آورد؟
مشروط کردن اطلاعات مورد انتظار را افزایش می دهد؟
55980
بنابراین، من تعداد زیادی امواج مدوله شده با دامنه دارم و سعی می کنم تعیین کنم که کدام پارامتر مدولاسیون هر سری زمانی را مدوله می کند. برای انجام این کار، من هر سری زمانی را در فرکانس تکرار موج مدولاتور تا زدم تا یک شاخص مدولاسیون متوسط ​​برای هر سری زمانی تولید کنم. ![ چپ یک حالت، راست شبیه دو حالت](http://i.stack.imgur.com/eNlC9.jpg) در اینجا یک مثال (بخصوص خوب نیست، اما برای تولید راحت است). منحنی سمت چپ، اگر صاف شود، یک نقطه زمانی ترجیحی ایجاد می کند. سمت راست دو را تولید می کند (ترجیح ضعیف در 7 و ترجیح قوی در 17). از نظر فنی همین امر در مورد سمت چپ تا حدودی صادق است، اما برای بحث، اجازه دهید فعلاً آن را نادیده بگیریم. من می‌خواهم کاری مشابه با تخمین چگالی هسته برای هر سری زمانی انجام دهم و سپس به طور خودکار پیک‌ها را از این شکل تعیین کنم. می دانم که اینها واقعاً توزیع نیستند، اما کاری که می خواهم انجام دهم این است که به طور خودکار تعیین کنم: الف) تعداد پیک ها در هر سری زمانی، ب) مکان این پیک ها. اگر بتوانم A را انجام دهم، B برای من آسان به نظر می رسد. فکر می کنم این به معنای صاف کردن منحنی ها و تعیین حداکثرهای محلی از طریق نوعی پنجره است، اما فکر می کنم برخی از شما کارشناسان آمار ممکن است روش مناسبی برای این نوع چیزها بدانید. پیشاپیش ممنون جوزف
شناسایی خودکار منحنی‌های دو وجهی در تعداد زیادی سری زمانی کوتاه
56188
من در حال کار بر روی یک تحلیل با استفاده از تحلیل عاملی اکتشافی (EFA) با مدل عامل مشترک هستم. این سوال به یک موضوع روش شناختی مربوط می شود. هر گونه بینش از کسی که در مورد EFA می داند قدردانی می شود. ما رفاه افراد را با استفاده از یک نظرسنجی **15 سوال** اندازه گیری کردیم. همان پرسشنامه به همان **100 آزمودنی** در **3 زمان مختلف** داده شد (فاصله های زمانی زیادی بین زمان اجرای نظرسنجی ها وجود داشت، بنابراین ما فرض می کنیم که وابستگی زمانی وجود نداشته باشد [مانند حمل و نقل] اثر]). هدف استفاده از تحلیل عاملی برای تعیین مجموعه ثابتی از عوامل مشترک و سپس محاسبه امتیازات عاملی و مقایسه نمرات آزمودنی ها بین نقاط زمانی است. در زیر استراتژی من برای تجزیه و تحلیل آمده است. آیا این منطقی به نظر می رسد؟ استراتژی تجزیه و تحلیل: همه داده ها را طوری ترکیب کنید که انگار از یک مکان واحد هستند. یعنی یک مجموعه داده با 100 مشاهده از زمان 1 ایجاد کنید و 100 مشاهده از نقطه زمانی 2 را به آن اضافه کنید. سپس 100 مشاهده از نقطه زمانی 3 را اضافه کنید. این یک مجموعه داده ترکیبی با مجموع 300 مشاهده به دست می دهد. با استفاده از داده های فوق، یک مدل EFA را با استفاده از تمام 15 متغیر و 300 مشاهده برازش دهید و فاکتورها را بدست آورید. پس از محاسبه امتیازات فاکتورها، دوباره با داده ها به گونه ای رفتار کنید که گویی از 3 نقطه زمانی مختلف هستند (یعنی 100 آزمودنی که در سه نقطه زمانی اندازه گیری شده اند). امتیازات فاکتورها را با استفاده از آنالیز واریانس تجزیه و تحلیل کنید تا بررسی کنید که آیا نمرات عامل یک عامل بین نقاط زمانی تغییر می کند یا خیر.
تحلیل عاملی اکتشافی با استفاده از داده های طولی تلفیقی
110066
من از الگوریتم حداقل میانگین مربع (LMS) برای تخمین سیگنال در حضور نویز تصادفی و آشفته بالا استفاده کرده ام. مقادیر MSE در دسی بل در هر SNR برای ضرایب مثبت است حتی اگر من به مقیاس Db تبدیل شده باشم. دلیل عدم اجرای LMS چیست؟ برای مدل MA(4)، تخمین ضرایبی که رگرسیورها از نویز آشفته تشکیل شده اند: $$u_t = e_t + a_1e_{t-1} + ...a_2e_{t-4} + AWGN $$ $e_t$ به دست می آید. از یک نقشه لجستیک، بنابراین در طبیعت آشفته است. این مقادیر MSE بین ضرایب تخمینی و واقعی برای SNR SNR مختلف است. کد زیر است. مدل MA $u(t) = s(t) + 0.4s(t-1) + 0.2s(t-4)$ است که از http://www.mathworks.com/help/econ/regression-model به دست آمده است. - with-arima-errors-specifications.html در اینجا $s$ از نقشه لجستیک همانطور که در بالا ذکر شد به دست می آید. سپس به $u(t)$ نویز گاوسی سفید افزودنی اضافه کردم. احتمالاً من در کد کار اشتباهی انجام می دهم. لطفا برای اصلاح کمک کنید با تشکر EDIT %function [e,w]=lms(mu,M,u,d); % تماس: % [e,w]=lms(mu,M,u,d); % % آرگومان های ورودی: % mu = اندازه گام، کم نور 1x1 % M = طول فیلتر، کم نور 1x1 % u = سیگنال ورودی، کم نور Nx1 % d = سیگنال مورد نظر، کم نور Nx1 % % آرگومان های خروجی: % e = خطای تخمین، کم نور Nx1 % w = ضرایب فیلتر نهایی، کم نور Mx1 %مقادیر اولیه: 0 clc پاک کردن همه A= 0.4; B = 0.0; C = 0.0; D = 0.2; M = 4; دستور %مدل %تعداد نمونه سیگنال ورودی N=256; % مطمئن شوید که u و d آزمایش بردارهای ستونی هستند = 5; برای itr = 1: آزمایشات x(1) = rand(); % آن را از مدل MA عبور دهید. برای jj =1 : N x(jj+1) = 4*x(jj)*(1-x(jj)); انتهای s =x; y(1) = 0.0; y(2) = 0.0; y(3) = 0.0; y(4) = 0.0; برای ii =5 : N y(ii) = s(i) + 0.4*s(ii-1) + 0.2*s(ii-4); پایان d=y(:); % سیگنال مورد نظر %u =y; u = awgn(y,0.1,'measured','linear'); % مقیاس خطی %u = awgn(y,40,'measured'); مقیاس %DB u=u(:); w=صفر (M,1); برای n=M:N uvec=u(n:-1:n-M+1); e_samples(n)=d(n)-w'*uvec; % برای سرعت بخشیدن به همگرایی با mu بزرگ شروع کنید و اگر n < 20 mu=0.32 باشد، سرعت را کاهش دهید تا به وزن های صحیح برسید. else mu=0.15; پایان w=w+mu*uvec*conj(e_samples(n)); نمونه های الکترونیکی پایانی = 0; e_coeff(itr,:)= ((w(1)- A).^2) + ((w(2) - B).^2) + ((w(3)- C).^2) + ((w(4)- D).^2))/4 ; W1(itr) = w(1); W2(itr) = w(2); W3(itr) = w(3); W4(itr) = w(4); پایان mse_coeff = mean(e_coeff); MeanSqErr = [mse_coeff mean(W1) mean(W2) mean(W3) mean(W4)]
الگوریتم حداقل میانگین مربع - شک مفهومی
104378
بیایید بگوییم که من مجموعه داده ای با $x_i$ مجزا دارم. یک گاوسی با حداکثر احتمال به آن تعبیه شده است و مقداری $\mu$ و مقداری $\sigma^2$ به دست می‌آورد. من همچنین احتمال $\mathcal{L}$ را بدست خواهم آورد. اکنون، مجموعه داده را در جایی که $\tilde{x}_i = 2 x_i$ تنظیم کرده‌ام، کپی می‌کنم. من یک گوسی دیگر را تخمین می زنم که $\tilde{\mu}، \tilde{\sigma}^2، \tilde{L}$ را به دست می آورد. از آنجایی که من از ML استفاده می کنم، $2 \mu = \tilde{\mu}$، $4 \sigma^2 = \tilde{\sigma^2}$ دریافت خواهم کرد. برخلاف تصور من، $\mathcal{L} \neq \tilde{\mathcal{L}}$. این شاید برای یک گاوسی تک متغیره چندان بد نباشد. اما اگر انتخاب مدل را برای تحلیل عاملی، مدل‌های مخلوط گاوسی یا مدل‌های پیچیده‌تر انجام دهم، چه؟ آیا ترتیب مدل های رتبه بندی شده بر اساس احتمال مربوطه آنها یکسان خواهد بود؟
مقیاس متغیرها و پیامدهای آن در راه حل
32389
من مطالعه مقدماتی خود را در مورد انگیزه یادگیری زبان با استفاده از مقیاس لیکرت 6 درجه ای اما از 0 (کاملاً مخالفم) تا 5 (بسیار موافق) انجام داده ام. متوجه شدم که یکی از همکاران در نظرسنجی خود از 1 تا 6 استفاده کرده است. آیا متغیرهای محاسبه شده من (مجموع و میانگین) همان خواهد بود که از 1 تا 6 استفاده کرده بودم؟ آیا معمولاً توصیه می شود به دلایلی از 0 استفاده نکنید؟ من با SPSS تازه کار هستم، اما توانسته ام بیشتر کارهایی را که باید انجام دهم انجام دهم، اما اکنون نگرانم که ارزش هایم تحریف شده باشند. من نمی دانم چگونه SPSS 0 را به یک معادله اضافه می کند. با تشکر
آیا 0 یک مقدار معتبر در مقیاس لیکرت است؟
93039
در محاسبه معمول VIF برای یک رگرسیون خطی، هر متغیر مستقل/توضیحی $X_j$ به عنوان متغیر وابسته در یک رگرسیون حداقل مربعات معمولی در نظر گرفته می‌شود. یعنی $$ X_j = \beta_0 + \sum_{i=1, i \neq j}^n \beta_i X_i $$ مقادیر $R^2$ برای هر یک از رگرسیون‌های $n$ ذخیره می‌شوند و VIF با $ تعیین می‌شود. $ VIF_j = \frac{1}{1-R^2_j} $$ برای یک متغیر توضیحی خاص. فرض کنید مدل افزودنی تعمیم‌یافته من به شکل $$ Y=\beta_0+ \sum_{i=1}^n \beta_iX_i + \sum_{j=1}^m s_j(X_i) باشد. $$ آیا یک محاسبه VIF معادل برای این نوع مدل وجود دارد؟ آیا راهی وجود دارد که بتوانم عبارات صاف $s_j$ را برای آزمایش چند خطی بودن کنترل کنم؟ متشکرم. http://en.wikipedia.org/wiki/Generalized_additive_model http://en.wikipedia.org/wiki/Variance_inflation_factor
ضریب تورم واریانس برای مدل های افزایشی تعمیم یافته
55981
من سعی کردم $\text{Saving} = a + b_1*\text{Income} + b_2*\text{Wealth}$ را مدل کنم اما متوجه شدم که $\text{درآمد}$ و $\text{Wealth}$ همبستگی بالایی دارند. . من PCA را برای به دست آوردن یک متغیر جدید $\text{New}$ بر اساس مؤلفه اول اعمال کردم. بعد، $\text{Saving} = c + b_3*\text{New}$ را مدل کردم. سپس دو سوال به شرح زیر داشتم: 1. چگونه باید مدل را تفسیر کنم: $\text{Saving} = c + b_3*\text{New}$؟ 2. اگر تفسیر $\text{Saving} = c + b_3*\text{New}$ منطقی نیست، آیا باید $\text{New}$ را با وزن‌های مربوطه (بارگیری) تولید شده توسط PCA جایگزین کنم؟ وزن‌های مربوط به $\text{New}$ 1.5$*\text{درآمد} + 2*\text{Wealth}$ بود. (یعنی باید به جای آن $\text{Saving} = c + b_3*(1.5*\text{Income} + 2*\text{Wealth})$ انجام دهم؟)
چگونه باید متغیر ایجاد شده توسط Principal Component Analysis را تفسیر کنیم؟
82247
من می خواهم یک مدل رگرسیون ترتیبی را با استفاده از شانس های متناسب برازش دهم. من یاد گرفتم که برای شیب های برابر تست کنم تا چیزی در مورد اعتبار مدل بگویم. بنابراین، من یک مدل _با_ شیب های مساوی و یک مدل _بدون_ شیب های یکسان را برازش می کنم (به عنوان مثال با R با استفاده از بسته VGAM). پس از آن، من یک تست Chi-square برای مقایسه هر دو نتیجه انجام می دهم. اگر این تست _معنی_دار نباشد، شیب های مساوی داریم. اگر این تست _معنی_دار باشد، نداریم. یکی از همکاران بیان می کند که این تست ها فاقد قدرت هستند. با چنین توان پایینی، ممکن است این اتفاق بیفتد که آزمون معنی‌دار نباشد (به عنوان مثال $p=.2$) در حالی که شیب‌های متفاوتی وجود دارد. سوالات من این است: 1. آیا روش قدرتمندتری برای آزمایش شیب های مساوی وجود دارد؟ 2. آیا راه های دیگری برای آزمایش اعتبار مدل وجود دارد؟ Thx پیشاپیش!
نحوه اعتبارسنجی شیب های برابر (شانس های متناسب) در رگرسیون ترتیبی
111520
من سیستمی دارم که بهترین مدل (بهترین ورودی ها و پارامترهای MLP/SVM) را در یک مشکل مالی برای هر پایگاه داده درج شده پیدا می کند و یک مدل خاص برای یک نمونه داده خاص ایجاد می کند. من از اعتبارسنجی متقاطع 5 برابری استفاده می کنم که 5 بار تکرار می شود (برای افزایش قابلیت اطمینان سیستم من) برای تابع هزینه الگوریتم بهینه سازی خود، بنابراین در پایان بهترین 25 مدل را پیدا خواهم کرد که اکنون برای داده های نمونه استفاده می شود. وقتی داده‌های نمونه را به این 25 مدل وارد می‌کنم، در برخی موارد، خروجی‌های کمی متفاوت دارم (من یک مدل MLP طبقه‌بندی دارم که می‌تواند احتمال ایجاد کند). این یکی از خروجی ها است: 0.380032703، 0.356491904، 0.369914169، 0.377588996، 0.425321986، 0.382467546، 0.382467546، 0.356491904، 0.30391404 . 0.403619213، 0.406236551، 0.422529236، 0.393108809، 0.309808029، 0.357776713، 0.337373411، 0.337373411، 0.337373411، 0.397 این قسمت ها را با هم تفاوت دارند. مجموعه ها و مجموعه های تست برای ایجاد مدل. چیزهای دیگر مانند ورودی ها و پارامترها یکسان هستند. من باید فقط یک احتمال برای هر نمونه خروجی داشته باشم. رویکرد اول من استفاده از میانگین بود. من از پیشنهادات شما برای ایجاد یک احتمال قوی از این احتمالات می خواهم. وقتی سایر خروجی های نمونه را بررسی می کنم، در بسیاری از موارد تفاوت کم است اما در برخی موارد تفاوت بین احتمالات زیاد است. نظر شما در مورد این مشکل چیست؟ با تشکر
چگونه میانگین احتمالات را در MLP یا SVM محاسبه کنیم؟
65341
می دانیم که تفاوت مارتینگل فرضی ضعیف تر از وابستگی و قوی تر از غیر همبستگی است. همین امر در مورد استقلال فرعی نیز صادق است. سوال من این است که استقلال فرعی و تفاوت مارتینگل چگونه به هم مرتبط هستند.
تفاوت مارتینگل در مقابل استقلال فرعی
24935
1\. آیا هیچ گونه قرارداد نامگذاری در مورد کلاه و نماد tilde در آمار وجود دارد؟ دریافتم که $\hat{\beta}$ یک برآوردگر برای $\beta$ (ویکی‌پدیا) توصیف می‌کند، اما همچنین متوجه شدم که $\tilde{\beta}$ یک برآوردگر برای $\beta$ (Wolfram) توصیف می‌کند. آیا تفاوتی در معنی وجود دارد؟ در وب به نوعی تفاوت پیدا کردم اما در مورد معنی مرجع برای نمادهای آمار مطمئن نیستم. در آنجا بین «تخمین پارامترها» و «برآورد متغیرها» تمایز قائل می شود. آیا کسی می تواند اینقدر مهربان باشد که توضیح دهد در چه موردی باید از تایلد و کلاه استفاده کرد؟ 2\. در مورد عملگر انتظار، آیا تفاوتی در $E(X)$ و $E[X]$ و $E\\{X\\}$ در مورد براکت ها وجود دارد؟ من توصیه کردم که از براکت های فرفری استفاده کنم. اما در مورد معنی آن مطمئن نیستم. من قبلاً از پرانتزها فقط برای خواندن/تجسم به جای اشاره به معانی استفاده می کردم. توصیه ای در این مورد دارید؟
نماد برآوردگرها (تیلد در مقابل کلاه)
79891
من یک طبقه بندی دارم. وقتی داده‌های ورودی را به هم می‌زنم (چند بار)، داده‌های آموزشی/آزمایشی می‌سازم و طبقه‌بندی‌کننده را اجرا می‌کنم، دقت بالاست، اما وقتی از اعتبارسنجی متقاطع در sklearn استفاده می‌کنم، 15٪ کاهش می‌یابد (هم یادآوری و هم دقت). تعجب می کنید که مشکل چیست؟ و چگونه آن را تعمیر کنیم؟
اعتبار سنجی متقاطع در مقابل جابجایی
55987
من متغیرهای $Y$، $x_{m1}$، $x_{m2}$، $\ldots$، $x_{mn}$، $x_{p1}$، $x_{p2}$، $\ را دارم ldots$، $x_{pn}$، $x_{q1}$، $x_{q2}$، $\ldots$، $x_{qn}$. $Y$ برچسب کلاس (0 یا 1) است. $x_{mj}$، $x_{pj}$ و $x_{qj}$ را می‌توان به‌عنوان یک نوع ویژگی در نظر گرفت، اما ترکیب متفاوت سه ویژگی می‌تواند $Y$ متفاوت را پیش‌بینی کند. در واقع، $x_{m1}$، $x_{m2}$، $\ldots$، $x_{mn}$، $x_{p1}$، $x_{p2}$، $\ldots$، $x_{ pn}$ و $x_{q1}$، $x_{q2}$، $\ldots$، $x_{qn}$ از سه زیر کلاس آمده اند. برچسب زیرکلاس ها $Y$ نهایی را تعیین می کند. من چنین مجموعه داده ای دارم، می خواهم با رگرسیون لجستیک استنتاج کنم و سپس از مدل جدید برای پیش بینی $y$ جدید با توجه به $x$ استفاده کنم. ساده ترین روش این است که هر $x$ را مستقل در نظر بگیرید و رگرسیون لجستیک را انجام دهید، به نظر من این روش موثر نیست، استفاده از تعامل ممکن است انتخاب دیگری باشد. آیا کسی می تواند به من بگوید که چگونه این مشکل را حل کنم یا با استفاده از مدل های دیگر پیشنهاد دیگری داشته باشد.
استفاده از رگرسیون لجستیک برای برازش یک مجموعه داده عجیب و غریب
79897
من به زمینه پیش بینی مصرف انرژی علاقه دارم و چون در مرحله یادگیری هستم به دنبال کدهای منبع و نمونه هستم. دقیقاً من به پیش بینی با رویکرد شبکه های عصبی علاقه مند هستم. دیروز لینک مسابقه پیش بینی عصبی را در CV پیدا کردم اما متاسفانه هیچ نتیجه و کد منبعی پیدا نکردم. همچنین، من علاقه مند به روش هایی هستم که برای حل مشکلات مجموعه داده های داده شده استفاده می شود. آیا می توانید با چند پیوند یا راهنمایی در مورد اینکه کجا می توانم مجموعه داده ها و راه حل هایی را در این زمینه پیش بینی انرژی پیدا کنم به من کمک کنید؟
نمونه های منبع داده پیش بینی NN
82245
در 6 جنگل، من 3 متغیر دارم که مقادیر آنها را برای همه درختان می دانم: $height$، $diameter$ و $density$. من فقط می توانم تعدادی از درختان را قطع کنم تا از جرم دلارشان بدانم. سوال این است که چگونه درختان را برای قطع انتخاب کنیم؟ همانطور که من یک مدل خطی فرض کردم مانند: $ Mass = a_1 قطر + a_2 ارتفاع + a_3 چگالی + a_4$ (یا همانطور که در پاسخ ذکر شد $log(جرم) = a_1 log(قطر) + a_2 log(ارتفاع) + ثبت a_3 (تراکم) + a_4$)، فکر کردم واریانس نمونه‌برداری را به حداکثر برسانم تا بهترین برازش را داشته باشم. آیا استفاده از تجزیه و تحلیل مؤلفه اصلی بر روی 3 متغیر و سپس انتخاب گسترده ترین نمونه در 2 محور اول PCA صحیح است؟ آیا روش دیگری برای انتخاب نمونه گیری با به حداکثر رساندن واریانس بر روی متغیرهایی که قبلاً می شناسم وجود دارد؟ متشکرم.
نمونه برداری با استفاده از PCA و به حداکثر رساندن واریانس
24934
آیا ابزار خط فرمانی وجود دارد که جریان اعداد (در قالب ascii) را از ورودی استاندارد بپذیرد و آمار توصیفی اولیه را برای این جریان، مانند حداقل، حداکثر، میانگین، میانه، RMS، چندک و غیره ارائه دهد؟ خروجی قابل تجزیه با دستور بعدی در زنجیره خط فرمان است. محیط کاری لینوکس است، اما گزینه های دیگر مورد استقبال قرار می گیرد.
ابزار خط فرمان برای محاسبه آمار اولیه برای جریان مقادیر
82249
من یک تازه کار در تجزیه و تحلیل اجزای اصلی (PCA) هستم. من باید PCA را برای مجموعه داده‌های متشکل از آمار شمارش انجام دهم: همه داده‌ها اعداد صحیح مثبت هستند. قبل از PCA داده ها باید نرمال شوند. کم و بیش استاندارد است که این کار را با کم کردن میانگین و تقسیم بر انحراف معیار در متغیر بر روی مجموعه نمونه انجام دهیم. نمی دانم که آیا این برای مجموعه داده هایی که بسیار کج هستند مناسب است یا خیر.
نحوه عادی سازی داده های توزیع شده پواسون قبل از PCA
106206
من داده پانل دارم و برای معادله زیر معادله $$ logY = \beta_1 + \beta_2 logX + \beta_3 m logW $$ مشکل با ضریب $\beta_3$ است. از آنجایی که m خارج از log است و مقدار بسیار کمی است، مجموع $mlogW$ بسیار کوچک است و ضریب حاصل بسیار بزرگ است (به هزار). یک جایگزین استفاده از استانداردسازی است، اما اگر متغیرها را استاندارد کنم، نتایج من به شدت تغییر می کند. راه حلی که من به آن فکر کردم این بود که متغیر را با ثابتی مانند 10000 ضرب کنم. بنابراین معادله جدید تبدیل می شود: $$ logY = \beta_1 + \beta_2 logX + \beta_3 m logW*10000 $$ سوال من این است که آیا این یک کار درستی است؟ فقط برای گزارش دادن ضرایب باید بزرگی ضرایب را تغییر دهد، اما در واقع وقتی من آن را در 1000 یا 10000 ضرب می کنم، رفتار همه ضرایب دیگر را تغییر می دهد. یا راهی برای استانداردسازی ضرایب بعد از تخمین وجود دارد؟ از آنجایی که من داده های تابلویی دارم، تقسیم و ضرب با انحرافات استاندارد پیچیده به نظر می رسد. آیا ایده ای دارید که چگونه آن را عملی کنید؟ متشکرم
استانداردسازی ضریب تک در تحلیل چند متغیره
64431
اجازه دهید $X_1$ و $X_2$ متغیرهای تصادفی غیرمنفی گسسته با $E(X_1) \le E(X_2)$ باشند. تابع $f$ را با خصوصیات زیر فرض کنید: * $f$ مثبت است، یعنی $f(x) \ge 0$ * $f$ (به شدت) یکنواخت در حال افزایش است * $f$ مقعر است حدس می زنم که $E( f(X_1)) \le E(f(X_2))$ اما مرجع مناسبی پیدا نکردم. آیا می توانید یک مرجع برای اثبات این موضوع (یا یک ویژگی کلی تر که دلالت بر این مورد دارد) و/یا طرح ایده اصلی اثبات ارائه دهید؟ نکته: مورد مشخصی که برای آن به این ویژگی نیاز دارم، برای متغیرهای تصادفی $X_1,X_2$ است که به $[0,1]$ و $f(x) = 1-(1-x)^n$ برای $n ارزیابی می شود. \in\mathbb{N}، n \ge 1$.
رابطه محاسباتی بین مقادیر انتظاری متغیرهای تصادفی تبدیل شده
34360
من نقد نمودارهای دایره ای را همانطور که در اینجا به آن اشاره می شود درک می کنم: مشکلات نمودارهای دایره ای با این حال، پاسخ بالا (و کتابچه راهنمای R) همیشه نمودارهای نقطه ای از کلیولند را به عنوان جایگزین ذکر می کند. سوال من این است که چرا نمودارهای نقطه ای جایگزین در نظر گرفته می شوند؟ به نظر می‌رسد که نمودارهای نقطه‌ای فقط زمانی اعمال می‌شوند که: 1. مجموعه داده‌ها نسبتاً کوچک باشند (به طوری که شاید حتی با چشم شمارش نقاط در نمودار، هر نقطه مربوط به یک نقطه داده باشد، و 2. آنها در نظر گرفته نشده‌اند. به نظر می رسد که هدف اصلی نمودار دایره ای نشان دادن این واقعیت است که دسته ها باید به 1 یا 100 درصد برسد نمودارهای نقطه‌ای می‌توانید مقدار اصلی هر دسته را نشان دهید، اما مشخص نیست که یک مقدار خاص چه کسری از همه دسته‌ها است. به عنوان نمودار نقطه ای با یک میلیون نقطه (حتی اگر تعداد دسته ها کم باشد) عجیب به نظر می رسد و ممکن است به یک نمودار میله ای تبدیل شود یک جایگزین و شاید چند نمونه از نمودارهای نقطه‌ای را برای سایر جایگزین‌های کمی نمودارهای دایره‌ای (مانند نمودارهای میله‌ای؟) ارائه دهید.
نمودارهای دایره ای در مقابل نمودارهای نقطه ای
24932
من قوانین ترکیب خطاهای تجربی در مجموع، تفاوت ها و نسبت ها را درک می کنم (همانطور که در اینجا توضیح داده شد)، اما وقتی یک خطای آزمایشی را میانگین می گیریم چه اتفاقی می افتد؟ مثلاً اندازه‌گیری خط‌کش طول سوسک‌ها که همگی مقادیری مانند 12.3 سانتی‌متر $\pm $ 2 میلی‌متر دارند. من می توانم توضیحات زیادی را در وب در مورد نحوه جمع و ضرب مقادیر مشابه با یکدیگر پیدا کنم، اما وقتی به طور متوسط ​​(مثلاً) 10 اندازه گیری می کنید، چه اتفاقی برای خطا رخ می دهد؟
ترکیب خطای تجربی در یک میانگین