_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
53410 | من داده های خود را (ماتریسی از مجاورت های بیان شده توسط کسینوس بین 94 شی) به خوشه ها با روش سلسله مراتبی Ward تقسیم کرده ام و از نظر بصری از نتایج بسیار راضی هستم. با این حال، من می خواهم بررسی کنم که آیا کیفیت خوشه ها خوب است یا خیر. به من گفته شده است که برای روش وارد، آماری که می تواند برای بررسی خوب بودن خوشه ها مفید باشد عبارتند از: * ضریب همبستگی cophenetic، * میانگین مربعات خطای نرمال شده، * میانگین خطای مطلق نرمال شده. با این حال، من نمی دانم چگونه آنها را بخوانم. من ضریب همبستگی خیلی پایینی دارم. (0.56) که بد به نظر می رسد، زیرا همبستگی های خوب به طور متوسط بالای 0.80 است. سپس من یک NMSE 351.14 و NMAE 17.24 دارم. این بد است؟ آیا این خوب است؟ چگونه بگویم؟ | کیفیت خوشه بندی: میانگین مربعات خطای نرمال شده یا خطای مطلق؟ |
8791 | بهترین روشی که می توانم برای توصیف این سوال فکر کنم این است که مثالی بزنم: تصور کنید یک کشتی در اطراف اقیانوس آرام در مسیری ناشناخته (احتمالاً تصادفی) در حال حرکت است. برخی از این کشتیهای پیشاهنگ ابزار بهتری دارند یا خدمه قابل اعتمادتری نسبت به بقیه دارند، بنابراین من وزن دقیقی برای هر یک از آنها تعیین میکنم. اگر کشتی ساکن بود، جمعآوری تمام گزارشها و محاسبه منطقهای که کشتی در آن قرار دارد (با احتمال زیاد.) مشکل سادهای خواهد بود. بدیهی است که گزارشهای جدیدتر باید وزن بیشتری داشته باشند و گزارشهای قدیمیتر باید محو شوند، بنابراین مکان محاسبهشده کشتی در طول زمان تغییر میکند. من شروع به تلاش برای طراحی چیزی شبیه به این کردم اما فکر می کنم دارم آن را خیلی پیچیده می کنم. آیا نامی برای این نوع مشکل وجود دارد؟ آیا پیشنهادی برای یک روش خوب برای حل آن دارید؟ با تشکر | اندازه گیری های گسسته وزنی یک مقدار در طول زمان تغییر می کند |
50550 | آیا ممکن است دقت و فراخوانی هر دو برابر با 1 باشد. اگر چنین موردی وجود داشته باشد، آیا به این معنی است که سیستم بیش از حد برازش داده است؟ | سوال در مورد دقت و یادآوری |
70969 | آیا کسی می تواند به من کمک کند تا فرمول همبستگی پیرسون را بفهمم؟ نمونه $r$ = میانگین حاصل از نمرات استاندارد متغیرهای $X$ و $Y$. من به نوعی درک می کنم که چرا آنها باید $X$ و $Y$ را استاندارد کنند، اما چگونه می توان محصولات هر دو امتیاز z را درک کرد؟ به این فرمول «ضریب همبستگی محصول-لحظه» نیز میگویند، اما منطق عمل محصول چیست؟ مطمئن نیستم که سوالم را روشن کرده باشم یا نه، اما فقط میخواهم فرمول را به طور مستقیم به خاطر بسپارم. | چگونه فرمول ضریب همبستگی را بفهمیم؟ |
95065 | اگر با p(x|y) و p(x|z) شروع کنم آیا راهی برای ایجاد توزیع احتمال شرطی مورد انتظار به شکل p(x|(y,z)) وجود دارد؟ همه متغیرها دسته بندی هستند. مشکل خاص من با همترازی چند توالی DNA سر و کار دارد. به طور انتزاعی، من یک مجموعه داده دو بعدی دارم، که در آن هر موقعیت می تواند یکی از چهار مقدار {G,A,C,T} را داشته باشد. ردیف ها ژنوم هستند و ستون ها در موقعیت های هم تراز در ژنوم های مختلف هستند. من می خواهم راهی برای قضاوت در مورد اینکه آیا مقدار مشاهده شده با توجه به اطلاعاتی که در مورد سطر و ستونی که در آن مشاهده شده است تعجب آور است یا خیر. هدف من شناسایی مناطقی از یک کروموزوم (بخشی از یک ردیف، ~ 1000 ستون) است که در آن مقادیر مشاهده شده بر اساس ویژگی های ردیف و ستون های خاص پیش بینی نشده اند. من به راحتی می توانم احتمال مشاهده یک نتیجه معین (مثلا x = G) را برای سطر و ستون استنتاج کنم، اما نمی دانم چگونه می توانم این انتظارات را در یک مجموعه واحد از فرکانس های مورد انتظار ادغام کنم. میخواهم بگویم که فرض میکنم Y و Z مستقل هستند، اما نمیدانم که آیا این در این سناریو معنیدار است یا خیر. یکی از محدودیتهای آشکار این است که اگر یک نتیجه خاص توسط یکی از پیشبینیکنندهها ممنوع شود، آنگاه نمیتواند در تقاطع دو پیشبینیکننده رخ دهد. به عنوان مثال، اگر ستون یکنواخت باشد (مثلاً ژنوم ها تک شکلی هستند) پس فرقی نمی کند که توزیع احتمال برای ردیف مورد نظر چقدر باشد. احساس میکنم چیزی بدیهی را از دست دادهام، و یک راهحل شهودی دارم اما نمیتوانم آن را به خودم ثابت کنم. هر گونه پیشنهادی قدردانی خواهد شد. | آیا راهی برای ادغام دو توزیع احتمال شرطی وجود دارد؟ |
97834 | من یک مدل ترکیبی را با استفاده از lme4::glmer برای رگرسیون لجستیک اجرا کردم و به طور مداوم این پیام های هشدار را دریافت کردم. من متوجه شدم که هنوز نتایج منظمی وجود دارد، اما آیا آنها تخمین های دقیقی دارند؟ > glmm.ms1<-glmer(as.formula(paste(paste(y[1], x, sep=~), mix[1], sep=+))، + data=rtf2,control= glmerControl(optimizer=bobyqa, + optCtrl=list(maxfun=100000),family=binomial) پیام های هشدار: 1: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل با max|grad| = 0.8766 (tol = 0.001) همگرا نشد 2: در checkConv(attr(opt، مشتقات )، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: degenerate Hessian با 1 مقدار ویژه منفی > coef(summary(glmm.ms1)) تخمین خطای z مقدار Pr(>|z|) (انتقال) 1.810e+00 6.558e-01 2.760464 5.772e-030304e. 2.770e-01 -12.059620 1.726e-33 cldaysbirth -1.555e+00 5.224e-01 -2.975934 2.921e-03 rotaarm -2.057e-01 3.209e-01 -0.6411-0.6415 -3.072e-01 2.955e-01 -1.039510 2.986e-01 bfh2 -1.043e+01 1.160e+03 -0.008996 9.928e-01 bfh3 4.653e-01 bfh3 4.653e-01 bfh2 3.330e-01 bfh4 2.547e-01 4.994e-01 0.509966 6.101e-01 bfh5 3.744e-01 9.926e-01 0.377213 7.060e-102-010 5.928e-02 -1.720396 8.536e-02 جنس مذکر -4.008e-01 2.645e-01 -1.515453 1.297e-01 epiexlbf 6.078e-04 2.796e-04 2.796e-04 2.796e-01796e-1.515453 haz.epi -7.211e-02 1.373e-01 -0.525039 5.996e-01 cldaysbirth:rotaarm 6.928e-01 4.771e-01 1.452148 1.465e-2-01 rotaarth 3.352e-01 1.545527 1.222e-01 پیام های اخطار: 1: در vcov.merMod(object, use.hessian = use.hessian): ماتریس واریانس کوواریانس محاسبه شده از تفاضل محدود Hessian به متغیر مثبت برگشت نمی دهد- سقوط می کند: cov برآورد شده از RX 2: In vcov.merMod(ابژه، همبستگی = همبستگی، sigm = sig): ماتریس واریانس-کوواریانس محاسبه شده از تفاضل محدود Hessian قطعی مثبت نیست: بازگشت به var-cov تخمین زده شده از RX به دلیل حساسیت داده ها، نمی توانم آن را پست کنم کل فرآیند تولید پیام های مشابه، اما من می خواهم بدانم چگونه با این هشدارها رفتار کنم. فکر نمیکنم اینجا چشمم نابینا باشه. | پیام های هشدار از مدل مختلط (گلمر) |
8420 | به غیر از gapminder.org، لطفاً می توانید من را به نمونه های خوبی (تعاملی یا ایستا) از تجسم هایی که بین کشورها مقایسه می شود راهنمایی کنید؟ با تشکر | نمونه هایی از تجسم شامل مقایسه بین کشورها؟ |
108934 | > بن یک سکه دارد که او ادعا می کند به گونه ای وزن دارد که وقتی آن را برمی گرداند، سرها بیشتر از 50٪ مواقع ظاهر می شوند. او سعی می کند با 100 بار ورق زدن سکه به شما ثابت کند که نتیجه آن 60 سر است. > > این ادعا را آزمایش کنید که نسبت جمعیت سرهای حاصل از > زدن این سکه در واقع بیش از 50 درصد است. از سطح 1% > معنی دار استفاده کنید. > > توزیع نمونهای را که استفاده میکنید، مشخص کنید، مقدار آمار آزمون > چقدر است، سپس P-value را پیدا کنید. می دانم که سطح معنی داری 0.01 است. من فقط در مورد چگونگی یافتن فرضیه های صفر و جایگزین گیر کرده ام. $\rm H_0$: آیا μ = 60 خواهد بود، زیرا این میانگین تعداد هدهای او است، و $\rm H_1: μ > 60$؟ متشکرم. | فرضیه های صفر و جایگزین کدامند؟ آیا از تست چپ، راست یا دو دم استفاده خواهید کرد؟ |
8798 | در غیاب حدسهای پیشینی خوب در مورد تعداد مؤلفههای درخواستی در تجزیه و تحلیل مؤلفههای مستقل، من به دنبال خودکار کردن فرآیند انتخاب هستم. من فکر می کنم که یک معیار معقول ممکن است عددی باشد که شواهد کلی برای همبستگی بین اجزای محاسبه شده را به حداقل برساند. شبه کد این رویکرد در اینجا آمده است: برای هر تعداد مؤلفه نامزد، n: ICA را اجرا کنید و n را به عنوان تعداد مؤلفه های درخواستی برای هر جفت (c1,c2) از مؤلفه های حاصل مشخص کنید: یک مدل را محاسبه کنید، m1: lm (c1 ~ 1) را محاسبه کنید. مدل، m2: نسبت احتمال محاسبه lm(c1 ~ c2) (AIC(m2)-AIC(m1) ) نشان دهنده احتمال نسبی همبستگی بین c1 و c2 محاسبه میانگین نسبت احتمال ورود به سیستم در بین جفت ها تعداد نهایی مؤلفه ها را انتخاب کنید که میانگین احتمال ورود به سیستم ارتباط مؤلفه را به حداقل می رساند. از مؤلفهها، زیرا ICAهای حاصل از چنین نامزدهایی باید مجبور شوند اطلاعات را از مؤلفههای واقعی منفرد در چندین مؤلفه تخمین زده توزیع کنند و میانگین شواهد را افزایش دهند. همبستگی بین جفت اجزا. آیا این منطقی است؟ اگر چنین است، آیا راه سریعتری برای دستیابی به یک متریک مجموع ارتباط در بین اجزای تخمین زده شده نسبت به روش میانگین ثبت احتمالسنجی پیشنهاد شده در بالا (که میتواند از نظر محاسباتی نسبتاً کند باشد) وجود دارد؟ اگر این رویکرد منطقی نباشد، یک روش جایگزین خوب ممکن است چگونه باشد؟ | چگونه می توانم تعداد مؤلفه ها را برای تجزیه و تحلیل مؤلفه های مستقل انتخاب کنم؟ |
93130 | من در http://www.unesco.org/webworld/idams/advguide/Chapt5_2.htm خواندم که این درجات آزادی بود که باید استفاده کنم، اما دلیل آن را نمیدانم. درک من این بود که آزمون های t به طور کلی دارای n-1 درجه آزادی هستند. | هنگام انجام آزمون t برای معنی داری ضریب رگرسیون، چرا درجات آزادی n - پیش بینی کننده ها - 1 است؟ |
1272 | من مجموعهای از دادهها را دارم که از انواع مختلف (قابل اندازهگیری، طبقهبندی) تشکیل شده است، بهعنوان مثال: نام اندازهگیریپذیر_ویژگی_1 categorical_attribute_1 measurable_attribute_2 categorical_attribute_2... تعداد ویژگیها ممکن است به سرعت در طول مطالعه من رشد کند: در صفحهگستردهام، من میتوانم به تعداد موارد جدید. ویژگی... من حدود صد مورد در این طرح طبقه بندی دارم، حدود 70 ویژگی، تا کنون، و من در ابتدای جمع آوری داده های خود هستم. من می خواهم تجزیه و تحلیل آماری این مجموعه داده را انجام دهم. به عنوان مثال، ویژگی های مشترک ورودی هایی که دارای یک categorical_attribute مشابه و این محدوده از مقادیر measurable_attribute هستند، چیست. خوب، من می خواهم روابط بین ویژگی ها را برای ایجاد تصاویر آموزشی ایجاد کنم. با این حال، من مطمئن نیستم که چگونه داده ها را قبل از طبقه بندی سازماندهی کنم. با وجود این، آیا باید داده ها را سازماندهی کنم؟... (اشاره به این سوال) همچنین، به سختی می توانم ورودی های کلاس ها را جمع آوری کنم. بدیهی است که نمیخواهم تعصبی را معرفی کنم. من همچنین در تجزیه و تحلیل آماری کاملاً تازه کار هستم (اما مشتاق یادگیری هستم). | نحوه سازماندهی یک مجموعه داده با چندین ویژگی |
95061 | برای یک پروژه، من برخی از اطلاعات اولیه در مورد آب و هوا، و برخی از اطلاعات اولیه در مورد تولد را جمع آوری کرده ام. هر دو مجموعه داده بر روی یک ایالت واحد، ماساچوست متمرکز شده اند. مجموعه آب و هوا حاوی اطلاعات بسیار ابتدایی است: رویداد آب و هوا (تگرگ، طوفان زمستانی، و غیره)، و ماهی که در آن رخ داده است. به طور مشابه، سوابق تولد صرفاً کل تولدها در یک ماه معین است. مجموعه داده های تولد شامل سوابق 2007-2011 است. مجموعه آب و هوای زمستان شامل رکوردهای 1996-2013 است. بنابراین من فقط از برخی از سوابق آب و هوای زمستان استفاده خواهم کرد. هدف این پروژه تا حدودی زبان زد است، اما ماهیت جدی دارد. امیدوارم ببینم آیا ارتباطی بین رویدادهای جدی آب و هوای زمستان (در یک ماه معین) و افزایش تعداد تولدها در 9 ماه بعد وجود دارد یا خیر. یعنی آیا طوفان های بد مردم را در خانه نگه می دارند و آیا این منجر به تولد بیشتر می شود. من انتظار دارم افزایشی را نسبت به خط پایه مشاهده کنم، زمانی که یک افزایش مشابه در رویدادهای جدی آب و هوایی زمستانی وجود دارد. من به دنبال کسی نیستم که این پروژه را برای من انجام دهد، اما نکات و پیشنهادات بسیار استقبال می شود. من قصد داشتم از استخراج قوانین انجمنی (و بسته قوانین) برای رسیدن به این هدف استفاده کنم، اما هیچ موفقیتی نداشتم. حدس میزنم دادههای من بهعنوان «دادههای تراکنش» سازماندهی نشدهاند، بنابراین مطمئن نیستم که از چه نوع تکنیک دادهکاوی در اینجا استفاده کنم (من فقط تجربه محدودی با قوانین داشتهام). **هیچ پیشنهادی دارید؟** با استفاده از rbind، من قبلاً این دو مجموعه داده را در دو فایل مجزا ترکیب کرده ام که حاوی تمام اطلاعات مربوطه است. **combined.weather1** <\- شامل سه متغیر (YEAR، MONTH، EVENT_TYPE) و 2750 مشاهده است. این شامل اطلاعات 1996-2013 است. متغیر YEAR عدد صحیح است، در حالی که متغیرهای MONTH و EVENT_TYPE فاکتور هستند. **birth.data** <\- شامل سه متغیر (YEAR، MONTH، BIRTH_TOTAL) و شصت مشاهده است. این شامل داده های 2007-2011 است. متغیر YEAR عدد صحیح است، در حالی که متغیرهای MONTH و BIRTH_TOTAL فاکتور هستند. برای پیچیده تر کردن همه چیز، می خواهم برخی از رویدادهای جوی زمستانی کمتر جدی را رد کنم، مانند تگرگ، یخبندان/یخ زدگی و آب و هوای زمستان. شایان ذکر است، در هیچ یک از این رکوردها مقادیر گمشده یا NA وجود ندارد. داده ها تمیز و کامل هستند (و برای همیشه طول کشید تا آماده شوند!). بنابراین، قبل از هر چیز باید یک تکنیک داده کاوی را انتخاب کنم. از آنجا، اگر کسی بتواند در مورد نحوه تنظیم آن برای مقایسه این دو مجموعه داده ساده، در حالی که تفاوت 9 ماهه بین برخی رویدادهای آب و هوای زمستانی و افزایش (احتمالی) تولدها را در نظر بگیرد، کمک کند، بسیار سپاسگزارم. ویرایش: اضافه کردن نمونه ها، در هر درخواست. dput(combined.weather1[1:10])، ساختار(فهرست(YEAR = c(1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, 1996L, NAME ، 5L، 5L، 5L، 5L، 5L، 5L، 5L، 5L)، .Label = c(آوریل، آگوست، دسامبر، فوریه، ژانویه، ژوئیه، ژوئن، مارس، مه، نوامبر، سپتامبر، اکتبر، آوریل، «آگوست»، «دسامبر»، «فوریه»، «ژانویه»، «ژوئیه»، «ژوئن»، «مارس»، «مه»، «نوامبر»، «اکتبر»)، کلاس = «عامل»)، EVENT_TYPE = ساختار(c(2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L), .Label = c(تگرگ، برف سنگین، طوفان زمستانی، آب و هوای زمستانی، طوفان یخ، یخبندان/یخبندان، آب و هوای زمستانی، کولاک)، کلاس = عامل))، .Names = c(YEAR، MONTH_NAME، EVENT_TYPE)، row.names = c(NA, 10L)، class = data.frame) dput(birth.data[1:10,]) structure(list(YEAR = c(2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, 2007L, structure) (c(5L, 4L, 8L، 1L، 9L، 7L، 6L، 2L، 12L، 11L)، .Label = c(آوریل، آگوست، دسامبر، فوریه، ژانویه، ژوئیه، ژوئن، مارس، مه، نوامبر، اکتبر، سپتامبر)، کلاس = عامل)، BIRTH_TOTAL = ساختار(c(29L, 9L, 49L, 27L, 57L, 52L, 58L, 59L, 36L, 41L), .Label = c(5,414, 5,459, 5,515, 5,627, 5,667, 5730، 5754، 5801، «5833»، «5853»، «5925»، «5976»، «5979»، «5981»، «6040»، «6051»، «6070»، «6.085»، «6135»، «6158»، «6162» ، 6194، 6198، 6208، «6212»، «6221»، «6227»، «6242»، «6250»، «6260»، «6261»، «6318»، «6341»، «6.342»، «6380»، «6385»، «6396» ، 6،438، 6،444، 6،459، «6466»، «6469»، «6489»، «6506»، «6509»، «6510»، «6520»، «6531»، «6،570»، «6،583»، «6،616»، «6،735»، «6،781» ، 6803، 6820، 6834، 6858، 6933، 7291)، کلاس = عامل))، .Names = c(YEAR، MONTH، BIRTH_TOTAL)، row.names = c(NA, 10L) class = data.frame) ویرایش 2: من پیشنهادات زیر را تکمیل کردم. هر فریم داده بیشتر اصلاح شده است (فضاهای حذف شده، تبدیل به عددی، اضافه کردن متغیرهای DATE و غیره). من اکنون سعی می کنم از تابع ccf() برای یافتن ارتباطی بین رویدادهای شدید آب و هوایی زمستانی و افزایش (احتمالی) در تولدهای نه ماه بعد استفاده کنم. من کد اصلی حذف شده را در زیر قرار داده ام. در حال حاضر، من نوشته ام | استفاده از R-Studio برای داده کاوی برای مقایسه مجموعه داده های مختلف با یکدیگر، به صورت ناهمزمان |
112450 | من یک پایگاه داده SPSS با 747 بیمار با علائم بیماری و نتایج آزمایشگاهی به عنوان متغیر دارم. با این علائم و نتایج من دو سیستم امتیازدهی ایجاد کرده ام. من نمرات همه متغیرها را جمع می کنم تا به نمره نهایی برسم. با این حال، در یک متغیر من 546 مقدار گم شده دارم. برای 201 بیمار دیگر من این مقدار را دارم. چگونه می توانم با این ارزش های گمشده به بهترین وجه برخورد کنم؟ آیا می توانم از نمونه برداری برای ایجاد امتیاز برای این مقادیر از دست رفته استفاده کنم؟ من برای ایجاد امتیاز نهایی به یک امتیاز در این متغیر نیاز دارم. کسی پیشنهادی داره؟ تشکر بزرگ | مقادیر گمشده در سیستم امتیازدهی بالینی در SPSS |
50551 | من باید رابطه سرب- تاخیر بین 2 مجموعه داده، بروز سالانه یک بیماری و میانگین سالانه داده های یک عامل محیطی را برای 13 سال متوالی بررسی کنم. هر دو مجموعه به طور معمول توزیع نمی شوند و بنابراین، همبستگی باید با همبستگی اسپیرمن ارزیابی شود. اما تحلیل همبستگی متقاطع در SPSS 16، همبستگی در وقفه ها را با روش پیرسون بررسی می کند. SPSS هیچ گزینه ای برای انتخاب روش برای همبستگی متقابل ندارد. چه کاری می توانم انجام دهم تا Spearman's rho برای تاخیرها را بدست بیاورم؟ | همبستگی متقابل با روش اسپیرمن |
9835 | آیا سیستمی برای حل نمادین انتظارات وجود دارد؟ این به نوعی دنبالهی سؤال من است، فهرست ترفندهایی برای حل انتظارات کثیف؟ اساساً، من به دنبال راههایی برای حل یک انتظار کثیف پس از اتمام تمام مسیرهای آشکار هستم. **ویرایش: پسزمینه** من سعی میکنم موارد زیر را برای $\alpha$ (محدود به بزرگتر از 0) به عنوان تابعی از $\sigma_X^2$، $\sigma_Y^2$، و $p$ حل کنم. $E\left[\ln(F) F^\alpha X^2 (X + Y)^2 + \ln(F) F^{2\alpha}(X + Y)^4\راست] = 0$ جایی که: $Y \sim N(0,\sigma_Y^2)$ X = \left\\{ \begin{آرایه}{cc} N(0,\sigma_X^2 ) & p \\\ 0 & (1-p) \end{array}\right.$ که در آن $\sigma_X^2 \gg \sigma_Y^2$ فرض میشود و $p$ است بسیار کوچک (یعنی $X$ یک فرآیند پرش است که بیشتر جرم آن 0 است) $F = F_{|Z|}(|X+Y|)$ جایی که $Z \sim N(0,\sigma_Y^2)$ (یعنی $F$ CDF برای مقدار مطلق یک نرمال است) **ویرایش: پیشینه حتی بیشتر** معادله ای که در بالا سعی می کنم حل کنم شرط مرتبه اول برای مشکل min-MSE: $\min_{\alpha > 0} \left(X^2 - \widehat{X^2}\right)^2 $ که $ \widehat{X^2} = F_{|Z|} \left(|R|\right)^{\alpha}R^2$ و $R = X + Y\,$ تنها متغیر مشاهده شده است. اساساً، من سعی میکنم مربع پرش، $X^2$ را تخمین بزنم (با توجه به اینکه فقط میتوانم فرآیند تجمیع $R$ را مشاهده کنم) با هموار کردن $R^2$. اگر $|R|$ بزرگ باشد، تابع هموارسازی $F_{|Z|}\left(|R|\right)^{\alpha}$ باید نزدیک به 1 باشد و تخمین $X^2$ خواهد بود. نزدیک به $R^2$. اگر $|R|$ کوچک باشد، تخمین $X^2$ نزدیک به 0 خواهد بود. | سیستم هایی برای حل نمادین انتظارات؟ |
22577 | من از بسته «homals» در R استفاده میکنم تا دادههایم را که حاوی متغیرهای طبقهای (اسمی و ترتیبی) و همچنین عددی هستند، بهطور بهینه کمی کنم. هدف من کمی کردن متغیرهای طبقهبندی با استفاده از مقیاسبندی بهینه است. برای دستیابی به این هدف، از محدودیت رتبهای استفاده میکنم، زیرا این امر «تحلیل همگنی را به تحلیل مؤلفه اصلی (با مقیاسبندی بهینه متغیرها) کاهش میدهد». به منظور حفظ تمام اطلاعات موجود در داده، «ndim» را روی تعداد متغیرهای داده تنظیم کردم. متغیرهای طبقه بندی شامل NA هستند. چگونه می توانم داده های کمّی بهینه (به جای ابعاد/مولفه های اصلی) را از نتایج «homals()» به دست بیاورم؟ از آنجایی که من به دنبال اجزای اصلی نیستم، به دنبال objscores نیستم. من تقریباً می توانم کمیت های مورد نظر را استخراج کنم، زیرا از طریق «low.rank» می دانم دقیقاً چگونه هر دسته تغییر می کند. با این حال، این تبدیلها NA را در دادهها شامل نمیشوند و من نیز میخواهم بدانم این مشاهدات گمشده چگونه کمیسازی شدند. از انواع اسناد (Package 'homals' (مستندات بسته)، تجزیه و تحلیل همگنی در R: The Package homals و HOMALS) من نتوانستم بفهمم چگونه این کار را انجام دهم. آیا کسی با بسته homals آشنایی دارد که می داند چگونه این کار را انجام دهد یا کسی می داند که چگونه داده های کمی را از نتایج محاسبه کند؟ | چگونه می توان داده های مقیاس بندی شده بهینه را از هومال ها در R بدست آورد؟ |
111738 | میخواهم پاسخ این سؤال را اصلاح کنم تا مشاهدات وزنی را مجاز بدانم. فکر میکنم تنها کاری که باید انجام دهم وزن دادن به ورودیهای X و Y است. لطفا اگر اشتباه می کنم اصلاح کنید. | رگرسیون محدود و وزنی |
66468 | X در XARMAX مخفف چیست؟ تو اینترنت سرچ کردم ولی پیدا نکردم آیا XARMA وجود دارد؟ با تشکر | X در XARMAX به چه معناست؟ |
50554 | فرض کنید یک نظرسنجی شامل یک متغیر دوگانه با علاقه اصلی است، مانند سیگاری/غیر سیگاری، همراه با ده متغیر دوگانه دیگر. سپس فرض کنید که بروز افراد سیگاری یک رویداد نادر با نسبت جمعیت نامشخص است. هدف این است که تفاوتهای بین افراد سیگاری و غیرسیگاری را از پاسخهای داده شده به ده متغیر دیگر استنتاج کنیم. 70 درصد سیگاری ها مرد هستند. چگونه می توان اندازه نمونه مناسب را تعیین کرد (مثلاً اطمینان 95٪ و فاصله + 5٪)؟ من فرض میکنم $N=Z^2 \frac{P(1-P)}{D^2}$ مناسب نیست. | تعیین اندازه نمونه برای رویداد نادر |
8428 | من در حال تکمیل تجزیه و تحلیل مجموعه بزرگی از داده ها هستم. من می خواهم مدل خطی استفاده شده در قسمت اول کار را بردارم و با استفاده از LME دوباره آن را جابجا کنم. LME بسیار مشابه است با این استثنا که یکی از متغیرهای مورد استفاده در مدل در جلوه های تصادفی استفاده می شود. این داده ها از مشاهدات زیادی (> 1000) در گروه کوچکی از افراد (~ 10) به دست می آید و من می دانم که مدل سازی اثر موضوع بهتر است به عنوان یک اثر تصادفی انجام شود (این متغیری است که می خواهم آن را تغییر دهم). کد R به شکل زیر است: my_modelB <- lm(فرمول = A ~ B + C + D) lme_model <- lme(fixed=A ~ B + C, random=~1|D, data=my_data, method='REML ') همه چیز به خوبی اجرا می شود و نتایج بسیار مشابه هستند. خوب است اگر بتوانم از چیزی مانند RLRsim یا AIC/BIC برای مقایسه این دو مدل استفاده کنم و تصمیم بگیرم که مناسب ترین است. همکاران من نمیخواهند LME را گزارش کنند زیرا راه آسانی برای انتخاب «بهتر» وجود ندارد، حتی اگر فکر میکنم LME مدل مناسبتر است. پیشنهادی دارید؟ | مقایسه LME با LM |
66464 | اجازه دهید $X$ یک $rv$ با مقدار صحیح با $\mathrm{pgf}$$P(s)$ (توابع تولید کننده احتمال) باشد و فرض کنید که $\mathrm{mgf}$$M(s)$ (تولید لحظه) توابع) برای $s∈(-s_0,s_0),s_0>0$ وجود دارد. چگونه می توانیم ثابت کنیم که $M(s)$ و $P(s)$ مرتبط هستند؟ | چگونه نشان دهیم که $\mathrm{mgf}$ $M(s)$ و $\mathrm{pgf}$ $P(s)$ مرتبط هستند؟ |
26407 | آیا مدل خودرگرسیون برداری (VAR) نیاز به توزیع نرمال داده دارد؟ اگر باقیمانده ها توزیع نرمال نداشته باشند چه مشکلاتی وجود دارد؟ | آیا داده ها و باقیمانده های یک مدل VAR باید دارای توزیع نرمال باشند؟ |
32431 | من سعی می کنم با کمک برنامه ریزی ژنتیکی، رگرسیون غیرخطی را روی یک مجموعه داده به دست آمده از طراحی کامل فاکتوریل (سطح 2 و 3) انجام دهم. آیا در تلاش برای ساخت یک مدل رگرسیون غیرخطی با طراحی تمام فاکتوریل مشکل اساسی وجود دارد؟ پیشینه من در آمار نیست، و در جایی خواندم که طراحی فاکتوریل کامل (به ویژه زمانی که سطوح کمی استفاده می شود) قرار است حداکثر برای شناسایی سهم عوامل تعامل و عوامل کلیدی استفاده شود، نه برای رگرسیون غیرخطی کامل. از پاسخ های شما سپاسگزارم... | رگرسیون غیرخطی با برنامهریزی ژنتیکی برای دادههای حاصل از طراحی تمام فاکتوریل |
35774 | من نمی دانم بهترین راه برای استخراج دانش در مورد داده های سری زمانی دوره ای چیست؟ در مورد من، سعی میکنم قیمتهای ساعتی برق تاریخی را تجزیه و تحلیل کنم تا اطلاعاتی در مورد نوسانات آن، زمانی که پیکها اتفاق میافتد، توزیع آن در بین ساعات روز یا چیزی شبیه به آن چگونه است را به دست بیاورم تا بتوانم در مورد زمان گازگیری دستگاهها تصمیم خوبی بگیرم. برای صرفه جویی در هزینه و صرفه جویی در مصرف انرژی ایده اولیه من این بود که سری های زمانی را با محاسبه مقادیر میانگین برای هر ساعت در یک دوره چند ماهه جمع آوری کنم و سپس آنها را برای انتخاب M% ساعت های برتر مرتب کنم و بگویم که آنها به طور متوسط گران ترین هستند و باید از آنها اجتناب کرد. این یک رویکرد بسیار خام است، بنابراین من میپرسم که آیا اشتباه آشکاری مرتکب میشوم و برخی اطلاعات را نادیده میگیرم؟ آیا روش بهتری وجود دارد؟ به نظر من باید از اطلاعاتی در مورد اینکه قیمت های فعلی در مقایسه با میانگین چقدر بالا هستند نیز استفاده شود تا گاهی اوقات مثلاً 3 ساعت از روز و در زمان های دیگر فقط 1 ساعت حذف شود. | چگونه نوسان سری های زمانی دوره ای را تجزیه و تحلیل کنیم؟ |
70080 | فقط تعجب می کنم که چه چیزی را رگرسیون انجام شده با برآوردگرهای واریانس قوی برای داده های خوشه ای می نامید. آیا درست است که بگوییم از رگرسیون OLS با برآوردگرهای واریانس قوی برای دادههای خوشهای استفاده کردهاید، یا اساساً اینطور نیست (یعنی وقتی از برآوردگرهای واریانس قوی برای دادههای خوشهای استفاده میکنید، دیگر OLS را انجام نمیدهید). مرجع عالی خواهد بود | نام رگرسیونی که با برآوردگرهای واریانس قوی برای داده های خوشه ای انجام می شود چیست؟ |
111732 | من از 1 DV و 5 IV استفاده کرده ام. من MR را برای آزمایش یک مدل انجام دادم، سن و جنسیت را در بلوک اول، IV ها را در بلوک دوم، و شرایط تعامل را در بلوک سوم وارد کردم. همه مدل ها قابل توجه هستند. چگونه می توانم اهمیت مدل تعامل را تصحیح کنم زیرا اکنون تأثیر قابل توجهی بر DV نشان می دهد. و به هر حال، آیا باز هم رگرسیون چندگانه سلسله مراتبی نامیده می شود، زیرا من هیچ متغیر تعدیل کننده ای را کنترل نمی کنم (به جز سن و جنسیت که در واقع در مطالعه من تعدیل کننده نیستند)؟ یعنی میتوانم عبارتهای تعاملی را در همان بلوک اضافه کنم یا باید در بلوک دیگری اضافه شوند؟ | اصلاح مدل برهمکنش چون در MR معنادار است |
89862 | من دستگاهی دارم که روی یک موتور پله ای از طریق سیستم تسمه و قرقره می چرخد. من دوست دارم هم دقت موقعیت و هم دقت این حرکت را بدانم. به نظر من این باید با انجام تعداد زیادی اندازه گیری در زوایای تصادفی تعیین شود تا منحنی زنگوله ایجاد شود و سپس با استفاده از جابجایی میانگین از خطای 0 دقت موقعیتی تعریف شود و دقت حرکت به صورت 3 سیگما تعریف شود. . بقیه دفتر عقیده دارند که دقت محدوده خطاها هنگام چرخش به نقاط تصادفی و دقت محدوده خطاها هنگام چرخش به یک نقطه تعیین شده، دور به یک نقطه تصادفی و سپس بازگشت به نقطه تعیین شده است. آیا این فقط من تجربه گذشته خود را در تولید برای مشکلی به کار میبرم که نیازی به آن ندارد یا اینکه روش من شایستگی دارد و بقیه فقط محدوده را مشخص میکنند که واقعاً آن چیزی نیست که میخواهند؟ | تعریف دقت در یک حرکت مکانیکی |
22572 | آیا نرم افزار در نهایت آماردانان را منسوخ می کند؟ چه کاری انجام می شود که نمی توان در رایانه برنامه ریزی کرد؟ | آماردانان چه می کنند که نمی تواند خودکار شود؟ |
89863 | من سعی می کنم بفهمم CNN چگونه کار می کند. من می خواهم از آنها در کار تشخیص شی استفاده کنم. من فکر می کنم که CNN شبکه های بدون نظارت است. سوال اصلی من این است که چگونه می توانم بدون استفاده از اهداف تصویر (برچسب های از پیش تعریف شده)، انتشار برگشتی را برای محاسبه تابع خطا که بر وزن شبکه تأثیر می گذارد، پیاده سازی کنم. | انتشار برگشتی در شبکه های عصبی کانولوشنال |
9836 | آیا کسی می تواند به من مرجع (کتاب/منبع آنلاین) در مورد استفاده از R برای مدلسازی ترکیبی بازاریابی بدهد؟ | مدلسازی آمیخته بازار با R |
8795 | اگر یک سکه را برگردانید و 268 سر و 98 دم بدست آورید، می توانید احتمال عادلانه بودن سکه را از چند طریق محاسبه کنید. یک مشاهده ساده و اکتشافی به احتمال زیاد به این نتیجه می رسد که چنین سکه ای ناعادلانه است. من p-value را در R با این موارد محاسبه کردم: > coin <- pbinom(98, 366, 0.5) > coin*2 [1] 2.214369e-19 این مقدار کوچکتر از 0.05 است، بنابراین ما این فرضیه را رد می کنیم که یک سکه منصفانه اما چه می شود اگر به شما گفته شود که همان سکه 676 بار در طول محاکمه روی آن فرود آمده است. از نظر اکتشافی احتمالاً به همین نتیجه خواهید رسید، اما آیا آزمایشهای معمولی سکههای منصفانه همچنان معتبر هستند؟ در اینجا نموداری برای نشان دادن مشکل وجود دارد:  چه روش های معتبری برای آزمایش این فرضیه وجود دارد که احتمال برابری وجود دارد که یک رویداد در مناطق سایه دار رخ دهد. ? توجه: 629 حرکت مثبت (413 منفی) در تصویر نمودار وجود دارد. کد R که داده ها را تولید می کند: نیاز(quantmod) علامت <- getSymbols(SLV)[,6] تغییر <- (ticker - lag(ticker, 24)) / lag(ticker, 24) change <- na .locf(change, na.rm=TRUE) # برخی از محاسبات دیگر dens <- density(change) plot(dens) # برخی از موارد قالب بندی | آیا می توان آزمایش سکه منصفانه را برای سکه ای که اغلب روی لبه آن قرار می گیرد اعمال کرد؟ |
26401 | در اینجا چند داده شبیه سازی شده وجود دارد: library(mvtnorm) I <- 3 # موقعیت (ضریب ثابت) J <- 4 # لوله (ضریب تصادفی) K <- 4 # تکرار n <- I*J*K set.seed(123) لوله <- rep(1:J، هر=I) موقعیت <- rep(LETTERS[1:I]، times=J) Mu_i <- 3*(1:I) Mu_ij <- c(t(rmvnorm(J, mean=Mu_i))) لوله <- rep(لوله، هر=K) موقعیت <- rep(موقعیت هر=K) Mu_ij <- rep(Mu_ij، هر=K) dat <- data.frame(لوله، موقعیت، Mu_ij) sigmaw <- 2 dat$y <- rnorm(n، dat$Mu_ij، sigmaw) dat$tube <- factor(dat$tube) > str(dat) 'data.frame': 48 obs. از 4 متغیر: $ tube : فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 1 1 1 1 1 1 ...
موقعیت $: فاکتور w/ 3 سطح A، B، C: 1 1 1 1 2 2 2 3 3 ... $ Mu_ij : num 2.44 2.44 2.44 2.44 6.13 ...
$ y : num 3.24 2.66 1.33 6.01 7.12 ... > موقعیت لوله head(dat) Mu_ij y 1 1 A 2.439524 3.241067 2 1 A 2.439524 2.6608522342390 2.6608524 341 4 1 A 2.439524 6.013351 5 1 B 6.129288 7.124989 6 1 B 6.129288 2.196053 من یک مدل ترکیبی را با R مناسب میکنم، خوب کار میکند: > library(lme4) > موقعیت +dat (0) ) خطی مختلط متناسب با مدل توسط REML فرمول: y ~ موقعیت + (0 + موقعیت | لوله) داده ها: dat AIC BIC logLik انحراف REMLdev 212.6 231.3 -96.3 194.8 192.6 اثرات تصادفی: نام گروه ها Variance Std.Dev. لوله Corr positionA 0.30123 0.54885 positionB 0.68317 0.82654 -0.695 positionC 1.66666 1.29099 -0.408 0.940 باقیمانده 3.14003 1.77201 تعداد گروهها: جلوههای انبوه: 4× برآورد Std. مقدار خطای t (Intercept) 3.3533 0.5211 6.435 positionB 3.1098 0.8923 3.485 positionC 5.6138 1.0144 5.534 همبستگی اثرات ثابت: (Intr) postn.6 postnB position5 موقعیت1C -0. با SAS خوب کار نمی کند: PROC MIXED DATA=dat ; لوله موقعیت کلاس ; MODEL y = POSITION ; موقعیت تصادفی / موضوع = نوع لوله = UN G GCORR ; اجرا؛ ترک؛ ماتریس G تخمینی را می دهد قطعی مثبت نیست. تخمینی G Matrix Row Effect tube position Col1 Col2 Col3 1 position A 1 0.08895 -0.5823 -0.1545 2 position B 1 -0.5823 0.1455 1.2431 3 موقعیت C 1 -0.1545 1.2435 دوباره ممکن است خراب شود؟ | SAS نمی تواند یک مدل ترکیبی را جا دهد |
22575 | من تقریباً یک سال است که روی پیش بینی بار الکتریکی با همکاری برخی از دانشمندان آب و هوا و با استفاده از داده های دمایی به دست آمده از مدل ها کار کرده ام. به جای استفاده مستقیم از مقادیر دما، از «ناهنجاری» از میانگین سالانه استفاده می کنیم (به نام «اقلیم شناسی»). به نظر می رسد، در علوم آب و هوا، استفاده از اعتبارسنجی متقاطع برای محاسبه این ناهنجاری عمل خوبی است: ناهنجاری های سال X با در نظر گرفتن اقلیم شناسی همه سال های دیگر به جز X، یک نوع روش «K-FOLD» محاسبه می شوند. با K برابر است با تعداد سال های در نظر گرفته شده در کل محاسبه. من یک دانشمند کامپیوتر هستم و برای یک مجله مهندسی می نویسم و می خواستم بدانم که آیا کل این روش برای محاسبه ناهنجاری ها با این نوع 'K-FOLD' واقعاً برای قوی تر کردن کل کار ما ضروری است. من هرگز روال مشابهی را در سایر مقالات پیشبینی یا مهندسی نخواندهام و به همین دلیل میخواهم از کار غیرضروری (و کدنویسی) در این مرحله از کار اجتناب کنم. ممنون از نظرات شما، | محاسبه مولفه فصلی (سالانه) سری زمانی: استفاده از اعتبارسنجی متقابل؟ |
56184 | آنچه من در مورد طبقه بندی می فهمم این است که برای تشخیص نقاط داده بدون برچسب در یک مجموعه استفاده می شود. بنابراین اگر دادههایی داریم که دارای برچسب (سن، قد، وزن و...) هستند، نیازی به طبقهبندی نداریم، فقط در مواردی استفاده میشود که دادهها ممکن است چند بعدی باشند اما طبقهبندی نشده باشند، یعنی بدون متغیر (سن، قد، وزن). ,...) آیا درک درستی دارم؟ اگر نه، طبقه بندی دقیقا چیست؟ و چرا و چه زمانی مفید است؟ هر گونه کمک بسیار قدردانی می شود | سوال نرم - چرا و چه زمانی طبقه بندی مفید است |
26408 | همانطور که متوجه شدم، تعریف نسبت خطر، نسبت دو نرخ خطر است. اغلب ضریب exp (ضریب) از یک مدل کاکس نیز به عنوان تخمین نسبت خطر استفاده می شود. این روش ها دو نتیجه متفاوت، هرچند مشابه، به دست می دهند. آیا شرایطی وجود دارد که در آن استفاده از یک روش در مقابل روش دیگر مناسب باشد؟ | تفاوت بین نسبت خطر و ضریب e^ معادله کاکس چیست؟ |
34362 | همبستگی متقابل را می توان برای اندازه گیری «تأخیر» (یا تغییر یا افست) بین دو مجموعه داده (به عنوان مثال، جریان داده) استفاده کرد. آیا روش استانداردی برای اندازه گیری خطاها در «تاخیر» وجود دارد؟ یا بهتر از آن، آیا راه _خوب_ برای اندازه گیری این خطاها وجود دارد؟ (مرتبط: به طور مستقیم جابجایی های زیرپیکسل را بین دو طیف مقایسه کنید - و خطاهای قابل باوری دریافت کنید!) برخی جزئیات بیشتر: من در حال انجام همبستگی متقابل دو بعدی بین تصاویر به منظور دستیابی به ثبت تصویر زیر پیکسل هستم. میخواهم بدانم افستهای اندازهگیری شده چقدر دقیق هستند (یعنی آیا زیر پیکسل هستند؟). اینها تصاویری از منابع اخترفیزیکی هستند، اما نه از ستارگان - همه تابش گسترده است. برای تصاویر دارای ستاره، می توانید مرکز ستاره ها را اندازه گیری کنید تا فاصله بین تصاویر را تعیین کنید: این برای این داده ها ممکن نیست. رویکرد گاوسی پیشنهاد شده توسط نستور یکی از مواردی است که من تلاش کردهام، اما در مورد برخی از نکات کاملاً واضح نیستم، بهویژه نحوه محاسبه خطاهای پیکسلی منفرد. من مشکوک بودم که زمینه های دیگر ممکن است از همین تکنیک استفاده کنند اما آن را با نام دیگری صدا کنند، به همین دلیل این سوال را اینجا پرسیدم. | اندازه گیری خطا در تاخیر هنگام همبستگی داده ها |
89861 | من در حال انجام تحقیقاتی در مورد روش هایی برای گسسته سازی یک متغیر پیوسته همراه با یک متغیر هدف باینری برای یافتن نقاط تقسیم بهینه برای به حداکثر رساندن اندازه گیری ناخالصی (جین/آنتروپی) هستم. اول از همه، من در پیدا کردن اصطلاحات قابل استفاده در گوگل مشکل دارم. به نظر میرسد «تقسیم بهینه» به انتخاب متغیری که در درخت تصمیمگیری بر روی آن تقسیم شود، به جای نحوه تقسیم آن متغیر مرتبط است. آیا عنوان تعریف شده ای برای این مشکل وجود دارد؟ من تصور می کنم برای تبدیل یک متغیر پیوسته به یک متغیر باینری، می توانم به طور بالقوه سعی کنم یک نقطه تقسیم را در هر مقدار متمایز در داده ها تنظیم کنم و آن را انتخاب کنم که حداکثر آنتروپی یا جینی را برمی گرداند. اما برای گسترش آن فراتر از تقسیمهای باینری، فضای جستجو افزایش مییابد تا این روش بسیار گران شود. آیا روش های رایجی برای حل این مشکل وجود دارد؟ | چه روش هایی برای یافتن تقسیم های بهینه برای گسسته سازی داده های پیوسته با توجه به یک متغیر هدف وجود دارد |
31431 | من واقعاً با آمار تازه کار هستم و اکنون داده هایی دارم و می خواهم یک جدول فراوانی با حقوق سالانه (یک متغیر در داده های من) تهیه کنم. در پایان باید بتوانم بگویم حداکثر حقوق 25 درصد اول و حداقل حقوق 10 درصد برتر چقدر است. چگونه باید آن را در SPSS انجام دهم؟ | چگونه صدک/چندک را در SPSS تعیین کنیم؟ |
55452 | من با یک مجموعه داده تولید شده مصنوعی کار می کنم که با گوشه های تیز زیادی از هم جدا شده است. به عنوان مثال، یک شکل H را در یک فضای سه بعدی (یا با ابعاد بالاتر) تصور کنید. نقاط داخل H مثبت و نقاط خارج منفی هستند. در برنامه من، بسیاری از نقاط جدید در زمان اجرا ایجاد خواهند شد. من می خواهم آنها را در داخل H شکل طبقه بندی کنم یا نه. من در حال حاضر بررسی دقیقی برای این نقاط با استفاده از روشهای تشخیص برخورد استاندارد انجام میدهم، اما از آنجایی که این کار گران است، میخواهم به قیمت کمی دقت، طبقهبندی بسیار سریعتری را انجام دهم. به عنوان مثال، 90-95٪ طبقه بندی صحیح با مرتبه بزرگی یا سرعت بیشتر از بررسی دقیق برای من ایده آل است. من از یک SVM با هسته تابع پایه شعاعی (RBF) استفاده می کنم، زیرا مجموعه داده من به صورت خطی در فضای اصلی قابل تفکیک نیست. من آن را با استفاده از جستجوی شبکه ای بر روی پارامترهای گاما و nu، با اعتبارسنجی متقاطع 3 برابری، که هم دامنه و هم دانه بندی جستجو را تغییر می دهد، آموزش داده ام. با این حال، بهترین کاری که می توانم انجام دهم دقت حدود 80-85 درصد و زمان اجرای 6-10 ثانیه برای 100000 نقطه داده جدید است که تقریباً همان زمانی است که برای انجام بررسی دقیق لازم است. کجا دارم اشتباه می کنم؟ من به خصوص مشکوک هستم که RBF در کنترل گوشه های تیز ضعیف است (به عنوان مثال شکل H که توضیح دادم، که مرز آن نقاط مثبت و منفی را از هم جدا می کند). آیا باید از هسته دیگری استفاده کنم که با این پارامترها مناسب تر باشد؟ آیا باید از ترکیبی از هسته ها استفاده کنم؟ آیا باید نوعی تجزیه منطقه انجام دهم و هسته های جداگانه ای را برای هر منطقه آموزش دهم؟ آیا باید به جای آن از یک رویکرد ML متفاوت (مثلاً شبکه های عصبی) استفاده کنم؟ | انتخاب مدل SVM برای مجموعه داده با گوشه های تیز |
26400 | من در حال انجام مطالعهای هستم که اهداف زیر را دارد: هدف اصلی مطالعه حاضر بررسی تأثیر پیامهای غذایی در مورد سلامت غذاها بر دریافت واقعی غذا است. علاوه بر این، یک هدف ثانویه کشف میزانی است که تکانشگری/احساس طلبی، ترجیح چشایی و BMI ممکن است اثرات پیام های مرتبط با غذا را بر مصرف غذا تعدیل یا واسطه کند. من مطمئن نیستم که در این مورد کدام یک مناسب تر است برای میانجیگری یا تعدیل. DV من مصرف غذا و IV پیام های غذایی، تکانشگری/حس طلبی، ترجیح طعم و BMI است. این یک مطالعه تجربی است که شامل سه گروه درمانی است که پیام سالم، پیام ناسالم یا پیامی در مورد کوکی دریافت نمی کنند. از آنها خواسته میشود که «کوکیها» را بچشند، رتبهبندی کنند و مصرف کنند. رتبه بندی طعم نیز سوالاتی در مورد ترجیح طعم می پرسد. سپس پرسشنامه ای ارائه خواهم کرد که اطلاعاتی در مورد تکانشگری/حس طلبی و همچنین BMI جمع آوری می کند. من به واسطه گرایش دارم اما مطمئن نیستم. من معتقدم که افرادی که در گروه پیام سالم هستند بر اساس تحقیقات قبلی کوکیهای بیشتری مصرف میکنند، اما همچنین فکر میکنم که سایر متغیرها نیز بر مصرف کوکیها تأثیر خواهند داشت. اساساً کسانی که تکانشگری بالا، ترجیح طعم برای کوکی و BMI بالاتری دارند، چه به صورت جداگانه یا ترکیبی، کوکی های بیشتری مصرف می کنند. بنابراین من مطمئن نیستم زیرا اشاره کرده ام که داشتن ناظم مناسب تر است یا میانجی. من به نوعی تمایل به میانجیگری دارم، اما میخواهم در این مورد شفافسازی شود. همچنین اگر میانجی یا تعدیل باشد کدام IV کدام است؟ همچنین یک فرضیه چگونه خواهد بود؟ من حدس میزنم که اگر به عنوان مثال با اعتدال پیش رفتم، ممکن است یک فرضیه چیزی شبیه به این باشد: رابطه بین پیام سلامت و مصرف کوکیها میتواند برای کسانی که امتیاز بالاتری در impSS دارند در مقایسه با کسانی که امتیاز بالایی کسب نمیکنند قویتر باشد. من ممکن است اشتباه کنم. هر گونه کمکی قدردانی خواهد شد. با تشکر MO | میانجی در مقابل تعدیل کنندگان - مطمئن نیستم که کدام مناسب تر است |
50559 | فرض کنید میخواستم میانگین یک دقیقهای از زمان لازم برای نفس کشیدن را بدانم. بنابراین اساساً من تعداد دفعاتی را که در طول یک دقیقه نفس کشیدم (یک دم و یک بازدم) را ثبت میکردم و بر 60 ثانیه تقسیم میکردم تا میانگین زمان 1 دقیقه برای ایجاد یک نفس منفرد را بدست بیاورم؟ آیا این توزیعی با انحراف معیار خواهد بود؟ | چگونه میانگین زمان برای نفس کشیدن را محاسبه می کنید؟ |
9833 | در درس آمار ابتدایی ام، یاد گرفتم که چگونه فاصله اطمینان 95% مانند میانگین جمعیت، مو را بر اساس **عادی مجانبی** برای حجم نمونه بزرگ بسازم. جدا از **روش های نمونه گیری مجدد**، رویکرد دیگری بر اساس **احتمال نمایه** وجود دارد. آیا کسی می تواند این رویکرد را توضیح دهد؟ در چه شرایطی، 95٪ CI ساخته شده بر اساس نرمال مجانبی و احتمال پروفایل قابل مقایسه است؟ من نتوانستم هیچ مرجعی در این موضوع پیدا کنم، هیچ مرجع پیشنهادی، لطفا؟ چرا بیشتر مورد استفاده قرار نمی گیرد؟ | ایجاد فاصله اطمینان 95% بر اساس احتمال پروفایل |
50556 | من هفتههاست که سعی کردهام این یکی را بفهمم، بنابراین توصیه شما بسیار قدردانی میشود. من بازدهی ثبت شده برای 5 سال گذشته در شاخص های زیر دارم: NYSE، ارتباطات، رشد و سرمایه بزرگ. من PCA را روی آنها انجام دادم و 2 «عامل غیرقابل مشاهده» را با بارگذاریهای زیر حفظ کردم: NYSE Index 0.2599870 0.6090115 Communications 0.7952713 -0.5660120 Growth 0.3918862 0.27100 Lake 0.2599870. 0.4850304 رگرسیون متعامد بازده NYSE در 2 امتیاز عامل به من 2 بتا برابر با بارهای عاملی (0.609 و 0.2599) می دهد. بنابراین بتای NYSE عبارتند از: NYSE Index Communications Growth Large Cap NYSE Index 0.316 0.337 0.309 0.359 به ترتیب برای محاسبه دلتا R در NYSE بر حسب فاکتورها: بازگشت به NYSE= 0.316* R3 NYSE + 0. +0.359 R درپوش بزرگ. با این حال این در واقع کار نمی کند... چه چیزی را از دست داده ام؟ چگونه می توانم بازده شاخص NYSE را با استفاده از فاکتورهای رایج PCA محاسبه کنم؟ | محاسبه بازده از مدل عاملی |
55458 | فرض کنید یک مدل خطی دارید که در آن مدل معنادار است اما برخی از ضرایب اینطور نیستند. وقتی برخی از ضرایب معنی دار نیستند، چگونه می توان مدل را تفسیر کرد؟ | اگر مدل معنی دار است اما برخی از ضرایب معنی دار نیستند |
56182 | من نتیجه ای از یک مطالعه در یک مقاله تحقیقاتی دارم که میانگین / انحراف معیار را برای 2 نقطه زمانی (پیش و پس از درمان) و یک مقدار p بر اساس آزمون t-samps زوجی ارائه می دهد. چیزی که من می خواهم محاسبه کنم SD تغییر از قبل به پست است. آیا راهی وجود دارد که بتوانم این را با استفاده از p-value و mean/SD برای هر نقطه زمانی محاسبه کنم؟ پیشاپیش متشکرم - جولی | نحوه محاسبه مجدد تغییر از خط پایه از مقدار p برای آزمون t زوجی |
61110 | من به دنبال بسته انتساب KNN هستم. من به بسته imputation نگاه می کنم (http://cran.r-project.org/web/packages/imputation/imputation.pdf) اما به دلایلی تابع impute KNN (حتی وقتی از مثال توضیح داده شده است) فقط به نظر می رسد. برای نسبت دادن مقادیر صفر (مطابق زیر). من به اطراف نگاه کردم اما هنوز چیزی پیدا نکردم و از این رو میپرسیدم آیا کسی پیشنهاد دیگری برای بستههای انتساب خوب KNN دارد؟ W در کد زیر - مقادیر NA با صفر جایگزین میشوند - نه با مقدار میانگین Knn نیازمند (انتظار) x = ماتریس (rnorm(100),10,10) x.missing = x > 1 x[x.missing ] = NA kNNImpute(x، 3) x | بسته های R نسبت KNN |
55455 | این در ادامه سوال قبلی من است. فرض کنید می خواهم به طور تصادفی دو عدد از اعداد 1 تا 8 بکشم، یک عدد زوج و یک عدد فرد. من دو کوزه میسازم، یکی با زوج، یکی با اعداد فرد، و از هر کدام یک عدد میکشم. بنابراین، همه اعداد احتمال یکسانی برای رسم شدن دارند. این پاسخ پذیرفته شده سوال قبلی من بود. حالا فرض کنید من اعداد 1 تا 9 را دارم. میخواهم یک عدد کوچکتر یا مساوی 5 بکشم، یعنی {1،2،3،4،5}، و یک عدد بزرگتر یا مساوی 5، یعنی. {5،6،7،8،9}. چگونه آنها را رسم کنم تا احتمال ترسیم همه اعداد یکسان باشد؟ ایده من این است که دو کوزه ایجاد کنم، یکی با اعداد {1، 1، 2، 2، 3، 3، 4، 4، 5}، دیگری با اعداد {5، 6، 6، 7، 7، 8 ، 8، 9، 9}. اگر یک سکه را برگردانم تا به طور تصادفی یک کوزه را انتخاب کنم، سپس به طور تصادفی یک عدد بکشم، همه اعداد احتمال یکسانی برای کشیدن دارند. اما اگر من یک 5 بکشم و سپس به urn دیگر سوئیچ کنم، این احتمال وجود دارد که من 5 دوم را ترسیم کنم -- این چیزی نیست که من می خواهم اجازه دهم که اتفاق بیفتد. چگونه آن را انجام می دهید؟ _اگر عنوان معنیداری برای این سوال میشناسید، لطفا آن را ویرایش کنید. | بهترین فرآیند برای رسم اعداد |
66465 | من گزارشی از دادههای تماس مشتری دارم و میخواهم بدانم از چه نوع آزمون آماری میتوانم برای آزمایش اهمیت آماری استفاده کنم. مشتریان با یک دلیل تماس منحصر به فرد تماس می گیرند و در یک نوع مشتری، مشتریان جوان یا مشتریان مسن قرار می گیرند. دلیل تماس مشتریان جوان مشتریان مسن استعلام صورتحساب 5 28 مشکل محصول 15 20 ارتقاء محصول 25 12 اعداد نشان دهنده تعداد تماس ها برای هر دلیل تماس از هر نوع مشتری است. میخواهم بدانم چگونه میتوانم آزمایش کنم که آیا تفاوت آماری معنیداری (مثلاً با اطمینان 95٪) در نوع مشتریانی که برای هر دلیل تماس تلفن میکنند وجود دارد یا خیر. به عنوان مثال، با نگاه کردن به داده ها، به نظر می رسد که تعداد مشتریان مسن بیشتری نسبت به مشتریان جوان با درخواست صورت حساب تماس می گیرند. چگونه می توانم این را به شدت آزمایش کنم؟ | چه نوع آزمون آماری می تواند به نشان دادن این کمک کند؟ |
32435 | من یک تابع $\rho$ ساختهام که تعریف زیر را دارد: \begin{equation} \rho(x)= \left\\{ \begin{array}{ll} 4- \frac{8}{x^2 } \text{if } x \lt-2\\\ \frac{x^2}{2} \text{if } x \in [-2,3] \\\ 9-\frac{81}{2*x^2} \text{if } x \gt 3 \end{array} \right. \end{equation} این تابع دارای ویژگیهای پیوستگی و مشتقپذیری است، اما نامتقارن است. آیا می توان با استفاده از روش حداقل مربعات با وزن مجدد تکراری (IRLS) حل کرد؟ تابع $u$ این است: $ u(x)=\begin{equation} \left\\{ \begin{array}{ll} \frac{16}{x^4} \text{ if } x \lt- 2\\\ 1 \text{ if } x \in [-2,3] \\\ \frac{81}{x^4} \text{ if } x \gt 3 \end{array} \right. \end{equation} $ برای روش IRLS، تقارن تابع $u$ اجباری است؟ | آیا تقارن تابع u برای تخمین M قوی اجباری است؟ |
22578 | من به دنبال استانداردهای رایج (فرمت های فایل) برای نحوه وارد کردن داده ها توسط اکثر بسته های نرم افزار آماری هستم. دلیلش این است که من قصد دارم یک تابع صادراتی برای بسته نرم افزاری شبیه سازی بسازم. داده هایی که باید صادر شوند شامل سری های زمانی از (1 یا بیشتر) مقادیر برای همه اعضای یک جمعیت است. اندازه جمعیت می تواند در 100000 باشد. طول سری های زمانی معمولاً 1000 ثانیه است. تعداد مقادیر به ازای هر عضو در هر گام می تواند از 1 تا 20 متغیر باشد. این داده ها معمولاً توسط بسته های آماری چگونه وارد می شوند؟ | استانداردهای رایج برای فرمت های فایل واردات داده برای نرم افزار آمار؟ |
35771 | من مشکلاتی دارم که به کمک نیاز دارم. من یک رگرسیون لجستیک باینری را اجرا می کنم. DV: انتخاب برند (0/1) IV1: نگرش نسبت به محصول (p<0.05) IV2: حساسیت قیمت (p<0.05) (هر دو IV1 و IV2 در یک مقیاس اندازه گیری می شوند) من متوجه شده ام که نگرش نسبت به محصول قدرتمندتر ($β=1.308$) از حساسیت قیمت ($β=0.956$) در پیش بینی انتخاب برند. با این حال، به گفته استاد راهنمای پایان نامه من، برای ادعای این واقعیت، باید یک آزمون اضافی را انجام دهم. یعنی باید بفهمم این تفاوت قابل توجه است یا نه. بنابراین، چیزی که میخواهم بدانم این است که آیا: $β_{Attitude}> β_{قیمت}$ (یا اگر $β_{Attitude}≠ β_{قیمت}$) و آیا این از نظر آماری معنیدار است. من خیلی جستجو کردم، اما نمی توانم پیدا کنم که چگونه باید این را تست کنم. کسی نظری داره؟؟ من خواندهام که میتوان آزمون t را اجرا کرد (با انتخاب برند به عنوان متغیر گروهبندی) و به مقادیر t نگاه کرد و اگر t-value برای «نگرش نسبت به محصول» بالاتر باشد، پس قویتر است. یکی با این حال، من 3 گروه (شرط) دارم، بنابراین مطمئن نیستم که بتوانم یک آزمون t را اجرا کنم. آیا می توانم به جای آن از ANOVA استفاده کنم و به مقادیر F نگاه کنم؟ همچنین به اطلاعاتی برخوردم که میتوانم یک ترم تعامل (نگرش*قیمت) داشته باشم و اینکه p-value برای هر عبارت تعاملی یک آزمون معنادار برای تفاوت در آن ضرایب به من میدهد. این روش معتبره؟؟ | مقایسه ضرایب در رگرسیون لجستیک |
55457 | من کتاب های واپنیک در مورد یادگیری آماری رو دیدم... چند فصل اول رو خوندم. به هر حال چیزی که بیش از همه مرا شگفت زده کرد این بود که او فکر می کرد که تیغ اوکام منسوخ شده است. فکر میکردم به موقعیتی مربوط میشود که در آن فرض ابعاد بالاتر تناسب را به طور قابل توجهی بهبود میبخشد. درست فهمیدم؟ آیا درست است که تیغ اوکام دیگر نمی تواند آنطور که واپنیک گفت درست نباشد؟ آیا استدلالی وجود دارد که تیغ Occam را نباید به عنوان پیش فرض در نظر گرفت؟ جملات دقیق از مقدمه ویرایش دوم ماهیت یادگیری آماری آمده است که عبارتند از: > سالهای پس از چاپ اول کتاب، فلسفه کلی را در درک ما از ماهیت مسئله استقرایی نیز تغییر داده است. پس از آزمایشهای موفق فراوان با SVM، محققان در نقد فلسفه کلاسیک تعمیم بر اساس اصل تیغ اوکام مصممتر شدند. | تیغ اوکام منسوخ شده است؟ |
26402 | در آزمایشم که شرکت کنندگان در آن تصمیم بله و نه می گیرند، از دو معیار همدلی استفاده می کنم زیرا پیش بینی می کنم که این هر دو تأثیرگذار باشند. دو مقیاس پرسشنامه همبستگی ضعیفی دارند اما دقیقاً یکسان نیستند. آیا می توانم این دو مقیاس را در ANOVA مدل مختلط خود وارد کنم یا اینکه آنها به نوعی میانگین یکدیگر را نشان می دهند و اگر بخواهم از هر دو معیار همدلی استفاده کنم باید دو مدل جداگانه اجرا کنم؟ تصمیم مختلط بر اساس هدف درمان با دیدگاه_دریافت_همدلانه_نگرانی /معیارها=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0) PCONVERGE(0.000001، ABSOLUTE) /تثبیت=درمان هدف درمان چشم انداز_نگرانی_همدلانه * درمان چشم انداز_گیری هدف * درمان_نگرانی_همدلانه * دیدگاه_در نظر گرفتن_نگرانی_همدلی * درمان_دریافت دیدگاه * دیدگاه_گیری * نگرانی_همدلانه | SSTYPE(3) /METHOD=ML /PRINT=COB DSCRIPTIVES SOLUTION /RANDOM=INTERCEPT | SUBJECT(id) COVTYPE(VC) /EMMEANS=TABLES(کلی). | دو عامل همبسته را در مدل ترکیبی لحاظ کنید؟ |
93030 | من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن متغیر پاسخ نسبتی است که می تواند از 0-1 (شامل) متغیر باشد. این پاسخ از افراد مشابه تحت چهار شرایط آزمایشی مختلف اندازه گیری شد. من علاقه مند به تعیین تأثیر این شرایط بر پاسخ هستم. من برخی از روشهای ممکن برای تجزیه و تحلیل این دادهها را از طریق رگرسیون توبیت یا بتا خواندهام (میدانم که وقتی 0 و 1 در مجموعه دادهها هستند نمیتوان از دومی استفاده کرد، اما تغییری در ادبیات پیدا کردم که این مشکل را برطرف میکند. مشکل). با این حال، من راهی برای پیاده سازی چنین مدلی در R برای محاسبه اندازه گیری های مکرر پیدا نکرده ام. من از طریق بستههای متعددی که میتوانند چنین رویههایی را انجام دهند، رفتهام، اما به نظر میرسد هیچ یک از آنها این قابلیت را ندارند (یا من کاملاً آن را از دست دادهام). من کاملاً در اینجا گیر کرده ام و از هرگونه پیشنهادی در مورد نحوه انجام این کار قدردانی می کنم. به عنوان پسزمینه، متغیر پاسخ، نسبت دفعاتی است که ملخ ماده به یک سیگنال صوتی پاسخ میدهد (لازم به ذکر است که این موارد در چندین محرک بهطور میانگین محاسبه میشوند، به طوری که تعیین کمیت «موفقیتها» و «ممکن است. شکست ها فی نفسه؛ بنابراین نسبت های واقعی هستند و من نمی توانم مستقیماً از توابع دو جمله ای استفاده کنم). بنابراین این مقادیر می توانند از صفر تا یک متغیر باشند. این آزمایش در 4 سطح مختلف نویز پسزمینه انجام شد، و من علاقهمندم که آیا نویز بر احتمال پاسخ زن تأثیر میگذارد یا خیر. من این آزمایشها را برای 21 زن مختلف انجام دادم که همگی در معرض همه سیگنالها در تمام سطوح نویز قرار گرفتند. | داده های متناسب با پاسخ های متعدد |
110060 | اگر یک سری زمانی ثابت تأیید کند که هر متغیر فقط به متغیر قبل از خود بستگی دارد و p.d.f مشترک. از xi و xi-1 f(xi-1,xi) است که p.d.f مشترک است. از xi,xi+1,xi+2 و از xi,xi+1,xi+2,xi+3؟ | p.d.f مشترک متغیرهای سری زمانی ثابت |
92928 | من می خواهم بدانم تأثیر یک عامل خارجی بر تعداد بازدید از یک وب سایت در یک دوره 4 هفته ای (فقط بازدیدهای جستجو از گوگل) چیست. برای این کار، من تعداد بازدیدهای روزانه را از طریق تحقیقات گوگل اندازه گرفتم. به عنوان مثال من دارم: تاریخ بازدید 01/01/2014 456 02/01/2014 423 03/01/2014 399 ... من این کار را به مدت 4 ماه انجام دادم، شامل 4 هفته ای که فاکتور خارجی اجرا شد. من می خواهم ثابت کنم که آیا تفاوتی در میانگین تعداد بازدید در این 4 هفته وجود دارد یا خیر. اولین ایده من این است که یک آزمون t را بین دو دوره 4 هفته ای مشابه اجرا کنم، یکی 4 هفته با عامل خارجی و دیگری یک سری 4 هفته بدون فاکتور. من در انتخاب آزمون مشکل دارم: آیا باید آزمون t زوجی باشد که هر روز از 4 هفته را با هم مقایسه کند؟ من واقعاً نمی دانم که آیا می توانم نمونه های خود را مستقل در نظر بگیرم زیرا فصلی هفتگی وجود دارد (در آخر هفته ها بازدیدها کمتر از هفته است) | آزمایش برای مقایسه تأثیر روی یک متغیر به صورت روزانه |
93037 | به طور خاص، من تعجب می کنم که چرا ما این مفهوم Multiple R را داریم (که می توانم آن را به عنوان همبستگی بین نمرات مشاهده شده و پیش بینی شده در رگرسیون چندگانه درک کنم)، و سپس یک مفهوم جداگانه R-squared که فقط مربع یا R است. مطلع شده ام که R-squared درصد تغییرات توضیح داده شده است و R نیست، اما من تمایزی را که بین همبستگی و تنوع توضیح داده شده است، درک نمی کنم. | توضیح واریانس به چه معناست؟ |
32436 | من مجموعهای از دادههای تک متغیره دارم، که در آن متغیر پاسخ در یک آزمایش، دنبالهای از فواصل زمانی بین فشار دادن دکمهها است (آزمودنیهای آزمایشی من باید یک دکمه را به طور متناوب فشار دهند تا به برخی از شرایط کار واکنش نشان دهند). در نهایت باید یک رگرسیون درون موضوعی انجام دهم تا ببینم آیا پیشبینیکنندههای فرضی من واقعاً معنادار هستند یا خیر. با این حال، اولین کاری که میخواهم انجام دهم این است که نشان دهم سوژهها فقط دکمه را بهطور تصادفی فشار ندادهاند. به عبارت دیگر، باید مطمئن شوم که شخص فقط یک دکمه را با سرعت منظم فشار نداده است (میانگین زمان پاسخ + تغییرپذیری تصادفی). یکی از ایدههای من این است که بررسی کنم آیا دادههای من شبیه فرآیند پواسون هستند، که در آن زمانهای رسیدن به طور تصادفی با سرعت مشخصی اتفاق میافتد. بر اساس آنچه تاکنون در مورد استفاده از فرآیند پواسون جستجو کردهام، دو رویکرد برای تطبیق فرآیند پواسون با دادههای بازه زمانی من وجود دارد: 1) شمارش تعداد دفعاتی که فرد یک دکمه را در هر آزمایش دوره زمانی ثابت فشار داده است. سپس می توانم فرآیند برازش توزیع پواسون را برای شمارش داده ها دنبال کنم. 2) گفته می شود زمان انتظار بین رویدادها در فرآیند پواسون از توزیع نمایی پیروی می کند. بنابراین می توانم سعی کنم توزیع نمایی را با فواصل زمانی متناسب کنم. در این صورت، آیا باید سعی کنم مجموعه ای از توزیع های مختلف مانند نمایی، گاما و وایبول را جا بدهم؟ در هر صورت، من از آزمون کای دو و/یا طرح QQ برای ارزیابی اینکه آیا برازش توزیع قابل رد است یا خیر استفاده میکنم. هر توصیه ای بسیار قدردانی خواهد شد. آیا تطبیق فرآیند پواسون با داده های من حتی راه درستی است؟ خوشحال می شوم در مورد هر پیشنهاد دیگری بشنوم. پیشاپیش ممنون | چگونه تست کنیم که آیا رفتار فشار دادن دکمه تصادفی است یا در پاسخ به یک محرک است؟ |
52950 | من در حال ارزیابی تعدادی از عوامل خطر مرتبط با عفونت HIV با رگرسیون لجستیک هستم. ابتدا چند تست مجذور کای یا تست تی انجام خواهم داد تا ببینم آیا هر یک از عوامل با عفونت HIV مرتبط است یا خیر. سپس آن عوامل با مقدار p کمتر از 0.1 را از تحلیل دو متغیره بالا انتخاب می کنم و آنها را در مدل رگرسیون لجستیک چند متغیره (مدل تعدیل شده) قرار می دهم. در این مورد، آیا مقایسه چندگانه برای من نگران کننده است؟ چرا و چرا نه؟ | موضوع مقایسه چندگانه در رگرسیون لجستیک چند متغیره |
93035 | من به دنبال پیادهسازی R از الگوریتم فشردهسازی داده Lempel-Ziv برای تخمین آنتروپی _source_ یک سری زمانی متشکل از دنبالهای از نمادها هستم. به جای اندازه گیری ساده آنتروپی توزیع نماد-فرکانس (تجمیع زمان)، از الگوریتم Lempel-Ziv می توان برای تخمین آنتروپی ترتیب زمانی درون خود توالی استفاده کرد. دنبالههایی که من مطالعه میکنم از مسیر حرکت حیوانات مشتق شدهاند. به هر مکان $x,y$ یک برچسب دلخواه (A,B,...,Z) اختصاص داده شده است. به این شکل، مسیر یک حیوان متحرک شبیه B،G،G،S،Y،G،Y،H،D،S،A،B،B،G،G،G،H و غیره است. من علاقه مند به اندازه گیری $\textit{predictability}$ دنباله هستم. روش تخمین آنتروپی منبع (به طور خلاصه) در اطلاعات تکمیلی سانگ و همکاران (2010) توضیح داده شده است، و آنها برآوردگر Lempel-Ziv را به صورت زیر توصیف می کنند: $$ S^{est} = \left( \frac {1} {n} \sum_{i=1} \Lambda_i \right)^{-1} ln~n $$ که $\Lambda_i$ طول کوتاهترین رشته فرعی که از موقعیت $i$ شروع می شود که $\textit{$n't}$ قبلاً از موقعیت 1 تا $i$-1 ظاهر می شود. بنابراین، آیا کسی پیشنهادی برای نحوه محاسبه موارد فوق در R دارد؟ اتفاقاً باید اشاره کنم که من چندین مسیر دارم که می خواهم مقایسه های آنتروپی بین آنها انجام دهم ، اما برخی از مسیرها حاوی شکاف هایی هستند که مربوط به زمان هایی است که حیوان مشاهده نشده است. مرجع: Song, Qu, Blumm & Barabasi (2010) Limits of Predictability in Human Mobility. $\textit{علم}$. 19. http://www.sciencemag.org/content/327/5968/1018.short _**UPDATE:_** تابع زیر همان چیزی است که من به آن رسیدم. با این حال، به جای بررسی همه زیر دنبالههای ممکن پس از نمایه i'm، و یافتن کوتاهترین زیر دنباله جدید، سریعتر از حلقه while استفاده میکنیم. به همین ترتیب، من فرهنگ لغت زیررشته های منحصر به فرد تازه به دست آمده را با استفاده از rbind به روز می کنم که کارآمد نیست. OTOH توالیهایی که من استفاده میکنم کوتاه هستند (<300)، بنابراین مشکلی نیست، اما مطمئناً جایی برای بهبود وجود دارد. پیش بینی پذیری <- تابع (دنباله، حداکثر_رشته) { خروجی <- ماتریس(NA,nrow=طول(توالی)، ncol=1) فرهنگ لغت <- NULL ## چرخه در هر ورودی، i، در دنباله برای (i در 1: (طول(دنباله)-حداکثر_رشته) ) {## فهرستی از زیررشتههای طولانیتر را جمعآوری کنید، با شروع از موقعیت من i+0,i+1,i+2,...,i+Max_String کدون <- ماتریس(NA, nrow=Max_String, ncol=1) for (STRL در 0:Max_String) { کدون[STRL,] <- paste(Sequence [i:(i+STRL-1)], collapse=) } ## پیدا کنید کدام یک از این کدون ها قبلا دیده نشده اند جدید <- کدون[!کدون %in% فرهنگ لغت] ## برای عدم وجود کدون جدید ifelse ((طول(جدید)>0) بررسی کنید، <- min(nchar(جدید))، ## را اگر کدونهای جدیدی داریم، پیدا کنید کوتاهترین در میان آنها ضبط <- NA ) ## اگر هیچکدام جدید نیست (چون ما به اندازه کافی در حال جستجو نیستیم)، NA را اختصاص دهید... ## کوتاهترین کدونهای دیده نشده را پیدا کنید خروجی[i،] <- رکورد ## در نهایت، کدون های دیده نشده را به فرهنگ لغت اضافه کنید <- c(فرهنگ لغت، جدید) }##i ## محاسبه آنتروپی منبع (یعنی قابل پیش بینی) از فرمول در Song et al (2010) n <- طول(خروجی[!is.na(خروجی)]) S <- (1/mean(خروجی، na.rm=TRUE)) * log(n) ## آنتروپی منبع؟ ورود طبیعی یعنی واحدها nats هستند؟ بازگشت (S)} | تخمین آنتروپی برای یک دنباله نماد |
92927 | آمارهای خودآموزی با استفاده از مدلسازی. با این حال، در یافتن توزیع برای این داده ها مشکل دارید. * تعریف شده برای $x >0$ * $P(0) > 0$ * $P(X) \تا 0$ به عنوان $X \to \infty$، (بسیار سریع) * یک قوز من هیچ توزیعی پیدا نکردم که با توضیحات تا اینجا مطابقت دارد. کسی ایده ای دارد؟ با توجه به فرض حجم نمونه اساسا مجانبی، چقدر غیرممکن است که چند جمله ای درجه 10 را با داده ها منحنی کنم و آن را سری تیلور PDF ناشناخته عجیب و غریب من بنامیم؟ | دم کج، قوزدار و چپ به 0 نزدیک نمی شود |
104372 | من دو فرمول متفاوت از رگرسیون کمند برای یک مشکل دارم. برای هر فرمول، بهترین مدل را بر اساس خطای اعتبارسنجی متقاطع انتخاب کردم. اما اکنون، میخواهم دو مدل را که از دو فرمول متفاوت رگرسیون کمند به دست میآیند، مقایسه کنم. خطای اعتبارسنجی متقاطع این دو مدل به هم نزدیک است، اما تعداد پارامترها متفاوت است. حال سوالی که برای من پیش می آید این است که از کدام آمار آزمون استفاده کنم تا بگویم که یک مدل با در نظر گرفتن تعداد پارامترهای مدل ها به طور قابل توجهی بهتر از مدل های دیگر است. | بهترین معیار برای انتخاب مدل رگرسیون کمند چیست؟ |
32206 | من نتیجه زیر را از تجزیه و تحلیل ANOVA از پنج متغیر مستقل با 5،8،2،2،6 سطح و 5 تکرار برای هر ترکیب دریافت کردم: Df Sum Sq Mean Sq F مقدار Pr(>F) IV1 4 129805 32451 243.35 <2e -16 *** IV2 7 67227 9604 72.02 <2e-16 *** IV3 1 64253 64253 481.83 <2e-16 *** IV4 1 396445 396445 2972.94 <2e-16 *** IV5 5 91672 18334 18334 18334 <2e-16 <2e-16. 637553 133 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 اکنون میخواهم کمیت کنم که کدام پارامتر چقدر روی تغییرات نتایج تأثیر دارد. در یک کتاب آمار و پیشنهاد با پاسخ به سوال قبلی ام پیشنهادی را پیدا کردم که به سادگی نسبت مجموع مربع مجموع مجموع مربع را محاسبه کنم. در مورد من به عنوان مجموع مجذورات = 1386955، این منجر به تأثیر 9٪ IV1 و تأثیر 45٪ به دلیل خطاها می شود. **سوال: چرا در اینجا از مجموع مربع ها استفاده می شود و از میانگین مجموع مربع ها استفاده نمی شود؟** میانگین از تقسیم بر تعداد درجات آزادی محاسبه می شود. این برای من بسیار منطقی تر به نظر می رسد: با درجات آزادی بیشتر، مجموع مربع ها به طور خودکار بیشتر می شود، بنابراین باید به نوعی جبران شود. نتایج کاملاً متفاوت خواهد بود: IV1 تأثیر 6 درصدی خواهد داشت و خطا به زیر 1 درصد کاهش می یابد. سوال جانبی: چرا Df برای باقیمانده ها عدد عجیبی است؟ فکر کردم df باقیمانده ها a*b*c*d*...*(n-1) است، در مورد من 5*8*2*2*6*4=3840 | چرا مجموع مربع ها را با ANOVA (و نه میانگین) مقایسه کنیم؟ |
104377 | من یک تحلیل رگرسیون گام به گام برای پیش بینی مصرف انرژی با استفاده از متغیرها، قد، وزن، سن، جنسیت و انرژی دریافتی انجام دادم. مدل نهایی شامل متغیرهای جنسیت و وزن است. حالا آیا این مدل نهایی تعامل جنسیت بر اساس وزن را در نظر می گیرد؟ یا باید از این مدل نهایی معادله جدیدی بسازم که تعامل را در خود جای دهد؟ | تعامل در تحلیل رگرسیون گام به گام |
32439 | من سعی میکنم با استفاده از بسته موشها در R، انباشت چندگانه را انجام دهم، و انتساب با خطای زیر متوقف میشود: خطا در mice.impute.logreg(c(1L, 1L, 2L, 1L, 1L, 1L, 2L, 1L, 1L, 2L, : dims [محصول 145] با طول جسم مطابقت ندارد [146] علاوه بر این: 50 عدد وجود داشت یا اخطارهای بیشتر (از warnings() برای دیدن 50 مورد اول استفاده کنید) > warnings() پیامهای هشدار: 1: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 2: در runif(طول(d) , 0, a1/10^10) : NAهای تولید شده 3: در runif (طول(d)، 0, a1/10^10) : NAهای تولید شده 4: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 5: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 6: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 7: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 8: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 9: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 10: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 11: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 12: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 13: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 14: در runif (طول(d)، 0، a1/10^10) : NAهای تولید شده 15: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 16: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 17: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 18: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 19: در rchisq(1، sum(ry) - ncol(x)) : NAهای تولید شده 20: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 21: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 22: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 23: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 24: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 25: در runif (طول (d)، 0، a1/10^10) : NAهای تولید شده 26: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 27: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 28: در runif( طول(d)، 0، a1/10^10): NAهای تولید شده 29: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 30: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 31: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 32: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 33: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 34: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 35: در runif(طول(d)، 0 ، a1/10^10): NAهای تولید شده 36: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 37: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 38: در runif(طول(d), 0, a1/10^10): NAهای تولید شده 39: در runif(طول (d)، 0، a1/10^10): NAهای تولید شده 40: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 41: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 42: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 43: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 44: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 45: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 46: در rchisq(1، sum(ry) - ncol(x)): NAهای تولید شده 47: در runif(طول(d)، 0، a1/10^10): NAهای تولید شده 48: در runif(طول(d), 0, a1/10^10) : NAهای تولید شده 49: در runif(طول(d), 0, a1/10^10): NAهای تولید شده 50: در runif(طول (d)، 0، a1/10^10): NAهای تولید شده اگر دانه روی یک مقدار خاص تنظیم شود، خطا در در همان نقطه، در غیر این صورت خطا در تکرارها، انتساب ها و متغیرهای مختلف در اجراهای مختلف رخ می دهد. باشه بنابراین در اینجا ساختار داده است. این از Stata با استفاده از read.dta وارد شد. لیست متغیرها کوتاه شده است و متغیرهایی را که مشکل را نشان می دهند نشان نمی دهد. همه آنها باینری هستند، با یک مقدار از دست رفته، در یک رکورد. > str(peimp.in) 'data.frame': 146 obs. از 164 متغیر: $ id : chr 195 128 218 1106 ... $ distress0 : num 5 6 0 2 1 0 5 1 1 5 ... $ pcs0 : num 47.1 46.9 60.8 44. .. mcs0 $: شماره 33.4 43.8 52.4 38.6 53.1 ... $ pwb0 : num 24 21 28 17 27 NA 8 16 24 8 ... $ swb0 : num 24 25 28 24 28 NA 17 28 24 28 NA 17 28 ... 28 28 24 20 ... $ fwb0 : num 14 21 28 18.7 26 ... $ ccs0 : num 14 22 25 25 26 NA 16 9 23 14 ... $ pn.sf70 : int 2 2 0 4 0 3 4 1 . .. $ pn.sf80 : int 2 1 0 2 0 2 3 3 1 3 ... $ pn.fcgp40 : int 1 1 0 4 0 NA 1 3 3 3 ... $ pn.aqol0 : int 1 1 0 1 0 1 0 1 1 2 ... $ pf.nbs0 : num 51.8 55.6 55.6 40.3 57.5 ... $ rp.nbs0 : num 21.2 45.9 54.9 34.7 57.2 ... $ bp.nbs0 : num 42.6 46.7 62 34.6 62 ... $ gh.nbs0 : num 54.6 54.6 28.6 28.6 $. vt.nbs0 : num 49.6 49.6 70.4 40.7 58.5 ... $ sf.nbs0 : num 37.3 47.3 37.3 42.3 | چگونه می توانم این خطا را در انتساب چندگانه موش برطرف کنم؟ |
51388 | با توجه به یک نمونه مرتب شده i.d $X_{(1)}، \dots، X_{(n)}$ از توزیع پیوسته $F(x)$. چگونه می توان نشان داد که: (1) $\text{Pr}(X_{(k)} \leq x) = \text{P}r(N(x) \geq k)$ که در آن $N(x) $ تعداد مقادیر نمونه کمتر از $x$ است. علاوه بر این، $N(x) \sim \text{Bin}(n، F(x))$ و (2) $p(x) = \frac{n!}{(k-1)!(n-k)! } (F(x))^{k-1}(1-F(x))^{n-k}f(x)$ که در آن $f(x)$ چگالی $F(x)$ است. با شروع با سمت راست برابری داده شده در (1)، با توجه به $N(x) \sim \text{Bin}(n, F(x))$، به نظر می رسد که $\text{Pr}( N(x) \geq k) = 1 - F_{\text{Bin}(n، F(x))}(k-1)$ که در آن $F_{\text{Bin}(n، F(x))}(k)$ CDF برای توزیع دو جمله ای است که در $k$ با پارامترهای $n$ و $F(x)$ ارزیابی شده است. از اینجا، چون (1) برابر است، سمت چپ و سمت راست باید یکسان باشند. با توجه به اینکه عبارت سمت چپ در (1) CDF $X_{(k)}$ است، PDF ($p(x)$) را می توان با حل کردن: $\frac{d}{ پیدا کرد. dx}(1 - F_{\text{Bin}(n، F(x))}(x))$ بنابراین، $p(x)$ داده شده در (2) باید به سادگی $f_{\text{Bin} باشد. (ن، F(x))}$(x). بدیهی است که تلاش من در بالا با راه حل مطابقت ندارد. امیدوارم کسی بتونه با این مشکل کمک کنه | اثبات احتمال با استفاده از نمونه های سفارش داده شده |
93033 | از من خواسته شده است که یک محاسبه توان انجام دهم زیرا آمارگیر معمولی در دسترس نیست. من در حال محاسبه قدرت برای کارآزمایی هستم که در آن نقطه پایانی درصدی از بیمارانی است که پس از دریافت دارو یا دارونما در یک نقطه زمانی معین به بهبودی نمیرسند. نسبت موارد:کنترل 1:1 است. من دو ستون از یک جدول را برای پر کردن دارم (تفاوت مطلق و اندازه نمونه) و اندازه نمونه مورد نیاز را با نرخ پاسخ داده شده محاسبه کرده ام: توان %کنترل %cases Abs Diff حجم نمونه 0.8 35 5 24 0.8 45 15 34 0.8 60 30 42 0.8 35 15 71 0.8 45 25 88 0.8 60 40 97 اندازه نمونه را با استفاده از تابع مقایسه دو نسبت، 'pwr.2p.test'، در بسته R pwr P0 <- c(0.35,0.45,0.60,0.35,0.45,0.60 محاسبه کردم ) P1 <- c(0.05،0.15،0.30،0.15،0.25،0.40) lapply(1:length(P0)، تابع(i) pwr.2p.test(h=ES.h(P0[i]، P1[i])، n=NULL، توان=0.8)) من در تلاش برای شناسایی معنای ستون 'تفاوت مطلق' در این زمینه هستم. کسی می تواند کمک کند؟ | محاسبه توان - محاسبه تفاوت مطلق |
110064 | داشتم روی یک تکلیف کار می کردم. مجموعه داده ها واقعاً ساده بود، فقط شامل یک متغیر مستقل $y$ و متغیر وابسته $x$ بود. شخصی به من پیشنهاد داد قبل از اجرای رگرسیون خطی ساده، هیستوگرام $y$ را ترسیم کنم. او به من گفت که با ترسیم فرکانس در محور y و مقدار $y$ روی محور x، و سپس بررسی اینکه آیا به نظر توزیع نرمال است یا خیر، کمک خواهد کرد، اما نمیدانم چرا این موضوع مرتبط است. این ممکن است یک سوال تازه کار باشد، اما هر کمکی عالی خواهد بود! **به روز رسانی:** از آنچه که من متوجه شدم، رگرسیون خطی ساده فرض می کند که $e_i$ از توزیع نرمال پیروی می کند. از آنجایی که $y_i=\beta_0 +\beta_1x_i +e_i$ بر اساس فرض ما، پس $y_i$ نیز از توزیع نرمال پیروی می کند. اما من فکر می کنم این چیزی نیست که هیستوگرام به ما بگوید ... | آیا ترسیم هیستوگرام متغیر وابسته قبل از اجرای رگرسیون خطی ساده ضروری است؟ |
96004 | من یک سوال نظری در مورد مدل های رگرسیون دارم. فرض کنید من چندین پاسخ را از $n$ آزمودنیها اندازهگیری کردم و این پاسخها با یکدیگر همبستگی دارند. برای مثال، فرض کنید من ضربان قلب و دمای بدن را از $n$ افراد با فاکتورهای طبقهبندی زیر اندازهگیری کردم: جنسیت (مرد/مونث) و سن (جوان/بزرگسال). این کاملاً ممکن است که ضربان قلب و دمای بدن در هر فردی تا حدی با هم مرتبط باشند. با نادیده گرفتن همبستگی بین ضربان قلب و دمای بدن، هر پاسخ را بهطور مستقل مدلسازی میکنم: $y_{heart\\_rate} = X\beta_{heart\\_rate} + \epsilon_{heart\\_rate}$y_{body \\_temperature} = X\beta_{body\\_temperature} + \epsilon_{body\\_temperature}$ که در آن X$$ برای دو مدل و دارای ابعاد $n \times 2$ و: $\epsilon_{heart\\_rate} \sim N(0,\sigma^2_{heart\\_rate})$$\epsilon_{body\\_temperature } \sim N(0,\sigma^2_{body\\_temperature})$ اگر بخواهم همبستگی را در نظر بگیرم، $X^*$ را تعریف می کنم به عنوان یک ماتریس مورب بلوکی از $X$. یعنی $X^* = \left( \begin{array}{cc} X & 0 \\\ 0 & X \\\ \end{array} \right)$ and $\epsilon^* \sim N_2(0 ,\left( \begin{array}{cc} \sigma^2_{heart\\_rate} & \rho \\\ \rho & \sigma^2_{body\\_temperature} \\\ \end{array} \right))$ برای سادگی فرض کنیم که $\rho$ (همبستگی بین ضربان قلب و دمای بدن) داده شده است. و مدل من این خواهد بود: $ \left( \begin{array}{c} y_{heart\\_rate}\\\ y_{body\\_temperature}\\\ \end{array} \right) = X^* \left( \begin{array}{c} \beta_{heart\\_rate}\\\ \beta_{body\\_temperature}\\\ \end{array} \right) + \epsilon^*$ سوال من این است که آیا $\hat{\beta}_{heart\\_rate}$ و $\hat{\beta}_{body\\_temperature}$ و خطاهای استاندارد آنها در این دو متفاوت خواهد بود. مدل های مختلف | رگرسیون با ساختار همبستگی |
114763 | من بیشتر از «توزیع گاوسی» در کتابم استفاده میکنم، اما شخصی به من پیشنهاد داد که به «توزیع عادی» بروم. در مورد اینکه کدام اصطلاح برای مبتدیان استفاده شود اتفاق نظر وجود دارد؟ البته این دو اصطلاح مترادف هستند، بنابراین این یک سؤال در مورد جوهر نیست، بلکه صرفاً مربوط به این است که کدام اصطلاح بیشتر استفاده می شود. و البته من از هر دو اصطلاح استفاده می کنم. اما از کدام بیشتر باید استفاده کرد؟ | هنگام آموزش آمار از عادی یا گاوسی استفاده کنید؟ |
104375 | من مجموعهای از دادههای کاربر را دارم و میخواهم نوعی معیار برای ارزیابی احتمال sybil بودن کاربر (یک حساب جعلی) ایجاد کنم. **اما** من تعداد بسیار محدودی از کاربران دارم که با اطمینان 100% سیبیل هستند. چگونه از یادگیری ماشینی در اینجا استفاده کنم؟ همچنین، در حال حاضر، من یک معیار اکتشافی بر اساس آن داده ها ساخته ام و باید به نحوی آن را ارزیابی کنم. **به طور خلاصه:** من بخش کوچکی از داده ها را دارم که دارای برچسب هستند و فقط کلاس منفی دارند. و باید معیاری برای ارزیابی کاربران ایجاد کرد. علاوه بر این، من باید خوبی آن معیار را ارزیابی کنم؟ چگونه با این مشکل برخورد کنم؟ **ps** خوب است اگر بتوانم این فرآیند را برای مجموعه داده های بزرگ مقیاس کنم. | متریک تشخیص سیبیل |
76590 | من درک می کنم که چگونه بهترین تقسیم برای جنگل تصادفی برای پیش بینی کننده های عددی (ویژگی ها) انتخاب می شود. پیش بینی کننده های عددی مرتب می شوند سپس برای هر مقدار ناخالصی جینی یا آنتروپی محاسبه می شود و آستانه ای انتخاب می شود که بهترین تقسیم را به دست می دهد. اما چگونه بهترین تقسیم برای پیش بینی طبقه بندی انتخاب می شود زیرا ترتیب خاصی وجود ندارد؟ | چگونه تقسیم را در جنگل تصادفی برای پیش بینی کننده های طبقه بندی (ویژگی ها) انتخاب کنیم؟ |
103951 | من یک مدل رگرسیون لجستیک را با متغیرهای y اصلی و x استاندارد شده برازش کرده ام. ضرایب شیب را می توان به راحتی با $\beta^*_j/\sigma_{x_j}$ به مقیاس اصلی خود برگرداند که در آن $\beta^*_j$ خروجی از مدل برازش شده است. با این حال، من مطمئن نیستم که چگونه می توان تخمین رهگیری اصلی را از خروجی بدست آورد. هر کمکی قابل تقدیر است. با تشکر | رهگیری از ضرایب استاندارد شده در رگرسیون لجستیک |
30808 | آیا عبارتی برای $\text{cov}(a,bc)$ بر حسب $a$، $b$ و $c$ به طور جداگانه وجود دارد؟ به طور دقیق تر، اگر $\text{cov}(a,b)=0$ و $\text{cov}(a,c)>0$، $\text{cov}(a,bc)=0$ است؟ | Cov(a,bc) وقتی Cov(a,b)=0 باشد cov(a,c) صفر نیست |
106208 | من میخواهم خوب بودن ویژگیها را با استفاده از انتخاب ویژگی با اعتبارسنجی متقاطع 10 برابری تفسیر کنم. با ChiSquared چیزی شبیه به این دریافت میکنم (حذف ویژگیها با merit در همه موارد 0 بود): میانگین شایستگی مشخصه رتبه متوسط 13.632 +- 1.6 1 +- 0 8 E8 یا میانگین شایستگی میانگین رتبه ویژگی 3.957 +- 0.306 2.1 +- 0.54 5 E5 8.015 + 2.672 4.2 +- 8.94 23 E23 1.331 +- 3.994 7 +- 2.1 14 E14 1.095 +- 3.285 9 +- 2.68 8 E8 با SVM میگیرم: میانگین شایستگی میانگین رتبه ویژگی 34 +- 0 1 +- 0 ویژگی به کلاس من 31.5 +- 2.335 3.5 +- 2.33 13 E12 30.8 +- 1.887 4.2 +- 1.89 4 E3 30.6 +- 1.908 4.4 +- 1.91 9 E8 28.7 +- 3.407 3.4 + 6.4 + 3.407 2.01 7.4 +- 2.01 20 E19 من نتوانستم توضیحاتی در مورد آنچه اعداد به من می گویند پیدا کنم. آیا فقط یک مقدار نسبی است که بگوییم کدام صفت بهتر از سایرین است یا معنایی پشت آن وجود دارد؟ | چگونه با ChiSquaredAttributeEval و SVMAttributeEval امتیازات را در Weka تفسیر کنیم؟ |
30809 | من یک سیستم برنامه دارم که در آن وظایف زیادی وجود دارد. هر کار به مدتی برای اجرا نیاز دارد و سیستم نظارت زمان اجرای هر کار را در پایگاه داده می نویسد. من باید میانگین زمان اجرای هر کار را برای یک دوره زمانی طولانی محاسبه کنم (بسیار بیشتر از نیم سال در حالی که حداقل چهار بار در ماه اجرا می شود، در بدترین حالت یک بار در روز اجرا می شود). متأسفانه من نمی توانم فقط میانگین حسابی را محاسبه کنم زیرا کار را می توان تغییر داد و مدت زمان کار افزایش یا کاهش می یابد. همچنین ممکن است برخی از خطاها در کار وجود داشته باشد و از کار بیفتد و آمار زمان را خراب کند. من فکر کردم که ممکن است مفید باشد که میانگین را فقط در چندین مرحله آخر محاسبه کنم، اما به نظر می رسد اطلاعات کافی مرتبط را به من نمی دهد. بنابراین سوال من این است که چگونه می توان میانگین زمان اجرای کار را با این توضیحات محاسبه کرد؟ ps. مطمئن نیستم باید اینجا باشه | میانگین روی داده ها برای یک دوره زمانی طولانی حساب کنید |
79892 | من 3 مجموعه داده دو بعدی زیر را دارم. مورد 1: (دو متغیر تصادفی پیوسته) A = 1.3، 2.7، 3.9، 4.7، 5.6، 6.3، 7.5، 8.9، 9.1، 10 B = 7.4، 15.3، 24.4، 25.4، 24.4، 25.4، 3.7، 29.6، 3.7، 29.6. 27.8، 39.1 مورد 2: (یک متغیر تصادفی گسسته و یک متغیر تصادفی پیوسته) C = 1، 1، 1، 1، 1، 0، 0، 1، 0، 1 D = 80.7، 85.3، 83.4، 84.6، 87.8، 87 99.5، 83.5، 79.7، 82.4 مورد 3: (یک متغیر تصادفی پیوسته و یک متغیر تصادفی گسسته) E = 1.3، 2.7، 3.9، 4.7، 5.6، 6.3، 7.5، 8.9، 9.1، 10 F = 1، 1، 1، 1، 1، 0، 0 1، 0، 1 اول، من می خواهم آنها را به عنوان یک احتمال نشان دهم توزیع و سپس می خواهید حداکثر احتمال پارامترهای سیگما 1 و سیگما 2 را تخمین بزنید. قدردان کمک شما هستم.. | مجموعه داده ها با توزیع احتمال تا تخمین حداکثر احتمال سیگما 1 و سیگما 2 |
79899 | تابع «p.adjust()» در R پارامتر «n» را میپذیرد که بهطور پیشفرض طول بردار مقادیر p را که میخواهیم تنظیم کنیم، میپذیرد: «p.adjust(p، روش = p.adjust.methods، n = length(p))` در مستندات توضیح n می گوید: > n تعداد مقایسه، باید حداقل طول (p) باشد. فقط زمانی این را تنظیم کنید (روی غیر-> پیشفرض) زمانی که میدانید در حال انجام چه کاری هستید! این به چه معناست؟ چه زمانی تنظیم آن روی مقداری متفاوت از مقدار پیشفرض میتواند مفید باشد؟ | تصحیح P-value در R: پارامتر n برای چیست و چه زمانی باید از آن استفاده کنم؟ |
32383 | من یک سخنرانی دیدم که این قضیه را ذکر کرد. من اکنون در تلاش برای یافتن جزئیات قضیه هستم، اما هیچ شانسی ندارم. امیدوارم اگر بتوانم به طور تقریبی آنچه را که این قضیه بیان کرد، توصیف کنم، کسی بتواند آن را تشخیص دهد و به من اشاره کند. بنابراین، این قضیه اساساً چیزی شبیه به خود-اطلاعات مورد انتظار شرطی کردن مقدار یک متغیر تصادفی را میگوید، همیشه بالاتر از خود-اطلاعات قبلی است. آیا آن زنگ ها را به صدا در می آورد؟ | مشروط کردن اطلاعات مورد انتظار را افزایش می دهد؟ |
55980 | بنابراین، من تعداد زیادی امواج مدوله شده با دامنه دارم و سعی می کنم تعیین کنم که کدام پارامتر مدولاسیون هر سری زمانی را مدوله می کند. برای انجام این کار، من هر سری زمانی را در فرکانس تکرار موج مدولاتور تا زدم تا یک شاخص مدولاسیون متوسط برای هر سری زمانی تولید کنم.  در اینجا یک مثال (بخصوص خوب نیست، اما برای تولید راحت است). منحنی سمت چپ، اگر صاف شود، یک نقطه زمانی ترجیحی ایجاد می کند. سمت راست دو را تولید می کند (ترجیح ضعیف در 7 و ترجیح قوی در 17). از نظر فنی همین امر در مورد سمت چپ تا حدودی صادق است، اما برای بحث، اجازه دهید فعلاً آن را نادیده بگیریم. من میخواهم کاری مشابه با تخمین چگالی هسته برای هر سری زمانی انجام دهم و سپس به طور خودکار پیکها را از این شکل تعیین کنم. می دانم که اینها واقعاً توزیع نیستند، اما کاری که می خواهم انجام دهم این است که به طور خودکار تعیین کنم: الف) تعداد پیک ها در هر سری زمانی، ب) مکان این پیک ها. اگر بتوانم A را انجام دهم، B برای من آسان به نظر می رسد. فکر می کنم این به معنای صاف کردن منحنی ها و تعیین حداکثرهای محلی از طریق نوعی پنجره است، اما فکر می کنم برخی از شما کارشناسان آمار ممکن است روش مناسبی برای این نوع چیزها بدانید. پیشاپیش ممنون جوزف | شناسایی خودکار منحنیهای دو وجهی در تعداد زیادی سری زمانی کوتاه |
56188 | من در حال کار بر روی یک تحلیل با استفاده از تحلیل عاملی اکتشافی (EFA) با مدل عامل مشترک هستم. این سوال به یک موضوع روش شناختی مربوط می شود. هر گونه بینش از کسی که در مورد EFA می داند قدردانی می شود. ما رفاه افراد را با استفاده از یک نظرسنجی **15 سوال** اندازه گیری کردیم. همان پرسشنامه به همان **100 آزمودنی** در **3 زمان مختلف** داده شد (فاصله های زمانی زیادی بین زمان اجرای نظرسنجی ها وجود داشت، بنابراین ما فرض می کنیم که وابستگی زمانی وجود نداشته باشد [مانند حمل و نقل] اثر]). هدف استفاده از تحلیل عاملی برای تعیین مجموعه ثابتی از عوامل مشترک و سپس محاسبه امتیازات عاملی و مقایسه نمرات آزمودنی ها بین نقاط زمانی است. در زیر استراتژی من برای تجزیه و تحلیل آمده است. آیا این منطقی به نظر می رسد؟ استراتژی تجزیه و تحلیل: همه داده ها را طوری ترکیب کنید که انگار از یک مکان واحد هستند. یعنی یک مجموعه داده با 100 مشاهده از زمان 1 ایجاد کنید و 100 مشاهده از نقطه زمانی 2 را به آن اضافه کنید. سپس 100 مشاهده از نقطه زمانی 3 را اضافه کنید. این یک مجموعه داده ترکیبی با مجموع 300 مشاهده به دست می دهد. با استفاده از داده های فوق، یک مدل EFA را با استفاده از تمام 15 متغیر و 300 مشاهده برازش دهید و فاکتورها را بدست آورید. پس از محاسبه امتیازات فاکتورها، دوباره با داده ها به گونه ای رفتار کنید که گویی از 3 نقطه زمانی مختلف هستند (یعنی 100 آزمودنی که در سه نقطه زمانی اندازه گیری شده اند). امتیازات فاکتورها را با استفاده از آنالیز واریانس تجزیه و تحلیل کنید تا بررسی کنید که آیا نمرات عامل یک عامل بین نقاط زمانی تغییر می کند یا خیر. | تحلیل عاملی اکتشافی با استفاده از داده های طولی تلفیقی |
110066 | من از الگوریتم حداقل میانگین مربع (LMS) برای تخمین سیگنال در حضور نویز تصادفی و آشفته بالا استفاده کرده ام. مقادیر MSE در دسی بل در هر SNR برای ضرایب مثبت است حتی اگر من به مقیاس Db تبدیل شده باشم. دلیل عدم اجرای LMS چیست؟ برای مدل MA(4)، تخمین ضرایبی که رگرسیورها از نویز آشفته تشکیل شده اند: $$u_t = e_t + a_1e_{t-1} + ...a_2e_{t-4} + AWGN $$ $e_t$ به دست می آید. از یک نقشه لجستیک، بنابراین در طبیعت آشفته است. این مقادیر MSE بین ضرایب تخمینی و واقعی برای SNR SNR مختلف است. کد زیر است. مدل MA $u(t) = s(t) + 0.4s(t-1) + 0.2s(t-4)$ است که از http://www.mathworks.com/help/econ/regression-model به دست آمده است. - with-arima-errors-specifications.html در اینجا $s$ از نقشه لجستیک همانطور که در بالا ذکر شد به دست می آید. سپس به $u(t)$ نویز گاوسی سفید افزودنی اضافه کردم. احتمالاً من در کد کار اشتباهی انجام می دهم. لطفا برای اصلاح کمک کنید با تشکر EDIT %function [e,w]=lms(mu,M,u,d); % تماس: % [e,w]=lms(mu,M,u,d); % % آرگومان های ورودی: % mu = اندازه گام، کم نور 1x1 % M = طول فیلتر، کم نور 1x1 % u = سیگنال ورودی، کم نور Nx1 % d = سیگنال مورد نظر، کم نور Nx1 % % آرگومان های خروجی: % e = خطای تخمین، کم نور Nx1 % w = ضرایب فیلتر نهایی، کم نور Mx1 %مقادیر اولیه: 0 clc پاک کردن همه A= 0.4; B = 0.0; C = 0.0; D = 0.2; M = 4; دستور %مدل %تعداد نمونه سیگنال ورودی N=256; % مطمئن شوید که u و d آزمایش بردارهای ستونی هستند = 5; برای itr = 1: آزمایشات x(1) = rand(); % آن را از مدل MA عبور دهید. برای jj =1 : N x(jj+1) = 4*x(jj)*(1-x(jj)); انتهای s =x; y(1) = 0.0; y(2) = 0.0; y(3) = 0.0; y(4) = 0.0; برای ii =5 : N y(ii) = s(i) + 0.4*s(ii-1) + 0.2*s(ii-4); پایان d=y(:); % سیگنال مورد نظر %u =y; u = awgn(y,0.1,'measured','linear'); % مقیاس خطی %u = awgn(y,40,'measured'); مقیاس %DB u=u(:); w=صفر (M,1); برای n=M:N uvec=u(n:-1:n-M+1); e_samples(n)=d(n)-w'*uvec; % برای سرعت بخشیدن به همگرایی با mu بزرگ شروع کنید و اگر n < 20 mu=0.32 باشد، سرعت را کاهش دهید تا به وزن های صحیح برسید. else mu=0.15; پایان w=w+mu*uvec*conj(e_samples(n)); نمونه های الکترونیکی پایانی = 0; e_coeff(itr,:)= ((w(1)- A).^2) + ((w(2) - B).^2) + ((w(3)- C).^2) + ((w(4)- D).^2))/4 ; W1(itr) = w(1); W2(itr) = w(2); W3(itr) = w(3); W4(itr) = w(4); پایان mse_coeff = mean(e_coeff); MeanSqErr = [mse_coeff mean(W1) mean(W2) mean(W3) mean(W4)] | الگوریتم حداقل میانگین مربع - شک مفهومی |
104378 | بیایید بگوییم که من مجموعه داده ای با $x_i$ مجزا دارم. یک گاوسی با حداکثر احتمال به آن تعبیه شده است و مقداری $\mu$ و مقداری $\sigma^2$ به دست میآورد. من همچنین احتمال $\mathcal{L}$ را بدست خواهم آورد. اکنون، مجموعه داده را در جایی که $\tilde{x}_i = 2 x_i$ تنظیم کردهام، کپی میکنم. من یک گوسی دیگر را تخمین می زنم که $\tilde{\mu}، \tilde{\sigma}^2، \tilde{L}$ را به دست می آورد. از آنجایی که من از ML استفاده می کنم، $2 \mu = \tilde{\mu}$، $4 \sigma^2 = \tilde{\sigma^2}$ دریافت خواهم کرد. برخلاف تصور من، $\mathcal{L} \neq \tilde{\mathcal{L}}$. این شاید برای یک گاوسی تک متغیره چندان بد نباشد. اما اگر انتخاب مدل را برای تحلیل عاملی، مدلهای مخلوط گاوسی یا مدلهای پیچیدهتر انجام دهم، چه؟ آیا ترتیب مدل های رتبه بندی شده بر اساس احتمال مربوطه آنها یکسان خواهد بود؟ | مقیاس متغیرها و پیامدهای آن در راه حل |
32389 | من مطالعه مقدماتی خود را در مورد انگیزه یادگیری زبان با استفاده از مقیاس لیکرت 6 درجه ای اما از 0 (کاملاً مخالفم) تا 5 (بسیار موافق) انجام داده ام. متوجه شدم که یکی از همکاران در نظرسنجی خود از 1 تا 6 استفاده کرده است. آیا متغیرهای محاسبه شده من (مجموع و میانگین) همان خواهد بود که از 1 تا 6 استفاده کرده بودم؟ آیا معمولاً توصیه می شود به دلایلی از 0 استفاده نکنید؟ من با SPSS تازه کار هستم، اما توانسته ام بیشتر کارهایی را که باید انجام دهم انجام دهم، اما اکنون نگرانم که ارزش هایم تحریف شده باشند. من نمی دانم چگونه SPSS 0 را به یک معادله اضافه می کند. با تشکر | آیا 0 یک مقدار معتبر در مقیاس لیکرت است؟ |
93039 | در محاسبه معمول VIF برای یک رگرسیون خطی، هر متغیر مستقل/توضیحی $X_j$ به عنوان متغیر وابسته در یک رگرسیون حداقل مربعات معمولی در نظر گرفته میشود. یعنی $$ X_j = \beta_0 + \sum_{i=1, i \neq j}^n \beta_i X_i $$ مقادیر $R^2$ برای هر یک از رگرسیونهای $n$ ذخیره میشوند و VIF با $ تعیین میشود. $ VIF_j = \frac{1}{1-R^2_j} $$ برای یک متغیر توضیحی خاص. فرض کنید مدل افزودنی تعمیمیافته من به شکل $$ Y=\beta_0+ \sum_{i=1}^n \beta_iX_i + \sum_{j=1}^m s_j(X_i) باشد. $$ آیا یک محاسبه VIF معادل برای این نوع مدل وجود دارد؟ آیا راهی وجود دارد که بتوانم عبارات صاف $s_j$ را برای آزمایش چند خطی بودن کنترل کنم؟ متشکرم. http://en.wikipedia.org/wiki/Generalized_additive_model http://en.wikipedia.org/wiki/Variance_inflation_factor | ضریب تورم واریانس برای مدل های افزایشی تعمیم یافته |
55981 | من سعی کردم $\text{Saving} = a + b_1*\text{Income} + b_2*\text{Wealth}$ را مدل کنم اما متوجه شدم که $\text{درآمد}$ و $\text{Wealth}$ همبستگی بالایی دارند. . من PCA را برای به دست آوردن یک متغیر جدید $\text{New}$ بر اساس مؤلفه اول اعمال کردم. بعد، $\text{Saving} = c + b_3*\text{New}$ را مدل کردم. سپس دو سوال به شرح زیر داشتم: 1. چگونه باید مدل را تفسیر کنم: $\text{Saving} = c + b_3*\text{New}$؟ 2. اگر تفسیر $\text{Saving} = c + b_3*\text{New}$ منطقی نیست، آیا باید $\text{New}$ را با وزنهای مربوطه (بارگیری) تولید شده توسط PCA جایگزین کنم؟ وزنهای مربوط به $\text{New}$ 1.5$*\text{درآمد} + 2*\text{Wealth}$ بود. (یعنی باید به جای آن $\text{Saving} = c + b_3*(1.5*\text{Income} + 2*\text{Wealth})$ انجام دهم؟) | چگونه باید متغیر ایجاد شده توسط Principal Component Analysis را تفسیر کنیم؟ |
82247 | من می خواهم یک مدل رگرسیون ترتیبی را با استفاده از شانس های متناسب برازش دهم. من یاد گرفتم که برای شیب های برابر تست کنم تا چیزی در مورد اعتبار مدل بگویم. بنابراین، من یک مدل _با_ شیب های مساوی و یک مدل _بدون_ شیب های یکسان را برازش می کنم (به عنوان مثال با R با استفاده از بسته VGAM). پس از آن، من یک تست Chi-square برای مقایسه هر دو نتیجه انجام می دهم. اگر این تست _معنی_دار نباشد، شیب های مساوی داریم. اگر این تست _معنی_دار باشد، نداریم. یکی از همکاران بیان می کند که این تست ها فاقد قدرت هستند. با چنین توان پایینی، ممکن است این اتفاق بیفتد که آزمون معنیدار نباشد (به عنوان مثال $p=.2$) در حالی که شیبهای متفاوتی وجود دارد. سوالات من این است: 1. آیا روش قدرتمندتری برای آزمایش شیب های مساوی وجود دارد؟ 2. آیا راه های دیگری برای آزمایش اعتبار مدل وجود دارد؟ Thx پیشاپیش! | نحوه اعتبارسنجی شیب های برابر (شانس های متناسب) در رگرسیون ترتیبی |
111520 | من سیستمی دارم که بهترین مدل (بهترین ورودی ها و پارامترهای MLP/SVM) را در یک مشکل مالی برای هر پایگاه داده درج شده پیدا می کند و یک مدل خاص برای یک نمونه داده خاص ایجاد می کند. من از اعتبارسنجی متقاطع 5 برابری استفاده می کنم که 5 بار تکرار می شود (برای افزایش قابلیت اطمینان سیستم من) برای تابع هزینه الگوریتم بهینه سازی خود، بنابراین در پایان بهترین 25 مدل را پیدا خواهم کرد که اکنون برای داده های نمونه استفاده می شود. وقتی دادههای نمونه را به این 25 مدل وارد میکنم، در برخی موارد، خروجیهای کمی متفاوت دارم (من یک مدل MLP طبقهبندی دارم که میتواند احتمال ایجاد کند). این یکی از خروجی ها است: 0.380032703، 0.356491904، 0.369914169، 0.377588996، 0.425321986، 0.382467546، 0.382467546، 0.356491904، 0.30391404 . 0.403619213، 0.406236551، 0.422529236، 0.393108809، 0.309808029، 0.357776713، 0.337373411، 0.337373411، 0.337373411، 0.397 این قسمت ها را با هم تفاوت دارند. مجموعه ها و مجموعه های تست برای ایجاد مدل. چیزهای دیگر مانند ورودی ها و پارامترها یکسان هستند. من باید فقط یک احتمال برای هر نمونه خروجی داشته باشم. رویکرد اول من استفاده از میانگین بود. من از پیشنهادات شما برای ایجاد یک احتمال قوی از این احتمالات می خواهم. وقتی سایر خروجی های نمونه را بررسی می کنم، در بسیاری از موارد تفاوت کم است اما در برخی موارد تفاوت بین احتمالات زیاد است. نظر شما در مورد این مشکل چیست؟ با تشکر | چگونه میانگین احتمالات را در MLP یا SVM محاسبه کنیم؟ |
65341 | می دانیم که تفاوت مارتینگل فرضی ضعیف تر از وابستگی و قوی تر از غیر همبستگی است. همین امر در مورد استقلال فرعی نیز صادق است. سوال من این است که استقلال فرعی و تفاوت مارتینگل چگونه به هم مرتبط هستند. | تفاوت مارتینگل در مقابل استقلال فرعی |
24935 | 1\. آیا هیچ گونه قرارداد نامگذاری در مورد کلاه و نماد tilde در آمار وجود دارد؟ دریافتم که $\hat{\beta}$ یک برآوردگر برای $\beta$ (ویکیپدیا) توصیف میکند، اما همچنین متوجه شدم که $\tilde{\beta}$ یک برآوردگر برای $\beta$ (Wolfram) توصیف میکند. آیا تفاوتی در معنی وجود دارد؟ در وب به نوعی تفاوت پیدا کردم اما در مورد معنی مرجع برای نمادهای آمار مطمئن نیستم. در آنجا بین «تخمین پارامترها» و «برآورد متغیرها» تمایز قائل می شود. آیا کسی می تواند اینقدر مهربان باشد که توضیح دهد در چه موردی باید از تایلد و کلاه استفاده کرد؟ 2\. در مورد عملگر انتظار، آیا تفاوتی در $E(X)$ و $E[X]$ و $E\\{X\\}$ در مورد براکت ها وجود دارد؟ من توصیه کردم که از براکت های فرفری استفاده کنم. اما در مورد معنی آن مطمئن نیستم. من قبلاً از پرانتزها فقط برای خواندن/تجسم به جای اشاره به معانی استفاده می کردم. توصیه ای در این مورد دارید؟ | نماد برآوردگرها (تیلد در مقابل کلاه) |
79891 | من یک طبقه بندی دارم. وقتی دادههای ورودی را به هم میزنم (چند بار)، دادههای آموزشی/آزمایشی میسازم و طبقهبندیکننده را اجرا میکنم، دقت بالاست، اما وقتی از اعتبارسنجی متقاطع در sklearn استفاده میکنم، 15٪ کاهش مییابد (هم یادآوری و هم دقت). تعجب می کنید که مشکل چیست؟ و چگونه آن را تعمیر کنیم؟ | اعتبار سنجی متقاطع در مقابل جابجایی |
55987 | من متغیرهای $Y$، $x_{m1}$، $x_{m2}$، $\ldots$، $x_{mn}$، $x_{p1}$، $x_{p2}$، $\ را دارم ldots$، $x_{pn}$، $x_{q1}$، $x_{q2}$، $\ldots$، $x_{qn}$. $Y$ برچسب کلاس (0 یا 1) است. $x_{mj}$، $x_{pj}$ و $x_{qj}$ را میتوان بهعنوان یک نوع ویژگی در نظر گرفت، اما ترکیب متفاوت سه ویژگی میتواند $Y$ متفاوت را پیشبینی کند. در واقع، $x_{m1}$، $x_{m2}$، $\ldots$، $x_{mn}$، $x_{p1}$، $x_{p2}$، $\ldots$، $x_{ pn}$ و $x_{q1}$، $x_{q2}$، $\ldots$، $x_{qn}$ از سه زیر کلاس آمده اند. برچسب زیرکلاس ها $Y$ نهایی را تعیین می کند. من چنین مجموعه داده ای دارم، می خواهم با رگرسیون لجستیک استنتاج کنم و سپس از مدل جدید برای پیش بینی $y$ جدید با توجه به $x$ استفاده کنم. ساده ترین روش این است که هر $x$ را مستقل در نظر بگیرید و رگرسیون لجستیک را انجام دهید، به نظر من این روش موثر نیست، استفاده از تعامل ممکن است انتخاب دیگری باشد. آیا کسی می تواند به من بگوید که چگونه این مشکل را حل کنم یا با استفاده از مدل های دیگر پیشنهاد دیگری داشته باشد. | استفاده از رگرسیون لجستیک برای برازش یک مجموعه داده عجیب و غریب |
79897 | من به زمینه پیش بینی مصرف انرژی علاقه دارم و چون در مرحله یادگیری هستم به دنبال کدهای منبع و نمونه هستم. دقیقاً من به پیش بینی با رویکرد شبکه های عصبی علاقه مند هستم. دیروز لینک مسابقه پیش بینی عصبی را در CV پیدا کردم اما متاسفانه هیچ نتیجه و کد منبعی پیدا نکردم. همچنین، من علاقه مند به روش هایی هستم که برای حل مشکلات مجموعه داده های داده شده استفاده می شود. آیا می توانید با چند پیوند یا راهنمایی در مورد اینکه کجا می توانم مجموعه داده ها و راه حل هایی را در این زمینه پیش بینی انرژی پیدا کنم به من کمک کنید؟ | نمونه های منبع داده پیش بینی NN |
82245 | در 6 جنگل، من 3 متغیر دارم که مقادیر آنها را برای همه درختان می دانم: $height$، $diameter$ و $density$. من فقط می توانم تعدادی از درختان را قطع کنم تا از جرم دلارشان بدانم. سوال این است که چگونه درختان را برای قطع انتخاب کنیم؟ همانطور که من یک مدل خطی فرض کردم مانند: $ Mass = a_1 قطر + a_2 ارتفاع + a_3 چگالی + a_4$ (یا همانطور که در پاسخ ذکر شد $log(جرم) = a_1 log(قطر) + a_2 log(ارتفاع) + ثبت a_3 (تراکم) + a_4$)، فکر کردم واریانس نمونهبرداری را به حداکثر برسانم تا بهترین برازش را داشته باشم. آیا استفاده از تجزیه و تحلیل مؤلفه اصلی بر روی 3 متغیر و سپس انتخاب گسترده ترین نمونه در 2 محور اول PCA صحیح است؟ آیا روش دیگری برای انتخاب نمونه گیری با به حداکثر رساندن واریانس بر روی متغیرهایی که قبلاً می شناسم وجود دارد؟ متشکرم. | نمونه برداری با استفاده از PCA و به حداکثر رساندن واریانس |
24934 | آیا ابزار خط فرمانی وجود دارد که جریان اعداد (در قالب ascii) را از ورودی استاندارد بپذیرد و آمار توصیفی اولیه را برای این جریان، مانند حداقل، حداکثر، میانگین، میانه، RMS، چندک و غیره ارائه دهد؟ خروجی قابل تجزیه با دستور بعدی در زنجیره خط فرمان است. محیط کاری لینوکس است، اما گزینه های دیگر مورد استقبال قرار می گیرد. | ابزار خط فرمان برای محاسبه آمار اولیه برای جریان مقادیر |
82249 | من یک تازه کار در تجزیه و تحلیل اجزای اصلی (PCA) هستم. من باید PCA را برای مجموعه دادههای متشکل از آمار شمارش انجام دهم: همه دادهها اعداد صحیح مثبت هستند. قبل از PCA داده ها باید نرمال شوند. کم و بیش استاندارد است که این کار را با کم کردن میانگین و تقسیم بر انحراف معیار در متغیر بر روی مجموعه نمونه انجام دهیم. نمی دانم که آیا این برای مجموعه داده هایی که بسیار کج هستند مناسب است یا خیر. | نحوه عادی سازی داده های توزیع شده پواسون قبل از PCA |
106206 | من داده پانل دارم و برای معادله زیر معادله $$ logY = \beta_1 + \beta_2 logX + \beta_3 m logW $$ مشکل با ضریب $\beta_3$ است. از آنجایی که m خارج از log است و مقدار بسیار کمی است، مجموع $mlogW$ بسیار کوچک است و ضریب حاصل بسیار بزرگ است (به هزار). یک جایگزین استفاده از استانداردسازی است، اما اگر متغیرها را استاندارد کنم، نتایج من به شدت تغییر می کند. راه حلی که من به آن فکر کردم این بود که متغیر را با ثابتی مانند 10000 ضرب کنم. بنابراین معادله جدید تبدیل می شود: $$ logY = \beta_1 + \beta_2 logX + \beta_3 m logW*10000 $$ سوال من این است که آیا این یک کار درستی است؟ فقط برای گزارش دادن ضرایب باید بزرگی ضرایب را تغییر دهد، اما در واقع وقتی من آن را در 1000 یا 10000 ضرب می کنم، رفتار همه ضرایب دیگر را تغییر می دهد. یا راهی برای استانداردسازی ضرایب بعد از تخمین وجود دارد؟ از آنجایی که من داده های تابلویی دارم، تقسیم و ضرب با انحرافات استاندارد پیچیده به نظر می رسد. آیا ایده ای دارید که چگونه آن را عملی کنید؟ متشکرم | استانداردسازی ضریب تک در تحلیل چند متغیره |
64431 | اجازه دهید $X_1$ و $X_2$ متغیرهای تصادفی غیرمنفی گسسته با $E(X_1) \le E(X_2)$ باشند. تابع $f$ را با خصوصیات زیر فرض کنید: * $f$ مثبت است، یعنی $f(x) \ge 0$ * $f$ (به شدت) یکنواخت در حال افزایش است * $f$ مقعر است حدس می زنم که $E( f(X_1)) \le E(f(X_2))$ اما مرجع مناسبی پیدا نکردم. آیا می توانید یک مرجع برای اثبات این موضوع (یا یک ویژگی کلی تر که دلالت بر این مورد دارد) و/یا طرح ایده اصلی اثبات ارائه دهید؟ نکته: مورد مشخصی که برای آن به این ویژگی نیاز دارم، برای متغیرهای تصادفی $X_1,X_2$ است که به $[0,1]$ و $f(x) = 1-(1-x)^n$ برای $n ارزیابی می شود. \in\mathbb{N}، n \ge 1$. | رابطه محاسباتی بین مقادیر انتظاری متغیرهای تصادفی تبدیل شده |
34360 | من نقد نمودارهای دایره ای را همانطور که در اینجا به آن اشاره می شود درک می کنم: مشکلات نمودارهای دایره ای با این حال، پاسخ بالا (و کتابچه راهنمای R) همیشه نمودارهای نقطه ای از کلیولند را به عنوان جایگزین ذکر می کند. سوال من این است که چرا نمودارهای نقطه ای جایگزین در نظر گرفته می شوند؟ به نظر میرسد که نمودارهای نقطهای فقط زمانی اعمال میشوند که: 1. مجموعه دادهها نسبتاً کوچک باشند (به طوری که شاید حتی با چشم شمارش نقاط در نمودار، هر نقطه مربوط به یک نقطه داده باشد، و 2. آنها در نظر گرفته نشدهاند. به نظر می رسد که هدف اصلی نمودار دایره ای نشان دادن این واقعیت است که دسته ها باید به 1 یا 100 درصد برسد نمودارهای نقطهای میتوانید مقدار اصلی هر دسته را نشان دهید، اما مشخص نیست که یک مقدار خاص چه کسری از همه دستهها است. به عنوان نمودار نقطه ای با یک میلیون نقطه (حتی اگر تعداد دسته ها کم باشد) عجیب به نظر می رسد و ممکن است به یک نمودار میله ای تبدیل شود یک جایگزین و شاید چند نمونه از نمودارهای نقطهای را برای سایر جایگزینهای کمی نمودارهای دایرهای (مانند نمودارهای میلهای؟) ارائه دهید. | نمودارهای دایره ای در مقابل نمودارهای نقطه ای |
24932 | من قوانین ترکیب خطاهای تجربی در مجموع، تفاوت ها و نسبت ها را درک می کنم (همانطور که در اینجا توضیح داده شد)، اما وقتی یک خطای آزمایشی را میانگین می گیریم چه اتفاقی می افتد؟ مثلاً اندازهگیری خطکش طول سوسکها که همگی مقادیری مانند 12.3 سانتیمتر $\pm $ 2 میلیمتر دارند. من می توانم توضیحات زیادی را در وب در مورد نحوه جمع و ضرب مقادیر مشابه با یکدیگر پیدا کنم، اما وقتی به طور متوسط (مثلاً) 10 اندازه گیری می کنید، چه اتفاقی برای خطا رخ می دهد؟ | ترکیب خطای تجربی در یک میانگین |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.