_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
60733 | من سعی میکنم بفهمم که چرا وقتی از پیادهسازیهای مختلف آن استفاده میکنم، در آزمون K-S نتایج کمی متفاوت میگیرم. من از نمونههای «a» به طول 45 و «b» با طول 1000 استفاده میکنم که میتوانید در اینجا پیدا کنید. هر دو «a» و «b» حاوی مقادیر تکراری هستند، بنابراین **پیوندها** وجود دارد. این چگونه بر نتیجه آزمایش من تأثیر می گذارد؟ چرا فقط «R» از این با یک هشدار شکایت می کند، در حالی که هر دو پیاده سازی «scipy» چیزی نمی گویند؟ **scipy.stats.ks_2samp** >>> import scipy.stats >>> scipy.stats.ks_2samp(a, b) (0.18788888888888888, 0.084132587804941872) **scipy.stats.ks_2samp(a, b) scipy.stats.mstats >>> scipy.stats.mstats.ks_twosamp(a, b, alternative='two_sided') (0.18788888888888858, 0.095622608864701905) **ks.>test roject از R** >> ksr = robjects.r['ks.test'] >>> res = ksr(robjects.FloatVector(a), robjects.FloatVector(b)) پیام هشدار: در تابع (x, y, ..., alternative = c( دو طرفه، کمتر، بزرگتر)، : مقادیر p در حضور پیوندها تقریبی خواهند بود >>> print [res[0][0], res[1][0]] [0.18788888888889, 0.09562260886470086] چرا `scipy.stats.ks_2samp` و `scipy.stats.mstats.ks_twosamp` مقادیر مختلف و چرا *stat. *ر** 'ks.test's همان مقدار را برمی گرداند آیا این بدان معناست که اگر می خواهم به **scipy** پایبند باشم باید از `scipy.stats.mstats.ks_twosamp` استفاده کنم؟ من زیاد با **آرایه های ماسک شده** آشنا نیستم، اما از هیچ کدام استفاده نمی کنم، بنابراین فکر می کنم خروجی اصلاً نباید تغییر کند. | پیاده سازی های مختلف آزمون کولموگروف-اسمیرنوف و پیوندها |
48202 | من چند نفر را دارم که در دو مجموعه A(a1، a2، ...، an) و B(b1، b2،...، bm) انتخاب کنند. یعنی هر فرد باید چند عنصر از A و چند عنصر از B را انتخاب کند. سپس میخواهم بدانم آیا A و B همبستگی دارند، به ویژه اینکه آیا هر یک از عناصر A با هر یک از عناصر B مرتبط است یا خیر. چگونه میتوانم انجام دهم. آن را؟ با تشکر فراوان. | نحوه بررسی همبستگی بین دو ماتریس |
61869 | من سعی می کنم یک مدل SEM تجزیه و تحلیل مسیر را با استفاده از Lavaan در R تکرار کنم، و در مورد نتایجی که در مورد آمار برازش مدل ارائه داد بسیار گیج شدم. **کد به شرح زیر است:** #Import Package library(lavaan) #Input Correlation Matrix sigma <- matrix(c(1.00, -0.03, 0.39, -0.05, -0.08, -0.03, 1.00, 0.07, -0.23 ، 0.16-، 0.39، 0.07، 1.00، -0.13، -0.29، -0.05، -0.23، -0.13، 1.00، 0.34، -0.08، -0.16، 0.29-، 0.34، 1.00)، nr=5، byrow=TRUE) نام های ردیف <-(sigma) (ورزش، سرسختی، نامهای تناسب اندام، استرس، بیماری) <-c(ورزش، سرسختی، تناسب اندام، استرس، بیماری) #ایجاد ماتریس کوواریانس sdevs <-c(66.5 ، 3.8، 18.4، 6.7، 624.8) covmax <- cor2cov(sigma، sdevs) as.matrix(covmax) #Specify Model mymodel<-'بیماری ~ ورزش + بیماری تناسب اندام ~ سرسختی + تناسب اندام ~ ورزش + استرس سرسختی ~ ورزش + سرسختی + ورزش تناسب اندام ~~ ورزش سرسختی ~ سرسختی ~ سختی #مدل را با ماتریس کوواریانس N = 363 fit.path <-sem(mymodel,sample.cov=covmax, sample.nobs=N, fixed.x=FALSE) #خلاصه خلاصه برازش مدل(fit.path, fit.measures = TRUE) **و خروجی من به شرح زیر است: ** لاوان (0.5-12) به طور معمول پس از 93 تکرار همگرا شد تعداد مشاهدات 37300 برآوردگر ML حداقل تابع آمار تست 0.000 درجه آزادی 0 P-value (Chi-square) 1.000 مدل آزمایشی مدل پایه: حداقل آمار آزمون تابع 16594.387 درجه آزادی مدل پایه 10000000: مدل پایه0000 کامل شاخص (CFI) 1.000 Tucker-Lewis Index (TLI) 1.000 Loglikelihood و معیارهای اطلاعات: Loglikelihood مدل کاربر (H0) -882379.005 Loglikelihood مدل نامحدود (H1) -882379.005 - تعداد پارامترهای Loglikelihood (تعداد پارامترهای آزاد) A1ka7006A1 بیزی (BIC) 1764915.910 اندازه نمونه تنظیم شده بیزی (BIC) 1764868.240 ریشه میانگین مربع خطای تقریب: RMSEA 0.000 90 درصد فاصله اطمینان 0.000 0.000 P-value Mean000 مربع استاندارد باقیمانده: SRMR 0.000 برآورد پارامتر: اطلاعات خطاهای استاندارد مورد انتظار برآورد استاندارد Std.err Z-value P(>|z|) رگرسیون: بیماری ~ ورزش 0.318 0.048 6.640 0.000 تناسب اندام -8.835 -50070.17 -12.146 0.793 -15.321 0.000 استرس 27.125 0.451 60.079 0.000 تناسب اندام ~ ورزش 0.109 0.001 82.602 0.000 0.000 Stress 0.201 0.396 ~ ورزش -0.001 0.001 -2.614 0.009 سرسختی -0.393 0.009 -44.332 0.000 تناسب اندام -0.040 0.002 -19.953 0.000 کوواریانس: ~393-0.009. -5.791 0.000 واریانس: ورزش 4422.131 32.381 سرسختی 14.440 0.106 بیماری 318744.406 2334.012 تناسب اندام 284.796 ** 2.085 * چرا استرس 40. آیا مجذور کای می گوید درجاتی از آزادی وجود ندارد؟ * چرا مقادیر p دقیقاً 1 هستند؟ چرا CFI و TLI دقیقا 1 است؟ * چرا RMSEA 0 است؟ * برای شبیه سازی یک مدل واقعی تر که به طور مصنوعی کامل به نظر نمی رسد، چه کاری باید انجام دهم؟ * به مشخصات مدل ربطی دارد؟ | چگونه می توان شاخص های برازش مدل تولید شده توسط لاوان (در R) را تفسیر کرد؟ مشکلی در مشخصات مدل وجود دارد؟ |
54778 |  لطفاً هنگام جایگزین کردن معادله، مقداری کارکرد را نشان دهید. با تشکر | چگالی احتمال و تولید گشتاور |
53334 | من یک مجموعه داده $(n_i,y_i),i=0,...,10$ دارم. من آن را به عنوان یک مدل بتا-دوجمله ای سلسله مراتبی بیزی مدل کردم. $y_i∼دو جمله ای(n_i,p_i)$ و $p_i∼بتا(\alpha,\beta)$. من از MCMC برای تخمین $\alpha$ و $\beta$ استفاده کرده ام (از میانه به عنوان مقدار تخمینی استفاده کنید). با توجه به $(n_j, y_j)$ جدید، می خواهم قضاوت کنم که آیا از همان مدل مجموعه آموزشی $(i=0,...,10)$ می آید یا خیر، یعنی $p_j$ به طور قابل توجهی بزرگتر از $\ است. theta$ (کوچک شدن $p_i$ از همه گروه). چگونه می توانم از $\alpha$ و $\beta$ تخمین زده شده برای محاسبه آن استفاده کنم؟ | از مدل سلسله مراتبی بیزی برای پیش بینی نقاط داده جدید استفاده کنید |
98976 | من می خواهم برخی از ویژگی های شبکه مانند آنتروپی، اتصال و غیره را بین 2 گروه مقایسه کنم. من دادههای سری زمانی fMRI روی بیماران (80=n) و کنترلها (n=30) برای مناطق خاصی از مغز دارم. سوال من این است که چگونه باید قبل از انجام هر گونه تجزیه و تحلیل بیشتر، سن و جنسیت را در گروه بیمار خود به درستی کنترل کنم؟ علاوه بر گروه های مواجهه نامتعادل، من 3 برابر بیشتر از مردها ماده دارم. چگونه می توانم سن و جنسیت آزمودنی ها را به بهترین نحو کنترل کنم؟ آیا می توانم 30 بیمار (در صورت وجود پیوندها به طور تصادفی انتخاب شوند) که میانگین ها، واریانس ها / ضرایب تغییرات آنها با گروه کلی مطابقت دارد، به طوری که آنها به خوبی گروه را نشان دهند؟ | مقایسه شبکههای گروههایی با اندازه نابرابر |
104916 | من سعی می کنم رگرسیون لجستیک را روی مجموعه داده ای از بیماران انجام دهم. متغیر وابسته وضعیت بیماری (دودویی، بله یا خیر) است. متغیرهای مستقل متعددی وجود دارد که برخی دوتایی مانند ژن حساسیت (y/n) و برخی دیگر پیوسته مانند سن بیمار هستند. وقتی رگرسیون لجستیک را جستجو کردم، در تمام کتابهایی که خواندهام، مثالهای ارائه شده همیشه دارای همه متغیرهای مستقل پیوسته هستند. بنابراین آیا انجام رگرسیون لجستیک روی مجموعه داده هایم با متغیرهای تصادفی پیوسته و باینری از نظر ریاضی معتبر است؟ یا یک مدل رگرسیون جایگزین وجود دارد که باید از آن استفاده کنم؟ | رگرسیون لجستیک چندگانه با متغیرهای تصادفی باینری |
58343 | من دو سوال دارم: فرض کنید متغیرهای یک توزیع نرمال چند متغیره را با استفاده از تبدیل Cholesky غیرهمبستگی می کنیم. سپس: 1. چه رابطه ای بین فواصل ماهالانوبیس قبل و بعد از این تبدیل وجود دارد؟ 2. آیا می توانم از این روش برای محاسبه فاصله ماهالانوبیس بین میانگین های دو توزیع نرمال چند متغیره با میانگین های مختلف و ماتریس های کوواریانس متفاوت استفاده کنم؟ به عبارت دیگر، آیا می توانم فاصله ماهالانوبیس را با عدم همبستگی هر توزیع و سپس استفاده از فاصله اقلیدسی محاسبه کنم؟ | فاصله ماهالانوبیس برای توزیع نرمال چند متغیره قبل و بعد از عدم همبستگی |
113602 | من سه گروه داده دارم که هر کدام دارای توزیع دوجمله ای هستند (یعنی هر گروه دارای عناصری است که یا موفقیت یا شکست هستند). من احتمال موفقیت پیشبینیشدهای ندارم، اما در عوض فقط میتوانم به میزان موفقیت هر کدام به عنوان تقریبی برای میزان موفقیت واقعی تکیه کنم. من فقط این سوال را پیدا کردم که نزدیک است اما به نظر نمی رسد دقیقاً با این سناریو سروکار داشته باشد. برای ساده کردن آزمون، اجازه دهید بگوییم که من 2 گروه دارم (3 را می توان از این مورد پایه گسترش داد). * آزمایشات گروه 1: $n_1$ = 2455 * آزمایشات گروه 2: $n_2$ = 2730 * * * * موفقیت گروه 1: $k_1$ = 1556 * موفقیت گروه 2: $k_2$ = 1671 من انتظاری ندارم احتمال موفقیت، فقط چیزی است که من از نمونه ها می دانم. بنابراین نرخ موفقیت ضمنی من برای دو گروه این است: * میزان موفقیت گروه 1: $p_1$ = 1556/2455 = 63.4٪ * نرخ موفقیت گروه 2: $p_2$ = 1671/2730 = 61.2% میزان موفقیت هر یک از نمونه نسبتا نزدیک است با این حال اندازه نمونه من نیز بسیار بزرگ است. اگر CDF توزیع دوجملهای را بررسی کنم تا ببینم چقدر با اولی متفاوت است (جایی که فرض میکنم اولی تست تهی است) احتمال بسیار کمی به دست میآورم که دومی میتواند به دست آید. در اکسل: > 1-BINOM.DIST(1556,2455,61.2%, TRUE) = 0.012 با این حال، این هیچ گونه واریانسی از اولین نتیجه را در نظر نمی گیرد، فقط فرض می کند که اولین نتیجه احتمال آزمون است. آیا راه بهتری برای آزمایش وجود دارد که آیا این دو نمونه داده واقعاً از نظر آماری با یکدیگر متفاوت هستند؟ | آزمایش کنید که آیا دو توزیع دو جمله ای از نظر آماری با یکدیگر متفاوت هستند یا خیر |
87511 |  من یک باکس پلات برای نشان دادن فرکانس ادعای خود انجام داده ام. با این حال، 2 و 4 فقط 1 سبیل دارند. چگونه آن را تفسیر کنم؟ | تفسیر نمودارهای جعبه با یک سبیل |
21104 | من 365 اندازه گیری روزانه دارم که همگی دارای خطاهای استاندارد مرتبط با آنها هستند. تاریخ | پیش بینی | خطای استاندارد ---------------------------------------- Jan-01-2003 | 24.8574 | 10.6407 Jan-02-2003 | 10.8658 | 3.8237 Jan-03-2003 | 12.1917 | 5.7988 Jan-04-2003 | 11.1783 | 4.3016 Jan-05-2003 | 16.713 | 5.3177 و غیره ... روش آماری مناسب برای بدست آوردن میانگین سالانه با فاصله اطمینان 95% در اطراف آن چیست؟ من فرض میکنم که خطاها باید به نحوی در حال انتشار باشند و باید حساب شوند. گوگل بیشتر اطلاعاتی را در مورد نحوه محاسبه میانگین یا انحراف استاندارد مجموعه ای از اعداد، نه مجموعه ای از اعداد **با** را برمی گرداند. من همچنین از برخی از انواع مرجع اینترنتی تشکر می کنم تا بتوانم بعداً به آن مراجعه کنم. | میانگین اعداد مجموعه را با خطاهای استاندارد گزارش شده محاسبه کنید |
54643 | چگونه باید یک فرمول مدل را در R تعریف کنم، زمانی که یک (یا چند) محدودیت خطی دقیقی که ضرایب را متصل می کند در دسترس است. معادله: y = b1*x1 + b2*x1 که در آن y = b1*x1 برای t < t1 و y = b2*x1 برای t > t1 متشکرم..! | برازش مدل ها در R با محدودیت زمانی در ضرایب |
58345 | در آمار، در مورد نمونه هایی آموزش داده می شود که می توانند محدوده ای از اعداد را به عنوان مقادیر خود داشته باشند. با این حال، در انتخابات مانند انتخابات ریاست جمهوری، تنها چند نامزد برای انتخاب وجود دارد. در این صورت، چگونه می توانیم توزیع آماری فرضی (مانند توزیع نرمال) را به نظرسنجی اختصاص دهیم و فاصله اطمینان را اختصاص دهیم؟ | نظرسنجی پیش از انتخابات را چگونه با آمار انجام دهیم؟ (نتایج مجزا) |
53330 | دارم روی برگه امتحانات گذشته کار میکنم مجموعه داده ای به شرح زیر به من داده می شود: مو {قهوه ای، قرمز} = {B،R}، قد {بلند، کوتاه} = {T،S} و کشور {UK، ایتالیا} = {U،I} (B، T,U) (B,T,U) (B,T,I) (R,T,U) (R,T,U) (B,T,I) (R,T,U) {R,T ,U) (B,T,I) (R,S,U) (R,S,U) (R,S,I) سوال: احتمالات P(B,T|U), P(B|U), P(T|U), P را تخمین بزنید (U) و P(I) همانطور که در سوال بیان می شود، حدس می زنم که نیازی به محاسبه هیچ مقداری ندارم. آیا این فقط یک مورد جمع آوری چند بار P(B,T|U) در کل مجموعه داده است، به عنوان مثال؟ (2/12) = 16%. آیا احتمال P(U) 0 خواهد بود؟ | تخمین احتمالات با استفاده از قانون بیز؟ |
49472 | من شهود پشت مدل OLS را درک می کنم: به حداقل رساندن باقیمانده های مربع. آیا راهی برای تفسیر شهودی فرمول شیب خط رگرسیون وجود دارد؟ یعنی $m = r(sd_y/sd_x)$. من می دانم که فرمول به من شیب می دهد، اما چگونه؟ به عبارت دیگر، شهودی ترین راه برای تجسم یا تفکر در مورد فرمول شیب خط رگرسیون چیست؟ | درک فرمول شیب رگرسیون OLS |
68066 | D.R. به نظر می رسد کاکس و دایه ورموث پیشنهاد می کنند که ضریب تعیین (R مجذور) زمانی که شما پاسخ های باینری دارید گمراه کننده است، در واقع اگر من به خوبی درک کنم، آنها می گویند که حداکثر مقداری که می تواند باشد 0.36 است. آیا این برای مدلهای OLS با برخی از متغیرهای مستقل مهم کلیدی که مقدار باینری دارند، قابل اجرا است؟ بحث و اطلاعات بیشتر در مورد موضوع مورد استقبال قرار خواهد گرفت. | ضریب تعیین برای پاسخ های باینری |
98979 | من یک متغیر طبقهبندی دارم (در رژیم غذایی: بله یا خیر) و دو متغیر عددی (ضربان قلب و فشار خون بیماران). آیا از رگرسیون لجستیک چندگانه استفاده می کنم؟ یا باید هر متغیر عددی را جداگانه با توجه به اینکه آیا آنها در رژیم هستند نگاه کنم؟ به این ترتیب من فقط به رگرسیون لجستیک ساده نگاه می کنم. | آیا باید متغیرها را جداگانه تحلیل کنم یا با هم؟ |
108060 | > تعداد obs = 501، روش: رگرسیون با اثرات ثابت > تعداد گروه ها = 101 > >> F( 10، 100) = 3422.31 >> >>>، Prob > F = 0.0000، در محدوده R-squared = 0.6325 مدل من (داده های پانل با اثرات ثابت) دارای شش متغیر و چهار آدمک به مدت پنج سال و همانطور که در بالا مشاهده می کنید، مقدار F با مقدار 3422 بسیار بالا است. آیا این طبیعی است؟ یا مشکل از چی میتونه باشه؟ همچنین باید اشاره کنم که وقتی یک متغیر به شش اضافه می کنم، f stat از 3422 به 86 تبدیل می شود. پیشاپیش از شما متشکرم | مقدار آماره F برای مدل من خیلی زیاد است |
60730 | اخیراً با ارجاعاتی به فیلتر مونت کارلو کالمن (MCKF) برخورد کرده ام که نوعی از فیلتر کالمن سیگما پوینت (SPKF) است. تفاوت کلیدی بین MCKF و بقیه SPKFها این است که نقاط سیگما به جای اینکه به صورت قطعی انتخاب شوند، همانطور که در مورد فیلتر کالمن بدون بو و سایر اعضای خانواده وجود دارد، به صورت تصادفی انتخاب می شوند. یعنی برای SPKF، نقاط سیگما منتشر شده از طریق: $ \mathbf{x}^{(i)}_k = \hat{\mathbf{x}}_k + w_k \mathbf{S}^{(i) انتخاب میشوند. )}_k$ که در آن $\mathbf{S}^{(i)}_k$ ستون $i$-امین ضریب کلسکی کوواریانس حالت است، $w_k$ یک وزن است (بسته به الگوریتم خاص SPKF) و $\hat{\mathbf{x}}_k$ میانگین است. از سوی دیگر، MCKF دارای نقاط سیگما است که از: $\mathbf{x}^{(i)}_k \sim N\left(\hat{\mathbf{x}}_k; \mathbf{P} _k\right)$ تعداد نقاط سیگما قابل انتخاب توسط کاربر است. از آنجایی که MCKF با فرض Guassian مشترک است، بقیه الگوریتم ها عملاً یکسان هستند (به ویکی پدیا مراجعه کنید). بنابراین، به نوعی فاصله بین SPKFها و فیلترهای ذرات است. بنابراین، سوالات من این است: * آیا کسی نوع MCKF را در عمل (یا دانشگاه) دیده است؟ * آیا مقالات زیادی در مورد ردیابی ویژگی های نظری یا عملکرد برنامه آن وجود دارد؟ Google Scholar به طور شگفت انگیزی مفید نیست. * چه زمانی می توان از MCKF بر روی UKF/DDF/... استفاده کرد؟ * (موارد مورد علاقه) انتظار می رود چند نمونه باید معادل عملکرد با استاندارد UKF (که دارای امتیاز سیگما 2N_x$) باشد؟ این مقیاس با افزایش $N_x$ چگونه است؟ | «فیلتر کالمن مونت کارلو» در مقابل فیلتر کالمن بدون عطر |
53337 | این یک سوال بسیار اساسی است اما من سابقه آماری ندارم و در حال حاضر در حال تجزیه و تحلیل برخی از داده ها برای پایان نامه خود هستم. من یک نظرسنجی در مورد سبک زندگی سالم ایجاد کرده ام و سؤالات چاقی عمدتاً کیفی هستند (زندگی شما چقدر سالم است/سالم/متوسط است - من برای تولید داده های ترتیبی پاسخ ها را 1-5 رتبه بندی کرده ام. 330 پاسخ دارم. به دنبال انجام برخی از آنها هستم. آمار استنباطی در مورد داده های من برای به دست آوردن اطلاعاتی در مورد چگونگی (از نظر آماری) پاسخ های مختلف بین گروه های مختلف شرکت کنندگان، به عنوان مثال بر اساس وزن یا شغل 1. من به دنبال انجام یک آزمون Mann Whitney U هستم تا از نظر آماری معنادار بین گروه های مختلف شرکت کنندگانم آزمایش کنم (مثلاً چاق، اضافه وزن). 2. من در اطراف مطالعه کرده ام و به نظر می رسد تست مربع X نیز یک آزمون آماری خوب برای استفاده در این نوع داده ها باشد هر آزمایش واضح دیگری (نسبتاً ساده) که من از دست می دهم، به عنوان مثال قبلاً از ANOVA استفاده کرده ام اما دوباره مطمئن نیستم که آیا آزمایش مناسبی برای داده های من است یا خیر. اساساً کاملاً گیج شده است، هر کمکی بسیار قدردانی می شود! | چه زمانی از تست کای دو استفاده کنیم؟ |
48205 | از من خواسته شد تعیین کنم که آیا تعداد عفونت های HAI در سال 2011 از تعداد عفونت های HAI در سال 2012 از نظر آماری معنی دار است یا خیر. من یک تست T زوجی را با استفاده از اعداد واقعی انجام دادم، اما اکنون از خودم سوال می کنم که آیا باید از آن استفاده کنم یا خیر. نرخ حادثه استاندارد شده در عوض. این برای یک شبکه 6 بیمارستانی است، بنابراین هر بیمارستان عددی را گزارش میکند که من برای کل تعداد سالانه جمع میکنم. | نحوه یافتن اهمیت آماری بین دو سال داده |
98973 | سوال دیگری در مورد آزمون فرضیه وجود دارد.  آلفا خطای نوع 1 است در حالی که بتا خطای نوع 2 است. من در کاری که قرار است انجام دهم کمی سردرگم هستم. من سعی کردم به سوال پاسخ دهم اما احساس می کنم چیزی را از دست داده ام. من ابتدا سعی کردم یک نمودار از f(x) در برابر x زمانی که تتا 2 است ایجاد کنم و یک نقطه بحرانی t را پیدا کنم به طوری که ناحیه زیر منحنی جایی که t در آن نمودار f(x) در برابر x زمانی که تتا 3 است ایجاد کردم. و با استفاده از مقدار بحرانی، ناحیه زیر منحنی را پیدا کردم که 0 در آن پیچیدم؟ | یافتن منطقه بحرانی که خطای نوع 2 را به حداقل می رساند |
62770 | من یک مدل رگرسیون لجستیک را به شکل زیر اجرا می کنم: lmer(response~1+(1|سایت)، خانواده=دوجمله ای، REML = FALSE) به طور معمول ICC را از واریانس های رهگیری و باقیمانده محاسبه می کنم، اما خلاصه ای از مدل شامل واریانس باقیمانده نمی شود. چگونه این را محاسبه کنم؟ | محاسبه ICC برای رگرسیون لجستیک با اثرات تصادفی |
94623 | من داده های چند متغیره در مورد یک جمعیت خاص با بیش از 1000 ویژگی در هر نمونه دارم. برخی از متغیرها ویژگیهای جمعیتشناختی پایه هستند، از جمله: جنسیت، سن، نژاد، قومیت، سطح درآمد و غیره. کاری که من میخواهم انجام دهم این است که الگوریتمی ارائه کنم که پارتیشن نامزد را در نمونه من پیشنهاد میکند. منظور من از نامزد این است که 100 پارتیشن را پیشنهاد می کند که من به صورت دستی کره چشم را انتخاب می کنم و می گویند 4 را انتخاب می کنم که به نظرم جالب بود. یک پارتیشن چیزی شبیه به این است: نمونه A 1. 60% مرد هستند 2. 30% از آنها شاغل هستند 3. 10% از آنها خودروهای خود را دارند نمونه B 1. 60% مرد هستند 2. 40% از آنها تحصیل کرده دانشگاه هستند. 3. 20 درصد از آنها متاهل هستند. من به استفاده از یک درخت تصمیم مانند الگوریتمی فکر میکردم که برای انجام کارهای بالا از اطلاعات بدست آمده استفاده کند. سوال: 1. آیا موارد فوق امکان پذیر است؟ 2. آیا باید کد سفارشی خود را بنویسم یا کدی را در جاوا، پایتون می شناسید که کارهای بالا را انجام می دهد؟ 3. هر اشاره گر دیگری؟ یادداشت ها: 1. آنچه جالب است -- واقعاً چه چیزی می تواند بینش را به یک کاربر تجاری ارائه دهد. کاری که من سعی می کنم انجام دهم این است که سعی کنم پارتیشن هایی را با عمق حدود 4 سطح ارائه کنم که ممکن است برای یک کاربر جالب باشد. بنابراین، برای مثال، هدف این است که تعداد زیادی از آنها را بیابید، اما یک متخصص انسانی میتواند در یک روز آن را بررسی کند. 2. اکنون میدانم که یادداشت من در مورد جالب ممکن است باعث تمسخر شود - میدانم که یک عبارت بسیار ضعیف است - جایگزینی که به آن فکر میکردم ایجاد یک سیستم تعاملی است که در آن یک متخصص میتواند گام به گام تجزیه و تحلیل را انجام دهد. پیشنهادات حساب از نتایج یک الگوریتم C4.5 اصلاح شده | استفاده از الگوریتم درخت تصمیم مانند C4.5 برای درک پارتیشن جمعیت |
90710 | منابع داده: بررسی ملی CDC از رشد خانواده، آمار حیاتی CDC. جمعیت: زنان آمریکایی 15-44 ساله در سال های 1982، 95، 2002، 2006 حجم نمونه: چند هزار آیا می توانم از پیرسون r برای نشان دادن همبستگی خطی بین دو متغیر درصد استفاده کنم؟ یعنی چند درصد از زنان آمریکایی که X انجام می دهند با درصدی از رویدادها که به روش خاصی دسته بندی می شوند، ارتباط دارند؟ به عنوان مثال، درصدی از آمریکاییهایی که گزارش دادهاند در سالهای مختلف در ماه گذشته در حالت مستی رانندگی کردهاند، در مقایسه با درصد تصادفات وسایل نقلیه موتوری که در همان سالها مربوط به الکل بودهاند. نمونه در طول زمان یکسان نیست، اما جامعه تقریباً همینطور است، با این تفاوت که در محدوده سنی قرار دارد، به عنوان مثال زنانی که در سال 1982 44 ساله بودند، در سال 1995 و غیره لحاظ نمی شوند. دلیل اینکه من می خواهم از درصد استفاده کنم این است که اعداد از 2 بازوی CDC دقیقاً مطابقت ندارند. نظرسنجی ملی رشد خانواده از زنان در این نظرسنجی در مورد تولدهایی که در 5 سال گذشته تجربه کردهاند میپرسد و آن را برای کل جمعیت آمریکا اعمال میکند، و این تعداد مشابه، اما نه یکسان، با تعداد تولدهای ثبت شده واقعی در آمریکا است. فاصله 5 ساله مناسب در آمار حیاتی CDC. من می خواهم داده های هر دو منبع را در یک دسته جمعی ترکیب کنم. آیا این امکان پذیر است؟ | پیرسون r با درصد در طول زمان |
104910 | فرض کنید من میخواهم یک مدل توضیحی برای رویدادهای ایجاد شده توسط یک فرآیند پواسون ناهمگن با شدت نامعلوم $\lambda$ بسازم. هر ورودی در مجموعه داده من نشان دهنده ثبت یک رویداد است: زمان $t_i$، مکان $(x_i,y_i)$ و برخی از متغیرهای توضیحی $z_{i1}،...،z_{ip}، i=1،.. .,n$. ورودی ها به ترتیب زمانی هستند. من می خواهم تأثیر متغیرهای توضیحی را بر شدت فرآیند پواسون با استفاده از GLM تخمین بزنم. ورودی ها را نمی توان گروه بندی کرد، زیرا این امر به ناچار منجر به از دست دادن اطلاعات توضیحی می شود. بنابراین یک مدل شمارش با رگرسیون پواسون در این مورد کار نمی کند. با این حال، اگر فرض کنیم که زمان اقامت $s_i$ (که می توانیم در این مجموعه داده محاسبه کنیم) به صورت نمایی i.i.d باشد، می توانیم رگرسیون گاما را اعمال کنیم. لطفاً برای لحظه ای نادیده بگیرید که ما یک مشاهده را به دلیل تفاوت از دست می دهیم. با استفاده از پیوند گزارش، این تبدیل به $E[s_i|\textbf{z}_i] = exp(\beta_0 + \beta_1 z_{i1} + ... + \beta_p z_{ip}) = \lambda(z_{i1} ,...,z_{ip})$ (ویرایش) از آنجایی که تجزیه و تحلیل داده های توضیحی نشان می دهد که فرآیند هم از نظر زمان و هم از نظر فضای دو بعدی ناهمگن است، من همچنین شامل مختصات مکان در مؤلفه خطی: $E[s_i|\textbf{z}_i,x_i,y_i] = exp(\beta_0 + \beta_1 z_{i1} + ... + \beta_p z_{ip} + \gamma_1 x_{i} + \gamma_2 y_{i}) = \lambda(z_{i1},...,z_{ip},x_i,y_i)$ سوالات: 1. آیا این رویکرد معتبر است؟ 2. آیا می توانم زمان های اقامت را به صورت نمایی i.i.d فرض کنم؟ با توجه به اینکه فرآیند پواسون ناهمگن است؟ 3. آیا $E[s_i|\textbf{z}_i,x_i,y_i]$ واقعاً شدت فرآیند را مدل میکند؟ 4. آیا من یک فرآیند پواسون یک بعدی (زمان)، سه بعدی (زمان و مکان) یا $p+2$ را مدل می کنم؟ | برآورد شدت فرآیند پواسون با استفاده از GLM |
54648 | من مقایسه اندازه گیری های مکرر را برای یک گروه با استفاده از آزمون فریدمن (آزمون K-related-samples) و تجزیه و تحلیل اضافی پس از پایان با آزمون رتبه علامت دار ویلکاکسون و تصحیح بونفرونی انجام داده ام. به من گفته شده است که این کار زمانی درست است که به دنبال تغییر بین اندازهگیریها و اندازهگیریهای شما به طور معمول توزیع نشده است. ** اکنون مطمئن نیستم که چگونه نتایج خود را به درستی گزارش کنم. آیا گزارش میانگین با انحراف معیار صحیح است یا میانه با صدک 25 تا 75؟** مثال با میانگین: مقایسه اندازه گیری های مکرر با استفاده از آزمون فریدمن انجام شد که نشان دهنده کاهش معنی دار آماری در غلظت بود، x2(3) = 24.877، p. < 0.001. تجزیه و تحلیل تعقیبی با آزمون رتبهبندی علامتدار Wilcoxon با اعمال تصحیح بونفرونی انجام شد که منجر به سطح معنیداری در p <0.0083 شد. میانگین غلظت (±SD) 0.045 (0.012) در ابتدا، 0.032 (0.012) در زمان 2، 0.027 (0.007) در زمان 3 و 0.024 (0.006) در زمان 4 بود. کاهش قابل توجهی بین زمان 2 و پایه (Z = 2.900، p = 0.004)، بین زمان 3 و پایه (Z = 3.180، 0.001 = p) و بین زمان 4 و پایه (Z = 3.180، p = 0.001) مشاهده شد. آیا این می تواند کار کند؟ با تشکر برای کمک! بهترین، ربکا. | نحوه گزارش نتایج آزمون فریدمن از جمله نتایج پس از آن |
94622 | من به چیزی نیاز دارم که توضیح داده شود و آن زمانی است که شما واریانس غیر ثابت دارید، تخمین ها مغرضانه نیستند، اما در مورد S.E مشکل ساز خواهند شد. فرمول ها و کارایی بنابراین تخمینهای OLS ناکارآمد خواهند بود، زیرا به مقادیر پرت وزن برابر میدهند. برای من منطقی است که دادن وزن یکسان به این نقاط پرت مشکلاتی را ایجاد می کند، اما اگر این نقاط داده واقعی باشند و اطلاعاتی را ارائه دهند، چرا باعث ایجاد مشکل می شود؟ | کارایی تخمین های بتا با ناهمسانی |
91397 | اجازه دهید $X = (X_1، ...، X_p)$ یک متغیر تصادفی با توزیع $N(\mu، \Sigma)$ باشد. $$ $$ $$ \Pr(X_1 > a_1، ...، X_p > a_p) \\\ =\int_{a_1}^\infty ... \int_{a_p}^\infty (2\pi)^ {-p/2} (\det(\Sigma))^{-1/2} \exp\left\\{-\frac{1}{2} (x-\mu)' \Sigma^{-1} (x-\mu)\right\\} dx_1 ... dx_p $$ $$ $$ آیا تقریبی (تحلیلی؟) از این انتگرال چند متغیره وجود دارد؟ | تقریب Pr(X > a)، با X یک rv نرمال چند متغیره |
113601 | در اکتشاف/توسعه نفت و گاز، استفاده از امپدانس آکوستیک حاصل از بررسی های لرزه ای بازتابی برای پیش بینی تخلخل اندازه گیری شده در چاه های حفر شده در مخزن، رایج است. من اغلب از جداول زیر (از یک مقاله) برای آزمایش جعلی بودن همبستگی استفاده می کنم: 0.87 0.78 0.72 0.67 0.63 0.57 0.49 0.39 0.32 0.75 0.58 0.47 0.40 0.40 0.30 0.30. 0.05 0.62 0.40 0.28 0.20 0.15 0.08 0.03 0.00 0.00 0.50 0.25 0.14 0.08 0.05 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00 0.00 0.00 0.28 0.07 0.02 0.01 0.00 0.00 0.00 0.00 0.00 0.19 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.04 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.04 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 مقدار همبستگی مطلق را نشان می دهد. r، که بزرگتر از مقداری ثابت R است، با توجه به همبستگی واقعی (ρ) صفر است، به عبارت دیگر احتمال یک همبستگی کاذب. این مقادیر با عبارت (در هر دو مقاله) محاسبه می شود: p=Pr(|r|≥R)=|t|≥((R√(n-2))/√(1-R^2 )) که در آن n اندازه نمونه، یا تعداد مکانها (چاههایی) است که هم ویژگی مخزن (تخلخل) و هم ویژگی لرزهای (امپدانس صوتی) در دسترس هستند و t به عنوان دانشجو توزیع میشود. t- مقدار بحرانی، با n-2 درجه آزادی. برای ستونهای این جدول n به ترتیب: 5 10 15 20 25 35 50 75 100 برای ردیفها، R (میزان همبستگی نمونه جعلی) به ترتیب: 0.1 0.2 0.3 0.4 0.5 0.6 این جدول است. برای ارزیابی این شانس استفاده می شود همبستگی نمونه، r، در واقع نادرست است یا با خاصیت مخزن پیش بینی شده همبستگی ندارد. نقل قول مجدد: به عنوان مثال، با توجه به 5 چاه، و r = 0.7، 19٪ احتمال وجود دارد که همبستگی نادرست است. من سال ها از این روش استفاده کردم و (فکر کردم) تئوری و کاربرد آن را به خوبی درک کرده ام. با این حال من اخیراً این بیانیه را بر روی مقاله ای خواندم که در مقاله اصلی که جدول منتشر شده بود، گسترش یافته است: > ... با این حال، جنبه دیگری از ضریب همبستگی وجود دارد که > باید در نظر گرفته شود - حدود اطمینان ضریب همبستگی واقعی. برای این مثال، حدود اطمینان 95% از حداقل > r 0.48- (P97.5) و حداکثر r از 0.98 (P2.5) است. از آنجایی که حداقل r > منفی است، نمیتوانیم با اطمینان بگوییم که همبستگی وجود دارد و باید این ویژگی را به عنوان یک پیشبین رد کنیم. با در نظر گرفتن همان نمونه > همبستگی 0.7، قبل از مثبت شدن حداقل r به 9 نمونه نیاز داریم، اما > مقدار آن فقط 0.07 است، با احتمال 4٪ که همبستگی نادرست است. این سوال من است: این از کجا می آید. نه مقاله اصلی و نه مقاله اخیر داده ها را در هر چاه منتشر نکردند، فقط جداول را منتشر کردند، بنابراین نویسنده مقاله آخر چگونه می تواند حدود 95٪ اطمینان را تخمین بزند؟ تنها چیزی که می توانم به آن فکر کنم این است که فاصله اطمینان 95% را حول میانگین r ... راه اندازی کنم، با این تفاوت که حتی برای آن، حداقل به یک نمونه (7 چاه) برای بدست آوردن میانگین نیاز دارند. آیا راه دیگری برای رسیدن به آن فقط با استفاده از مقادیر موجود در جدول وجود دارد؟ توجه داشته باشید که من ابتدا سوال را در اینجا پست کردم: http://math.stackexchange.com/questions/912230/probability-of-observing-a- false-correlation-and- اعتماد-limits | احتمال مشاهده همبستگی کاذب و حدود اطمینان |
90715 | چگونه می توانم تفاوت بین r(X,Y) و r(X,Z) [آزمون ویلیامز؟] را در حین کنترل متغیرهای جمعیت شناختی که علاوه بر X و Y و Z [همبستگی جزئی] اندازه گیری شده اند، آزمایش کنم؟ با تشکر، Moimeme | چگونه تفاوت بین دو ضریب همبستگی وابسته را در حین کنترل سایر متغیرها آزمایش کنم؟ |
90711 | من هشت متغیر مستقل و یک متغیر وابسته دارم. من یک ماتریس همبستگی اجرا کرده ام و 5 تای آنها همبستگی پایینی با DV دارند. سپس من یک رگرسیون چندگانه گام به گام اجرا کردم تا ببینم آیا هر یک از IV ها می توانند DV را پیش بینی کنند یا خیر. رگرسیون نشان داد که تنها دو IV میتوانند DV را پیشبینی کنند (هر چند فقط میتواند حدود 20 درصد از واریانس را تشکیل دهد)، و SPSS بقیه را از مدل حذف کرد. سرپرست من فکر می کند که من رگرسیون را به درستی اجرا نکرده ام، زیرا به دلیل قوی بودن همبستگی ها، باید پیش بینی های بیشتری در مدل رگرسیون پیدا می کردم. اما همبستگی ها بسیار اندک بود، بنابراین سوال من این است: اگر IV ها و DV به سختی همبستگی دارند، آیا هنوز هم IV ها می توانند پیش بینی کننده های خوبی برای DV باشند؟ | آیا متغیرهای مستقل با همبستگی کم با متغیر وابسته می توانند پیش بینی کننده معناداری باشند؟ |
48700 | من سعی می کنم یک مدل مخلوط رشد را با مجموعه ای از داده های مسیر مطابقت دهم. من از مدلی استفاده می کنم که در سطح عمومی مشابه این مدل است. من درک می کنم که چگونه متغیرهای رهگیری پنهان، خطی و درجه دوم تعیین می شوند. با این حال، من نمی دانم که چگونه متغیر کلاس پنهان تعیین می شود. آیا باید موارد را به صورت دستی به کلاسهای مختلف اختصاص دهم (مثلاً هنگام انجام مدلسازی معادلات ساختاری، تجزیه و تحلیل چند گروهی انجام میدهم) یا آیا روشی برای اختصاص موارد خودکار به کلاسها وجود دارد؟ اگر چنین است، این چگونه کار می کند؟ | طبقات در مدل مخلوط رشد چگونه تعیین می شوند؟ |
52148 | بگویید اگر من دو متغیر تصادفی X و Y داشته باشم و آنها توزیع یکسانی داشته باشند، فرضاً به چه معناست؟ آیا این بدان معناست که آنها میانگین و واریانس یکسانی دارند؟ | «توزیع یکسان» به چه معناست؟ |
91395 | من روی دادههای نظرسنجی پانل کار میکنم که در آن درآمد هر فرد در یک عدد تصادفی خاص ضرب میشود (هر عدد تصادفی به طور مساوی از 0.5 تا 1.5 توزیع میشود) تا از شناسایی هر شرکتکننده از دادهها جلوگیری شود. اساساً من نمی توانم مستقیماً درآمد دو فرد را با استفاده از داده ها مقایسه کنم. برای این نوع خطای ضربی، می خواستم بدانم آیا باید از روش خاصی برای اصلاح آن استفاده کنم؟ هر توصیه ای قدردانی خواهد شد! مشکل حل شد. لطفا پاسخ نستور را ببینید. | خطای ضربی در داده های نظرسنجی |
62771 | مشابه این سوال، اما با بیش از یک قالب مختلف. آیا راهی برای محاسبه توزیع احتمالات مرتبط با تاس وجود دارد که در آن توزیع احتمالات برای هر قالب همه یکسان نیست؟ **مثال:** با استفاده از تاس، احتمال پرتاب 1 یک بار در یک مجموعه را هنگام ریختن 2d4 و 1d6 پیدا کنید. همانطور که متوجه شدم، راه طولانی این است که هر رویداد را به طور جداگانه محاسبه کنیم و سپس رویدادهایی را جمع کنیم که در آن یک 1 یک بار قرار داده شده است: ` # `` نتیجه ``#از 1s` `1: ``|{1,1,1 }`` 3 ` `2: ``|{1,1,2}`` 2 ` `3: ``|{1,1,3}`` 2 ` `4: ``|{1,1, 4}`` 2` `5: ``|{1,1,5}`` 2 ` `6: ``|{1,1,6}`` 2 ` `7: ``|{1,2,1}`` 2 ` `8: ``|{1,2,2}`` 1 ``9: ``|{1,2,3}`` 1 ``10:``|{1,2,4}`` 1` `11:``|{1,2,5}`` 1 ``12:``|{1,2,6}`` 1 ``13:``|{1,3,1}`` 2 ``14:``|{1,3,2}`` 1` ``15:``|{1,3,3}`` 1 ``16:``|{1,3,4}`` 1` `17:``|{1,3,5}`` 1 ` ``18:``|{1,3,6}`` 1 ``19:``|{1,4,1}`` 2 ``20:``|{1,4,2}`` 1` ``21:``|{1,4,3}`` 1 ``22:``|{1,4,4}`` 1` `23:``|{1,4,5}`` 1 ``24:``|{1,4,6}`` 1 ``25:``|{2,1,1}`` 2 ``26:``|{2,1,2}`` 1` ``27:``|{2,1,3}`` 1 ``28:``|{2,1,4}`` 1` `29:``|{2,1,5}`` 1 ``30:``|{2,1,6}`` 1 ``31:``|{2,2,1}`` 1 ``32:``|{2,2,2}`` 0 ``33:``|{2,2,3}`` 0 ``34:``|{2,2,4}`` 0` `35:``|{2,2,5}`` 0 ``36:``|{2,2,6}`` 0 ``37:``|{2,3,1}`` 1 ``38:``|{2,3,2}`` 0 ``39:``|{2,3,3}`` 0 ``40:``|{2,3,4}`` 0` `41:``|{2,3,5}`` 0 ` ``42:``|{2,3,6}`` 0 ` `43:``|{2,4,1}`` 1 ``44:``|{2,4,2}`` 0` ``45:``|{2,4,3}`` 0 ``46:``|{2,4,4}`` 0` `47:``|{2,4,5}`` 0 ``48:``|{2,4,6}`` 0 ``49:``|{3,1,1}`` 2 ``50:``|{3,1,2}`` 1` ``51:``|{3,1,3}`` 1 ``52:``|{3,1,4}`` 1` `53:``|{3,1,5}`` 1 ``54:``|{3,1,6}`` 1 ``55:``|{3,2,1}`` 1 ``56:``|{3,2,2}`` 0 ``57:``|{3,2,3}`` 0 ``58:``|{3,2,4}`` 0` `59:``|{3,2,5}`` 0 ``60:``|{3,2,6}`` 0 ``61:``|{3,3,1}`` 1 ``62:``|{3,3,2}`` 0 ``63:``|{3,3,3}`` 0 ``64:``|{3,3,4}`` 0` `65:``|{3,3,5}`` 0 ``66:``|{3,3,6}`` 0 ``67:``|{3,4,1}`` 1 ``68:``|{3,4,2}`` 0 ``69:``|{3,4,3}`` 0 ``70:``|{3,4,4}`` 0` `71:``|{3,4,5}`` 0 ``72:``|{3,4,6}`` 0 ``73:``|{4,1,1}`` 2 ``74:``|{4,1,2}`` 1 ``75:``|{4,1,3}`` 1 ``76:``|{4,1,4}`` 1` `77:``|{4,1,5}`` 1 ``78:``|{4,1,6}`` 1 ``79:``|{4,2,1}`` 1 ``80:``|{4,2,2}`` 0 ``81:``|{4,2,3}`` 0 ``82:``|{4,2,4}`` 0` `83:``|{4,2,5}`` 0 ``84:``|{4,2,6}`` 0 ``85:``|{4,3,1}`` 1 ``86:``|{4,3,2}`` 0 ``87:``|{4,3,3}`` 0 ``88:``|{4,3,4}`` 0` `89:``|{4,3,5}`` 0 ``90:``|{4,3,6}`` 0 ``91:``|{4,4,1}`` 1 ``92:``|{4,4,2}`` 0 ``93:``|{4,4,3}`` 0 ``94:``|{4,4,4}`` 0` `95:``|{4,4,5}`` 0 ``96:``|{4,4,6}`` 0 ` که در مجموع 39 مورد از 96 احتمال را تشکیل می دهد که یک عدد فقط یک بار رول می شود، یا 40.625% اما می دانم که باید فرمولی وجود داشته باشد که این کار را انجام دهد، زیرا اگر بتوانم آن را به صورت دستی بشمارم (مانند بالا)، پس باید یک تابع ریاضی ثابت پشت آن باشد. در طی چند روز اخیر تحقیق، متوجه شدم که این کار را می توان با استفاده از تابع توزیع تجمعی نیز انجام داد. با این حال، تا آنجا که من متوجه شدم، سی دی اف از شما می خواهد که احتمال یکسانی برای هر سه رول داشته باشید - بنابراین اگر یک فرمول را برای 2d4 و سپس یکی را برای 1d6 انجام دهم، اما نه به طور تجمعی، کار می کند. با کاوش عمیق تر، به نظر می رسد که توزیع پواسون ممکن است توزیع های احتمالی را که من می خواهم ارائه دهد، اما صادقانه بگویم، ظرفیت من برای یادگیری این موضوع از فرمولی در ویکی پدیا به سرعت به صفر نزدیک می شود. اگر این فرمول صحیح است (یا اگر پاسخ با فرمول دیگری است)، آیا می توانید با استفاده از مثال من از بالا، دلیلی ارائه دهید؟ به طور مشابه، آیا می توانید مثالی ارائه دهید که در آن چندین احتمال مختلف وجود دارد (مثلاً: 1d2، 2d4، 1d6، 3d10)؟ | آیا فرمولی برای تعیین توزیع تجمعی مرتبط با انواع مختلف رویدادها وجود دارد؟ |
53336 | من تحقیقاتی انجام داده ام و به نظر نمی رسد این سوال مستقیماً پاسخ داده شده باشد. من وضعیتی دارم که در آن متغیر نتیجه ماهانه از سال 1975 تا کنون اندازه گیری می شود و سپس چندین پیش بینی با تاریخ شروع و پایان متفاوت است. سوال من این است که بهترین رویکرد با این داده ها چیست؟ من با آمارگیر دیگری کار می کنم که تجربه بیشتری با داده های سری زمانی در این مواقع دارد و او به من می گوید که روش معمول حذف داده ها تا کوتاه ترین پیش بینی کننده است. برای مثال، اگر پیشبینیکننده 1 از 1975-جریان و پیشبینیکننده 2 از 2001-جریان اندازهگیری شود، او به من میگوید بهترین رویکرد و تنها گزینه استفاده از دادهها برای هر دو پیشبینیکننده از سال 2001- کنونی است. بنابراین، اساساً تمام داده های پیش بینی کننده 1 از سال 1975-2000 حذف می شود. او همچنین گفت که این اغلب منجر به پیشبینی بهتر میشود. من کمی نسبت به همه اینها شک دارم و نمیدانستم که آیا یک رویکرد ML یا Bayesian در R یا سایر روشهای رایج در R که ممکن است بتواند این وضعیت را مدیریت کند و از همه دادههای موجود استفاده کند. یک فکر این است که این مورد را به عنوان یک طراحی مناسبت متغیر در نظر بگیریم (به فصل مربوط به داده های طولی در Snijders & Bosker، تحلیل چند سطحی مراجعه کنید). | دادههای سری زمانی با تاریخهای شروع و پایان متفاوت |
90717 | با نگاه کردن به نمودار تاخیر، به نظر می رسد که مجموعه داده من تصادفی است (بدون هیچ گونه همبستگی خودکار). آیا این باید برای استنباط استقلال مشاهدات کافی باشد؟ در واقع، من _می دانم_ که مشاهدات وابسته هستند و از این رو تصادفی بودن نباید تضمین کننده آن باشد. اما به طور شهودی احساس دیگری دارد. با توجه به اینکه تصادفی بودن استقلال را تعیین نمی کند. آیا معیاری برای آزمون استقلال مشاهدات وجود دارد؟ ویرایش: لطفاً توجه داشته باشید که دادهها **** ماهیت سری زمانی نیستند، این داده ها _متوسط_ پهنای باند مصرفی مشتری در طول ماه است.  | آیا تصادفی بودن به معنای استقلال است؟ |
99599 |  چگونه $a$ و $b$ را در $Y=a+bX$ پیدا کنم؟ روشی که من تا کنون این کار را انجام داده ام با فرمول های با تن $\Sigma(X)$ و $\Sigma(Y)$ است. | فاصله زمانی به عنوان متغیر مستقل |
113609 | من داده های شمارش را بر اساس سایت برای 15 گونه دارم، با این حال اندازه متوسط بر اساس گونه بر سایت نیز دارم. من به دنبال استفاده از تکنیک های ترتیب بندی (مقیاس بندی چند بعدی غیر متریک) برای کاهش ابعاد و تجسم تفاوت ها در ترکیب جامعه هستم. چگونه می توانم اندازه متوسط را بر اساس گونه بر اساس سایت در NMDS بگنجانم؟ من از تابع metaMDS در {vegan} با R استفاده می کنم. در اینجا یک نمایش ساده از نوع مشابهی از داده ها وجود دارد که اندازه های داده (dune) <- matrix(runif(20*30), dim( dune)[1], dim(dune)[2]) #sizes مربوط به هر گونه در هر سایت. که مهم است) به یک تکنیک انتصاب مانند NMDS؟ | هنگام استفاده از ترتیببندی، ویژگیهای گونهها را به همراه دادههای شمارش اضافه کنید |
99591 | من با مجموعه داده نمونه زیر کار می کنم: t1 t2 ntrial nsuccess 1 4 1000 4 1 8 1000 8 2 4 1000 4 2 8 1000 8 پیش بینی کننده ها (ویژگی ها) t1 و t2 دسته بندی هستند: t1 دارای دسته های 1 و 2 است و t2 4 و 8. هیچ ترتیبی برای این دسته ها وجود ندارد. در واقع، برای هر ترکیب t1 و t2، من یک موفقیت یا یک شکست را مشاهده می کنم. به عنوان مثال، در ردیف اول (t1، t2) = (1، 4) و من 4 موفقیت از 1000 مشاهده ثبت کردم. بنابراین واقعاً مجموعه داده دارای 4000 ردیف است (به این دادههای باینری unrolled گفته میشود) که میتوانند برای اهداف مثلاً رگرسیون لجستیک فشرده شوند. بدیهی است که باز کردن این داده ها از نظر حافظه ناکارآمد است، زیرا داده های بازگردانده شده چیزی شبیه به این خواهند بود: t1 t2 موفقیت 1 4 1 1 4 1 1 4 1 1 4 1 1 4 0 ... 996 صفر 1 4 0 1 8 1 1 8 1 ... و غیره در این مثال اسباب بازی، من فقط 1000 مشاهده در هر ردیف دارم، بنابراین داده ها می توانند unrolled، اما در واقع مجموعه داده من دارای 10^9 مشاهدات، و بسیاری از ویژگیها/پیشبینیکنندهها است، بنابراین باز کردن آن واقعاً امکانپذیر نیست. میخواهم بدانم: 1. آیا الگوریتمی (مثلاً R یا جاوا و غیره) وجود دارد که بتواند مستقیماً روی این مجموعه داده عمل کند، بدون اینکه مجبور باشم ردیفها را باز کنم؟ الگوریتم باید نسبتا سریع و ساده برای آموزش و پیش بینی باشد. 2. آیا روال اعتبارسنجی متقابلی وجود دارد که بتواند روی این مجموعه داده بدون باز کردن ردیف ها کار کند؟ در اینجا برخی از کدهای شروع کننده R است که من تا کنون امتحان کرده ام. من رگرسیون لجستیک وزنی (هرچه مشاهدات بیشتری داشته باشیم، واریانس کمیت پیشبینیشده کمتر است، بنابراین رگرسیون وزنی روی دستانمان داریم) و درخت رگرسیون را برازش کردم. library(boot) set.seed(1) input_file = 'data\\test\\test.txt' # تعداد فولدهای اعتبارسنجی متقابل K = 10 ورودی <- read.csv(input_file, header=TRUE, sep='\ t', quote=, colClasses=c(rep('factor', 2), 'numeric', 'numeric')) # تغییر محتویات قاب input$nfail = pmax(0, input$ntrial - input$nsuccess) # محاسبه احتمال موفقیت ورودی$prob = input$nsuccess/input$ntrial # متناسب با مدل اصلی glm.model = glm(cbind( input$nsuccess، input$nfail) ~ input$t1 + input$t2، خانواده = دو جمله ای، وزن ها = input$ntrial) هزینه <- function(y,yhat) sum(input$ntrial*((y-yhat)^2))/sum(input$ntrial) # این یک خطا ایجاد میکند، cv.glm ردیفها را متوجه نمیشود باید باز شود cv.glm(ورودی، glm.model، هزینه = هزینه، K=K)$delta[1] کتابخانه(درخت) کنترل = tree.control(sum(input$ntrial)) tree.model <- tree(input$prob ~ input$t1 + input$t2, weights = input$ntrial, control = control) plot(tree.model) text(tree. مدل، زیبا=0) # این خیلی بزرگ است که در حافظه جا شود، R با شکست مواجه می شود. اعتبارسنجی متقاطع 10 برابری، من باید از هر یک از 4000 ردیف به طور تصادفی نمونه برداری کنم، یا از 1 یا 0 (موفقیت یا شکست) نمونه برداری کنم، و سپس برای هر بار، تعداد موفقیت ها و شکست ها را برای هر یک خاص جمع کنم. ترکیبی از t1 و t2. | برازش و اعتبار متقابل داده های نمونه طبقه بندی شده از مشاهدات تشکیل شده است |
68680 | من اخیراً چند نمودار طرح ریزی تحلیل مختصات اصلی (PCoA) را دیده ام که درصد تغییرات توضیح داده شده را با مختصات اصلی مربوطه نشان می دهد. با توجه به اینکه تجزیه و تحلیل بر روی یک ماتریس کوواریانس انجام نمی شود (معمولاً بر روی برخی از معیارهای اکولوژیکی انجام می شود) به نظر می رسد اشتباه است که بگوییم که بزرگی مقادیر ویژه به هر طریقی با واریانس توضیح داده شده مرتبط است. سوال من این است که بهترین تفسیر از مقادیر ویژه چیست؟ | چگونه تغییرات توضیح داده شده توسط مختصات اصلی را تفسیر کنیم؟ |
94621 | کدام مدل ARIMA برای داده های ارائه شده مناسب تر است؟: Log Data 4.80925 4.79486 5.10405 4.99157 5.14573 5.43213 4.82344 5.04939 5.38104 5.10405 5.10405 5.43213 5.45860 5.76751 5.48801 5.02090 5.86406 5.47708 5.45486 6.15547 5.67275 5.65144 5.65144 5.675765.67575 6.03513 5.66367 5.41669 6.06609 5.43596 5.69361 5.87396 5.90787 5.75926 5.88377 5.52010 6.12485 6.12144 6.20267 6.18658 6.20267 6.12910 6.29733 6.34150 6.41869 6.67444 5.72268 6.56957 7.05300 6.720916.72091 6.72091 6.87882 6.70602 6.98400 6.92120 6.89404 7.14209 6.90552 7.25532 7.44422 7.27493 7.39001 7.682756 7.68275 7.40237 7.00886 7.05753 6.94173 6.86795 7.10179 7.30834 6.89935 6.93322 7.24412 6.70709 6.763495 6.763495 6.86795 7.35758 6.97093 7.00965 7.78806 7.32001 7.53711 7.49125 7.17615 7.44166 7.57332 7.708374 7.7083517 7.34352 7.71693 7.98283 7.80891 7.84455 8.05212 7.79854 7.65416 8.25674 7.95186 8.05963 8.28024 8.28025 8.42345 8.20280 8.25879 8.52682 8.00325 7.89247 8.62445 8.20568 7.79782 8.17482 7.70319 8.1036568.10539 8.06872 8.17260 7.68241 7.33726 8.14756 7.76267 | بهترین مدل ARIMA |
99620 | من درک محدودی از احتمال، پی دی اف و غیره دارم. وقتی فرودگرهای وایکینگ به مریخ رفتند، صحبت از احتمال وجود حیات در مریخ شد. اکنون در مورد احتمال وجود حیات فراتر از منظومه شمسی می خوانیم. با این حال، به نظر من، یا زندگی فراتر از منظومه شمسی وجود دارد یا وجود ندارد. مثل این نیست که دست خود را در کوزه ای پر از تیله های سیاه و سفید به نسبتی بگذاریم و یکی را بیرون بیاوریم. ممکن است یکی آن آزمایش را بارها تکرار کند و سعی کند نسبت واقعی سیاه و سفید را تخمین بزند، یا ممکن است از قبل نسبت را بداند و احتمال بیرون کشیدن 10 سیاه و 5 سفید یا 15 تمام سفید و غیره را محاسبه کند. درک معنای واقعی احتمال زندگی در جای دیگری در جهان دشوار است. | آیا صحبت در مورد احتمال وقوع رویدادی که قبلاً رخ داده و قابل تکرار نیست صحیح است؟ |
79795 | من نمی دانم که آیا راه بهتری برای فرمول بندی این موضوع وجود دارد و همچنین آیا این روش صحیحی برای فرمول بندی آن است. آنچه من سعی می کنم در توزیع فرکانس نشان دهم، تعداد اسنادی است که شامل تعداد معینی از عبارت مورد علاقه من است. به عنوان مثال، نمونه سند شامل 50 سند با 1 وقوع اصطلاح، 30 سند با 2 مورد است. وقوع، 10 با 3، و غیره. من به دنبال پاسخ دادن به سه سوال هستم: 1. آیا _توزیع فراوانی فرکانس عبارت_ روشی صحیح برای فرمول بندی آنچه توضیح دادم است، 2. اگر بله، منظورم واضح است و 3. آیا راه بهتری برای فرمول بندی آن وجود دارد. ? | آیا اصطلاح بهتری برای توزیع فرکانس فرکانس اصطلاحی وجود دارد؟ |
48706 | من در حال اجرای یک رویکرد راهزن مانند چند مسلح برای تعیین بهترین قیمت برای یک محصول هستم. هدف ما بهینهسازی سود است، به این معنی که میخواهیم قیمتی را پیدا کنیم که (قیمت-هزینه) x تعداد خرید بیشترین مقدار را دارد. مشکل این است که یک الگوی شناخته شده فصلی در هفته وجود دارد. بنابراین، اگر من قیمت را در روز دوشنبه در مقابل چهارشنبه روی یک چیز تنظیم کنم، ممکن است حجم آنها به طور چشمگیری متفاوت باشد. این وضعیت خاص من است، اما وقتی عوامل خارجی وجود دارد (به غیر از اینکه کدام بازوی راهزن را می کشید) وجود دارد که بر نتایجی که به دست می آورید تأثیر می گذارد، به طور گسترده تر در مورد استفاده از راهزن چند دستی تعجب کردم. آیا راهی برای در نظر گرفتن این عوامل وجود دارد؟ یا - شاید نتایجی وجود دارد که نشان می دهد اگر الگوریتم را به اندازه کافی طولانی اجرا کنید، با وجود عوامل دیگر همگرا می شود؟ | راهزن چند مسلح با فصلی |
81261 | ## بررسی اجمالی من میخواهم پیشبینی بقا را با استفاده از شبکههای عصبی که در این مقاله با عنوان _کاربرد تحلیل بقای مبتنی بر شبکه عصبی مصنوعی بر روی دو مجموعه داده سرطان پستان_ توسط Chi، Street و Wolberg شرح داده شده است، شبیهسازی کنم که در آن بردار هدف 1 نشان دهنده نقاط زمانی است. ارزیابی شده و بردار احتمالات را برمی گرداند. متأسفانه آنها نرم افزار مورد استفاده برای ایجاد روش را ارائه نکردند. به عنوان مثال، یک مجموعه داده با زمان، وضعیت (که نشان دهنده زنده یا مرده است) و سایر متغیرهای پیش بینی کننده برای آموزش در یک شبکه عصبی مورد نیاز است. ساختار داده ای برای نگهداری نقاط زمانی مورد نیاز تحقیق وجود خواهد داشت (مثلاً «{1،1،1،1،1،1}»، فواصل شش ماهه در سه سال). خروجی این مدل پس از در نظر گرفتن متغیرهای پیشبینیکننده فوقالذکر به این صورت خواهد بود: «{0.98761,0.91111,0.82710,0.70003,0.64253,0.47181}» که مطابق با: 6 12 18 3673618 0.91111 0.82710 0.70003 0.64253 0.47181 2 ... از این داده ها می توان برای رکوردهای آتی که به شبکه تغذیه می شود استفاده کرد. * * * ## بستههای شبکه عصبی R من به دنبال راههایی برای پیادهسازی این کار در بستههای «nnet»، «neuralnet» و «rminer» بودهام و متأسفانه دانش محدود من نمیتواند آنها را مطابق با نیازهایم تغییر دهد. من فقط می دانم که اینها مقادیر اسمی و عددی را پیش بینی می کنند اما اکنون چگونه بردارها را انجام دهیم. تا کنون توابع مربوط به پیشبینی در آن بستهها اشارهای به استفاده از یک بردار به عنوان خروجی نمیدهند. 1. توضیحات `nnet`'s `predict()` به وضوح در زیر آمده است. > _مثال های جدید را توسط یک شبکه عصبی آموزش دیده پیش بینی کنید._ # X1، X2، و بقیه متغیرهای پیش بینی مدل.nnet <- nnet(Surv(زمان، وضعیت)~X1+X2، data=data.train، size=1، maxit=500) 2. «compute()» «neuralnet» از بردار هدف مشابهی برای پشتیبانی پشتیبانی نمیکند. > _محاسبه یک شبکه عصبی معین برای بردارهای متغیر کمکی داده شده. _ 3. «پیش بینی()» و «لسپت()» «rminer» پتانسیل نشان داد (بر اساس مثال ها) اما من نمی دانم چگونه آنها را تبدیل کنم. به کاری که می خواهم انجام دهم 4. گفته میشود بسته «survnnet» از عملکرد رایج «predictSurvProb» بسته «pec» پشتیبانی میکند، اما من به دلیل مستندات و پشتیبانی ضعیف در اینترنت از آن دوری کردم. > _پیش بینی نمونه های جدید توسط یک شبکه عصبی بقا آموزش دیده._ model.survnet <- survnnet(Surv(زمان، وضعیت)~X1+X2، data=dat، model='llog'، decay=0.1، bias.decay=25، اندازه=1، skip=T، آلفا=0.1) پیشبینیها <- پیشبینی (model.survnet، data.train، type=raw) * * * ## Cox PH (روش شناخته شده کنونی) نزدیکترین روشی که تا به حال بدست آورده ام coxph و cph با تابع predictSurvProb بوده که در آن متغیر times اعلام شده است. با نقاط عددی مورد علاقه معمولاً من این کار را انجام می دهم: data.train <- SimSurv(300) model.coxph <- cph(Surv(time, status)~X2,data=dat,surv=TRUE,x=TRUE,y=TRUE) # زمان های هدف را اعلام کنید به عنوان 25,50,75,100,150 برای پیش بینی احتمالات <- predictSurvProb(coxph12, newdata=data.train، times=c(25,50,75,100,150)) دور (پیشبینیها، ارقام=6) و من خروجی احتمالات را در هر دوره زمانی که مشخص کردم دریافت میکنم: 25 50 75 100 150 1 0.648268 0.648268 0.50635319 . 0.648268 0.509353 0.460196 0.425917 0.324364 5 0.648268 0.509353 0.460196 0.425917 0.324364 این مجموعه ها اکنون به عنوان مجموعه داده های قابل تغییر در دیگر اهداف ادغام می شوند. * * * من اکنون می خواهم این را در یک شبکه عصبی با بردار هدف یا پیاده سازی مشابه با فرآیند Cox PH مانند مثال بالا پیاده سازی کنم. متأسفانه من نمی توانم بسته یا آموزش ساده ای را به صورت آنلاین پیدا کنم که بیان کند آیا امکان انجام این کار وجود دارد، همانطور که قبلاً گفتم. من اجرای «MultilayerPerceptron» نرم افزار داده کاوی WEKA را بررسی کردم، اما لازم است که متغیر نتیجه (یا در مورد من بردار احتمالات) ابتدا وجود داشته باشد، که من را به اینجا برمی گرداند. **آیا این روش در این موارد امکان پذیر است بسته های R یا تنها راه این است که بسته های خود را ایجاد کنم؟ از همه کمک ها و پیشنهادات بسیار استقبال می شود.** | مدل شبکه عصبی R با بردار هدف به عنوان خروجی حاوی پیش بینی بقا |
108063 | من سعی می کنم یک شبکه (به طور دقیق تر یک گراف غیر چرخه ای جهت دار) با طول لبه های خاص طراحی کنم. داده ها در قالب یک لیست لبه هستند و برای هر یال یک طول مرتبط وجود دارد. ممکن است به شکل یک ماتریس edgelist و یک برداری حاوی طول یال باشد، مانند: > edgelist = matrix(c(A, B, B, A, A, B, C، D، F، G)، ncol = 2 ) > length = c(1، 8، 7، 6، 5) > edgelist [,1] [,2] [1،] الف B [2،] B C [3،] B D [4،] A F [5،] A G > طول [1] 1 8 7 6 5 می توانم شبکه را با استفاده از > network = as.network(edgelist, matrix.type = edgelist, directed = TRUE) > plot(network) رسم کنم. (اگر جهت را نادیده بگیریم، می تواند نوعی چرخه ساده داشته باشد - آنها در عمل بسیار نادر خواهند بود)، و از نظر هندسی نباید مقیاس طول لبه به مقدار ستون سوم غیرممکن باشد. به صورت دو بعدی لازم به ذکر است که بسیاری از گره ها دارای درجه > 3 خواهند بود. سوال من این است: آیا الگوریتمی وجود دارد که در R پیادهسازی شده باشد (در حال حاضر از بسته شبکه استفاده میکنم، اما محدود به آن نیستم و در صورت لزوم میتوانم برای مثال از «igrap» استفاده کنم) که به من اجازه دهد چنین چیزی را ترسیم کنم. یک نمودار؟ من به توابع مختلف (از شبکه و بسته های دیگر) نگاه کردم، اما هیچ کدام را پیدا نکردم. PS: این یک سوال تجزیه و تحلیل شبکه تا حدی R-coding است، امیدوارم در سایت درستی در اینجا (به جای Stackoverflow) باشد. | نمودار غیر چرخه ای جهت دار را با طول لبه مقیاس شده ترسیم کنید |
59437 | داده های مورد تجزیه و تحلیل در اینجا نمونه ای از افراد است که به صورت ماهانه جمع آوری شده اند. بهترین راه برای محاسبه فاصله های پیش بینی برای میانگین نمونه ماهانه، به منظور نشان دادن تغییرپذیری طبیعی که می توان از این مقدار ماه به ماه انتظار داشت، چیست؟ در اینجا یک مثال آورده شده است: * همه افراد با جایگزینی از همان جمعیتی که میانگین آنها در تمام ماه ها یکسان باشد، نمونه برداری می شوند. * $y_i$ برای فردی $i$ متغیر مورد علاقه است، با $ y_i \sim N(y,\sigma)$، هر دو $y$ و $\sigma$ ناشناخته هستند. * $N_m$ اندازه نمونه برای ماه $m$ است. * $\bar y_m$ میانگین نمونه برای ماه $m$ است. **بهترین راه برای محاسبه بازه پیشبینی 95% برای $\bar y_m$ چیست؟** فکر کردم موارد زیر را انجام دهم: * $\bar y $ میانگین نمونه در کل نمونه است. * $\bar \sigma $ انحراف استاندارد در کل نمونه است. * برای هر ماه $j$، بازه را به صورت $[ \bar y - 1.96 \frac{\bar \sigma}{ \sqrt{N_m}} محاسبه میکنم. \bar y + 1.96 \frac{\bar \sigma}{ \sqrt{N_m}} ]$. می ترسم این از نظر آماری درست نباشد. شبیهسازیهایی که من انجام دادهام نشان میدهد که این بازه حاوی مقدار ماهانه بیش از 95 بار از 100 است. من فرض میکنم این به دلیل این واقعیت است که من عدم قطعیت در تخمین $\bar y$ را در نظر نمیگیرم. **راه صحیح ادامه دادن چیست؟** با تشکر. | چگونه فواصل پیش بینی را برای توصیف تنوع در نمونه های ماهانه داده ها اضافه کنیم؟ |
54649 | پرتاب یک سکه منصفانه و نوشتن نتایج در یک دنباله از نمادها را در نظر بگیرید. H مخفف سر و T برای دم است. بگذارید A، B و C به ترتیب کلمات HTHH، HHTH و THHH باشند. احتمال مواجهه با هر یک از A، B و C به عنوان یک زیرکلمه در توالی نتایج خود قبل از هر دو کلمه دیگر چقدر است؟ **ویرایش:** سوال من مربوط به این سوال است. در حالی که پاسخ های آن به طور شهودی توضیح می دهد که چرا برخی از الگوها زودتر از سایرین برخورد می کنند، هیچ یک از آنها روشی برای محاسبه آن احتمالات را شامل نمی شود. چیزی که من می پرسم **ویرایش 2:** قبلاً پاسخی دریافت کرده ام. با خواندن مقالههای ویکیپدیا، این سوال هنوز من را به خود مشغول کرده است. من یک جایزه برای آن شروع می کنم. | احتمال بدست آوردن یک تغییر از نتایج متوالی در آزمایشات برنولی قبل از دیگری |
99594 | من در حال انجام تجزیه و تحلیل پیکره ای در مورد رابطه بین جهت نشانه ها و رتبه بندی ظرفیت آنها (از پیکره دیگری) هستم. من هر علامت را به صورت رو به بالا، پایین یا غیرعمودی کدگذاری کردم و دارای یک رتبه ظرفیت است. من یک ANOVA یک طرفه را انجام دادم تا تعیین کنم آیا جهت رتبهبندیهای ظرفیت را پیشبینی میکند یا خیر. 1. آیا باید نگران باشم که اندازه نمونه نابرابر وجود دارد (مثلاً 4 برابر نشانه های رو به پایین نسبت به بالا)؟ به من گفته شد که اندازههای نمونه نابرابر مشکلی نیست زیرا رتبهبندیهای ظرفیت را در هر جهت جمع نمیکنم (مثلاً مقایسه نکردن میانگینهای نمونه). آیا این درست است و چرا؟ متشکرم. | آیا حجم نمونه نابرابر برای پاسخ تک اهمیت دارد؟ |
48702 | من یک مجموعه داده دارم که در آن ماهیها را برای آزمایشهای رفتاری از مناطق مختلف جمعآوری کردهایم و در هر منطقه، یک سایت آب شفاف و یک سایت اوتروفی را انتخاب کردهایم. سپس ماهی را به آزمایشگاه آوردیم - همه ماهی ها فقط یک بار استفاده شدند، آنها یک لانه ساختند و تمام. آنچه می خواستیم بدانیم این بود که آیا نوع زیستگاه (روشن یا اوتروفی) بر ساختمان لانه تأثیر می گذارد یا خیر. این مدل اصلی است (به عنوان مثال برای وزن لانه، وزن نر به عنوان متغیر کمکی): m1 <- lme(NestW ~ Habitat + MaleW، تصادفی = (~1|منطقه/سایت)) مشکل dfs است \- آنها بسیار زیاد هستند و منعکس کننده مقدار ماهی استفاده شده هستند، نه مناطقی که ما می خواهیم در اینجا واحد تکثیر باشد. بنابراین، چگونه این را برطرف کنیم؟ (افزودن Habitat به اثر تصادفی کمکی نمی کند) | مدل مخلوط تو در تو |
59436 | من مشکلی در پایان نامه خود دارم که رگرسیون OLS ناچیز است. من 3 بخش دارم و هر بخش 130 مشاهده دارد. آیا این حجم نمونه کافی است یا خیر؟ آیا کسی می تواند دلیلی برای بی اهمیت بودن نتایج من ارائه دهد؟ | روش حداقل مربعات معمولی: چرا نتایج رگرسیون من ناچیز است؟ |
79799 | بیش از 60 سال پیش، دوربین و واتسون یک روش آزمایشی را برای ارزیابی همبستگی خود در روابط رگرسیون پیشنهاد کردند. این آزمون در حضور متغیرهای وابسته تاخیری کار نمی کند، در این مورد آزمون بروش-گادفری از اواخر دهه 1970 اعمال می شود. آیا شرایط شناخته شده دیگری وجود دارد که در آن آزمون دوربین واتسون نباید استفاده شود؟ | چه زمانی باید از استفاده از آزمون دوربین واتسون برای همبستگی خودداری کرد؟ |
48703 | **فرمول دقیق مورد استفاده در Rlm() برای R-squared Adjusted چیست؟ چگونه می توانم آن را تفسیر کنم؟** ### فرمول های r-squared تنظیم شده به نظر می رسد چندین فرمول برای محاسبه R-squared تنظیم شده وجود دارد. * فرمول Wherry '[1-(1-R2)·(n-1)/(n-v)]` * فرمول McNemar '[1-(1-R2)·(n-1)/(n-v-1)]` * فرمول لرد '[1-(1-R2)(n+v-1)/(n-v-1)]` * Stein `[1-(n-1/n-k-1)(n-2)/n-k-2) (n+1/n)](1-R-squared)` ### توضیحات کتاب درسی * طبق فیلد کتاب درسی ، کشف آمار با استفاده از R (2012، ص 273) R از معادله Wherry استفاده می کند که _ به ما می گوید اگر مدل مشتق شده بود چه مقدار واریانس در Y محاسبه می شد. از جمعیتی که نمونه از آن گرفته شده است. او فرمول Wherry را نمی دهد. او توصیه میکند از فرمول Stein (بهصورت دستی) برای بررسی میزان اعتبار متقابل مدل استفاده کنید. * Kleiber/Zeileis، Applied Econometrics with R (2008, p. 59) ادعا میکند که «مربع R تعدیلشده Theil» است و دقیقاً نمیگوید که چگونه تفسیر آن از مجذور R چندگانه متفاوت است. * Dalgaard، Introductory Statistics with R (2008, p.113) می نویسد که _اگر [R-square تعدیل شده] را در 100% ضرب کنید، می توان آن را به عنوان % کاهش واریانس تعبیر کرد. او نمی گوید که این با کدام فرمول مطابقت دارد. من قبلاً فکر می کردم و به طور گسترده خوانده بودم که R-squared برای اضافه کردن متغیرهای اضافی به مدل جریمه می کند. اکنون به نظر می رسد که استفاده از این فرمول های مختلف تفسیرهای متفاوتی را می طلبد. من همچنین به این سوال در مورد تفاوت بین r-square و تنظیم r-square نگاه کردم، و این سایت ### سوالات * **کدام فرمول برای r-square تنظیم شده توسط Rlm() استفاده می شود؟** * **چگونه می توان تعبیرش میکنم؟** | فرمول R-squared تنظیم شده در lm در R چیست و چگونه باید تفسیر شود؟ |
23108 | در پروژه خود، من به رابطه بین X و Y با فاکتور گروه بندی جنس نگاه می کنم. این در دو مرحله است. اول این است که ببینیم XY چگونه در هر زیرگروه همبستگی دارد (پیرسون r) و دوم اینکه ببینیم آیا تفاوت جنسیتی در همبستگی XY وجود دارد (مدل خطی عمومی). من از SPSS استفاده می کنم و نمودار پراکندگی یک رابطه خطی را نشان می دهد. نمونه من شامل 60 مرد و 95 زن است. آیا باید اثر طراحی نامتعادل (یعنی اعداد مختلف در هر زیرگروه) را برای تحلیلهایم تصحیح کنم؟ من می دانم که مجموع مربعات نوع III آن را برای GLM تصحیح می کند، اما در مورد همبستگی دو متغیره مطمئن نیستم. (آیا برای تحلیل همبستگی مهم است؟) **ویرایش** در پاسخ به نظرات زیر: 1. من از نمونه گیری خوشه ای با احتمال متناسب با اندازه (PPS) استفاده کرده ام و توزیع جمعیت را در نظر گرفته ام. به عنوان مثال، اگر نهاد انتخاب شده 700 عضو داشته باشد و نیمی از آنها زن باشند، من تلاش کرده ام که این موضوع در نمونه من منعکس شود. 2. من ناخواسته سوال بالا را ساده کردم. من دو فرضیه را آزمایش می کنم. اولین مورد، تعیین رابطه بین X و Y است. این یک تحلیل همبستگی دو متغیره ساده است. (لطفاً مرحله اول ذکر شده در سوال بالا را نادیده بگیرید!). دوم، تعیین تأثیر جنسیت بر رابطه X-Y است. 3. من اصطلاح تعامل را ایجاد کرده ام و افکت های اصلی را در مدل خود قرار داده ام. دوباره سوال من: 1. آیا باید برای اندازه های مختلف زیرگروه در تجزیه و تحلیل همبستگی X-Y تصحیح برای (مطمئن نیستم که این اصطلاح درست است)؟ این یک تحلیل همبستگی دو متغیره ساده است. (یعنی ربطی به تجزیه و تحلیل زیرگروه بر اساس جنسیت ندارد) 2. آیا هنگام انجام تجزیه و تحلیل زیرگروه بر اساس جنسیت باید اندازه نمونه های مختلف زیرگروه را تصحیح کنم؟ | اثر طراحی نامتعادل |
92169 | $A_{m \times n}$ را یک i.i.d در نظر بگیرید. ماتریس تصادفی با گشتاورهای اول تا چهارم محدود. تعداد خوبی از نتایج مجانبی و غیر مجانبی در رابطه با هنجار طیفی $A$، $\|A\|_2$ وجود دارد، به عنوان مثال، [1، گزاره 2.4] یک نتیجه انحراف در **بزرگترین** طیفی به دست می دهد. هنجار، و همچنین در [1، قضیه 2.5] گزارش شده است که نتیجه بسیار خوبی توسط R. Latala در مورد انتظار وجود دارد. $\mathbf{E}[\|A\|_2]$ تحت فرضیات مناسب. میخواهم بپرسم آیا کسی از نتیجهای در **کوچکترین** هنجار طیفی میداند، تا بتوانم با احتمال بسیار بالا فرض کنم که $\|A\|_2 \geq \tau$ که به عنوان مثال. $\tau = \mathbf{E}[\|A\|_2] - t$ برای برخی $t > 0$. با نگاهی به برهان در [1، گزاره 2.4]، به نظر می رسد یافتن مقداری که مقدار قبلی با احتمال بسیار بالا برای آن وجود دارد، بی اهمیت است، حداقل برای کسی که با این نوع استدلال آشنا نیست. آیا راهی برای اثبات نابرابری از این نوع وجود دارد: $$P[\|A\|_2 < \mathbf{E}[\|A\|_2] - t] > 1-e^{-c t^2} $$ برای برخی از ماتریس های تصادفی به طوری که $\min_A \|A\|_2 \approx \mathbf{E}[\|A\|_2] - t$ برای برخی $t > 0$، یا برای ابعاد متناهی یا نامتناهی به شرطی که $m/n \rightarrow \gamma$؟ [1] رودلسون، مارک و رومن ورشینین. نظریه غیر مجانبی ماتریس های تصادفی: مقادیر مفرد شدید. arXiv preprint arXiv:1003.2990 (2010). | کوچکترین هنجار طیفی / نابرابری انحراف |
48701 | با عرض پوزش اگر این سوال طولانی و مبهم است، اما من واقعاً با این رشته آشنا نیستم و برای یافتن مراجع مشکل دارم. ما یک متغیر تصادفی $X$ داریم که فرض می کنیم توسط توزیعی با پارامترهای ناشناخته $\theta^*$ در فضای پارامتر $\Theta$ اداره می شود. ما $p_\theta(x)$ احتمال نتیجه $x$ را در توزیع با پارامترهای $\theta$ خواهیم نوشت. ما یک تابع _loss_ $L داریم: \Theta \times \Theta \rightarrow \mathbb{R}$ به طوری که $L(\theta^*, \tilde\theta)$ هزینه پیشبینی $\tilde\theta$ است. به عنوان مدل اساسی $X$ در حالی که مدل واقعی $\theta^*$ بود. ما فرض می کنیم که مجموعه ای از نمونه های مستقل $S$ داریم که بر اساس $\theta^*$ با نمونه برداری از $X$ ترسیم شده اند. این نمونه ها یک تابع _likelihood_ $\mathcal{L}_{S} را تعریف می کنند: \Theta \rightarrow [0, 1]$: $\mathcal{L}_{S}(\theta)$ احتمال $ مشاهده شده است S$ برای پارامتر $\theta$. از آنجا، من میخواهم ریسک (یا ضرر مورد انتظار) یک پیشبینی $\tilde\theta$_ (نسبت به توزیع احتمال استنباطشده از $S$) را به صورت $e_{S}(\tilde\theta) = تعریف کنم. \int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) \cdot L(\theta, \tilde\theta)$. از آنجایی که تابع احتمال یک pdf بیش از $\Theta$ نیست، این انتگرال حتی ممکن است به خوبی تعریف نشده باشد، بنابراین تا اینجا من قبلاً گیج شدهام. _بهترین پیشبینی_ $\widehat{\theta_{S}} = \textrm{argmin}_\theta e_{S}(\theta)$ است و بهترین ریسک_ خطر بهترین پیشبینی $\widehat{e_{S است. }} = e_{S}(\widehat{\theta_{S}})$. اکنون به این نگاه میکنم که اگر به من اجازه داده شود نمونه جدیدی به قیمت X$ ترسیم کنم چه اتفاقی میافتد. توزیع نمونه بعدی_$P_{S}(x) = \int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) p_\theta(x)$ است، برآورد فعلی ما از توزیع احتمال بر روی $X$ بر اساس $S$. بهترین ریسک بعدی $\int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) \int_x p_\theta(x) \widehat{e_{S \cup \\{x\ است. \}}}$: بهترین ریسک هنگام کشیدن یک نمونه دیگر از $X$ و اضافه کردن آن به $S$ است، جایی که ما توزیع نمونه ها را از $X$ با استفاده از توزیع نمونه بعدی تخمین می زنیم. (استنتاج از نمونه های مشاهده شده در حال حاضر). الان شرایط من اینه که متغیرهای مختلفی دارم که هر کدوم پارامتر ناشناخته ای دارن، نمونه های مستقلی براشون دارم و باید انتخاب کنم که برای کدومشون نمونه جدید درخواست کنم. هدف انتخاب متغیری است که انتظار می رود نمونه جدیدی برای آن به بهترین کاهش ریسک دست یابد. سوالات من این است: 1. آیا راهی برای اطمینان از اینکه تعریف من از ریسک (و تعریف بعدی) منطقی است وجود دارد؟ 2. آیا این رویکرد شناخته شده است؟ نام استاندارد مفاهیمی که من تعریف می کنم چیست؟ آیا افراد در عمل از این روش ها استفاده می کنند؟ 3. آیا برخی از عبارات بالا برای برخی از انتخاب های منطقی توزیع احتمال (مثلاً توزیع های نرمال) و تابع ضرر (مثلاً واگرایی KL) ساده می شوند؟ به عنوان مثال، آیا این امکان وجود دارد که توزیع نمونه بعدی (همانطور که در بالا تعریف کردم) در واقع توزیعی باشد که توسط تخمین حداکثر درستنمایی $\theta = \mathrm{argmax}_{\theta \in \Theta} \mathcal ارائه میشود. {L}_S(\theta)$؟ آیا ممکن است بهترین پیش بینی در واقع تخمین حداکثر احتمال باشد؟ 4. آیا می توانیم ثابت کنیم که بهترین ریسک بعدی همیشه کمتر از بهترین ریسک فعلی تحت فرضیه های منطقی در مورد توزیع احتمال و تابع ضرر است؟ | انتخاب متغیر برای نمونه گیری برای بدست آوردن مدل بهتر |
91396 | من دو مجموعه داده از قیمت برق در یک منطقه خاص دارم، یکی با داده در فواصل زمانی 5 دقیقه و دیگری با مقادیر ساعتی (که تقریباً، اما نه کاملاً، میانگین مقادیر 5 دقیقه در یک ساعت هستند). مجموعه دادههای میانگین ساعتی به زمان بسیار بیشتری برمیگردد. من میخواهم واریانس دادههای 5 دقیقهای در مقابل ساعتی را مطالعه کنم تا بتوانم تخمینها یا پیشبینیهایی درباره احتمال بیشتر شدن قیمت 5 دقیقهای از یک مقدار معین انجام دهم، اگر فقط میانگین ساعتی داشته باشم. چگونه می خواهید در مورد این اقدام کنید؟ رویکرد My Stats 101 این بوده است که به انحراف معیار نسبت یا تفاوت بین دادههای 5 دقیقهای و ساعتی نگاه کنیم. اما، اکنون متوجه می شوم که این یک توزیع نرمال برای نسبت/تفاوت ها فرض می کند، که معلوم می شود درست نیست. با توجه به مجموعه دادههای بزرگی از نگاشت از 1 مقدار ساعتی تا 12 مقدار 5 دقیقهای، چگونه میتوانم این شانس را که هر مقدار ساعتی به یک یا چند مقدار 5 دقیقهای >= مقداری آستانه نگاشت میشود، تخمین بزنم؟ | تعیین رابطه بین دو مجموعه داده |
21627 | من به تازگی پاسخ سوال ...... اضافه کردن ضرایب برای به دست آوردن اثرات متقابل - با SE ها چه کنیم؟ ...... و این را واقعا مفید یافتم! من به دنبال انجام کاری مشابه در R هستم، اما اندازه های نمونه کمی بین گروه ها متفاوت است. آیا هنوز هم می توانم از همان معادله برای ترکیب این دو خطا استفاده کنم تا Std جدید را به من بدهم. خطا؟ پیشاپیش از هرگونه کمکی به کریستال متشکرم | آیا می توانم خطاهای استاندارد ضرایب را با مجموعه داده های نامتعادل ترکیب کنم؟ |
109737 | برای تولید دادههایی که مکانیسم تصادفی (MAR) وجود ندارد، معمولاً میتوانیم ابتدا یک مجموعه داده کامل تولید کنیم و سپس با استفاده از مدل لجستیکی، احتمال گمشده را برای متغیر Y، یعنی $Pr(Y=missing|{\bf X})$ مدل کنیم. یعنی $Pr(Y_i=1|{\bf X_i})=\frac{exp(\beta'{\bf X_i})}{1+exp(\beta'{\bf X_i})}$. بر اساس این احتمال میتوانیم متغیر باینری را ایجاد کنیم که نشان میدهد $Y$ وجود ندارد: $I_i$ = $rbinom(1,p_i)$. اگر $I_i=1$ باشد، مقدار مربوط به $Y$ را حذف می کنیم. سوال من، اگر بخواهیم نسبت گم شدن $Y$ را کنترل کنیم، چگونه می توانیم این کار را انجام دهیم؟ از آنجایی که با استفاده از روش فوق، نسبت گمشده به مقدار $X's$ بستگی دارد، بنابراین تولید متغیر نشانگر تصادفی است، بنابراین کنترل نسبت کلی از دست رفته دشوار است. | چگونه داده های MAR را با نسبت ثابت از دست رفته تولید کنیم؟ |
100367 | من از تست های ریشه واحد در دستور xtunitroot Stata استفاده می کنم. داده ها نرخ جایگزینی دستمزد سالانه برای مزایای بیکاری در هر یک از 50 ایالت برای سال های 1977 تا 2006 است. (این نرخ ها از ایالتی به ایالت دیگر و سالی به سال دیگر متفاوت است) من نتایج متناقضی را برای آزمایش های ریشه واحد مشترک دریافت می کنم. در همه موارد، آزمونها هم تحقیر و هم تنزل را مشخص میکنند. نتیجه Leven Lui Chin نشان میدهد که من میتوانم تهی پانلها حاوی ریشه واحد را رد کنم. p<.001 نسخه HT نشان میدهد که نمیتوانم پانلها حاوی ریشه واحد هستند را رد کنم (p<1.00) نسخه Breitung به من میگوید که من نمی توان (کاملا) رد پانل تهی حاوی ریشه های واحد (p<.08) آیا توصیه ای دارید؟ | نتایج متناقض xtunitroot |
99626 | من سعی می کنم ارتباطی بین رشد برخی قارچ ها در پتری دیش و تأثیر آن بر روی یک گیاه نشان دهم. من ده سویه قارچ دارم که آنها را در گیاه و در پتری ظروف آزمایش کردم. من می توانم داده های هر دو آزمایش را در مدل های خطی (lm) قرار دهم تا میانگین ها و واریانس های تخمین زده شده را بدست بیاورم. اگر من یک رگرسیون بر روی میانگین تخمین زده شده برای هر سویه اجرا کنم، همبستگی قابل توجهی پیدا می کنم، اما این عدم قطعیت در میانگین کرنش را در نظر نمی گیرد. تا کنون من یک بوت استرپ پارامتریک را امتحان کرده ام، اما به سختی می توانم آمار نهایی تست را بفهمم. من تخمین پارامترها و کد R خود را گنجانده ام. در حال حاضر میانگین کرنش شبیه سازی شده را از پارامترهای تخمین زده تولید می کند. من به یک مقدار p برای کوواریانس بین رشد و حدت نیاز دارم. هر گونه کمکی بسیار قدردانی خواهد شد! سوالات خاص من عبارتند از: 1) آیا یک تقویت کننده پارامتریک روش درستی برای تجزیه و تحلیل این است؟ 2) چگونه می توان این کار را در R انجام داد؟ سویه MeanVirulence MeanGrowth VirulenceVarGrowthVar 1 -5.26064 0.066716 0.67834 0.053247 2 -4.05482 -0.055524 0.68385 0.0472020.038 - 0.047147 0.68385 0.046739 4 -3.50632 -0.161811 0.68385 0.047083 5 -4.94051 -0.224949 0.68385 0.04727 6 -4.0858 -4.049 0.047647 7 -4.53178 -0.142985 0.68385 0.04788 8 -3.01697 -0.199349 0.68385 0.047255 9 -3.81093 -0.25058.0383858. 10 -1.61882 -0.325289 0.68385 0.0469 و اینجا کد R من است: gendata<-function(par,npar=TRUE,print=TRUE){ n = 10 k = 2 x=matrix(data=NA, nrow=n, ncol= k) for(i در 1:n){ x[i,1] = rnorm(1,mean=par[i,2],sd=par[i,4]) x[i,2] = rnorm(1,mean=par[i,3],sd=par[i,5] ) } return(x) } lmp <- تابع (modelobject) { f <- summary(modelobject)$fstatistic p <- pf(f[1],f[2],f[3],lower.tail=F) ویژگیها(p) <- NULL return(p) } samp=20000 rescor=matrix(data=NA, samp) resvar= ماتریس(داده=NA، samp) pvals=ماتریس(داده=NA، samp) numsig = 0 numnotsig = 0 برای (i در 1:samp){ x<-gendata(پارامترها) rescor[i]<-cor(x[,1],x[,2], method = pearson) resvar[i]<-var(x[,1 ]) a<-lm(x[,1]~x[,2]) pvals[i]<-lmp(a) if (pvals[i] <0.05){ numsig = numsig + 1 } if (pvals[i] > 0.05){ numnotsig = numnotsig + 1 } } رشد صفحه کرنش 1 1 200 1 2 210 1 3 190 2 1 150 2 2 130 2 3 140 Growth 7 Strain 1 2 40 1 3 50 1 4 45 2 1 80 2 2 90 2 3 85 2 4 75 ... | همبستگی بین دو متغیر اندازه گیری شده در آزمایش های جداگانه در R |
68686 | من یک مجموعه داده دارم که در آن باید ابعاد را کاهش دهم. هر بعد دارای برچسب است، مثلاً $x_1، x_2، x_3، \cdots، x_n$. حالا اگر من تجزیه و تحلیل اجزای اصلی (PCA) را روی آن پیادهسازی کنم، برخی از ابعاد $p$ را دریافت میکنم که $p$ کمتر از $n$ است. حال چگونه می توانم بفهمم که کدام ابعاد $p$ از بین ابعاد $n$ اولیه هستند. آیا ما حتی می توانیم آن را تعیین کنیم؟ | آیا می توانیم بعد از اجرای PCA ابعاد باقی مانده را تعیین کنیم؟ |
79791 | من 2 معیار معمولی توزیع شده استاندارد شده (میانگین = 0؛ SD = 1) از یک نتیجه در 2 نقطه زمانی دارم. برای تخمین خطای استاندارد برای تغییر میانگین بین 2 نقطه زمانی، یکی از همکاران موارد زیر را پیشنهاد کرده است: اگر داده ها در یک نمونه متفاوت در هر نقطه زمانی جمع آوری شوند، واریانس میانگین تغییر در نمره انحراف معیار (SDS) 4 / است. n، که در آن n = اندازه نمونه، و n/2 اندازه گیری در هر نقطه زمانی انجام می شود. اگر دادهها در یک نمونه در هر نقطه زمانی جمعآوری شوند، واریانس تغییر میانگین در SDS ((4 * (1 - r)) / n است، جایی که r همبستگی بین 2 اندازهگیری است، و جایی که n است. = اندازه نمونه، و n/2 اندازه گیری در هر نقطه زمانی انجام می شود. وقتی میخواهم آنها را تکرار کنم، نمیتوانم محاسبه مورد طولی را به دست بیاورم که با نتایج آنها مطابقت داشته باشد. من نمی توانم با کسی که اینها را پیشنهاد کرده است تماس بگیرم. و من آنقدر باهوش نیستم که بفهمم آنها به سادگی نادرست هستند، یا اگر در جایی اشتباه می کنم. ویرایش: من میتوانم خطاهای استاندارد همکارم را با موارد زیر تکرار کنم، اما متقاعد نشدهام که این درست باشد، به ویژه زیرا واریانس میانگین دو متغیر نرمال استاندارد شده با همبستگی r باید (1/2) + (1/2) باشد. * ر). داده های طولی: sqrt(4 * (1 - r)) / 2 * sqrt(n/2) داده های مقطعی: sqrt(4) / sqrt(n) | یافتن خطای استاندارد برای تخمین تغییر در میانگین z-score |
33013 | من می خواهم تفاوت پاسخ دو متغیر به یک پیش بینی کننده را آزمایش کنم. در اینجا یک نمونه حداقل تکرار پذیر است. کتابخانه (nlme) ## gls در برنامه استفاده می شود. lm برای این مثال کافی است. = عنبیه، زیر مجموعه = گونه == virginica) m.ver <- gls(Sepal.Length ~ گلبرگ. پهنا، داده = عنبیه، زیرمجموعه = گونه == ورسی رنگ) می توانم ببینم که ضرایب شیب متفاوت است: m.set$ضرایب (Intercept) Petal.Width 4.7771775 0.9301727 m.vir$ضرایب (Intercept) Petal. عرض 5.2694172 0.6508306 m.ver$ضرایب (Intercept) Petal.Width 4.044640 1.426365 من سه سوال دارم: 1. چگونه می توانم تفاوت بین شیب ها را آزمایش کنم؟ 2. چگونه می توانم تفاوت بین واریانس های باقیمانده را آزمایش کنم؟ 3. یک راه ساده و موثر برای ارائه این مقایسه ها چیست؟ یک سوال مرتبط، روش مقایسه ضریب متغیر در دو مدل رگرسیونی، پیشنهاد می کند که مدل را با یک متغیر ساختگی مجدداً اجرا کنیم تا شیب ها را متمایز کنیم، آیا گزینه هایی وجود دارد که امکان استفاده از مجموعه داده های مستقل را فراهم کند؟ | از چه آزمونی می توانم برای مقایسه شیب ها از دو یا چند مدل رگرسیون استفاده کنم؟ |
99621 | من چندین جا را خوانده ام که تست Shapiro-Wilk همیشه باید با QQ-plot اضافه شود، اما هیچ کس دلیلی ارائه نکرده است و من شهودی پشت این موضوع نمی بینم. آیا کسی می تواند توضیح دهد که چرا باید آزمایش Shapiro-Wilk را با QQ-plot تأیید کرد؟ | آیا آزمون Shapiro-Wilk و QQ-Plot همیشه باید با هم ترکیب شوند؟ |
602 | آیا اکتشافی خوبی برای یافتن مقدار بهینه ν در صورت طبقه بندی ν-SVM می شناسید؟ در این مشکل خاص، من یک هسته پایه شعاعی دارم، اگر کمک کند. | اکتشافی برای بهینه سازی ν-SVM؟ |
68684 | من در حال حاضر در حال تجزیه و تحلیل سری های زمانی حجم حمل و نقل (کالاهای مصرفی خصوصی) به صورت روزانه هستم. من سعی می کنم یک مدل رگرسیون خودکار را متناسب کنم و عوامل برون زا (مانند آب و هوا، فعالیت جستجوی وب و غیره) را نیز در بر بگیرم. دو الگوی فصلی آشکار وجود دارد. در طول هفته و در طول سال. با این حال، همه مقادیر در شنبه / یکشنبه صفر هستند (کامیون ها رانندگی نمی کنند). صرفاً نادیده گرفتن تعطیلات آخر هفته امکان پذیر نیست، زیرا متغیرهای برون زا در مدل که در آخر هفته رخ می دهند بر حجم حمل و نقل در طول هفته تأثیر می گذارد، به عنوان مثال. فعالیت جستجوی وب در روز شنبه بر حجم حمل و نقل در روز دوشنبه تأثیر می گذارد. چگونه می توان این مقادیر از دست رفته را به درستی مدیریت کرد؟ | مقادیر گم شده در آخر هفته ها در پیش بینی حمل و نقل |
91393 | من باید ببینم که آیا تمام 35 بردار 120 بعد مشابه هستند یا نه تا این فرضیه را ثابت کنم که نیستند. من از فاصله اقلیدسی و شباهت کسینوس استفاده کردم و با یادگیری از طریق این انجمن به ماتریس شباهت رسیدم. (دادههای زیادی دارد، بنابراین من این نکته را در کد R خلاصه میکنم) ماتریس<-cbind(35 بردار) پس ماتریس #120x35 sim1<-cosine(ماتریس) dist1<-as.matrix(dist(t(ماتریس) است. diag= TRUE, متد=اقلیدسی)) اما مسئله این است که کسینوس vector_i را با vector_j، و من ترجیح می دهم vector_i را با بقیه بردارها ببینم و مقداری p را ارزیابی کنم. برای من، مانند: شباهت (vector_i، بردارهای دیگر)> 0.90 --> vector_i مشابه بردارهای دیگر است که امیدواریم شباهت شبیه به شباهت کسینوس باشد، زیرا بیشتر در مورد جهت است تا قدر. آیا کسی توصیه ای دارد یا معیار مشابهی برای این مشکلات می داند؟ من شروع به استفاده از R کردم، بنابراین اگر تستی را می شناسید که در آنجا پیاده سازی شده است، بسیار سپاسگزار خواهم بود. PD1>آمار کلاسی بود که مدتها پیش آن را خواندم، ببخشید اگر سوء تفاهم وجود دارد) PD2>مقدار هر بعد می تواند بین 0 تا 1 باشد و چندین بار 0 است، بنابراین من فکر می کنم که مجذور کای ممکن است خوب نباشد برای این... | آمار و R: تعیین کنید که آیا بردارهای بعدی N همه شبیه هستند یا خیر |
30815 | من با یک مدل رگرسیون دو بخشی برای داده های نیمه پیوسته کار می کنم که کمی از Duan و همکارانش اصلاح شده است. دوان و همکاران مدل برای پیش بینی هزینه های پزشکی در طول یک سال استفاده می شود. کسری از مردم هستند که هزینههایشان صفر است و بقیه دارای هزینههای مثبت هستند که به طور طبیعی توزیع میشوند. معادلات از Duan _et al._ $I_i = x_i\delta_1+\eta_{1i}$, $\eta_{1i} \sim N(0,1)$ Where $\mbox{MED} > 0$ if $I \ ge 0$، و $\mbox{MED} = 0$ در غیر این صورت. معادله دوم یک مدل خطی در مقیاس گزارش برای هزینههای مثبت است: $\mbox{log}(\mbox{MED}_i|I_i > 0) = x_i\delta_2 +\eta_{2i}$, $\eta_{2i } \sim N(0,\sigma^2)$ من از یک مدل مشابه استفاده میکنم اما مقادیر منفی را مجاز میدانم، بنابراین از یک توزیع نرمال برای مقادیر استفاده کنید تا یک log-normal. من مدل را با استفاده از بسته BayesGLM در R با پیشین های معمولی بر روی ضرایب رگرسیون، که معادل رگرسیون L2/Ridge است، قرار می دهم. مدل دارای دو معادله است که اولی probit برای صفر بودن یا نبودن رویداد است و دیگری یک مدل خطی است. مایلم بتوانم اثر میانگین و فواصل اطمینان حول میانگین را پیدا کنم. من می دانم که برای هر قسمت از مدل، می توانم این را محاسبه کنم، اما مطمئن نیستم که چگونه آن را برای مدل ترکیبی محاسبه کنم. برای مدل خطی می توانم به تخمین اثر و خطای استاندارد نگاه کنم تا فواصل اطمینان را بدست بیاورم، اما چگونه در مدل پروبیت لایه بندی کنم؟ به عنوان مثال اگر یک متغیر در مؤلفه خطی تأثیر مثبت و در مؤلفه پروبیت تأثیر منفی داشته باشد، چگونه می توانم بفهمم که تأثیر کلی مثبت است یا خیر؟ > Duan, N., Jr, W. M., & Morris, C. (1983). مقایسه مدل های جایگزین > برای تقاضا برای مراقبت های پزشکی. _مجله آمار بازرگانی و اقتصادی_ | فواصل اطمینان برای مدل رگرسیون دو بخشی |
30816 | بهعنوان یک انگلیسی زبان غیر بومی، فکر میکردم از کدام عبارت **مربع** یا **مربع** باید استفاده کنم. به عنوان مثال در میانگین **مربع** خطا یا میانگین **مربع** خطا. با توجه به اینترنت، به نظر می رسد هر دو شکل به طور نامشخص استفاده می شوند. آیا یک عبارت مربعی بیشتری نسبت به دیگری دارد؟ | میانگین مربع خطا یا میانگین مربع خطا |
23106 | آیا کسی می تواند مزایای الگوریتم ژنتیک را در مقایسه با سایر روش های جستجو و بهینه سازی سنتی برای من توضیح دهد؟ | مزایای استفاده از الگوریتم ژنتیک |
26886 |  من یک سوال در این مورد دارم. من می دانم که اگر متغیرهای تصادفی مستقل و معمولی توزیع شده $\mathrm{X}_1،\mathrm{X}_2،\ldots،\mathrm{X}_n$ داشته باشیم، مجموع $\mathrm{X}_1+\mathrm {X}_2+\ldots+\mathrm{X}_n$ دارای توزیع نرمال با میانگین است $M_1+M_2+..+M_n$ و واریانس $\sigma^2_1 + \ldots + \sigma^2_n$. چرا در این مسئله تفاوت $W-M$ میانگین بدست آمده از تفریق و واریانس با جمع به دست می آید؟ متشکرم. | چرا واریانس $X-Y$ برابر است با مجموع واریانس ها زمانی که $X,Y$ مستقل هستند؟ |
30813 | من یک مجموعه داده دارم که برای هر 1 مشاهده 12 متغیر توضیحی دارد. من فرض میکنم که دادهها توسط فرآیند زیربنایی که چندین فاز مختلف را طی میکند، تولید میشود و 12 متغیر توضیحی به نحوی به شناسایی خوشهها کمک میکنند. من میخواهم یک الگوریتم یادگیری ماشین بنویسم که بتواند: 1. در ابتدا، خوشههای درون داده را شناسایی کند. پس از طبقهبندی (مرحله 1 در بالا)، میخواهم بتوانم هر داده جدیدی را که قبلاً در یکی از کلاسها/خوشههای شناسایی شده قبلی دیده نشده است، به درستی برچسبگذاری کنم (یعنی طبقهبندی کنم). من فرض می کنم Y(c) ~ X(c) + خطا که: * Y(c) یک بردار nx1 از مشاهدات متعلق به خوشه C است * X(c) یک بردار nx12 از عوامل توضیحی است که به خوشه C تعلق دارند. مشاهدات در خوشه های مختلف با داشتن اشکال توزیع متفاوت با یکدیگر متفاوت خواهند بود. به این معنا که مشاهدات درون یک خوشه در مقایسه با مشاهدات یک خوشه دیگر شکل توزیع متفاوتی خواهند داشت. من در یادگیری ماشین نسبتاً تازه کار هستم و میخواهم راهنمایی در مورد نحوه پیادهسازی چنین الگوریتمی (یا شاید قبلاً وجود داشته باشد؟) بهویژه علاقهمندم که بدانم چگونه مشاهدات را بر اساس تعیین _شکل_ تجربی طبقهبندی کنم. توزیع داده های مشاهده شده آخرین اما نه کماهمیت، من همچنین از برخی توصیهها در مورد پیادهسازی این در R یا Octave (و چرا) قدردانی میکنم. | چگونه این مشکل طبقه بندی/برچسب گذاری را پیاده سازی کنیم؟ |
96481 | # مشکل من در حال حاضر روی مشکلی کار می کنم که در آن داده های شمارش برای $n$ مورد به شکل زیر دارم: تعداد آیتم کل -------------------- 1 1 30 2 10 340 3 0 0 4 1 10 ... من میخواهم احتمال موفقیت $p_i$ را برای هر مورد محاسبه کنم. علاوه بر این، من گمان میکنم که همه موارد احتمال موفقیت مشابه یا حتی یکسانی دارند، اما میخواهم مدل آن را تعیین کند. انتظارات من از مدل به دست آمده عبارتند از: * تخمین پارامتر جهانی زیربنایی همه موارد _and_ * کاهش احتمال موفقیت $p_i$ به سمت این پارامتر جهانی به منظور مقابله با مواردی که مشاهدات کمی دارند. * مواردی که مشاهداتی دارند که احتمال موفقیت متفاوتی را نشان میدهند باید بتوانند احتمال موفقیت جهانی را نادیده بگیرند. # کد Stan این کد Stan است که من تا کنون پیاده سازی کرده ام: data { int<lower=0> J; // مقدار اقلام int count[J]; int total[J]; } پارامترها { real<lower=0,upper=1> mu; real<lower=0.001> ss; real<lower=0,upper=1> prob[J]; } model { mu ~ uniform(0, 1); ss ~ گاما (0.01، 0.01)؛ prob ~ beta(mu*ss, (1-mu)*ss); count ~ binomial(total, prob); } در اینجا من با فرض اینکه احتمال موفقیت آیتم ها از یک توزیع بتا (پارامتری با استفاده از میانگین و اندازه نمونه) که میانگین احتمال موفقیت جهانی است، نمونه برداری شده است، به انقباض دست می یابیم. این مشکل زمانی رخ می دهد که قبل از اندازه نمونه مشخص شود. اگر یک پیشین بسیار مبهم انتخاب کنم، استن به تکرارهای زیادی نیاز دارد تا اندازه نمونه موثر به اندازه کافی بزرگ شود. همچنین مطمئن نیستم که آیا این رویکرد درستی است یا خیر، زیرا مشخص نیست که آیا میزان انقباض این مدل همیشه مناسب است یا خیر. من علاقه مندم که آیا روشی ظریف برای اجرای رفتار مورد انتظار من وجود دارد یا اینکه در مدل کلی من نقصی وجود دارد. | چگونه یک مدل دوجمله ای بیزی با انقباض نسبت به جمعیت را مشخص کنیم؟ |
30814 | من دو گروه را از نظر تعداد بستری شدن در بیمارستان در یک دوره 5 ساله مقایسه می کنم. مدت بستری شدن در بیمارستان بسیار متغیر است. به عنوان مثال، یک بیمار ممکن است 3 بستری داشته باشد که در مجموع 100 روز طول بکشد، در حالی که بیمار دیگر ممکن است 50 ویزیت داشته باشد که هر یک یک روز طول می کشد. بنابراین، به نظر طبیعی می رسد که مدت اقامت (به روز) را در تصویر لحاظ کنیم. در حال حاضر من به یک رگرسیون نرخ پواسون فکر می کنم، با یک پیش بینی کننده طبقه بندی منفرد (گروه) و تعداد بستری شدن در بیمارستان به عنوان DV. من می خواهم کل مدت بستری شدن در بیمارستان را به عنوان جبران، که بر حسب روز است، لحاظ کنم. سوال من این است که من برخی از بیماران را دارم که هیچ بستری در بیمارستان نداشته اند، بنابراین مدت اقامت آنها عملاً 0 است. برای اینکه به مدل رگرسیون نرخ پواسون (به هر حال در SAS) ضربه بزنم، باید عبارت افست را وارد کنم. من به وضوح نمی توانم لاگ 0 را بگیرم، بنابراین می دانم در این شرایط چه کاری می توانم انجام دهم؟ آیا میتوانیم ثابت 1 را هم به بستری شدن و هم به طول کل بستری برای رفع این مشکل اضافه کنیم؟ هر ورودی قدردانی می شود، بهترین (به صورت متقاطع ارسال شده در Talkstats.com) | رگرسیون نرخ پواسون: افست؟ |
604 | من از چیزی که با استفاده از تحلیل تشخیصی خطی پیدا کردم متحیر هستم. مشکل اینجاست - من ابتدا تحلیل Discriminant را با استفاده از 20 یا بیشتر متغیر مستقل برای پیشبینی 5 بخش اجرا کردم. در میان خروجیها، من بخشهای پیشبینیشده را درخواست کردم که در حدود 80 درصد موارد مشابه بخشهای اصلی است. سپس دوباره تجزیه و تحلیل متمایز را با همان متغیرهای مستقل اجرا کردم، اما اکنون سعی می کنم بخش های پیش بینی شده را پیش بینی کنم. من انتظار داشتم که 100٪ نرخ طبقه بندی صحیح را به دست بیاورم، اما این اتفاق نیفتاد و من مطمئن نیستم که چرا. به نظر من اگر تجزیه و تحلیل متمایز نتواند با دقت 100% بخش های پیش بینی شده خود را پیش بینی کند، به نوعی روش بهینه ای نیست زیرا قانونی وجود دارد که دقت 100% را بدست می آورد. من چیزی را از دست داده ام؟ نکته - به نظر می رسد که این وضعیت مشابه آنالیز رگرسیون خطی باشد. اگر مدل $y = a + bX + \text{error}$ را مطابقت دهید و از معادله تخمین زده شده با همان داده ها استفاده کنید، $\hat{y}$ [$= \hat{a} + \hat{b دریافت خواهید کرد. }X$]. حالا اگر مدل $\hat{y} = \hat{a} + \hat{b}X + \text{error}$ را تخمین بزنید، همان $\hat{a}$ و $\hat{ را خواهید یافت. b}$ مانند قبل، بدون خطا، و R2 = 100٪ (تناسب کامل). فکر میکنم این اتفاق با تحلیل تشخیصی خطی نیز میافتد، اما اینطور نیست. نکته 2 - این تست را با Discriminant Analysis در SPSS اجرا می کنم. | چرا پیشبینی یک متغیر پیشبینیشده از تحلیل تفکیکی ناقص است |
55191 | مسئله ایجاد نقاط توزیع یکنواخت روی سطح توپ واحد n بعدی قبلاً ده ها بار در اینجا پست شده است. وقتی میخواهیم روش را به توزیع یکنواخت روی سطح n-ball شعاع_غیر واحدی تعمیم دهیم، چیزی که به آن علاقه دارم، مقیاس بندی مناسب است. به طور خاص، من به دنبال مقیاس بندی برای روش پرتاب کردن گوسی روی توپ هستم. من می دانم که این یک سؤال نسبتاً آسان است، اما من نمی توانم ریاضی را بفهمم و از هر نظر یا مرجعی قدردانی می کنم. | مقیاس بندی مناسب برای ایجاد نقاط توزیع یکنواخت در توپ n-d شعاع *غیر واحد*؟ |
30818 | من کاملاً با کدگذاری متغیرهای ساختگی سنتی آشنا هستم - کد 1 برای حضور صفت و 0 برای عدم وجود. سپس یک متغیر چند طبقه ای با یک سری از متغیرهای ساختگی نشان داده می شود در حالی که 1 دسته به عنوان مرجع حذف می شود، بنابراین برای متغیری با n دسته من n-1 متغیر ساختگی را شامل می شود. ساده اما اگر در دسته هایم همپوشانی داشته باشم چه اتفاقی می افتد؟ در اینجا یک مثال ساده (کمی ساختگی) برای توضیح وجود دارد. فرض کنید من به تأثیر ورزش های مختلف بر آسیب (یک نتیجه دوگانه) نگاه می کنم. 6 ورزش وجود دارد - فوتبال، بیسبال، بسکتبال، فوتبال، چوگان و هاکی. اکنون، می دانم به چه چیزی فکر می کنید، اینها متقابلاً منحصر به فرد هستند، هیچ همپوشانی وجود ندارد. درست است، من میتوانم این ورزشها را با 5 متغیر ساختگی نشان دهم و از یکی، مثلاً فوتبال، به عنوان مرجع استفاده کنم. اما در عوض میخواهم به جنبهای از ورزش که به آسیبدیدگی مربوط میشود نگاه کنم. به عبارت دیگر، این ورزش به خودی خود نیست، بلکه اقدامات مربوط به انجام هر ورزش است. برخی از ورزش ها شامل اقدامات مشابهی هستند، بنابراین همپوشانی وجود دارد. من می خواهم آدمک هایی مانند موارد زیر داشته باشم: 1. توپ سخت است (بیس بال، هاکی، چوگان) 2. همه بازیکنان کلاه ایمنی می پوشند (لاکروس، هاکی، فوتبال) 3. زمین/زمین سخت است (هاکی، بسکتبال) حالا، فکر میکنم تا زمانی که متغیرهای ساختگی خیلی هم خط نباشند، میتوانم این کار را انجام دهم. این معادل به اصطلاح «تله متغیر ساختگی» خواهد بود. درسته؟ چگونه این را بررسی کنم؟ VIF برای آدمک ها؟ شماره شرایط؟ آیا چیز دیگری وجود دارد که باید مراقب آن باشم؟ چیزی که من از دست می دهم؟ در برنامه واقعی من به حدود 5 وجه فکر می کنم و بیش از 50 دسته مختلف وجود دارد. من میتوانم این دستهها را به 5 یا بیشتر دستهبندی جذاب تقسیم کنم، اما ترجیح میدهم به دلایل نظری که در این مرحله نیازی به ورود به آنها نیست، این کار را انجام ندهم. من میتوانم به ماشین اجازه دهم «ابعاد» یا «وجه» را از طریق تحلیل عاملی اکتشافی انتخاب کند، اما مجموعهای از «وجوه» نظری بسیار خاصی دارم که میخواهم آنها را آزمایش کنم، از این رو متغیرهای ساختگی را که انتخاب میکنم ترجیح میدهم. | متغیرهای ساختگی با دسته های همپوشانی؟ |
109335 | من به دنبال نوع خاصی از مدل مخلوط هستم (که در زیر توضیح داده شده است) و امیدوارم بتوانم نکاتی را در رابطه با ادبیات مربوطه برای بررسی یا نام هایی که باید جستجو کنیم، دریافت کنم. در سطح کلی، من میخواهم خوشهبندی را با استفاده از ترکیبی از گاوسیان انجام دهم تا برچسب کلاس را برای هر مشاهده استنتاج کنم (انواع سلول در مورد من). عارضه ای که من با آن روبرو هستم این است که برخی از مشاهدات فردی وابسته هستند زیرا از یک موضوع گرفته شده اند. من میخواهم با سوژهها بهعنوان یک اثر تصادفی رفتار کنم که به هر مشاهده یک افست اضافه میافزاید. بنابراین، مدل مولد چیزی شبیه به $x_{ijk} = \mu_i + \nu_j + \epsilon_{ijk}$ است که $\mu_i$ میانگین برای هر نوع سلول است، $\nu_j$ تغییر تصادفی برای هر موضوع است. و $\epsilon_{ijk} \sim N(0, C_i)$ نویز معمولی چند متغیره است. کلاس به معنای $\mu_i$ و ماتریسهای کوواریانس نویز $C_i$ پارامترهای مدل هستند، در حالی که افست افزودنی برای هر موضوع $\nu_j$ و عضویتهای کلاس متغیرهای پنهان هستند. میتوانیم $\nu_j$ را گاوسی با کوواریانس پایین فرض کنیم. هر نکته ای؟ | مدل مخلوط برای مشاهدات وابسته با عوامل مخدوش کننده در سطح گروه افزایشی |
78770 | من می خواهم یک نمونه از یک توزیع با p.d.f $$f(p,q,r,s) \sim \mathrm{e}^{-w(|p+q-r-s|+|p-q-r+s| +|p-q+r-s|)}p^aq^br^cs^d \mathbb{1}_{p+q+r+s=1}$$$w > 0$ یک پارامتر رایگان است (که می تواند بسیار بزرگ یا بسیار کوچک باشد) و $a,b,c,d$ همگی اعداد صحیح غیر منفی هستند. **آنچه در حال حاضر به آن فکر می کنم** 1. نمونه برداری رد از توزیع دیریکله * اگر w بزرگ باشد خیلی کند است 2. ترسیم نمونه از توزیع دیریکله از نمونه وزنی احتمال برای استنتاج پارامترهای بهتر از D.d استفاده کنید. به عنوان یک پیشنهاد برای MCMC استفاده کنید. * کمی Voodo، بررسی همگرایی سخت است. 3. اگر 8 ربع را جدا کنم، قدر مطلق ناپدید می شود و انتگرال تا حدودی قابل حمل می شود. * فکر میکنم سپس میتوانم سیمپلکس را در جایی که توزیع من زندگی میکند پارتیشن بندی کنم و اگر بتوانم انتگرالها را محاسبه کنم، میتوانم به طور تصادفی روی یک منطقه بزرگنمایی کنم. بی اهمیت به نظر نمی رسد. 4. به نحوی توزیع حاشیه ای جفت ها را بفهمید و از نمونه گیری گیبس استفاده کنید. * آه، اما محدودیت L1 به این معنی است که همه چیز می تواند کاملاً مرتبط باشد و نمونه گیری گیبس ممکن است کاملاً شکست بخورد. 5. با $x=p-q-r-s،~ y=p-q-r+s،~ z=p-q+r-s$ دوباره پارامتریزه کنید * بسیار عالی، اما اکنون همبستگی از قسمت دیریکله توزیع من می آید. نمونه گیری گیبس ممکن است همچنان مشکل ساز باشد. ** چیزی که من به دنبال آن هستم ** سریع * بی طرفانه (یا حداقل همگرایی به چیزی بی طرفانه به اندازه کافی سریع با ابزاری برای بررسی همگرایی خواهد بود) | چگونه از این توزیع دیریکله با پیشین L1 نمونه برداری کنیم؟ |
114953 | من سعی میکنم (تا حدودی) 3 مدل (خطی، نمایی و درجه دوم) را به یک مجموعه داده با کلاسها/فاکتورها برازش دهم و مقادیر p و R2 را برای هر مدل و کلاس/عامل ذخیره کنم. مجموعه داده ساده با 3 متغیر: x، y و class. چیزی که من نمی توانم بفهمم این است که چگونه هر یک از 3 مدل را مجبور کنم تا در هر یک از 3 کلاس قرار بگیرند. آنچه اکنون دارم هر مدل را با مجموعه داده کامل مطابقت می دهد. سوال بعدی این است که چگونه P-values و R2 را به یک جدول خروجی میدهم، برای هر مدل+کلاس، کد من به این صورت است: set.seed(100) library(plyr) #create datast nit <- inside(data.frame(x = 3:32)، { class <- rep(1:3، هر = 10) y <- 0.5 * x* (1:10) + rnorm(30) class <- factor(class) # تبدیل به ضریب } ) x2<-nit$x*nit$x #برای اشکال مدل درجه دوم<- paste(c(y ~ x, y ~ x+x2, log (y) ~ x), sep = ) # ایجاد 3 مدل نام (فرمها) <- چسباندن (مدل، حروف[1: طول(فرمها)]) مدلها <- llply(forms, lm, data = nit) models # ضرایب هر یک از 3 مدل را نشان می دهد | برازش مدل های خطی (چندگانه) بر اساس گروه در R |
114950 | من به داده های تبلیغات دیجیتال با ستون های زیر نگاه می کنم: site_id | impressions_count| تعداد_کلیک من به یک هیستوگرام نرخ کلیک (کلیک ها/نمایش ها) در جمعیت سایت هایم علاقه مند هستم: برای پاسخ به سؤال در 50٪ از سایت ها، CTR بیشتر از x٪ است و غیره. اکنون خطای نمونه گیری CTR در هر سایت به تعداد نمونه ها (=impressions) و CTR سایت جمعیت بستگی دارد. آیا راهی برای در نظر گرفتن این موضوع وجود دارد؟ من میتوانم سه راه را ببینم: الف) سعی کنید از خطای استاندارد دوجملهای سایت در هسته گاوسی استفاده کنید (یا از توزیع بتا استفاده کنید؟) \- به نظر میرسد این عدم قطعیت را با گسترش مقادیر اشتباه میگیرد ب) بازههای اطمینان بالا و پایین CTR را برای هر سایت محاسبه کنید. و به طور جداگانه هیستوگرام هایی از اینها بسازید. ج) از پاسخ glen_bs در هیستوگرام داده های نامشخص برای افزودن نوارهای خطا به هیستوگرام CTR های سایت استفاده کنید. هر گونه اشاره در ادبیات خوش آمدید - به نظر می رسد یک مشکل استاندارد است. | هیستوگرام / تخمین چگالی هسته برای داده های نسبت |
31141 | من در تلاش هستم تا تاخیر بین سری های زمانی دو قیمت سهام را تحلیل کنم. در تجزیه و تحلیل سری های زمانی منظم، می توانیم Cross Correlaton، VECM (علت گرنجر) را انجام دهیم. با این حال، چگونه می توان در سری های زمانی با فاصله نامنظم با آن برخورد کرد. فرضیه این است که یکی از ابزارها دیگری را هدایت می کند. من داده هایی برای هر دو نماد به میکروثانیه دارم. من به بسته RTAQ نگاه کردم و همچنین سعی کردم از VECM استفاده کنم. RTAQ بیشتر در یک سری زمانی تک متغیره است در حالی که VECM در این مقیاس های زمانی قابل توجه نیست. > dput(STOCKS[,])) ساختار(c(29979، 29980، 29980، 29980، 29981، 29981، 29991، 29992، 29993، 29991، 29990، 29990، 29.L =) .Dimnames = list(NULL، c(Pair_Bid، Calc_Bid))، index = structure(c(1340686178.55163، 1340686181.40801، 1340686187.2642، 1348.2645، 1340686178.55163 1340686187.78777، 1340686189.36693)، کلاس = c (POSIXct، POSIXt)، tzone = )، کلاس = باغ وحش) | تجزیه و تحلیل سری های زمانی ناهمزمان (نامنظم). |
114956 | میخواهم تأثیر تجزیه و تحلیل ویدئویی بازتابی را بر قصد معلم برای ماندن یا ترک پست تدریس، کارآمدی معلم و رضایت شغلی معلم در مدارس راهنمایی روستایی بدانم. من یک گروه کنترل (بدون انتساب تصادفی) و یک گروه غیر کنترل خواهم داشت. هر دو گروه یک نظرسنجی قبل و بعد از مقیاس لیکرت را تکمیل می کنند که قصد معلمان برای ماندن یا ترک موقعیت، کارآمدی معلم و رضایت شغلی معلمان را می سنجد. | برای اجرای پیش و پس از مداخله با گروه کنترل 15 شرکت کننده از چه چیزی باید استفاده کنم؟ |
67854 | سعی کردم سرچ کنم ولی جوابی برای مشکلم پیدا نکردم. من داده هایی از موضوعات مختلف دارم که در معرض شرایط مختلف قرار دارند. اما آنها در معرض شرایط مختلف زمان های نابرابر (گاهی اوقات حتی صفر برابر) هستند. مانند این شرط 1 شرط 2 شرط 3 ------------------------------------------ ------------------------------------------------- موضوع 1 | Meas1 Meas2 Meas3 Meas1 Meas2 Meas3 Meas4 Meas5 Meas1 Meas2 Meas3 Subj 2 | Meas1 Meas1 Meas2 Meas3 Meas1 Subj 3 | Meas1 Meas2 Meas3 Meas4 Meas1 Meas1 Meas2 Meas3 Subj 4 | --- Meas1 Meas2 Meas3 Meas4 Meas1 Subj 5 | Meas1 Meas2 Meas3 Meas1 Meas2 Meas3 Meas1 Meas2 و غیره... من میخواهم آزمایش کنم (غیر پارامتری)، اگر اندازهگیریها در شرایط متفاوت است، مانند آزمون کروسکال-والیس یا فریدمن، اما میخواهم اطلاعات را از جفت شدن بر اساس سوژه ها و من نمیخواهم اندازهگیریها را صرفاً به این دلیل که هیچ اندازهگیری برای یکی از شرایط وجود نداشت، کنار بگذارم. من دنبال چه نوع آزمونی هستم؟ در ضمن اگه تو متلب هم بشه واقعا خوشحال میشم! | تحلیل واریانس زوجی ناپارامتریک با داده های نابرابر |
31142 | من به این http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation اشاره می کردم. در اینجا ذکر شده است که تخمین پارامترهای $\theta$ در واقع یافتن حالت توزیع پسین است. من متوجه نشدم که چگونه این درست است. | برآورد پارامترها به عنوان یک حالت توزیع پسین |
73832 | من ردیفهایی از دادهها با ستونهای «سن»، «جنس»، «تحصیلات» و «درآمد» دارم. من در حال انجام تکالیف هستم که از من می خواهد درآمد را با بیز ساده در R با فرمول «درآمد ~ سن + جنس + تحصیل» پیش بینی کنم. من همچنین می دانم که فرمول ها به هیچ متغیر خاصی در یک مجموعه داده اشاره نمی کنند -- آنها فقط شکل داده ها را می دهند. بنابراین با تمام آنچه گفته شد، فرمول «درآمد ~ سن + جنس + تحصیل» به چه معناست؟ من حدس می زنم که معنی آن p(درآمد|سن، جنس، درآمد) = P(y|x1,x2,x3) = P(x1|y) * P(x2|y) * P(x3|y) * P (y) | منظور از این فرمول در R چیست؟ |
78776 | مشکل من حل مسئله بهینه سازی زیر با استفاده از GA (الگوریتم ژنتیک) و شبیه سازی تصادفی است. هدف حل مشکل بیشینه سازی است: \begin{equation*} \begin{aligned} \text{Max}_{x_{1},\cdots,x_{n}} \qquad &\mathbb{E}[\ xi_{1}x_{1}+\xi_{2}x_{2}+\cdots+\xi_{n}x_{n}]\\\ \text{s.t.} \qquad &\left\\{ \begin{array}{rcr} & \mathbb{P}r\\{(0.4-(\xi_{1}x_{1}+\xi_{2} x_{2}+\cdots+\xi_{n}x_{n}))\geqslant r\\}\leqslant \alpha(r)\\\ & \forall r\geqslant 0\\\ &x_{1}+x_{2}+\cdots+x_{n}=1\\\ &x_{1} \qquad \forall i \in \\{1,2,\cdots, n\\}.\\\ \end{آرایه} \راست. \end{تراز شده} \end{معادله*} که در آن $ n=5 $، $ \ \xi_{i}\sim N(\mu_{i}،\sigma_{i}) $ با $\mu_{i}\ در \\{0.1، 0.2، 0.3،0.4،0.5\\}$، $\sigma_{i}=1$ و $ \ \alpha(r)=\dfrac{1}{(r+1.1)^{4}} $, $\ r\geqslant 0 $. | یک احتمال را با استفاده از شبیه سازی تصادفی محاسبه کنید |
78772 | من 2 سوال از کتاب تسای دارم که مربوط به نمایندگی ARIMA است. I. تقسیم چند جمله ای چگونه کار می کند - مراحلی که به حلی که نشان می دهند منجر می شود کدامند؟ آنها یک مثال ساده را نشان می دهند، اما من مطمئن نیستم که این ریاضی چگونه کار می کند؟:  II. آنها همچنین موارد زیر را نشان می دهند، آیا کسی می تواند توضیح دهد که تتا(1) در مخرج معادله اول چه چیزی را نشان می دهد؟  | نمایش ARIMA با استفاده از تقسیم طولانی چند جمله ای |
35399 | من سعی می کنم یک عبارت اغتشاش تصادفی را به متغیر پاسخ خود اضافه کنم (برای تخمین تأثیر چند هم خطی در تخمین های بتا)، اما مطمئن نیستم که چگونه آن را انجام دهم وقتی متغیر پاسخ با استفاده از توان 1/4 تبدیل می شود. در R. بدون تغییر در متغیر پاسخ، با توجه به مدل های خطی با R فاراوی، روش نوشتن آن به این صورت است: g <- lm(hipcenter+10*rnorm(38) ~ ., seatpos). بنابراین اگر من یک تبدیل توان 1/4 برای متغیر پاسخ داشته باشم، کد باید این باشد: g <- lm((hipcenter^(1/4))+10*rnorm(38) ~ ., seatpos). آیا این درست است؟ | چگونه یک عبارت اغتشاش تصادفی را با تبدیل در R به متغیر پاسخ اضافه کنیم؟ |
91974 | من سعی می کنم یک تابع رگرسیون لجستیک را در c++ پیاده سازی کنم و مطمئن نیستم از چه الگوریتمی استفاده کنم. تا به حال در مورد این موارد شنیده ام: 1. نیوتن رافسون 2. IRLS 3. نزول گرادیان آیا الگوریتم های دیگری در دسترس هستند؟ مزایا و معایب آنها چیست؟ آیا الگوریتمی وجود دارد که به طور کلی برتر از سایرین تشخیص داده شود؟ | چه الگوریتم هایی برای رگرسیون لجستیک موجود است؟ |
34667 | فرض کنید ${X_{it}}،{Y_{it}}$ سری زمانی با $X_{it}\sim N(0.1,1)$، ($\sigma^2(Y_{it}) = 1$ هستند و $mean(Y_{it})$ شبیه به $X_{it}$ است، اما زمانی تغییر میکند که dummy = 1 باشد. و $t \\in \\{1,2,...,200\\}$, $i \in \\{1,2,...,N\\}$. در یک محیط واقعی، این بازدهی دورهای بازار سهام بیش از شرکتهای N$ است (اما شما میتوانید این را نادیده بگیرید). یک ساختگی وجود دارد، $D_t$ که برابر است با وحدت بیش از $t \\in \\{150,151,...,200\\}$ و در غیر این صورت برابر با صفر است. مدل سری زمانی که با OLS $\forall i$ تخمین زده می شود عبارت است از: $(1) Y_{it} = \alpha_i + \beta_i X_{it} + \gamma_i D_{t} + \epsilon_{it}$ این مدل به طور کلی به مفروضات گاوس-مارکوف برای هر $i$ پایبند است. با این حال، $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ برای همه $i$ و $j$ داریم. گام بعدی ساختن بردار گاما با استفاده از تخمین $N$ مدل $(1)$ است. این بردار را $\bf{\hat{\gamma}}$ بنامید. سپس از این در مدل مقطعی استفاده میکنیم: $(2) \hat{\gamma}_i = a + b Z_i + u_i$ که در آن $Z_i$ یک متغیر مقطعی است که هیچ گونه نقضی در مفروضات OLS ایجاد نمیکند. و برای توضیح $\hat{\gamma}_i$ مرتبط است. * * * ادعا در ادبیات اقتصاد سنجی کاربردی این است که $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ در مدل $(1)$ منجر به (i) مشکلی برای OLS نمی شود برآورد ضریب در $ (2) $، اما (ii) خطاهای استاندارد بایاس در $ (2) $. * لطفاً کسی می تواند ایده های خود را در مورد چرایی این موضوع ارسال کند؟ * من نمی فهمم $\epsilon_{it}^T$ در عبارت $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ چیست. البته $\epsilon_{it}$ یک اسکالر است و شما نمی توانید یک اسکالر را جابجا کنید. این در اینجا دیده می شود، جایی که آنها این روش را اعمال می کنند. | OLS: $E[\epsilon_{it}^T\epsilon_{it}] \not= 0$ در معادله 1، خطاهای استاندارد در معادله 2 را بایاس می کند؟ |
26880 | من می خواهم AUC ها را برای دو درمان با استفاده از بسته بوت در R مقایسه کنم. با این حال، مشکلی در کد R من وجود دارد و نمی دانم چگونه آن را برطرف کنم. میشه لطفا یکی راهنماییم کنه؟ پیشاپیش با تشکر فراوان نیازمند(بوت) #Create Data set.seed(123) N = 150 y1 = rnorm(150) y2 = rnorm(150,1,0.2) y3 = rnorm(150,2,0.5) time = rep( 1:3، هر = 50) trt = تکرار (تکرار (0:1، هر = 25)، بار = 3) داده = data.frame(trt,time,y1,y2,y3) #قانون ذوزنقه trap.rule = تابع(x,y) sum(diff(x)*(y[-1]+y[-length(y)] ))/2 # مجموع y1-y3 برای هر trt در هر نقطه زمانی SUM = تابع (داده){ set1 = زیر مجموعه (x = داده، داده$time==1) set2 = زیرمجموعه (x = داده، data$time==2) set3 = زیر مجموعه (x = داده، data$time==3) s1 = by(set1[,c(y1،y2،y3)] , set1$trt, sum) s2 = by(set1[,c(y1,y2,y3)], set2$trt, sum) s3 = توسط(set3[,c(y1،y2،y3)]، set3$trt، sum) result = ماتریس(داده = c(s1[1],s2[1],s3[1], s1[2]،s2[2]،s3[2])، ncol=2) colnames(نتیجه) = c(trt = 0، trt = 1) خروجی = cbind(زمان = 1:3، نتیجه) بازگشت (خروجی) } # آمار برای بوت AREA = تابع (داده، i){ d = داده[i،] MQ = SUM(داده = د) A.0 = trap.rule (x = 1:3، y = MQ[,2]) A.1 = trap.rule(x = 1:3، y = MQ[,3]) ناحیه = A.1 - A.0 result = c(A.0، A.1، area) return(نتیجه) } area.boot = boot(data = داده، آمار = AREA، R = 1000) area.boot یک پیام خطا است Error in tapply(1L:49L, list(`set2$trt` = c(0L, 1L, 1L, 1L, 0L, 1L, 0L، : آرگومان ها باید طول یکسانی داشته باشند | چگونه AUC ها را با استفاده از بسته بوت در R مقایسه کنیم؟ |
29673 | برای یافتن روابط بین متغیرهای مستقل و وابسته به جای رگرسیون از کدام روش آماری می توان استفاده کرد؟ و مزایای آنها نسبت به رگرسیون. لازم به ذکر است به دلیل تعداد مشاهدات کمتر قادر به انجام رگرسیون نیستم که 5 متغیر مستقل 3 طبقه و دو متغیر پیوسته دارم. | روش هایی برای یافتن روابط بین متغیرهای مستقل و وابسته به جای رگرسیون |
50016 | من اسناد WinBugs را مرور کردم (به عنوان مثال، http://www.mrc-bsu.cam.ac.uk/bugs/thebugsbook/examples/html/Chapter-11-Specialised/Example-11_7_2-leukaemia.html). و همچنین از طریق این کتاب (http://www.amazon.ca/Bayesian-Survival-Analysis- Joseph-Ibrahim/dp/0387952772). هر دو از توزیع گاما قبل از نرخ (لامبدا) برای توزیع نمایی استفاده می کنند. آنها بین گاما (0.01، 0.01) و گاما (0.001،0.001) متناوب هستند. من می خواهم از یک پیشین غیر اطلاعاتی استفاده کنم .... اما فکر نمی کنم این باشد؟ کسی می تواند توضیح دهد که آیا این یک قبل غیر اطلاعاتی است؟ اگر نه، کسی می تواند یکی را پیشنهاد دهد؟ | توزیع نمایی - نرخ - قبل بیزی؟ |
29676 | من یک اندازه گیری برای دو گروه از موضوعات دارم که هر موضوع شامل 3 تکرار است. به عنوان مثال، داده ها مانند زیر است: > مقدار تکرار گروه موضوع > 1 A 1 0.2 > 1 A 2 0.3 > 1 A 3 0.25 > 1 B 1 0.4 > 1 B 2 0.3 > 1 B 3 0.7 > 2 C 1 0.2 > 2 C 2 0.1 > 2 C 3 0.3 > 2 D 1 0.4 > 2 D 2 0.2 > 2 D 3 0.25 > من به استفاده از ANOVA فکر می کنم که در آن موضوع عبارت خطا است، به عنوان مثال. aov(Value~Group+Error(Subject)) در R. درست است؟ با تشکر گیم | تفاوت گروه را با تکرار مقایسه کنید؟ |
66103 | این یک پست متقابل است. من میخواهم از تخمینگر کوواریانس نیوی وست برای بهینهسازی پورتفولیو استفاده کنم. تا یک تاخیر $$ \Sigma = \Sigma(0) + \frac12 \left (\Sigma(1) + \Sigma(1)^T \راست)، $$ که در آن $\Sigma(i) داده میشود. $ ماتریس کوواریانس $i$ برای $i=0,1$ است. بعلاوه من دوست دارم از برآوردگرهای انقباض همانطور که در بسته corpcor برای R پیاده سازی شده است استفاده کنم. ماتریس هویت به عنوان انقباض قبل برای $\Sigma(0)$ قابل قبول است. چه چیزی را به عنوان قبلی برای $\Sigma(1)$ - ماتریس صفر استفاده می کنید؟ آیا پیاده سازی R را می شناسید که اجازه می دهد ماتریس های تاخیر-کوواریانس را با استفاده از انقباض تخمین بزنیم؟ باید تفاوت اساسی وجود داشته باشد زیرا ماتریس تاخیر-کوواریانس لزوماً مثبت-معین نیست (مثلاً ماتریس صفر). اگر انقباض را روی $\Sigma(0)$ اعمال کنم و از تخمینگر نمونه استاندارد برای $\Sigma(1)$ استفاده کنم، مطمئن نیستم که $\Sigma$ مثبت و قطعی است. تعریف فوق از: Whitney K. Newey and Keneth D. West گرفته شده است. یک ماتریس کوواریانس سازگار با نیمه دنیت ساده، مثبت، هتروسکداستیکی و خودهمبستگی. Econometrica, 55(3):703-708, 1987. همچنین می توان آن را در فرمول (1.9) در صفحه 6 در اینجا یافت. | برآوردگر انقباض برای ماتریس کوواریانس نیوی-وست |
73830 | من یک نمونه $n = 100$ با دو موفقیت دارم (دو بچه مبتلا به بیماری در بین 100 نفر). بنابراین واضح است که توزیع دوجمله ای داریم. ابتدا باید برآوردگر حداکثر احتمال (ML) $\hat{p}$ را محاسبه میکردم. من $\hat{p} = \frac{k}{n}$ دریافت کردم. اکنون، من باید توزیع نرمال مجانبی را برای $\hat{p}$ از طریق قضیه حد مرکزی (CLT) استخراج کنم. من می دانم که مقدار مورد انتظار $\hat{p}$ بی نهایت نیست و همچنین واریانس نیز بی نهایت نیست، بنابراین می دانم که به طور معمول توزیع می شود. برای بدست آوردن توزیع نرمال مجانبی باید مقدار مورد انتظار و واریانس $\hat{p}$ را بدانم، درست است؟ می دانم که مقدار مورد انتظار $\frac{k}{n}$ است. اما واریانس چیست؟ | توزیع نرمال مجانبی از طریق قضیه حد مرکزی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.