_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
60733
من سعی می‌کنم بفهمم که چرا وقتی از پیاده‌سازی‌های مختلف آن استفاده می‌کنم، در آزمون K-S نتایج کمی متفاوت می‌گیرم. من از نمونه‌های «a» به طول 45 و «b» با طول 1000 استفاده می‌کنم که می‌توانید در اینجا پیدا کنید. هر دو «a» و «b» حاوی مقادیر تکراری هستند، بنابراین **پیوندها** وجود دارد. این چگونه بر نتیجه آزمایش من تأثیر می گذارد؟ چرا فقط «R» از این با یک هشدار شکایت می کند، در حالی که هر دو پیاده سازی «scipy» چیزی نمی گویند؟ **scipy.stats.ks_2samp** >>> import scipy.stats >>> scipy.stats.ks_2samp(a, b) (0.18788888888888888, 0.084132587804941872) **scipy.stats.ks_2samp(a, b) scipy.stats.mstats >>> scipy.stats.mstats.ks_twosamp(a, b, alternative='two_sided') (0.18788888888888858, 0.095622608864701905) **ks.>test roject از R** >> ksr = robjects.r['ks.test'] >>> res = ksr(robjects.FloatVector(a), robjects.FloatVector(b)) پیام هشدار: در تابع (x, y, ..., alternative = c( دو طرفه، کمتر، بزرگتر)، : مقادیر p در حضور پیوندها تقریبی خواهند بود >>> print [res[0][0], res[1][0]] [0.18788888888889, 0.09562260886470086] چرا `scipy.stats.ks_2samp` و `scipy.stats.mstats.ks_twosamp` مقادیر مختلف و چرا *stat. *ر** 'ks.test's همان مقدار را برمی گرداند آیا این بدان معناست که اگر می خواهم به **scipy** پایبند باشم باید از `scipy.stats.mstats.ks_twosamp` استفاده کنم؟ من زیاد با **آرایه های ماسک شده** آشنا نیستم، اما از هیچ کدام استفاده نمی کنم، بنابراین فکر می کنم خروجی اصلاً نباید تغییر کند.
پیاده سازی های مختلف آزمون کولموگروف-اسمیرنوف و پیوندها
48202
من چند نفر را دارم که در دو مجموعه A(a1، a2، ...، an) و B(b1، b2،...، bm) انتخاب کنند. یعنی هر فرد باید چند عنصر از A و چند عنصر از B را انتخاب کند. سپس می‌خواهم بدانم آیا A و B همبستگی دارند، به ویژه اینکه آیا هر یک از عناصر A با هر یک از عناصر B مرتبط است یا خیر. چگونه می‌توانم انجام دهم. آن را؟ با تشکر فراوان.
نحوه بررسی همبستگی بین دو ماتریس
61869
من سعی می کنم یک مدل SEM تجزیه و تحلیل مسیر را با استفاده از Lavaan در R تکرار کنم، و در مورد نتایجی که در مورد آمار برازش مدل ارائه داد بسیار گیج شدم. **کد به شرح زیر است:** #Import Package library(lavaan) #Input Correlation Matrix sigma <- matrix(c(1.00, -0.03, 0.39, -0.05, -0.08, -0.03, 1.00, 0.07, -0.23 ، 0.16-، 0.39، 0.07، 1.00، -0.13، -0.29، -0.05، -0.23، -0.13، 1.00، 0.34، -0.08، -0.16، 0.29-، 0.34، 1.00)، nr=5، byrow=TRUE) نام های ردیف <-(sigma) (ورزش، سرسختی، نام‌های تناسب اندام، استرس، بیماری) <-c(ورزش، سرسختی، تناسب اندام، استرس، بیماری) #ایجاد ماتریس کوواریانس sdevs <-c(66.5 ، 3.8، 18.4، 6.7، 624.8) covmax <- cor2cov(sigma، sdevs) as.matrix(covmax) #Specify Model mymodel<-'بیماری ~ ورزش + بیماری تناسب اندام ~ سرسختی + تناسب اندام ~ ورزش + استرس سرسختی ~ ورزش + سرسختی + ورزش تناسب اندام ~~ ورزش سرسختی ~ سرسختی ~ سختی #مدل را با ماتریس کوواریانس N = 363 fit.path <-sem(mymodel,sample.cov=covmax, sample.nobs=N, fixed.x=FALSE) #خلاصه خلاصه برازش مدل(fit.path, fit.measures = TRUE) **و خروجی من به شرح زیر است: ** لاوان (0.5-12) به طور معمول پس از 93 تکرار همگرا شد تعداد مشاهدات 37300 برآوردگر ML حداقل تابع آمار تست 0.000 درجه آزادی 0 P-value (Chi-square) 1.000 مدل آزمایشی مدل پایه: حداقل آمار آزمون تابع 16594.387 درجه آزادی مدل پایه 10000000: مدل پایه0000 کامل شاخص (CFI) 1.000 Tucker-Lewis Index (TLI) 1.000 Loglikelihood و معیارهای اطلاعات: Loglikelihood مدل کاربر (H0) -882379.005 Loglikelihood مدل نامحدود (H1) -882379.005 - تعداد پارامترهای Loglikelihood (تعداد پارامترهای آزاد) A1ka7006A1 بیزی (BIC) 1764915.910 اندازه نمونه تنظیم شده بیزی (BIC) 1764868.240 ریشه میانگین مربع خطای تقریب: RMSEA 0.000 90 درصد فاصله اطمینان 0.000 0.000 P-value Mean000 مربع استاندارد باقیمانده: SRMR 0.000 برآورد پارامتر: اطلاعات خطاهای استاندارد مورد انتظار برآورد استاندارد Std.err Z-value P(>|z|) رگرسیون: بیماری ~ ورزش 0.318 0.048 6.640 0.000 تناسب اندام -8.835 -50070.17 -12.146 0.793 -15.321 0.000 استرس 27.125 0.451 60.079 0.000 تناسب اندام ~ ورزش 0.109 0.001 82.602 0.000 0.000 Stress 0.201 0.396 ~ ورزش -0.001 0.001 -2.614 0.009 سرسختی -0.393 0.009 -44.332 0.000 تناسب اندام -0.040 0.002 -19.953 0.000 کوواریانس: ~393-0.009. -5.791 0.000 واریانس: ورزش 4422.131 32.381 سرسختی 14.440 0.106 بیماری 318744.406 2334.012 تناسب اندام 284.796 ** 2.085 * چرا استرس 40. آیا مجذور کای می گوید درجاتی از آزادی وجود ندارد؟ * چرا مقادیر p دقیقاً 1 هستند؟ چرا CFI و TLI دقیقا 1 است؟ * چرا RMSEA 0 است؟ * برای شبیه سازی یک مدل واقعی تر که به طور مصنوعی کامل به نظر نمی رسد، چه کاری باید انجام دهم؟ * به مشخصات مدل ربطی دارد؟
چگونه می توان شاخص های برازش مدل تولید شده توسط لاوان (در R) را تفسیر کرد؟ مشکلی در مشخصات مدل وجود دارد؟
54778
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xsnKk.jpg) لطفاً هنگام جایگزین کردن معادله، مقداری کارکرد را نشان دهید. با تشکر
چگالی احتمال و تولید گشتاور
53334
من یک مجموعه داده $(n_i,y_i),i=0,...,10$ دارم. من آن را به عنوان یک مدل بتا-دوجمله ای سلسله مراتبی بیزی مدل کردم. $y_i∼دو جمله ای(n_i,p_i)$ و $p_i∼بتا(\alpha,\beta)$. من از MCMC برای تخمین $\alpha$ و $\beta$ استفاده کرده ام (از میانه به عنوان مقدار تخمینی استفاده کنید). با توجه به $(n_j, y_j)$ جدید، می خواهم قضاوت کنم که آیا از همان مدل مجموعه آموزشی $(i=0,...,10)$ می آید یا خیر، یعنی $p_j$ به طور قابل توجهی بزرگتر از $\ است. theta$ (کوچک شدن $p_i$ از همه گروه). چگونه می توانم از $\alpha$ و $\beta$ تخمین زده شده برای محاسبه آن استفاده کنم؟
از مدل سلسله مراتبی بیزی برای پیش بینی نقاط داده جدید استفاده کنید
98976
من می خواهم برخی از ویژگی های شبکه مانند آنتروپی، اتصال و غیره را بین 2 گروه مقایسه کنم. من داده‌های سری زمانی fMRI روی بیماران (80=n) و کنترل‌ها (n=30) برای مناطق خاصی از مغز دارم. سوال من این است که چگونه باید قبل از انجام هر گونه تجزیه و تحلیل بیشتر، سن و جنسیت را در گروه بیمار خود به درستی کنترل کنم؟ علاوه بر گروه های مواجهه نامتعادل، من 3 برابر بیشتر از مردها ماده دارم. چگونه می توانم سن و جنسیت آزمودنی ها را به بهترین نحو کنترل کنم؟ آیا می توانم 30 بیمار (در صورت وجود پیوندها به طور تصادفی انتخاب شوند) که میانگین ها، واریانس ها / ضرایب تغییرات آنها با گروه کلی مطابقت دارد، به طوری که آنها به خوبی گروه را نشان دهند؟
مقایسه شبکه‌های گروه‌هایی با اندازه نابرابر
104916
من سعی می کنم رگرسیون لجستیک را روی مجموعه داده ای از بیماران انجام دهم. متغیر وابسته وضعیت بیماری (دودویی، بله یا خیر) است. متغیرهای مستقل متعددی وجود دارد که برخی دوتایی مانند ژن حساسیت (y/n) و برخی دیگر پیوسته مانند سن بیمار هستند. وقتی رگرسیون لجستیک را جستجو کردم، در تمام کتاب‌هایی که خوانده‌ام، مثال‌های ارائه شده همیشه دارای همه متغیرهای مستقل پیوسته هستند. بنابراین آیا انجام رگرسیون لجستیک روی مجموعه داده هایم با متغیرهای تصادفی پیوسته و باینری از نظر ریاضی معتبر است؟ یا یک مدل رگرسیون جایگزین وجود دارد که باید از آن استفاده کنم؟
رگرسیون لجستیک چندگانه با متغیرهای تصادفی باینری
58343
من دو سوال دارم: فرض کنید متغیرهای یک توزیع نرمال چند متغیره را با استفاده از تبدیل Cholesky غیرهمبستگی می کنیم. سپس: 1. چه رابطه ای بین فواصل ماهالانوبیس قبل و بعد از این تبدیل وجود دارد؟ 2. آیا می توانم از این روش برای محاسبه فاصله ماهالانوبیس بین میانگین های دو توزیع نرمال چند متغیره با میانگین های مختلف و ماتریس های کوواریانس متفاوت استفاده کنم؟ به عبارت دیگر، آیا می توانم فاصله ماهالانوبیس را با عدم همبستگی هر توزیع و سپس استفاده از فاصله اقلیدسی محاسبه کنم؟
فاصله ماهالانوبیس برای توزیع نرمال چند متغیره قبل و بعد از عدم همبستگی
113602
من سه گروه داده دارم که هر کدام دارای توزیع دوجمله ای هستند (یعنی هر گروه دارای عناصری است که یا موفقیت یا شکست هستند). من احتمال موفقیت پیش‌بینی‌شده‌ای ندارم، اما در عوض فقط می‌توانم به میزان موفقیت هر کدام به عنوان تقریبی برای میزان موفقیت واقعی تکیه کنم. من فقط این سوال را پیدا کردم که نزدیک است اما به نظر نمی رسد دقیقاً با این سناریو سروکار داشته باشد. برای ساده کردن آزمون، اجازه دهید بگوییم که من 2 گروه دارم (3 را می توان از این مورد پایه گسترش داد). * آزمایشات گروه 1: $n_1$ = 2455 * آزمایشات گروه 2: $n_2$ = 2730 * * * * موفقیت گروه 1: $k_1$ = 1556 * موفقیت گروه 2: $k_2$ = 1671 من انتظاری ندارم احتمال موفقیت، فقط چیزی است که من از نمونه ها می دانم. بنابراین نرخ موفقیت ضمنی من برای دو گروه این است: * میزان موفقیت گروه 1: $p_1$ = 1556/2455 = 63.4٪ * نرخ موفقیت گروه 2: $p_2$ = 1671/2730 = 61.2% میزان موفقیت هر یک از نمونه نسبتا نزدیک است با این حال اندازه نمونه من نیز بسیار بزرگ است. اگر CDF توزیع دوجمله‌ای را بررسی کنم تا ببینم چقدر با اولی متفاوت است (جایی که فرض می‌کنم اولی تست تهی است) احتمال بسیار کمی به دست می‌آورم که دومی می‌تواند به دست آید. در اکسل: > 1-BINOM.DIST(1556,2455,61.2%, TRUE) = 0.012 با این حال، این هیچ گونه واریانسی از اولین نتیجه را در نظر نمی گیرد، فقط فرض می کند که اولین نتیجه احتمال آزمون است. آیا راه بهتری برای آزمایش وجود دارد که آیا این دو نمونه داده واقعاً از نظر آماری با یکدیگر متفاوت هستند؟
آزمایش کنید که آیا دو توزیع دو جمله ای از نظر آماری با یکدیگر متفاوت هستند یا خیر
87511
![boxplot of ادعای فرکانس](http://i.stack.imgur.com/uGbui.jpg) من یک باکس پلات برای نشان دادن فرکانس ادعای خود انجام داده ام. با این حال، 2 و 4 فقط 1 سبیل دارند. چگونه آن را تفسیر کنم؟
تفسیر نمودارهای جعبه با یک سبیل
21104
من 365 اندازه گیری روزانه دارم که همگی دارای خطاهای استاندارد مرتبط با آنها هستند. تاریخ | پیش بینی | خطای استاندارد ---------------------------------------- Jan-01-2003 | 24.8574 | 10.6407 Jan-02-2003 | 10.8658 | 3.8237 Jan-03-2003 | 12.1917 | 5.7988 Jan-04-2003 | 11.1783 | 4.3016 Jan-05-2003 | 16.713 | 5.3177 و غیره ... روش آماری مناسب برای بدست آوردن میانگین سالانه با فاصله اطمینان 95% در اطراف آن چیست؟ من فرض می‌کنم که خطاها باید به نحوی در حال انتشار باشند و باید حساب شوند. گوگل بیشتر اطلاعاتی را در مورد نحوه محاسبه میانگین یا انحراف استاندارد مجموعه ای از اعداد، نه مجموعه ای از اعداد **با** را برمی گرداند. من همچنین از برخی از انواع مرجع اینترنتی تشکر می کنم تا بتوانم بعداً به آن مراجعه کنم.
میانگین اعداد مجموعه را با خطاهای استاندارد گزارش شده محاسبه کنید
54643
چگونه باید یک فرمول مدل را در R تعریف کنم، زمانی که یک (یا چند) محدودیت خطی دقیقی که ضرایب را متصل می کند در دسترس است. معادله: y = b1*x1 + b2*x1 که در آن y = b1*x1 برای t < t1 و y = b2*x1 برای t > t1 متشکرم..!
برازش مدل ها در R با محدودیت زمانی در ضرایب
58345
در آمار، در مورد نمونه هایی آموزش داده می شود که می توانند محدوده ای از اعداد را به عنوان مقادیر خود داشته باشند. با این حال، در انتخابات مانند انتخابات ریاست جمهوری، تنها چند نامزد برای انتخاب وجود دارد. در این صورت، چگونه می توانیم توزیع آماری فرضی (مانند توزیع نرمال) را به نظرسنجی اختصاص دهیم و فاصله اطمینان را اختصاص دهیم؟
نظرسنجی پیش از انتخابات را چگونه با آمار انجام دهیم؟ (نتایج مجزا)
53330
دارم روی برگه امتحانات گذشته کار میکنم مجموعه داده ای به شرح زیر به من داده می شود: مو {قهوه ای، قرمز} = {B،R}، قد {بلند، کوتاه} = {T،S} و کشور {UK، ایتالیا} = {U،I} (B، T,U) (B,T,U) (B,T,I) (R,T,U) (R,T,U) (B,T,I) (R,T,U) {R,T ,U) (B,T,I) (R,S,U) (R,S,U) (R,S,I) سوال: احتمالات P(B,T|U), P(B|U), P(T|U), P را تخمین بزنید (U) و P(I) همانطور که در سوال بیان می شود، حدس می زنم که نیازی به محاسبه هیچ مقداری ندارم. آیا این فقط یک مورد جمع آوری چند بار P(B,T|U) در کل مجموعه داده است، به عنوان مثال؟ (2/12) = 16%. آیا احتمال P(U) 0 خواهد بود؟
تخمین احتمالات با استفاده از قانون بیز؟
49472
من شهود پشت مدل OLS را درک می کنم: به حداقل رساندن باقیمانده های مربع. آیا راهی برای تفسیر شهودی فرمول شیب خط رگرسیون وجود دارد؟ یعنی $m = r(sd_y/sd_x)$. من می دانم که فرمول به من شیب می دهد، اما چگونه؟ به عبارت دیگر، شهودی ترین راه برای تجسم یا تفکر در مورد فرمول شیب خط رگرسیون چیست؟
درک فرمول شیب رگرسیون OLS
68066
D.R. به نظر می رسد کاکس و دایه ورموث پیشنهاد می کنند که ضریب تعیین (R مجذور) زمانی که شما پاسخ های باینری دارید گمراه کننده است، در واقع اگر من به خوبی درک کنم، آنها می گویند که حداکثر مقداری که می تواند باشد 0.36 است. آیا این برای مدل‌های OLS با برخی از متغیرهای مستقل مهم کلیدی که مقدار باینری دارند، قابل اجرا است؟ بحث و اطلاعات بیشتر در مورد موضوع مورد استقبال قرار خواهد گرفت.
ضریب تعیین برای پاسخ های باینری
98979
من یک متغیر طبقه‌بندی دارم (در رژیم غذایی: بله یا خیر) و دو متغیر عددی (ضربان قلب و فشار خون بیماران). آیا از رگرسیون لجستیک چندگانه استفاده می کنم؟ یا باید هر متغیر عددی را جداگانه با توجه به اینکه آیا آنها در رژیم هستند نگاه کنم؟ به این ترتیب من فقط به رگرسیون لجستیک ساده نگاه می کنم.
آیا باید متغیرها را جداگانه تحلیل کنم یا با هم؟
108060
> تعداد obs = 501، روش: رگرسیون با اثرات ثابت > تعداد گروه ها = 101 > >> F( 10، 100) = 3422.31 >> >>>، Prob > F = 0.0000، در محدوده R-squared = 0.6325 مدل من (داده های پانل با اثرات ثابت) دارای شش متغیر و چهار آدمک به مدت پنج سال و همانطور که در بالا مشاهده می کنید، مقدار F با مقدار 3422 بسیار بالا است. آیا این طبیعی است؟ یا مشکل از چی میتونه باشه؟ همچنین باید اشاره کنم که وقتی یک متغیر به شش اضافه می کنم، f stat از 3422 به 86 تبدیل می شود. پیشاپیش از شما متشکرم
مقدار آماره F برای مدل من خیلی زیاد است
60730
اخیراً با ارجاعاتی به فیلتر مونت کارلو کالمن (MCKF) برخورد کرده ام که نوعی از فیلتر کالمن سیگما پوینت (SPKF) است. تفاوت کلیدی بین MCKF و بقیه SPKFها این است که نقاط سیگما به جای اینکه به صورت قطعی انتخاب شوند، همانطور که در مورد فیلتر کالمن بدون بو و سایر اعضای خانواده وجود دارد، به صورت تصادفی انتخاب می شوند. یعنی برای SPKF، نقاط سیگما منتشر شده از طریق: $ \mathbf{x}^{(i)}_k = \hat{\mathbf{x}}_k + w_k \mathbf{S}^{(i) انتخاب می‌شوند. )}_k$ که در آن $\mathbf{S}^{(i)}_k$ ستون $i$-امین ضریب کلسکی کوواریانس حالت است، $w_k$ یک وزن است (بسته به الگوریتم خاص SPKF) و $\hat{\mathbf{x}}_k$ میانگین است. از سوی دیگر، MCKF دارای نقاط سیگما است که از: $\mathbf{x}^{(i)}_k \sim N\left(\hat{\mathbf{x}}_k; \mathbf{P} _k\right)$ تعداد نقاط سیگما قابل انتخاب توسط کاربر است. از آنجایی که MCKF با فرض Guassian مشترک است، بقیه الگوریتم ها عملاً یکسان هستند (به ویکی پدیا مراجعه کنید). بنابراین، به نوعی فاصله بین SPKFها و فیلترهای ذرات است. بنابراین، سوالات من این است: * آیا کسی نوع MCKF را در عمل (یا دانشگاه) دیده است؟ * آیا مقالات زیادی در مورد ردیابی ویژگی های نظری یا عملکرد برنامه آن وجود دارد؟ Google Scholar به طور شگفت انگیزی مفید نیست. * چه زمانی می توان از MCKF بر روی UKF/DDF/... استفاده کرد؟ * (موارد مورد علاقه) انتظار می رود چند نمونه باید معادل عملکرد ​​با استاندارد UKF (که دارای امتیاز سیگما 2N_x$) باشد؟ این مقیاس با افزایش $N_x$ چگونه است؟
«فیلتر کالمن مونت کارلو» در مقابل فیلتر کالمن بدون عطر
53337
این یک سوال بسیار اساسی است اما من سابقه آماری ندارم و در حال حاضر در حال تجزیه و تحلیل برخی از داده ها برای پایان نامه خود هستم. من یک نظرسنجی در مورد سبک زندگی سالم ایجاد کرده ام و سؤالات چاقی عمدتاً کیفی هستند (زندگی شما چقدر سالم است/سالم/متوسط ​​است - من برای تولید داده های ترتیبی پاسخ ها را 1-5 رتبه بندی کرده ام. 330 پاسخ دارم. به دنبال انجام برخی از آنها هستم. آمار استنباطی در مورد داده های من برای به دست آوردن اطلاعاتی در مورد چگونگی (از نظر آماری) پاسخ های مختلف بین گروه های مختلف شرکت کنندگان، به عنوان مثال بر اساس وزن یا شغل 1. من به دنبال انجام یک آزمون Mann Whitney U هستم تا از نظر آماری معنادار بین گروه های مختلف شرکت کنندگانم آزمایش کنم (مثلاً چاق، اضافه وزن). 2. من در اطراف مطالعه کرده ام و به نظر می رسد تست مربع X نیز یک آزمون آماری خوب برای استفاده در این نوع داده ها باشد هر آزمایش واضح دیگری (نسبتاً ساده) که من از دست می دهم، به عنوان مثال قبلاً از ANOVA استفاده کرده ام اما دوباره مطمئن نیستم که آیا آزمایش مناسبی برای داده های من است یا خیر. اساساً کاملاً گیج شده است، هر کمکی بسیار قدردانی می شود!
چه زمانی از تست کای دو استفاده کنیم؟
48205
از من خواسته شد تعیین کنم که آیا تعداد عفونت های HAI در سال 2011 از تعداد عفونت های HAI در سال 2012 از نظر آماری معنی دار است یا خیر. من یک تست T زوجی را با استفاده از اعداد واقعی انجام دادم، اما اکنون از خودم سوال می کنم که آیا باید از آن استفاده کنم یا خیر. نرخ حادثه استاندارد شده در عوض. این برای یک شبکه 6 بیمارستانی است، بنابراین هر بیمارستان عددی را گزارش می‌کند که من برای کل تعداد سالانه جمع می‌کنم.
نحوه یافتن اهمیت آماری بین دو سال داده
98973
سوال دیگری در مورد آزمون فرضیه وجود دارد. ![a busy cat](http://i.imgur.com/sGnhjcD.png) آلفا خطای نوع 1 است در حالی که بتا خطای نوع 2 است. من در کاری که قرار است انجام دهم کمی سردرگم هستم. من سعی کردم به سوال پاسخ دهم اما احساس می کنم چیزی را از دست داده ام. من ابتدا سعی کردم یک نمودار از f(x) در برابر x زمانی که تتا 2 است ایجاد کنم و یک نقطه بحرانی t را پیدا کنم به طوری که ناحیه زیر منحنی جایی که t در آن نمودار f(x) در برابر x زمانی که تتا 3 است ایجاد کردم. و با استفاده از مقدار بحرانی، ناحیه زیر منحنی را پیدا کردم که 0 در آن پیچیدم؟
یافتن منطقه بحرانی که خطای نوع 2 را به حداقل می رساند
62770
من یک مدل رگرسیون لجستیک را به شکل زیر اجرا می کنم: lmer(response~1+(1|سایت)، خانواده=دوجمله ای، REML = FALSE) به طور معمول ICC را از واریانس های رهگیری و باقیمانده محاسبه می کنم، اما خلاصه ای از مدل شامل واریانس باقیمانده نمی شود. چگونه این را محاسبه کنم؟
محاسبه ICC برای رگرسیون لجستیک با اثرات تصادفی
94623
من داده های چند متغیره در مورد یک جمعیت خاص با بیش از 1000 ویژگی در هر نمونه دارم. برخی از متغیرها ویژگی‌های جمعیت‌شناختی پایه هستند، از جمله: جنسیت، سن، نژاد، قومیت، سطح درآمد و غیره. کاری که من می‌خواهم انجام دهم این است که الگوریتمی ارائه کنم که پارتیشن نامزد را در نمونه من پیشنهاد می‌کند. منظور من از نامزد این است که 100 پارتیشن را پیشنهاد می کند که من به صورت دستی کره چشم را انتخاب می کنم و می گویند 4 را انتخاب می کنم که به نظرم جالب بود. یک پارتیشن چیزی شبیه به این است: نمونه A 1. 60% مرد هستند 2. 30% از آنها شاغل هستند 3. 10% از آنها خودروهای خود را دارند نمونه B 1. 60% مرد هستند 2. 40% از آنها تحصیل کرده دانشگاه هستند. 3. 20 درصد از آنها متاهل هستند. من به استفاده از یک درخت تصمیم مانند الگوریتمی فکر می‌کردم که برای انجام کارهای بالا از اطلاعات بدست آمده استفاده کند. سوال: 1. آیا موارد فوق امکان پذیر است؟ 2. آیا باید کد سفارشی خود را بنویسم یا کدی را در جاوا، پایتون می شناسید که کارهای بالا را انجام می دهد؟ 3. هر اشاره گر دیگری؟ یادداشت ها: 1. آنچه جالب است -- واقعاً چه چیزی می تواند بینش را به یک کاربر تجاری ارائه دهد. کاری که من سعی می کنم انجام دهم این است که سعی کنم پارتیشن هایی را با عمق حدود 4 سطح ارائه کنم که ممکن است برای یک کاربر جالب باشد. بنابراین، برای مثال، هدف این است که تعداد زیادی از آنها را بیابید، اما یک متخصص انسانی می‌تواند در یک روز آن را بررسی کند. 2. اکنون می‌دانم که یادداشت من در مورد جالب ممکن است باعث تمسخر شود - می‌دانم که یک عبارت بسیار ضعیف است - جایگزینی که به آن فکر می‌کردم ایجاد یک سیستم تعاملی است که در آن یک متخصص می‌تواند گام به گام تجزیه و تحلیل را انجام دهد. پیشنهادات حساب از نتایج یک الگوریتم C4.5 اصلاح شده
استفاده از الگوریتم درخت تصمیم مانند C4.5 برای درک پارتیشن جمعیت
90710
منابع داده: بررسی ملی CDC از رشد خانواده، آمار حیاتی CDC. جمعیت: زنان آمریکایی 15-44 ساله در سال های 1982، 95، 2002، 2006 حجم نمونه: چند هزار آیا می توانم از پیرسون r برای نشان دادن همبستگی خطی بین دو متغیر درصد استفاده کنم؟ یعنی چند درصد از زنان آمریکایی که X انجام می دهند با درصدی از رویدادها که به روش خاصی دسته بندی می شوند، ارتباط دارند؟ به عنوان مثال، درصدی از آمریکایی‌هایی که گزارش داده‌اند در سال‌های مختلف در ماه گذشته در حالت مستی رانندگی کرده‌اند، در مقایسه با درصد تصادفات وسایل نقلیه موتوری که در همان سال‌ها مربوط به الکل بوده‌اند. نمونه در طول زمان یکسان نیست، اما جامعه تقریباً همینطور است، با این تفاوت که در محدوده سنی قرار دارد، به عنوان مثال زنانی که در سال 1982 44 ساله بودند، در سال 1995 و غیره لحاظ نمی شوند. دلیل اینکه من می خواهم از درصد استفاده کنم این است که اعداد از 2 بازوی CDC دقیقاً مطابقت ندارند. نظرسنجی ملی رشد خانواده از زنان در این نظرسنجی در مورد تولدهایی که در 5 سال گذشته تجربه کرده‌اند می‌پرسد و آن را برای کل جمعیت آمریکا اعمال می‌کند، و این تعداد مشابه، اما نه یکسان، با تعداد تولدهای ثبت شده واقعی در آمریکا است. فاصله 5 ساله مناسب در آمار حیاتی CDC. من می خواهم داده های هر دو منبع را در یک دسته جمعی ترکیب کنم. آیا این امکان پذیر است؟
پیرسون r با درصد در طول زمان
104910
فرض کنید من می‌خواهم یک مدل توضیحی برای رویدادهای ایجاد شده توسط یک فرآیند پواسون ناهمگن با شدت نامعلوم $\lambda$ بسازم. هر ورودی در مجموعه داده من نشان دهنده ثبت یک رویداد است: زمان $t_i$، مکان $(x_i,y_i)$ و برخی از متغیرهای توضیحی $z_{i1}،...،z_{ip}، i=1،.. .,n$. ورودی ها به ترتیب زمانی هستند. من می خواهم تأثیر متغیرهای توضیحی را بر شدت فرآیند پواسون با استفاده از GLM تخمین بزنم. ورودی ها را نمی توان گروه بندی کرد، زیرا این امر به ناچار منجر به از دست دادن اطلاعات توضیحی می شود. بنابراین یک مدل شمارش با رگرسیون پواسون در این مورد کار نمی کند. با این حال، اگر فرض کنیم که زمان اقامت $s_i$ (که می توانیم در این مجموعه داده محاسبه کنیم) به صورت نمایی i.i.d باشد، می توانیم رگرسیون گاما را اعمال کنیم. لطفاً برای لحظه ای نادیده بگیرید که ما یک مشاهده را به دلیل تفاوت از دست می دهیم. با استفاده از پیوند گزارش، این تبدیل به $E[s_i|\textbf{z}_i] = exp(\beta_0 + \beta_1 z_{i1} + ... + \beta_p z_{ip}) = \lambda(z_{i1} ,...,z_{ip})$ (ویرایش) از آنجایی که تجزیه و تحلیل داده های توضیحی نشان می دهد که فرآیند هم از نظر زمان و هم از نظر فضای دو بعدی ناهمگن است، من همچنین شامل مختصات مکان در مؤلفه خطی: $E[s_i|\textbf{z}_i,x_i,y_i] = exp(\beta_0 + \beta_1 z_{i1} + ... + \beta_p z_{ip} + \gamma_1 x_{i} + \gamma_2 y_{i}) = \lambda(z_{i1},...,z_{ip},x_i,y_i)$ سوالات: 1. آیا این رویکرد معتبر است؟ 2. آیا می توانم زمان های اقامت را به صورت نمایی i.i.d فرض کنم؟ با توجه به اینکه فرآیند پواسون ناهمگن است؟ 3. آیا $E[s_i|\textbf{z}_i,x_i,y_i]$ واقعاً شدت فرآیند را مدل می‌کند؟ 4. آیا من یک فرآیند پواسون یک بعدی (زمان)، سه بعدی (زمان و مکان) یا $p+2$ را مدل می کنم؟
برآورد شدت فرآیند پواسون با استفاده از GLM
54648
من مقایسه اندازه گیری های مکرر را برای یک گروه با استفاده از آزمون فریدمن (آزمون K-related-samples) و تجزیه و تحلیل اضافی پس از پایان با آزمون رتبه علامت دار ویلکاکسون و تصحیح بونفرونی انجام داده ام. به من گفته شده است که این کار زمانی درست است که به دنبال تغییر بین اندازه‌گیری‌ها و اندازه‌گیری‌های شما به طور معمول توزیع نشده است. ** اکنون مطمئن نیستم که چگونه نتایج خود را به درستی گزارش کنم. آیا گزارش میانگین با انحراف معیار صحیح است یا میانه با صدک 25 تا 75؟** مثال با میانگین: مقایسه اندازه گیری های مکرر با استفاده از آزمون فریدمن انجام شد که نشان دهنده کاهش معنی دار آماری در غلظت بود، x2(3) = 24.877، p. < 0.001. تجزیه و تحلیل تعقیبی با آزمون رتبه‌بندی علامت‌دار Wilcoxon با اعمال تصحیح بونفرونی انجام شد که منجر به سطح معنی‌داری در p <0.0083 شد. میانگین غلظت (±SD) 0.045 (0.012) در ابتدا، 0.032 (0.012) در زمان 2، 0.027 (0.007) در زمان 3 و 0.024 (0.006) در زمان 4 بود. کاهش قابل توجهی بین زمان 2 و پایه (Z = 2.900، p = 0.004)، بین زمان 3 و پایه (Z = 3.180، 0.001 = p) و بین زمان 4 و پایه (Z = 3.180، p = 0.001) مشاهده شد. آیا این می تواند کار کند؟ با تشکر برای کمک! بهترین، ربکا.
نحوه گزارش نتایج آزمون فریدمن از جمله نتایج پس از آن
94622
من به چیزی نیاز دارم که توضیح داده شود و آن زمانی است که شما واریانس غیر ثابت دارید، تخمین ها مغرضانه نیستند، اما در مورد S.E مشکل ساز خواهند شد. فرمول ها و کارایی بنابراین تخمین‌های OLS ناکارآمد خواهند بود، زیرا به مقادیر پرت وزن برابر می‌دهند. برای من منطقی است که دادن وزن یکسان به این نقاط پرت مشکلاتی را ایجاد می کند، اما اگر این نقاط داده واقعی باشند و اطلاعاتی را ارائه دهند، چرا باعث ایجاد مشکل می شود؟
کارایی تخمین های بتا با ناهمسانی
91397
اجازه دهید $X = (X_1، ...، X_p)$ یک متغیر تصادفی با توزیع $N(\mu، \Sigma)$ باشد. $$ $$ $$ \Pr(X_1 > a_1، ...، X_p > a_p) \\\ =\int_{a_1}^\infty ... \int_{a_p}^\infty (2\pi)^ {-p/2} (\det(\Sigma))^{-1/2} \exp\left\\{-\frac{1}{2} (x-\mu)' \Sigma^{-1} (x-\mu)\right\\} dx_1 ... dx_p $$ $$ $$ آیا تقریبی (تحلیلی؟) از این انتگرال چند متغیره وجود دارد؟
تقریب Pr(X > a)، با X یک rv نرمال چند متغیره
113601
در اکتشاف/توسعه نفت و گاز، استفاده از امپدانس آکوستیک حاصل از بررسی های لرزه ای بازتابی برای پیش بینی تخلخل اندازه گیری شده در چاه های حفر شده در مخزن، رایج است. من اغلب از جداول زیر (از یک مقاله) برای آزمایش جعلی بودن همبستگی استفاده می کنم: 0.87 0.78 0.72 0.67 0.63 0.57 0.49 0.39 0.32 0.75 0.58 0.47 0.40 0.40 0.30 0.30. 0.05 0.62 0.40 0.28 0.20 0.15 0.08 0.03 0.00 0.00 0.50 0.25 0.14 0.08 0.05 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00 0.00 0.00 0.28 0.07 0.02 0.01 0.00 0.00 0.00 0.00 0.00 0.19 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.04 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.04 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 مقدار همبستگی مطلق را نشان می دهد. r، که بزرگتر از مقداری ثابت R است، با توجه به همبستگی واقعی (ρ) صفر است، به عبارت دیگر احتمال یک همبستگی کاذب. این مقادیر با عبارت (در هر دو مقاله) محاسبه می شود: p=Pr(|r|≥R)=|t|≥((R√(n-2))/√(1-R^2 )) که در آن n اندازه نمونه، یا تعداد مکان‌ها (چاه‌هایی) است که هم ویژگی مخزن (تخلخل) و هم ویژگی لرزه‌ای (امپدانس صوتی) در دسترس هستند و t به عنوان دانشجو توزیع می‌شود. t- مقدار بحرانی، با n-2 درجه آزادی. برای ستون‌های این جدول n به ترتیب: 5 10 15 20 25 35 50 75 100 برای ردیف‌ها، R (میزان همبستگی نمونه جعلی) به ترتیب: 0.1 0.2 0.3 0.4 0.5 0.6 این جدول است. برای ارزیابی این شانس استفاده می شود همبستگی نمونه، r، در واقع نادرست است یا با خاصیت مخزن پیش بینی شده همبستگی ندارد. نقل قول مجدد: به عنوان مثال، با توجه به 5 چاه، و r = 0.7، 19٪ احتمال وجود دارد که همبستگی نادرست است. من سال ها از این روش استفاده کردم و (فکر کردم) تئوری و کاربرد آن را به خوبی درک کرده ام. با این حال من اخیراً این بیانیه را بر روی مقاله ای خواندم که در مقاله اصلی که جدول منتشر شده بود، گسترش یافته است: > ... با این حال، جنبه دیگری از ضریب همبستگی وجود دارد که > باید در نظر گرفته شود - حدود اطمینان ضریب همبستگی واقعی. برای این مثال، حدود اطمینان 95% از حداقل > r 0.48- (P97.5) و حداکثر r از 0.98 (P2.5) است. از آنجایی که حداقل r > منفی است، نمی‌توانیم با اطمینان بگوییم که همبستگی وجود دارد و باید این ویژگی را به عنوان یک پیش‌بین رد کنیم. با در نظر گرفتن همان نمونه > همبستگی 0.7، قبل از مثبت شدن حداقل r به 9 نمونه نیاز داریم، اما > مقدار آن فقط 0.07 است، با احتمال 4٪ که همبستگی نادرست است. این سوال من است: این از کجا می آید. نه مقاله اصلی و نه مقاله اخیر داده ها را در هر چاه منتشر نکردند، فقط جداول را منتشر کردند، بنابراین نویسنده مقاله آخر چگونه می تواند حدود 95٪ اطمینان را تخمین بزند؟ تنها چیزی که می توانم به آن فکر کنم این است که فاصله اطمینان 95% را حول میانگین r ... راه اندازی کنم، با این تفاوت که حتی برای آن، حداقل به یک نمونه (7 چاه) برای بدست آوردن میانگین نیاز دارند. آیا راه دیگری برای رسیدن به آن فقط با استفاده از مقادیر موجود در جدول وجود دارد؟ توجه داشته باشید که من ابتدا سوال را در اینجا پست کردم: http://math.stackexchange.com/questions/912230/probability-of-observing-a- false-correlation-and- اعتماد-limits
احتمال مشاهده همبستگی کاذب و حدود اطمینان
90715
چگونه می توانم تفاوت بین r(X,Y) و r(X,Z) [آزمون ویلیامز؟] را در حین کنترل متغیرهای جمعیت شناختی که علاوه بر X و Y و Z [همبستگی جزئی] اندازه گیری شده اند، آزمایش کنم؟ با تشکر، Moimeme
چگونه تفاوت بین دو ضریب همبستگی وابسته را در حین کنترل سایر متغیرها آزمایش کنم؟
90711
من هشت متغیر مستقل و یک متغیر وابسته دارم. من یک ماتریس همبستگی اجرا کرده ام و 5 تای آنها همبستگی پایینی با DV دارند. سپس من یک رگرسیون چندگانه گام به گام اجرا کردم تا ببینم آیا هر یک از IV ها می توانند DV را پیش بینی کنند یا خیر. رگرسیون نشان داد که تنها دو IV می‌توانند DV را پیش‌بینی کنند (هر چند فقط می‌تواند حدود 20 درصد از واریانس را تشکیل دهد)، و SPSS بقیه را از مدل حذف کرد. سرپرست من فکر می کند که من رگرسیون را به درستی اجرا نکرده ام، زیرا به دلیل قوی بودن همبستگی ها، باید پیش بینی های بیشتری در مدل رگرسیون پیدا می کردم. اما همبستگی ها بسیار اندک بود، بنابراین سوال من این است: اگر IV ها و DV به سختی همبستگی دارند، آیا هنوز هم IV ها می توانند پیش بینی کننده های خوبی برای DV باشند؟
آیا متغیرهای مستقل با همبستگی کم با متغیر وابسته می توانند پیش بینی کننده معناداری باشند؟
48700
من سعی می کنم یک مدل مخلوط رشد را با مجموعه ای از داده های مسیر مطابقت دهم. من از مدلی استفاده می کنم که در سطح عمومی مشابه این مدل است. من درک می کنم که چگونه متغیرهای رهگیری پنهان، خطی و درجه دوم تعیین می شوند. با این حال، من نمی دانم که چگونه متغیر کلاس پنهان تعیین می شود. آیا باید موارد را به صورت دستی به کلاس‌های مختلف اختصاص دهم (مثلاً هنگام انجام مدل‌سازی معادلات ساختاری، تجزیه و تحلیل چند گروهی انجام می‌دهم) یا آیا روشی برای اختصاص موارد خودکار به کلاس‌ها وجود دارد؟ اگر چنین است، این چگونه کار می کند؟
طبقات در مدل مخلوط رشد چگونه تعیین می شوند؟
52148
بگویید اگر من دو متغیر تصادفی X و Y داشته باشم و آنها توزیع یکسانی داشته باشند، فرضاً به چه معناست؟ آیا این بدان معناست که آنها میانگین و واریانس یکسانی دارند؟
«توزیع یکسان» به چه معناست؟
91395
من روی داده‌های نظرسنجی پانل کار می‌کنم که در آن درآمد هر فرد در یک عدد تصادفی خاص ضرب می‌شود (هر عدد تصادفی به طور مساوی از 0.5 تا 1.5 توزیع می‌شود) تا از شناسایی هر شرکت‌کننده از داده‌ها جلوگیری شود. اساساً من نمی توانم مستقیماً درآمد دو فرد را با استفاده از داده ها مقایسه کنم. برای این نوع خطای ضربی، می خواستم بدانم آیا باید از روش خاصی برای اصلاح آن استفاده کنم؟ هر توصیه ای قدردانی خواهد شد! مشکل حل شد. لطفا پاسخ نستور را ببینید.
خطای ضربی در داده های نظرسنجی
62771
مشابه این سوال، اما با بیش از یک قالب مختلف. آیا راهی برای محاسبه توزیع احتمالات مرتبط با تاس وجود دارد که در آن توزیع احتمالات برای هر قالب همه یکسان نیست؟ **مثال:** با استفاده از تاس، احتمال پرتاب 1 یک بار در یک مجموعه را هنگام ریختن 2d4 و 1d6 پیدا کنید. همانطور که متوجه شدم، راه طولانی این است که هر رویداد را به طور جداگانه محاسبه کنیم و سپس رویدادهایی را جمع کنیم که در آن یک 1 یک بار قرار داده شده است: ` # `` نتیجه ``#از 1s` `1: ``|{1,1,1 }`` 3 ` `2: ``|{1,1,2}`` 2 ` `3: ``|{1,1,3}`` 2 ` `4: ``|{1,1, 4}`` 2` `5: ``|{1,1,5}`` 2 ` `6: ``|{1,1,6}`` 2 ` `7: ``|{1,2,1}`` 2 ` `8: ``|{1,2,2}`` 1 ``9: ``|{1,2,3}`` 1 ``10:``|{1,2,4}`` 1` `11:``|{1,2,5}`` 1 ``12:``|{1,2,6}`` 1 ``13:``|{1,3,1}`` 2 ``14:``|{1,3,2}`` 1` ``15:``|{1,3,3}`` 1 ``16:``|{1,3,4}`` 1` `17:``|{1,3,5}`` 1 ` ``18:``|{1,3,6}`` 1 ``19:``|{1,4,1}`` 2 ``20:``|{1,4,2}`` 1` ``21:``|{1,4,3}`` 1 ``22:``|{1,4,4}`` 1` `23:``|{1,4,5}`` 1 ``24:``|{1,4,6}`` 1 ``25:``|{2,1,1}`` 2 ``26:``|{2,1,2}`` 1` ``27:``|{2,1,3}`` 1 ``28:``|{2,1,4}`` 1` `29:``|{2,1,5}`` 1 ``30:``|{2,1,6}`` 1 ``31:``|{2,2,1}`` 1 ``32:``|{2,2,2}`` 0 ``33:``|{2,2,3}`` 0 ``34:``|{2,2,4}`` 0` `35:``|{2,2,5}`` 0 ``36:``|{2,2,6}`` 0 ``37:``|{2,3,1}`` 1 ``38:``|{2,3,2}`` 0 ``39:``|{2,3,3}`` 0 ``40:``|{2,3,4}`` 0` `41:``|{2,3,5}`` 0 ` ``42:``|{2,3,6}`` 0 ` `43:``|{2,4,1}`` 1 ``44:``|{2,4,2}`` 0` ``45:``|{2,4,3}`` 0 ``46:``|{2,4,4}`` 0` `47:``|{2,4,5}`` 0 ``48:``|{2,4,6}`` 0 ``49:``|{3,1,1}`` 2 ``50:``|{3,1,2}`` 1` ``51:``|{3,1,3}`` 1 ``52:``|{3,1,4}`` 1` `53:``|{3,1,5}`` 1 ``54:``|{3,1,6}`` 1 ``55:``|{3,2,1}`` 1 ``56:``|{3,2,2}`` 0 ``57:``|{3,2,3}`` 0 ``58:``|{3,2,4}`` 0` `59:``|{3,2,5}`` 0 ``60:``|{3,2,6}`` 0 ``61:``|{3,3,1}`` 1 ``62:``|{3,3,2}`` 0 ``63:``|{3,3,3}`` 0 ``64:``|{3,3,4}`` 0` `65:``|{3,3,5}`` 0 ``66:``|{3,3,6}`` 0 ``67:``|{3,4,1}`` 1 ``68:``|{3,4,2}`` 0 ``69:``|{3,4,3}`` 0 ``70:``|{3,4,4}`` 0` `71:``|{3,4,5}`` 0 ``72:``|{3,4,6}`` 0 ``73:``|{4,1,1}`` 2 ``74:``|{4,1,2}`` 1 ``75:``|{4,1,3}`` 1 ``76:``|{4,1,4}`` 1` `77:``|{4,1,5}`` 1 ``78:``|{4,1,6}`` 1 ``79:``|{4,2,1}`` 1 ``80:``|{4,2,2}`` 0 ``81:``|{4,2,3}`` 0 ``82:``|{4,2,4}`` 0` `83:``|{4,2,5}`` 0 ``84:``|{4,2,6}`` 0 ``85:``|{4,3,1}`` 1 ``86:``|{4,3,2}`` 0 ``87:``|{4,3,3}`` 0 ``88:``|{4,3,4}`` 0` `89:``|{4,3,5}`` 0 ``90:``|{4,3,6}`` 0 ``91:``|{4,4,1}`` 1 ``92:``|{4,4,2}`` 0 ``93:``|{4,4,3}`` 0 ``94:``|{4,4,4}`` 0` `95:``|{4,4,5}`` 0 ``96:``|{4,4,6}`` 0 ` که در مجموع 39 مورد از 96 احتمال را تشکیل می دهد که یک عدد فقط یک بار رول می شود، یا 40.625% اما می دانم که باید فرمولی وجود داشته باشد که این کار را انجام دهد، زیرا اگر بتوانم آن را به صورت دستی بشمارم (مانند بالا)، پس باید یک تابع ریاضی ثابت پشت آن باشد. در طی چند روز اخیر تحقیق، متوجه شدم که این کار را می توان با استفاده از تابع توزیع تجمعی نیز انجام داد. با این حال، تا آنجا که من متوجه شدم، سی دی اف از شما می خواهد که احتمال یکسانی برای هر سه رول داشته باشید - بنابراین اگر یک فرمول را برای 2d4 و سپس یکی را برای 1d6 انجام دهم، اما نه به طور تجمعی، کار می کند. با کاوش عمیق تر، به نظر می رسد که توزیع پواسون ممکن است توزیع های احتمالی را که من می خواهم ارائه دهد، اما صادقانه بگویم، ظرفیت من برای یادگیری این موضوع از فرمولی در ویکی پدیا به سرعت به صفر نزدیک می شود. اگر این فرمول صحیح است (یا اگر پاسخ با فرمول دیگری است)، آیا می توانید با استفاده از مثال من از بالا، دلیلی ارائه دهید؟ به طور مشابه، آیا می توانید مثالی ارائه دهید که در آن چندین احتمال مختلف وجود دارد (مثلاً: 1d2، 2d4، 1d6، 3d10)؟
آیا فرمولی برای تعیین توزیع تجمعی مرتبط با انواع مختلف رویدادها وجود دارد؟
53336
من تحقیقاتی انجام داده ام و به نظر نمی رسد این سوال مستقیماً پاسخ داده شده باشد. من وضعیتی دارم که در آن متغیر نتیجه ماهانه از سال 1975 تا کنون اندازه گیری می شود و سپس چندین پیش بینی با تاریخ شروع و پایان متفاوت است. سوال من این است که بهترین رویکرد با این داده ها چیست؟ من با آمارگیر دیگری کار می کنم که تجربه بیشتری با داده های سری زمانی در این مواقع دارد و او به من می گوید که روش معمول حذف داده ها تا کوتاه ترین پیش بینی کننده است. برای مثال، اگر پیش‌بینی‌کننده 1 از 1975-جریان و پیش‌بینی‌کننده 2 از 2001-جریان اندازه‌گیری شود، او به من می‌گوید بهترین رویکرد و تنها گزینه استفاده از داده‌ها برای هر دو پیش‌بینی‌کننده از سال 2001- کنونی است. بنابراین، اساساً تمام داده های پیش بینی کننده 1 از سال 1975-2000 حذف می شود. او همچنین گفت که این اغلب منجر به پیش‌بینی بهتر می‌شود. من کمی نسبت به همه اینها شک دارم و نمی‌دانستم که آیا یک رویکرد ML یا Bayesian در R یا سایر روش‌های رایج در R که ممکن است بتواند این وضعیت را مدیریت کند و از همه داده‌های موجود استفاده کند. یک فکر این است که این مورد را به عنوان یک طراحی مناسبت متغیر در نظر بگیریم (به فصل مربوط به داده های طولی در Snijders & Bosker، تحلیل چند سطحی مراجعه کنید).
داده‌های سری زمانی با تاریخ‌های شروع و پایان متفاوت
90717
با نگاه کردن به نمودار تاخیر، به نظر می رسد که مجموعه داده من تصادفی است (بدون هیچ گونه همبستگی خودکار). آیا این باید برای استنباط استقلال مشاهدات کافی باشد؟ در واقع، من _می دانم_ که مشاهدات وابسته هستند و از این رو تصادفی بودن نباید تضمین کننده آن باشد. اما به طور شهودی احساس دیگری دارد. با توجه به اینکه تصادفی بودن استقلال را تعیین نمی کند. آیا معیاری برای آزمون استقلال مشاهدات وجود دارد؟ ویرایش: لطفاً توجه داشته باشید که داده‌ها **** ماهیت سری زمانی نیستند، این داده ها _متوسط_ پهنای باند مصرفی مشتری در طول ماه است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fuWId.png)
آیا تصادفی بودن به معنای استقلال است؟
99599
![فاصله زمانی به عنوان متغیر مستقل برای رگرسیون خطی](http://i.stack.imgur.com/8jFuh.png) چگونه $a$ و $b$ را در $Y=a+bX$ پیدا کنم؟ روشی که من تا کنون این کار را انجام داده ام با فرمول های با تن $\Sigma(X)$ و $\Sigma(Y)$ است.
فاصله زمانی به عنوان متغیر مستقل
113609
من داده های شمارش را بر اساس سایت برای 15 گونه دارم، با این حال اندازه متوسط ​​بر اساس گونه بر سایت نیز دارم. من به دنبال استفاده از تکنیک های ترتیب بندی (مقیاس بندی چند بعدی غیر متریک) برای کاهش ابعاد و تجسم تفاوت ها در ترکیب جامعه هستم. چگونه می توانم اندازه متوسط ​​را بر اساس گونه بر اساس سایت در NMDS بگنجانم؟ من از تابع metaMDS در {vegan} با R استفاده می کنم. در اینجا یک نمایش ساده از نوع مشابهی از داده ها وجود دارد که اندازه های داده (dune) <- matrix(runif(20*30), dim( dune)[1], dim(dune)[2]) #sizes مربوط به هر گونه در هر سایت. که مهم است) به یک تکنیک انتصاب مانند NMDS؟
هنگام استفاده از ترتیب‌بندی، ویژگی‌های گونه‌ها را به همراه داده‌های شمارش اضافه کنید
99591
من با مجموعه داده نمونه زیر کار می کنم: t1 t2 ntrial nsuccess 1 4 1000 4 1 8 1000 8 2 4 1000 4 2 8 1000 8 پیش بینی کننده ها (ویژگی ها) t1 و t2 دسته بندی هستند: t1 دارای دسته های 1 و 2 است و t2 4 و 8. هیچ ترتیبی برای این دسته ها وجود ندارد. در واقع، برای هر ترکیب t1 و t2، من یک موفقیت یا یک شکست را مشاهده می کنم. به عنوان مثال، در ردیف اول (t1، t2) = (1، 4) و من 4 موفقیت از 1000 مشاهده ثبت کردم. بنابراین واقعاً مجموعه داده دارای 4000 ردیف است (به این داده‌های باینری unrolled گفته می‌شود) که می‌توانند برای اهداف مثلاً رگرسیون لجستیک فشرده شوند. بدیهی است که باز کردن این داده ها از نظر حافظه ناکارآمد است، زیرا داده های بازگردانده شده چیزی شبیه به این خواهند بود: t1 t2 موفقیت 1 4 1 1 4 1 1 4 1 1 4 1 1 4 0 ... 996 صفر 1 4 0 1 8 1 1 8 1 ... و غیره در این مثال اسباب بازی، من فقط 1000 مشاهده در هر ردیف دارم، بنابراین داده ها می توانند unrolled، اما در واقع مجموعه داده من دارای 10^9 مشاهدات، و بسیاری از ویژگی‌ها/پیش‌بینی‌کننده‌ها است، بنابراین باز کردن آن واقعاً امکان‌پذیر نیست. می‌خواهم بدانم: 1. آیا الگوریتمی (مثلاً R یا جاوا و غیره) وجود دارد که بتواند مستقیماً روی این مجموعه داده عمل کند، بدون اینکه مجبور باشم ردیف‌ها را باز کنم؟ الگوریتم باید نسبتا سریع و ساده برای آموزش و پیش بینی باشد. 2. آیا روال اعتبارسنجی متقابلی وجود دارد که بتواند روی این مجموعه داده بدون باز کردن ردیف ها کار کند؟ در اینجا برخی از کدهای شروع کننده R است که من تا کنون امتحان کرده ام. من رگرسیون لجستیک وزنی (هرچه مشاهدات بیشتری داشته باشیم، واریانس کمیت پیش‌بینی‌شده کمتر است، بنابراین رگرسیون وزنی روی دستانمان داریم) و درخت رگرسیون را برازش کردم. library(boot) set.seed(1) input_file = 'data\\test\\test.txt' # تعداد فولدهای اعتبارسنجی متقابل K = 10 ورودی <- read.csv(input_file, header=TRUE, sep='\ t', quote=, colClasses=c(rep('factor', 2), 'numeric', 'numeric')) # تغییر محتویات قاب input$nfail = pmax(0, input$ntrial - input$nsuccess) # محاسبه احتمال موفقیت ورودی$prob = input$nsuccess/input$ntrial # متناسب با مدل اصلی glm.model = glm(cbind( input$nsuccess، input$nfail) ~ input$t1 + input$t2، خانواده = دو جمله ای، وزن ها = input$ntrial) هزینه <- function(y,yhat) sum(input$ntrial*((y-yhat)^2))/sum(input$ntrial) # این یک خطا ایجاد می‌کند، cv.glm ردیف‌ها را متوجه نمی‌شود باید باز شود cv.glm(ورودی، glm.model، هزینه = هزینه، K=K)$delta[1] کتابخانه(درخت) کنترل = tree.control(sum(input$ntrial)) tree.model <- tree(input$prob ~ input$t1 + input$t2, weights = input$ntrial, control = control) plot(tree.model) text(tree. مدل، زیبا=0) # این خیلی بزرگ است که در حافظه جا شود، R با شکست مواجه می شود. اعتبارسنجی متقاطع 10 برابری، من باید از هر یک از 4000 ردیف به طور تصادفی نمونه برداری کنم، یا از 1 یا 0 (موفقیت یا شکست) نمونه برداری کنم، و سپس برای هر بار، تعداد موفقیت ها و شکست ها را برای هر یک خاص جمع کنم. ترکیبی از t1 و t2.
برازش و اعتبار متقابل داده های نمونه طبقه بندی شده از مشاهدات تشکیل شده است
68680
من اخیراً چند نمودار طرح ریزی تحلیل مختصات اصلی (PCoA) را دیده ام که درصد تغییرات توضیح داده شده را با مختصات اصلی مربوطه نشان می دهد. با توجه به اینکه تجزیه و تحلیل بر روی یک ماتریس کوواریانس انجام نمی شود (معمولاً بر روی برخی از معیارهای اکولوژیکی انجام می شود) به نظر می رسد اشتباه است که بگوییم که بزرگی مقادیر ویژه به هر طریقی با واریانس توضیح داده شده مرتبط است. سوال من این است که بهترین تفسیر از مقادیر ویژه چیست؟
چگونه تغییرات توضیح داده شده توسط مختصات اصلی را تفسیر کنیم؟
94621
کدام مدل ARIMA برای داده های ارائه شده مناسب تر است؟: Log Data 4.80925 4.79486 5.10405 4.99157 5.14573 5.43213 4.82344 5.04939 5.38104 5.10405 5.10405 5.43213 5.45860 5.76751 5.48801 5.02090 5.86406 5.47708 5.45486 6.15547 5.67275 5.65144 5.65144 5.675765.67575 6.03513 5.66367 5.41669 6.06609 5.43596 5.69361 5.87396 5.90787 5.75926 5.88377 5.52010 6.12485 6.12144 6.20267 6.18658 6.20267 6.12910 6.29733 6.34150 6.41869 6.67444 5.72268 6.56957 7.05300 6.720916.72091 6.72091 6.87882 6.70602 6.98400 6.92120 6.89404 7.14209 6.90552 7.25532 7.44422 7.27493 7.39001 7.682756 7.68275 7.40237 7.00886 7.05753 6.94173 6.86795 7.10179 7.30834 6.89935 6.93322 7.24412 6.70709 6.763495 6.763495 6.86795 7.35758 6.97093 7.00965 7.78806 7.32001 7.53711 7.49125 7.17615 7.44166 7.57332 7.708374 7.7083517 7.34352 7.71693 7.98283 7.80891 7.84455 8.05212 7.79854 7.65416 8.25674 7.95186 8.05963 8.28024 8.28025 8.42345 8.20280 8.25879 8.52682 8.00325 7.89247 8.62445 8.20568 7.79782 8.17482 7.70319 8.1036568.10539 8.06872 8.17260 7.68241 7.33726 8.14756 7.76267
بهترین مدل ARIMA
99620
من درک محدودی از احتمال، پی دی اف و غیره دارم. وقتی فرودگرهای وایکینگ به مریخ رفتند، صحبت از احتمال وجود حیات در مریخ شد. اکنون در مورد احتمال وجود حیات فراتر از منظومه شمسی می خوانیم. با این حال، به نظر من، یا زندگی فراتر از منظومه شمسی وجود دارد یا وجود ندارد. مثل این نیست که دست خود را در کوزه ای پر از تیله های سیاه و سفید به نسبتی بگذاریم و یکی را بیرون بیاوریم. ممکن است یکی آن آزمایش را بارها تکرار کند و سعی کند نسبت واقعی سیاه و سفید را تخمین بزند، یا ممکن است از قبل نسبت را بداند و احتمال بیرون کشیدن 10 سیاه و 5 سفید یا 15 تمام سفید و غیره را محاسبه کند. درک معنای واقعی احتمال زندگی در جای دیگری در جهان دشوار است.
آیا صحبت در مورد احتمال وقوع رویدادی که قبلاً رخ داده و قابل تکرار نیست صحیح است؟
79795
من نمی دانم که آیا راه بهتری برای فرمول بندی این موضوع وجود دارد و همچنین آیا این روش صحیحی برای فرمول بندی آن است. آنچه من سعی می کنم در توزیع فرکانس نشان دهم، تعداد اسنادی است که شامل تعداد معینی از عبارت مورد علاقه من است. به عنوان مثال، نمونه سند شامل 50 سند با 1 وقوع اصطلاح، 30 سند با 2 مورد است. وقوع، 10 با 3، و غیره. من به دنبال پاسخ دادن به سه سوال هستم: 1. آیا _توزیع فراوانی فرکانس عبارت_ روشی صحیح برای فرمول بندی آنچه توضیح دادم است، 2. اگر بله، منظورم واضح است و 3. آیا راه بهتری برای فرمول بندی آن وجود دارد. ?
آیا اصطلاح بهتری برای توزیع فرکانس فرکانس اصطلاحی وجود دارد؟
48706
من در حال اجرای یک رویکرد راهزن مانند چند مسلح برای تعیین بهترین قیمت برای یک محصول هستم. هدف ما بهینه‌سازی سود است، به این معنی که می‌خواهیم قیمتی را پیدا کنیم که (قیمت-هزینه) x تعداد خرید بیشترین مقدار را دارد. مشکل این است که یک الگوی شناخته شده فصلی در هفته وجود دارد. بنابراین، اگر من قیمت را در روز دوشنبه در مقابل چهارشنبه روی یک چیز تنظیم کنم، ممکن است حجم آنها به طور چشمگیری متفاوت باشد. این وضعیت خاص من است، اما وقتی عوامل خارجی وجود دارد (به غیر از اینکه کدام بازوی راهزن را می کشید) وجود دارد که بر نتایجی که به دست می آورید تأثیر می گذارد، به طور گسترده تر در مورد استفاده از راهزن چند دستی تعجب کردم. آیا راهی برای در نظر گرفتن این عوامل وجود دارد؟ یا - شاید نتایجی وجود دارد که نشان می دهد اگر الگوریتم را به اندازه کافی طولانی اجرا کنید، با وجود عوامل دیگر همگرا می شود؟
راهزن چند مسلح با فصلی
81261
## بررسی اجمالی من می‌خواهم پیش‌بینی بقا را با استفاده از شبکه‌های عصبی که در این مقاله با عنوان _کاربرد تحلیل بقای مبتنی بر شبکه عصبی مصنوعی بر روی دو مجموعه داده سرطان پستان_ توسط Chi، Street و Wolberg شرح داده شده است، شبیه‌سازی کنم که در آن بردار هدف 1 نشان دهنده نقاط زمانی است. ارزیابی شده و بردار احتمالات را برمی گرداند. متأسفانه آنها نرم افزار مورد استفاده برای ایجاد روش را ارائه نکردند. به عنوان مثال، یک مجموعه داده با زمان، وضعیت (که نشان دهنده زنده یا مرده است) و سایر متغیرهای پیش بینی کننده برای آموزش در یک شبکه عصبی مورد نیاز است. ساختار داده ای برای نگهداری نقاط زمانی مورد نیاز تحقیق وجود خواهد داشت (مثلاً «{1،1،1،1،1،1}»، فواصل شش ماهه در سه سال). خروجی این مدل پس از در نظر گرفتن متغیرهای پیش‌بینی‌کننده فوق‌الذکر به این صورت خواهد بود: «{0.98761,0.91111,0.82710,0.70003,0.64253,0.47181}» که مطابق با: 6 12 18 3673618 0.91111 0.82710 0.70003 0.64253 0.47181 2 ... از این داده ها می توان برای رکوردهای آتی که به شبکه تغذیه می شود استفاده کرد. * * * ## بسته‌های شبکه عصبی R من به دنبال راه‌هایی برای پیاده‌سازی این کار در بسته‌های «nnet»، «neuralnet» و «rminer» بوده‌ام و متأسفانه دانش محدود من نمی‌تواند آنها را مطابق با نیازهایم تغییر دهد. من فقط می دانم که اینها مقادیر اسمی و عددی را پیش بینی می کنند اما اکنون چگونه بردارها را انجام دهیم. تا کنون توابع مربوط به پیش‌بینی در آن بسته‌ها اشاره‌ای به استفاده از یک بردار به عنوان خروجی نمی‌دهند. 1. توضیحات `nnet`'s `predict()` به وضوح در زیر آمده است. > _مثال های جدید را توسط یک شبکه عصبی آموزش دیده پیش بینی کنید._ # X1، X2، و بقیه متغیرهای پیش بینی مدل.nnet <- nnet(Surv(زمان، وضعیت)~X1+X2، data=data.train، size=1، maxit=500) 2. «compute()» «neuralnet» از بردار هدف مشابهی برای پشتیبانی پشتیبانی نمی‌کند. > _محاسبه یک شبکه عصبی معین برای بردارهای متغیر کمکی داده شده. _ 3. «پیش بینی()» و «لسپت()» «rminer» پتانسیل نشان داد (بر اساس مثال ها) اما من نمی دانم چگونه آنها را تبدیل کنم. به کاری که می خواهم انجام دهم 4. گفته می‌شود بسته «survnnet» از عملکرد رایج «predictSurvProb» بسته «pec» پشتیبانی می‌کند، اما من به دلیل مستندات و پشتیبانی ضعیف در اینترنت از آن دوری کردم. > _پیش بینی نمونه های جدید توسط یک شبکه عصبی بقا آموزش دیده._ model.survnet <- survnnet(Surv(زمان، وضعیت)~X1+X2، data=dat، model='llog'، decay=0.1، bias.decay=25، اندازه=1، skip=T، آلفا=0.1) پیش‌بینی‌ها <- پیش‌بینی (model.survnet، data.train، type=raw) * * * ## Cox PH (روش شناخته شده کنونی) نزدیکترین روشی که تا به حال بدست آورده ام coxph و cph با تابع predictSurvProb بوده که در آن متغیر times اعلام شده است. با نقاط عددی مورد علاقه معمولاً من این کار را انجام می دهم: data.train <- SimSurv(300) model.coxph <- cph(Surv(time, status)~X2,data=dat,surv=TRUE,x=TRUE,y=TRUE) # زمان های هدف را اعلام کنید به عنوان 25,50,75,100,150 برای پیش بینی احتمالات <- predictSurvProb(coxph12, newdata=data.train، times=c(25,50,75,100,150)) دور (پیش‌بینی‌ها، ارقام=6) و من خروجی احتمالات را در هر دوره زمانی که مشخص کردم دریافت می‌کنم: 25 50 75 100 150 1 0.648268 0.648268 0.50635319 . 0.648268 0.509353 0.460196 0.425917 0.324364 5 0.648268 0.509353 0.460196 0.425917 0.324364 این مجموعه ها اکنون به عنوان مجموعه داده های قابل تغییر در دیگر اهداف ادغام می شوند. * * * من اکنون می خواهم این را در یک شبکه عصبی با بردار هدف یا پیاده سازی مشابه با فرآیند Cox PH مانند مثال بالا پیاده سازی کنم. متأسفانه من نمی توانم بسته یا آموزش ساده ای را به صورت آنلاین پیدا کنم که بیان کند آیا امکان انجام این کار وجود دارد، همانطور که قبلاً گفتم. من اجرای «MultilayerPerceptron» نرم افزار داده کاوی WEKA را بررسی کردم، اما لازم است که متغیر نتیجه (یا در مورد من بردار احتمالات) ابتدا وجود داشته باشد، که من را به اینجا برمی گرداند. **آیا این روش در این موارد امکان پذیر است بسته های R یا تنها راه این است که بسته های خود را ایجاد کنم؟ از همه کمک ها و پیشنهادات بسیار استقبال می شود.**
مدل شبکه عصبی R با بردار هدف به عنوان خروجی حاوی پیش بینی بقا
108063
من سعی می کنم یک شبکه (به طور دقیق تر یک گراف غیر چرخه ای جهت دار) با طول لبه های خاص طراحی کنم. داده ها در قالب یک لیست لبه هستند و برای هر یال یک طول مرتبط وجود دارد. ممکن است به شکل یک ماتریس edgelist و یک برداری حاوی طول یال باشد، مانند: > edgelist = matrix(c(A, B, B, A, A, B, C، D، F، G)، ncol = 2 ) > length = c(1، 8، 7، 6، 5) > edgelist [,1] [,2] [1،] الف B [2،] B C [3،] B D [4،] A F [5،] A G > طول [1] 1 8 7 6 5 می توانم شبکه را با استفاده از > network = as.network(edgelist, matrix.type = edgelist, directed = TRUE) > plot(network) رسم کنم. (اگر جهت را نادیده بگیریم، می تواند نوعی چرخه ساده داشته باشد - آنها در عمل بسیار نادر خواهند بود)، و از نظر هندسی نباید مقیاس طول لبه به مقدار ستون سوم غیرممکن باشد. به صورت دو بعدی لازم به ذکر است که بسیاری از گره ها دارای درجه > 3 خواهند بود. سوال من این است: آیا الگوریتمی وجود دارد که در R پیاده‌سازی شده باشد (در حال حاضر از بسته شبکه استفاده می‌کنم، اما محدود به آن نیستم و در صورت لزوم می‌توانم برای مثال از «igrap» استفاده کنم) که به من اجازه دهد چنین چیزی را ترسیم کنم. یک نمودار؟ من به توابع مختلف (از شبکه و بسته های دیگر) نگاه کردم، اما هیچ کدام را پیدا نکردم. PS: این یک سوال تجزیه و تحلیل شبکه تا حدی R-coding است، امیدوارم در سایت درستی در اینجا (به جای Stackoverflow) باشد.
نمودار غیر چرخه ای جهت دار را با طول لبه مقیاس شده ترسیم کنید
59437
داده های مورد تجزیه و تحلیل در اینجا نمونه ای از افراد است که به صورت ماهانه جمع آوری شده اند. بهترین راه برای محاسبه فاصله های پیش بینی برای میانگین نمونه ماهانه، به منظور نشان دادن تغییرپذیری طبیعی که می توان از این مقدار ماه به ماه انتظار داشت، چیست؟ در اینجا یک مثال آورده شده است: * همه افراد با جایگزینی از همان جمعیتی که میانگین آنها در تمام ماه ها یکسان باشد، نمونه برداری می شوند. * $y_i$ برای فردی $i$ متغیر مورد علاقه است، با $ y_i \sim N(y,\sigma)$، هر دو $y$ و $\sigma$ ناشناخته هستند. * $N_m$ اندازه نمونه برای ماه $m$ است. * $\bar y_m$ میانگین نمونه برای ماه $m$ است. **بهترین راه برای محاسبه بازه پیش‌بینی 95% برای $\bar y_m$ چیست؟** فکر کردم موارد زیر را انجام دهم: * $\bar y $ میانگین نمونه در کل نمونه است. * $\bar \sigma $ انحراف استاندارد در کل نمونه است. * برای هر ماه $j$، بازه را به صورت $[ \bar y - 1.96 \frac{\bar \sigma}{ \sqrt{N_m}} محاسبه می‌کنم. \bar y + 1.96 \frac{\bar \sigma}{ \sqrt{N_m}} ]$. می ترسم این از نظر آماری درست نباشد. شبیه‌سازی‌هایی که من انجام داده‌ام نشان می‌دهد که این بازه حاوی مقدار ماهانه بیش از 95 بار از 100 است. من فرض می‌کنم این به دلیل این واقعیت است که من عدم قطعیت در تخمین $\bar y$ را در نظر نمی‌گیرم. **راه صحیح ادامه دادن چیست؟** با تشکر.
چگونه فواصل پیش بینی را برای توصیف تنوع در نمونه های ماهانه داده ها اضافه کنیم؟
54649
پرتاب یک سکه منصفانه و نوشتن نتایج در یک دنباله از نمادها را در نظر بگیرید. H مخفف سر و T برای دم است. بگذارید A، B و C به ترتیب کلمات HTHH، HHTH و THHH باشند. احتمال مواجهه با هر یک از A، B و C به عنوان یک زیرکلمه در توالی نتایج خود قبل از هر دو کلمه دیگر چقدر است؟ **ویرایش:** سوال من مربوط به این سوال است. در حالی که پاسخ های آن به طور شهودی توضیح می دهد که چرا برخی از الگوها زودتر از سایرین برخورد می کنند، هیچ یک از آنها روشی برای محاسبه آن احتمالات را شامل نمی شود. چیزی که من می پرسم **ویرایش 2:** قبلاً پاسخی دریافت کرده ام. با خواندن مقاله‌های ویکی‌پدیا، این سوال هنوز من را به خود مشغول کرده است. من یک جایزه برای آن شروع می کنم.
احتمال بدست آوردن یک تغییر از نتایج متوالی در آزمایشات برنولی قبل از دیگری
99594
من در حال انجام تجزیه و تحلیل پیکره ای در مورد رابطه بین جهت نشانه ها و رتبه بندی ظرفیت آنها (از پیکره دیگری) هستم. من هر علامت را به صورت رو به بالا، پایین یا غیرعمودی کدگذاری کردم و دارای یک رتبه ظرفیت است. من یک ANOVA یک طرفه را انجام دادم تا تعیین کنم آیا جهت رتبه‌بندی‌های ظرفیت را پیش‌بینی می‌کند یا خیر. 1. آیا باید نگران باشم که اندازه نمونه نابرابر وجود دارد (مثلاً 4 برابر نشانه های رو به پایین نسبت به بالا)؟ به من گفته شد که اندازه‌های نمونه نابرابر مشکلی نیست زیرا رتبه‌بندی‌های ظرفیت را در هر جهت جمع نمی‌کنم (مثلاً مقایسه نکردن میانگین‌های نمونه). آیا این درست است و چرا؟ متشکرم.
آیا حجم نمونه نابرابر برای پاسخ تک اهمیت دارد؟
48702
من یک مجموعه داده دارم که در آن ماهی‌ها را برای آزمایش‌های رفتاری از مناطق مختلف جمع‌آوری کرده‌ایم و در هر منطقه، یک سایت آب شفاف و یک سایت اوتروفی را انتخاب کرده‌ایم. سپس ماهی را به آزمایشگاه آوردیم - همه ماهی ها فقط یک بار استفاده شدند، آنها یک لانه ساختند و تمام. آنچه می خواستیم بدانیم این بود که آیا نوع زیستگاه (روشن یا اوتروفی) بر ساختمان لانه تأثیر می گذارد یا خیر. این مدل اصلی است (به عنوان مثال برای وزن لانه، وزن نر به عنوان متغیر کمکی): m1 <- lme(NestW ~ Habitat + MaleW، تصادفی = (~1|منطقه/سایت)) مشکل dfs است \- آنها بسیار زیاد هستند و منعکس کننده مقدار ماهی استفاده شده هستند، نه مناطقی که ما می خواهیم در اینجا واحد تکثیر باشد. بنابراین، چگونه این را برطرف کنیم؟ (افزودن Habitat به اثر تصادفی کمکی نمی کند)
مدل مخلوط تو در تو
59436
من مشکلی در پایان نامه خود دارم که رگرسیون OLS ناچیز است. من 3 بخش دارم و هر بخش 130 مشاهده دارد. آیا این حجم نمونه کافی است یا خیر؟ آیا کسی می تواند دلیلی برای بی اهمیت بودن نتایج من ارائه دهد؟
روش حداقل مربعات معمولی: چرا نتایج رگرسیون من ناچیز است؟
79799
بیش از 60 سال پیش، دوربین و واتسون یک روش آزمایشی را برای ارزیابی همبستگی خود در روابط رگرسیون پیشنهاد کردند. این آزمون در حضور متغیرهای وابسته تاخیری کار نمی کند، در این مورد آزمون بروش-گادفری از اواخر دهه 1970 اعمال می شود. آیا شرایط شناخته شده دیگری وجود دارد که در آن آزمون دوربین واتسون نباید استفاده شود؟
چه زمانی باید از استفاده از آزمون دوربین واتسون برای همبستگی خودداری کرد؟
48703
**فرمول دقیق مورد استفاده در Rlm() برای R-squared Adjusted چیست؟ چگونه می توانم آن را تفسیر کنم؟** ### فرمول های r-squared تنظیم شده به نظر می رسد چندین فرمول برای محاسبه R-squared تنظیم شده وجود دارد. * فرمول Wherry '[1-(1-R2)·(n-1)/(n-v)]` * فرمول McNemar '[1-(1-R2)·(n-1)/(n-v-1)]` * فرمول لرد '[1-(1-R2)(n+v-1)/(n-v-1)]` * Stein `[1-(n-1/n-k-1)(n-2)/n-k-2) (n+1/n)](1-R-squared)` ### توضیحات کتاب درسی * طبق فیلد کتاب درسی ، کشف آمار با استفاده از R (2012، ص 273) R از معادله Wherry استفاده می کند که _ به ما می گوید اگر مدل مشتق شده بود چه مقدار واریانس در Y محاسبه می شد. از جمعیتی که نمونه از آن گرفته شده است. او فرمول Wherry را نمی دهد. او توصیه می‌کند از فرمول Stein (به‌صورت دستی) برای بررسی میزان اعتبار متقابل مدل استفاده کنید. * Kleiber/Zeileis، Applied Econometrics with R (2008, p. 59) ادعا می‌کند که «مربع R تعدیل‌شده Theil» است و دقیقاً نمی‌گوید که چگونه تفسیر آن از مجذور R چندگانه متفاوت است. * Dalgaard، Introductory Statistics with R (2008, p.113) می نویسد که _اگر [R-square تعدیل شده] را در 100% ضرب کنید، می توان آن را به عنوان % کاهش واریانس تعبیر کرد. او نمی گوید که این با کدام فرمول مطابقت دارد. من قبلاً فکر می کردم و به طور گسترده خوانده بودم که R-squared برای اضافه کردن متغیرهای اضافی به مدل جریمه می کند. اکنون به نظر می رسد که استفاده از این فرمول های مختلف تفسیرهای متفاوتی را می طلبد. من همچنین به این سوال در مورد تفاوت بین r-square و تنظیم r-square نگاه کردم، و این سایت ### سوالات * **کدام فرمول برای r-square تنظیم شده توسط Rlm() استفاده می شود؟** * **چگونه می توان تعبیرش میکنم؟**
فرمول R-squared تنظیم شده در lm در R چیست و چگونه باید تفسیر شود؟
23108
در پروژه خود، من به رابطه بین X و Y با فاکتور گروه بندی جنس نگاه می کنم. این در دو مرحله است. اول این است که ببینیم XY چگونه در هر زیرگروه همبستگی دارد (پیرسون r) و دوم اینکه ببینیم آیا تفاوت جنسیتی در همبستگی XY وجود دارد (مدل خطی عمومی). من از SPSS استفاده می کنم و نمودار پراکندگی یک رابطه خطی را نشان می دهد. نمونه من شامل 60 مرد و 95 زن است. آیا باید اثر طراحی نامتعادل (یعنی اعداد مختلف در هر زیرگروه) را برای تحلیل‌هایم تصحیح کنم؟ من می دانم که مجموع مربعات نوع III آن را برای GLM تصحیح می کند، اما در مورد همبستگی دو متغیره مطمئن نیستم. (آیا برای تحلیل همبستگی مهم است؟) **ویرایش** در پاسخ به نظرات زیر: 1. من از نمونه گیری خوشه ای با احتمال متناسب با اندازه (PPS) استفاده کرده ام و توزیع جمعیت را در نظر گرفته ام. به عنوان مثال، اگر نهاد انتخاب شده 700 عضو داشته باشد و نیمی از آنها زن باشند، من تلاش کرده ام که این موضوع در نمونه من منعکس شود. 2. من ناخواسته سوال بالا را ساده کردم. من دو فرضیه را آزمایش می کنم. اولین مورد، تعیین رابطه بین X و Y است. این یک تحلیل همبستگی دو متغیره ساده است. (لطفاً مرحله اول ذکر شده در سوال بالا را نادیده بگیرید!). دوم، تعیین تأثیر جنسیت بر رابطه X-Y است. 3. من اصطلاح تعامل را ایجاد کرده ام و افکت های اصلی را در مدل خود قرار داده ام. دوباره سوال من: 1. آیا باید برای اندازه های مختلف زیرگروه در تجزیه و تحلیل همبستگی X-Y تصحیح برای (مطمئن نیستم که این اصطلاح درست است)؟ این یک تحلیل همبستگی دو متغیره ساده است. (یعنی ربطی به تجزیه و تحلیل زیرگروه بر اساس جنسیت ندارد) 2. آیا هنگام انجام تجزیه و تحلیل زیرگروه بر اساس جنسیت باید اندازه نمونه های مختلف زیرگروه را تصحیح کنم؟
اثر طراحی نامتعادل
92169
$A_{m \times n}$ را یک i.i.d در نظر بگیرید. ماتریس تصادفی با گشتاورهای اول تا چهارم محدود. تعداد خوبی از نتایج مجانبی و غیر مجانبی در رابطه با هنجار طیفی $A$، $\|A\|_2$ وجود دارد، به عنوان مثال، [1، گزاره 2.4] یک نتیجه انحراف در **بزرگترین** طیفی به دست می دهد. هنجار، و همچنین در [1، قضیه 2.5] گزارش شده است که نتیجه بسیار خوبی توسط R. Latala در مورد انتظار وجود دارد. $\mathbf{E}[\|A\|_2]$ تحت فرضیات مناسب. می‌خواهم بپرسم آیا کسی از نتیجه‌ای در **کوچک‌ترین** هنجار طیفی می‌داند، تا بتوانم با احتمال بسیار بالا فرض کنم که $\|A\|_2 \geq \tau$ که به عنوان مثال. $\tau = \mathbf{E}[\|A\|_2] - t$ برای برخی $t > 0$. با نگاهی به برهان در [1، گزاره 2.4]، به نظر می رسد یافتن مقداری که مقدار قبلی با احتمال بسیار بالا برای آن وجود دارد، بی اهمیت است، حداقل برای کسی که با این نوع استدلال آشنا نیست. آیا راهی برای اثبات نابرابری از این نوع وجود دارد: $$P[\|A\|_2 < \mathbf{E}[\|A\|_2] - t] > 1-e^{-c t^2} $$ برای برخی از ماتریس های تصادفی به طوری که $\min_A \|A\|_2 \approx \mathbf{E}[\|A\|_2] - t$ برای برخی $t > 0$، یا برای ابعاد متناهی یا نامتناهی به شرطی که $m/n \rightarrow \gamma$؟ [1] رودلسون، مارک و رومن ورشینین. نظریه غیر مجانبی ماتریس های تصادفی: مقادیر مفرد شدید. arXiv preprint arXiv:1003.2990 (2010).
کوچکترین هنجار طیفی / نابرابری انحراف
48701
با عرض پوزش اگر این سوال طولانی و مبهم است، اما من واقعاً با این رشته آشنا نیستم و برای یافتن مراجع مشکل دارم. ما یک متغیر تصادفی $X$ داریم که فرض می کنیم توسط توزیعی با پارامترهای ناشناخته $\theta^*$ در فضای پارامتر $\Theta$ اداره می شود. ما $p_\theta(x)$ احتمال نتیجه $x$ را در توزیع با پارامترهای $\theta$ خواهیم نوشت. ما یک تابع _loss_ $L داریم: \Theta \times \Theta \rightarrow \mathbb{R}$ به طوری که $L(\theta^*, \tilde\theta)$ هزینه پیش‌بینی $\tilde\theta$ است. به عنوان مدل اساسی $X$ در حالی که مدل واقعی $\theta^*$ بود. ما فرض می کنیم که مجموعه ای از نمونه های مستقل $S$ داریم که بر اساس $\theta^*$ با نمونه برداری از $X$ ترسیم شده اند. این نمونه ها یک تابع _likelihood_ $\mathcal{L}_{S} را تعریف می کنند: \Theta \rightarrow [0, 1]$: $\mathcal{L}_{S}(\theta)$ احتمال $ مشاهده شده است S$ برای پارامتر $\theta$. از آنجا، من می‌خواهم ریسک (یا ضرر مورد انتظار) یک پیش‌بینی $\tilde\theta$_ (نسبت به توزیع احتمال استنباط‌شده از $S$) را به صورت $e_{S}(\tilde\theta) = تعریف کنم. \int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) \cdot L(\theta, \tilde\theta)$. از آنجایی که تابع احتمال یک pdf بیش از $\Theta$ نیست، این انتگرال حتی ممکن است به خوبی تعریف نشده باشد، بنابراین تا اینجا من قبلاً گیج شده‌ام. _بهترین پیش‌بینی_ $\widehat{\theta_{S}} = \textrm{argmin}_\theta e_{S}(\theta)$ است و بهترین ریسک_ خطر بهترین پیش‌بینی $\widehat{e_{S است. }} = e_{S}(\widehat{\theta_{S}})$. اکنون به این نگاه می‌کنم که اگر به من اجازه داده شود نمونه جدیدی به قیمت X$ ترسیم کنم چه اتفاقی می‌افتد. توزیع نمونه بعدی_$P_{S}(x) = \int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) p_\theta(x)$ است، برآورد فعلی ما از توزیع احتمال بر روی $X$ بر اساس $S$. بهترین ریسک بعدی $\int_{\theta \in \Theta} \mathcal{L}_{S}(\theta) \int_x p_\theta(x) \widehat{e_{S \cup \\{x\ است. \}}}$: بهترین ریسک هنگام کشیدن یک نمونه دیگر از $X$ و اضافه کردن آن به $S$ است، جایی که ما توزیع نمونه ها را از $X$ با استفاده از توزیع نمونه بعدی تخمین می زنیم. (استنتاج از نمونه های مشاهده شده در حال حاضر). الان شرایط من اینه که متغیرهای مختلفی دارم که هر کدوم پارامتر ناشناخته ای دارن، نمونه های مستقلی براشون دارم و باید انتخاب کنم که برای کدومشون نمونه جدید درخواست کنم. هدف انتخاب متغیری است که انتظار می رود نمونه جدیدی برای آن به بهترین کاهش ریسک دست یابد. سوالات من این است: 1. آیا راهی برای اطمینان از اینکه تعریف من از ریسک (و تعریف بعدی) منطقی است وجود دارد؟ 2. آیا این رویکرد شناخته شده است؟ نام استاندارد مفاهیمی که من تعریف می کنم چیست؟ آیا افراد در عمل از این روش ها استفاده می کنند؟ 3. آیا برخی از عبارات بالا برای برخی از انتخاب های منطقی توزیع احتمال (مثلاً توزیع های نرمال) و تابع ضرر (مثلاً واگرایی KL) ساده می شوند؟ به عنوان مثال، آیا این امکان وجود دارد که توزیع نمونه بعدی (همانطور که در بالا تعریف کردم) در واقع توزیعی باشد که توسط تخمین حداکثر درستنمایی $\theta = \mathrm{argmax}_{\theta \in \Theta} \mathcal ارائه می‌شود. {L}_S(\theta)$؟ آیا ممکن است بهترین پیش بینی در واقع تخمین حداکثر احتمال باشد؟ 4. آیا می توانیم ثابت کنیم که بهترین ریسک بعدی همیشه کمتر از بهترین ریسک فعلی تحت فرضیه های منطقی در مورد توزیع احتمال و تابع ضرر است؟
انتخاب متغیر برای نمونه گیری برای بدست آوردن مدل بهتر
91396
من دو مجموعه داده از قیمت برق در یک منطقه خاص دارم، یکی با داده در فواصل زمانی 5 دقیقه و دیگری با مقادیر ساعتی (که تقریباً، اما نه کاملاً، میانگین مقادیر 5 دقیقه در یک ساعت هستند). مجموعه داده‌های میانگین ساعتی به زمان بسیار بیشتری برمی‌گردد. من می‌خواهم واریانس داده‌های 5 دقیقه‌ای در مقابل ساعتی را مطالعه کنم تا بتوانم تخمین‌ها یا پیش‌بینی‌هایی درباره احتمال بیشتر شدن قیمت 5 دقیقه‌ای از یک مقدار معین انجام دهم، اگر فقط میانگین ساعتی داشته باشم. چگونه می خواهید در مورد این اقدام کنید؟ رویکرد My Stats 101 این بوده است که به انحراف معیار نسبت یا تفاوت بین داده‌های 5 دقیقه‌ای و ساعتی نگاه کنیم. اما، اکنون متوجه می شوم که این یک توزیع نرمال برای نسبت/تفاوت ها فرض می کند، که معلوم می شود درست نیست. با توجه به مجموعه داده‌های بزرگی از نگاشت از 1 مقدار ساعتی تا 12 مقدار 5 دقیقه‌ای، چگونه می‌توانم این شانس را که هر مقدار ساعتی به یک یا چند مقدار 5 دقیقه‌ای >= مقداری آستانه نگاشت می‌شود، تخمین بزنم؟
تعیین رابطه بین دو مجموعه داده
21627
من به تازگی پاسخ سوال ...... اضافه کردن ضرایب برای به دست آوردن اثرات متقابل - با SE ها چه کنیم؟ ...... و این را واقعا مفید یافتم! من به دنبال انجام کاری مشابه در R هستم، اما اندازه های نمونه کمی بین گروه ها متفاوت است. آیا هنوز هم می توانم از همان معادله برای ترکیب این دو خطا استفاده کنم تا Std جدید را به من بدهم. خطا؟ پیشاپیش از هرگونه کمکی به کریستال متشکرم
آیا می توانم خطاهای استاندارد ضرایب را با مجموعه داده های نامتعادل ترکیب کنم؟
109737
برای تولید داده‌هایی که مکانیسم تصادفی (MAR) وجود ندارد، معمولاً می‌توانیم ابتدا یک مجموعه داده کامل تولید کنیم و سپس با استفاده از مدل لجستیکی، احتمال گمشده را برای متغیر Y، یعنی $Pr(Y=missing|{\bf X})$ مدل کنیم. یعنی $Pr(Y_i=1|{\bf X_i})=\frac{exp(\beta'{\bf X_i})}{1+exp(\beta'{\bf X_i})}$. بر اساس این احتمال می‌توانیم متغیر باینری را ایجاد کنیم که نشان می‌دهد $Y$ وجود ندارد: $I_i$ = $rbinom(1,p_i)$. اگر $I_i=1$ باشد، مقدار مربوط به $Y$ را حذف می کنیم. سوال من، اگر بخواهیم نسبت گم شدن $Y$ را کنترل کنیم، چگونه می توانیم این کار را انجام دهیم؟ از آنجایی که با استفاده از روش فوق، نسبت گمشده به مقدار $X's$ بستگی دارد، بنابراین تولید متغیر نشانگر تصادفی است، بنابراین کنترل نسبت کلی از دست رفته دشوار است.
چگونه داده های MAR را با نسبت ثابت از دست رفته تولید کنیم؟
100367
من از تست های ریشه واحد در دستور xtunitroot Stata استفاده می کنم. داده ها نرخ جایگزینی دستمزد سالانه برای مزایای بیکاری در هر یک از 50 ایالت برای سال های 1977 تا 2006 است. (این نرخ ها از ایالتی به ایالت دیگر و سالی به سال دیگر متفاوت است) من نتایج متناقضی را برای آزمایش های ریشه واحد مشترک دریافت می کنم. در همه موارد، آزمون‌ها هم تحقیر و هم تنزل را مشخص می‌کنند. نتیجه Leven Lui Chin نشان می‌دهد که من می‌توانم تهی پانل‌ها حاوی ریشه واحد را رد کنم. p<.001 نسخه HT نشان می‌دهد که نمی‌توانم پانل‌ها حاوی ریشه واحد هستند را رد کنم (p<1.00) نسخه Breitung به من می‌گوید که من نمی توان (کاملا) رد پانل تهی حاوی ریشه های واحد (p<.08) آیا توصیه ای دارید؟
نتایج متناقض xtunitroot
99626
من سعی می کنم ارتباطی بین رشد برخی قارچ ها در پتری دیش و تأثیر آن بر روی یک گیاه نشان دهم. من ده سویه قارچ دارم که آنها را در گیاه و در پتری ظروف آزمایش کردم. من می توانم داده های هر دو آزمایش را در مدل های خطی (lm) قرار دهم تا میانگین ها و واریانس های تخمین زده شده را بدست بیاورم. اگر من یک رگرسیون بر روی میانگین تخمین زده شده برای هر سویه اجرا کنم، همبستگی قابل توجهی پیدا می کنم، اما این عدم قطعیت در میانگین کرنش را در نظر نمی گیرد. تا کنون من یک بوت استرپ پارامتریک را امتحان کرده ام، اما به سختی می توانم آمار نهایی تست را بفهمم. من تخمین پارامترها و کد R خود را گنجانده ام. در حال حاضر میانگین کرنش شبیه سازی شده را از پارامترهای تخمین زده تولید می کند. من به یک مقدار p برای کوواریانس بین رشد و حدت نیاز دارم. هر گونه کمکی بسیار قدردانی خواهد شد! سوالات خاص من عبارتند از: 1) آیا یک تقویت کننده پارامتریک روش درستی برای تجزیه و تحلیل این است؟ 2) چگونه می توان این کار را در R انجام داد؟ سویه MeanVirulence MeanGrowth VirulenceVarGrowthVar 1 -5.26064 0.066716 0.67834 0.053247 2 -4.05482 -0.055524 0.68385 0.0472020.038 - 0.047147 0.68385 0.046739 4 -3.50632 -0.161811 0.68385 0.047083 5 -4.94051 -0.224949 0.68385 0.04727 6 -4.0858 -4.049 0.047647 7 -4.53178 -0.142985 0.68385 0.04788 8 -3.01697 -0.199349 0.68385 0.047255 9 -3.81093 -0.25058.0383858. 10 -1.61882 -0.325289 0.68385 0.0469 و اینجا کد R من است: gendata<-function(par,npar=TRUE,print=TRUE){ n = 10 k = 2 x=matrix(data=NA, nrow=n, ncol= k) for(i در 1:n){ x[i,1] = rnorm(1,mean=par[i,2],sd=par[i,4]) x[i,2] = rnorm(1,mean=par[i,3],sd=par[i,5] ) } return(x) } lmp <- تابع (modelobject) { f <- summary(modelobject)$fstatistic p <- pf(f[1],f[2],f[3],lower.tail=F) ویژگیها(p) <- NULL return(p) } samp=20000 rescor=matrix(data=NA, samp) resvar= ماتریس(داده=NA، samp) pvals=ماتریس(داده=NA، samp) numsig = 0 numnotsig = 0 برای (i در 1:samp){ x<-gendata(پارامترها) rescor[i]<-cor(x[,1],x[,2], method = pearson) resvar[i]<-var(x[,1 ]) a<-lm(x[,1]~x[,2]) pvals[i]<-lmp(a) if (pvals[i] <0.05){ numsig = numsig + 1 } if (pvals[i] > 0.05){ numnotsig = numnotsig + 1 } } رشد صفحه کرنش 1 1 200 1 2 210 1 3 190 2 1 150 2 2 130 2 3 140 Growth 7 Strain 1 2 40 1 3 50 1 4 45 2 1 80 2 2 90 2 3 85 2 4 75 ...
همبستگی بین دو متغیر اندازه گیری شده در آزمایش های جداگانه در R
68686
من یک مجموعه داده دارم که در آن باید ابعاد را کاهش دهم. هر بعد دارای برچسب است، مثلاً $x_1، x_2، x_3، \cdots، x_n$. حالا اگر من تجزیه و تحلیل اجزای اصلی (PCA) را روی آن پیاده‌سازی کنم، برخی از ابعاد $p$ را دریافت می‌کنم که $p$ کمتر از $n$ است. حال چگونه می توانم بفهمم که کدام ابعاد $p$ از بین ابعاد $n$ اولیه هستند. آیا ما حتی می توانیم آن را تعیین کنیم؟
آیا می توانیم بعد از اجرای PCA ابعاد باقی مانده را تعیین کنیم؟
79791
من 2 معیار معمولی توزیع شده استاندارد شده (میانگین = 0؛ SD = 1) از یک نتیجه در 2 نقطه زمانی دارم. برای تخمین خطای استاندارد برای تغییر میانگین بین 2 نقطه زمانی، یکی از همکاران موارد زیر را پیشنهاد کرده است: اگر داده ها در یک نمونه متفاوت در هر نقطه زمانی جمع آوری شوند، واریانس میانگین تغییر در نمره انحراف معیار (SDS) 4 / است. n، که در آن n = اندازه نمونه، و n/2 اندازه گیری در هر نقطه زمانی انجام می شود. اگر داده‌ها در یک نمونه در هر نقطه زمانی جمع‌آوری شوند، واریانس تغییر میانگین در SDS ((4 * (1 - r)) / n است، جایی که r همبستگی بین 2 اندازه‌گیری است، و جایی که n است. = اندازه نمونه، و n/2 اندازه گیری در هر نقطه زمانی انجام می شود. وقتی می‌خواهم آن‌ها را تکرار کنم، نمی‌توانم محاسبه مورد طولی را به دست بیاورم که با نتایج آنها مطابقت داشته باشد. من نمی توانم با کسی که اینها را پیشنهاد کرده است تماس بگیرم. و من آنقدر باهوش نیستم که بفهمم آنها به سادگی نادرست هستند، یا اگر در جایی اشتباه می کنم. ویرایش: من می‌توانم خطاهای استاندارد همکارم را با موارد زیر تکرار کنم، اما متقاعد نشده‌ام که این درست باشد، به ویژه زیرا واریانس میانگین دو متغیر نرمال استاندارد شده با همبستگی r باید (1/2) + (1/2) باشد. * ر). داده های طولی: sqrt(4 * (1 - r)) / 2 * sqrt(n/2) داده های مقطعی: sqrt(4) / sqrt(n)
یافتن خطای استاندارد برای تخمین تغییر در میانگین z-score
33013
من می خواهم تفاوت پاسخ دو متغیر به یک پیش بینی کننده را آزمایش کنم. در اینجا یک نمونه حداقل تکرار پذیر است. کتابخانه (nlme) ## gls در برنامه استفاده می شود. lm برای این مثال کافی است. = عنبیه، زیر مجموعه = گونه == virginica) m.ver <- gls(Sepal.Length ~ گلبرگ. پهنا، داده = عنبیه، زیرمجموعه = گونه == ورسی رنگ) می توانم ببینم که ضرایب شیب متفاوت است: m.set$ضرایب (Intercept) Petal.Width 4.7771775 0.9301727 m.vir$ضرایب (Intercept) Petal. عرض 5.2694172 0.6508306 m.ver$ضرایب (Intercept) Petal.Width 4.044640 1.426365 من سه سوال دارم: 1. چگونه می توانم تفاوت بین شیب ها را آزمایش کنم؟ 2. چگونه می توانم تفاوت بین واریانس های باقیمانده را آزمایش کنم؟ 3. یک راه ساده و موثر برای ارائه این مقایسه ها چیست؟ یک سوال مرتبط، روش مقایسه ضریب متغیر در دو مدل رگرسیونی، پیشنهاد می کند که مدل را با یک متغیر ساختگی مجدداً اجرا کنیم تا شیب ها را متمایز کنیم، آیا گزینه هایی وجود دارد که امکان استفاده از مجموعه داده های مستقل را فراهم کند؟
از چه آزمونی می توانم برای مقایسه شیب ها از دو یا چند مدل رگرسیون استفاده کنم؟
99621
من چندین جا را خوانده ام که تست Shapiro-Wilk همیشه باید با QQ-plot اضافه شود، اما هیچ کس دلیلی ارائه نکرده است و من شهودی پشت این موضوع نمی بینم. آیا کسی می تواند توضیح دهد که چرا باید آزمایش Shapiro-Wilk را با QQ-plot تأیید کرد؟
آیا آزمون Shapiro-Wilk و QQ-Plot همیشه باید با هم ترکیب شوند؟
602
آیا اکتشافی خوبی برای یافتن مقدار بهینه ν در صورت طبقه بندی ν-SVM می شناسید؟ در این مشکل خاص، من یک هسته پایه شعاعی دارم، اگر کمک کند.
اکتشافی برای بهینه سازی ν-SVM؟
68684
من در حال حاضر در حال تجزیه و تحلیل سری های زمانی حجم حمل و نقل (کالاهای مصرفی خصوصی) به صورت روزانه هستم. من سعی می کنم یک مدل رگرسیون خودکار را متناسب کنم و عوامل برون زا (مانند آب و هوا، فعالیت جستجوی وب و غیره) را نیز در بر بگیرم. دو الگوی فصلی آشکار وجود دارد. در طول هفته و در طول سال. با این حال، همه مقادیر در شنبه / یکشنبه صفر هستند (کامیون ها رانندگی نمی کنند). صرفاً نادیده گرفتن تعطیلات آخر هفته امکان پذیر نیست، زیرا متغیرهای برون زا در مدل که در آخر هفته رخ می دهند بر حجم حمل و نقل در طول هفته تأثیر می گذارد، به عنوان مثال. فعالیت جستجوی وب در روز شنبه بر حجم حمل و نقل در روز دوشنبه تأثیر می گذارد. چگونه می توان این مقادیر از دست رفته را به درستی مدیریت کرد؟
مقادیر گم شده در آخر هفته ها در پیش بینی حمل و نقل
91393
من باید ببینم که آیا تمام 35 بردار 120 بعد مشابه هستند یا نه تا این فرضیه را ثابت کنم که نیستند. من از فاصله اقلیدسی و شباهت کسینوس استفاده کردم و با یادگیری از طریق این انجمن به ماتریس شباهت رسیدم. (داده‌های زیادی دارد، بنابراین من این نکته را در کد R خلاصه می‌کنم) ماتریس<-cbind(35 بردار) پس ماتریس #120x35 sim1<-cosine(ماتریس) dist1<-as.matrix(dist(t(ماتریس) است. diag= TRUE, متد=اقلیدسی)) اما مسئله این است که کسینوس vector_i را با vector_j، و من ترجیح می دهم vector_i را با بقیه بردارها ببینم و مقداری p را ارزیابی کنم. برای من، مانند: شباهت (vector_i، بردارهای دیگر)> 0.90 --> vector_i مشابه بردارهای دیگر است که امیدواریم شباهت شبیه به شباهت کسینوس باشد، زیرا بیشتر در مورد جهت است تا قدر. آیا کسی توصیه ای دارد یا معیار مشابهی برای این مشکلات می داند؟ من شروع به استفاده از R کردم، بنابراین اگر تستی را می شناسید که در آنجا پیاده سازی شده است، بسیار سپاسگزار خواهم بود. PD1>آمار کلاسی بود که مدتها پیش آن را خواندم، ببخشید اگر سوء تفاهم وجود دارد) PD2>مقدار هر بعد می تواند بین 0 تا 1 باشد و چندین بار 0 است، بنابراین من فکر می کنم که مجذور کای ممکن است خوب نباشد برای این...
آمار و R: تعیین کنید که آیا بردارهای بعدی N همه شبیه هستند یا خیر
30815
من با یک مدل رگرسیون دو بخشی برای داده های نیمه پیوسته کار می کنم که کمی از Duan و همکارانش اصلاح شده است. دوان و همکاران مدل برای پیش بینی هزینه های پزشکی در طول یک سال استفاده می شود. کسری از مردم هستند که هزینه‌هایشان صفر است و بقیه دارای هزینه‌های مثبت هستند که به طور طبیعی توزیع می‌شوند. معادلات از Duan _et al._ $I_i = x_i\delta_1+\eta_{1i}$, $\eta_{1i} \sim N(0,1)$ Where $\mbox{MED} > 0$ if $I \ ge 0$، و $\mbox{MED} = 0$ در غیر این صورت. معادله دوم یک مدل خطی در مقیاس گزارش برای هزینه‌های مثبت است: $\mbox{log}(\mbox{MED}_i|I_i > 0) = x_i\delta_2 +\eta_{2i}$, $\eta_{2i } \sim N(0,\sigma^2)$ من از یک مدل مشابه استفاده می‌کنم اما مقادیر منفی را مجاز می‌دانم، بنابراین از یک توزیع نرمال برای مقادیر استفاده کنید تا یک log-normal. من مدل را با استفاده از بسته BayesGLM در R با پیشین های معمولی بر روی ضرایب رگرسیون، که معادل رگرسیون L2/Ridge است، قرار می دهم. مدل دارای دو معادله است که اولی probit برای صفر بودن یا نبودن رویداد است و دیگری یک مدل خطی است. مایلم بتوانم اثر میانگین و فواصل اطمینان حول میانگین را پیدا کنم. من می دانم که برای هر قسمت از مدل، می توانم این را محاسبه کنم، اما مطمئن نیستم که چگونه آن را برای مدل ترکیبی محاسبه کنم. برای مدل خطی می توانم به تخمین اثر و خطای استاندارد نگاه کنم تا فواصل اطمینان را بدست بیاورم، اما چگونه در مدل پروبیت لایه بندی کنم؟ به عنوان مثال اگر یک متغیر در مؤلفه خطی تأثیر مثبت و در مؤلفه پروبیت تأثیر منفی داشته باشد، چگونه می توانم بفهمم که تأثیر کلی مثبت است یا خیر؟ > Duan, N., Jr, W. M., & Morris, C. (1983). مقایسه مدل های جایگزین > برای تقاضا برای مراقبت های پزشکی. _مجله آمار بازرگانی و اقتصادی_
فواصل اطمینان برای مدل رگرسیون دو بخشی
30816
به‌عنوان یک انگلیسی زبان غیر بومی، فکر می‌کردم از کدام عبارت **مربع** یا **مربع** باید استفاده کنم. به عنوان مثال در میانگین **مربع** خطا یا میانگین **مربع** خطا. با توجه به اینترنت، به نظر می رسد هر دو شکل به طور نامشخص استفاده می شوند. آیا یک عبارت مربعی بیشتری نسبت به دیگری دارد؟
میانگین مربع خطا یا میانگین مربع خطا
23106
آیا کسی می تواند مزایای الگوریتم ژنتیک را در مقایسه با سایر روش های جستجو و بهینه سازی سنتی برای من توضیح دهد؟
مزایای استفاده از الگوریتم ژنتیک
26886
![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/nXT1s.png) من یک سوال در این مورد دارم. من می دانم که اگر متغیرهای تصادفی مستقل و معمولی توزیع شده $\mathrm{X}_1،\mathrm{X}_2،\ldots،\mathrm{X}_n$ داشته باشیم، مجموع $\mathrm{X}_1+\mathrm {X}_2+\ldots+\mathrm{X}_n$ دارای توزیع نرمال با میانگین است $M_1+M_2+..+M_n$ و واریانس $\sigma^2_1 + \ldots + \sigma^2_n$. چرا در این مسئله تفاوت $W-M$ میانگین بدست آمده از تفریق و واریانس با جمع به دست می آید؟ متشکرم.
چرا واریانس $X-Y$ برابر است با مجموع واریانس ها زمانی که $X,Y$ مستقل هستند؟
30813
من یک مجموعه داده دارم که برای هر 1 مشاهده 12 متغیر توضیحی دارد. من فرض می‌کنم که داده‌ها توسط فرآیند زیربنایی که چندین فاز مختلف را طی می‌کند، تولید می‌شود و 12 متغیر توضیحی به نحوی به شناسایی خوشه‌ها کمک می‌کنند. من می‌خواهم یک الگوریتم یادگیری ماشین بنویسم که بتواند: 1. در ابتدا، خوشه‌های درون داده را شناسایی کند. پس از طبقه‌بندی (مرحله 1 در بالا)، می‌خواهم بتوانم هر داده جدیدی را که قبلاً در یکی از کلاس‌ها/خوشه‌های شناسایی شده قبلی دیده نشده است، به درستی برچسب‌گذاری کنم (یعنی طبقه‌بندی کنم). من فرض می کنم Y(c) ~ X(c) + خطا که: * Y(c) یک بردار nx1 از مشاهدات متعلق به خوشه C است * X(c) یک بردار nx12 از عوامل توضیحی است که به خوشه C تعلق دارند. مشاهدات در خوشه های مختلف با داشتن اشکال توزیع متفاوت با یکدیگر متفاوت خواهند بود. به این معنا که مشاهدات درون یک خوشه در مقایسه با مشاهدات یک خوشه دیگر شکل توزیع متفاوتی خواهند داشت. من در یادگیری ماشین نسبتاً تازه کار هستم و می‌خواهم راهنمایی در مورد نحوه پیاده‌سازی چنین الگوریتمی (یا شاید قبلاً وجود داشته باشد؟) به‌ویژه علاقه‌مندم که بدانم چگونه مشاهدات را بر اساس تعیین _شکل_ تجربی طبقه‌بندی کنم. توزیع داده های مشاهده شده آخرین اما نه کم‌اهمیت، من همچنین از برخی توصیه‌ها در مورد پیاده‌سازی این در R یا Octave (و چرا) قدردانی می‌کنم.
چگونه این مشکل طبقه بندی/برچسب گذاری را پیاده سازی کنیم؟
96481
# مشکل من در حال حاضر روی مشکلی کار می کنم که در آن داده های شمارش برای $n$ مورد به شکل زیر دارم: تعداد آیتم کل -------------------- 1 1 30 2 10 340 3 0 0 4 1 10 ... من می‌خواهم احتمال موفقیت $p_i$ را برای هر مورد محاسبه کنم. علاوه بر این، من گمان می‌کنم که همه موارد احتمال موفقیت مشابه یا حتی یکسانی دارند، اما می‌خواهم مدل آن را تعیین کند. انتظارات من از مدل به دست آمده عبارتند از: * تخمین پارامتر جهانی زیربنایی همه موارد _and_ * کاهش احتمال موفقیت $p_i$ به سمت این پارامتر جهانی به منظور مقابله با مواردی که مشاهدات کمی دارند. * مواردی که مشاهداتی دارند که احتمال موفقیت متفاوتی را نشان می‌دهند باید بتوانند احتمال موفقیت جهانی را نادیده بگیرند. # کد Stan این کد Stan است که من تا کنون پیاده سازی کرده ام: data { int<lower=0> J; // مقدار اقلام int count[J]; int total[J]; } پارامترها { real<lower=0,upper=1> mu; real<lower=0.001> ss; real<lower=0,upper=1> prob[J]; } model { mu ~ uniform(0, 1); ss ~ گاما (0.01، 0.01)؛ prob ~ beta(mu*ss, (1-mu)*ss); count ~ binomial(total, prob); } در اینجا من با فرض اینکه احتمال موفقیت آیتم ها از یک توزیع بتا (پارامتری با استفاده از میانگین و اندازه نمونه) که میانگین احتمال موفقیت جهانی است، نمونه برداری شده است، به انقباض دست می یابیم. این مشکل زمانی رخ می دهد که قبل از اندازه نمونه مشخص شود. اگر یک پیشین بسیار مبهم انتخاب کنم، استن به تکرارهای زیادی نیاز دارد تا اندازه نمونه موثر به اندازه کافی بزرگ شود. همچنین مطمئن نیستم که آیا این رویکرد درستی است یا خیر، زیرا مشخص نیست که آیا میزان انقباض این مدل همیشه مناسب است یا خیر. من علاقه مندم که آیا روشی ظریف برای اجرای رفتار مورد انتظار من وجود دارد یا اینکه در مدل کلی من نقصی وجود دارد.
چگونه یک مدل دوجمله ای بیزی با انقباض نسبت به جمعیت را مشخص کنیم؟
30814
من دو گروه را از نظر تعداد بستری شدن در بیمارستان در یک دوره 5 ساله مقایسه می کنم. مدت بستری شدن در بیمارستان بسیار متغیر است. به عنوان مثال، یک بیمار ممکن است 3 بستری داشته باشد که در مجموع 100 روز طول بکشد، در حالی که بیمار دیگر ممکن است 50 ویزیت داشته باشد که هر یک یک روز طول می کشد. بنابراین، به نظر طبیعی می رسد که مدت اقامت (به روز) را در تصویر لحاظ کنیم. در حال حاضر من به یک رگرسیون نرخ پواسون فکر می کنم، با یک پیش بینی کننده طبقه بندی منفرد (گروه) و تعداد بستری شدن در بیمارستان به عنوان DV. من می خواهم کل مدت بستری شدن در بیمارستان را به عنوان جبران، که بر حسب روز است، لحاظ کنم. سوال من این است که من برخی از بیماران را دارم که هیچ بستری در بیمارستان نداشته اند، بنابراین مدت اقامت آنها عملاً 0 است. برای اینکه به مدل رگرسیون نرخ پواسون (به هر حال در SAS) ضربه بزنم، باید عبارت افست را وارد کنم. من به وضوح نمی توانم لاگ 0 را بگیرم، بنابراین می دانم در این شرایط چه کاری می توانم انجام دهم؟ آیا می‌توانیم ثابت 1 را هم به بستری شدن و هم به طول کل بستری برای رفع این مشکل اضافه کنیم؟ هر ورودی قدردانی می شود، بهترین (به صورت متقاطع ارسال شده در Talkstats.com)
رگرسیون نرخ پواسون: افست؟
604
من از چیزی که با استفاده از تحلیل تشخیصی خطی پیدا کردم متحیر هستم. مشکل اینجاست - من ابتدا تحلیل Discriminant را با استفاده از 20 یا بیشتر متغیر مستقل برای پیش‌بینی 5 بخش اجرا کردم. در میان خروجی‌ها، من بخش‌های پیش‌بینی‌شده را درخواست کردم که در حدود 80 درصد موارد مشابه بخش‌های اصلی است. سپس دوباره تجزیه و تحلیل متمایز را با همان متغیرهای مستقل اجرا کردم، اما اکنون سعی می کنم بخش های پیش بینی شده را پیش بینی کنم. من انتظار داشتم که 100٪ نرخ طبقه بندی صحیح را به دست بیاورم، اما این اتفاق نیفتاد و من مطمئن نیستم که چرا. به نظر من اگر تجزیه و تحلیل متمایز نتواند با دقت 100% بخش های پیش بینی شده خود را پیش بینی کند، به نوعی روش بهینه ای نیست زیرا قانونی وجود دارد که دقت 100% را بدست می آورد. من چیزی را از دست داده ام؟ نکته - به نظر می رسد که این وضعیت مشابه آنالیز رگرسیون خطی باشد. اگر مدل $y = a + bX + \text{error}$ را مطابقت دهید و از معادله تخمین زده شده با همان داده ها استفاده کنید، $\hat{y}$ [$= \hat{a} + \hat{b دریافت خواهید کرد. }X$]. حالا اگر مدل $\hat{y} = \hat{a} + \hat{b}X + \text{error}$ را تخمین بزنید، همان $\hat{a}$ و $\hat{ را خواهید یافت. b}$ مانند قبل، بدون خطا، و R2 = 100٪ (تناسب کامل). فکر می‌کنم این اتفاق با تحلیل تشخیصی خطی نیز می‌افتد، اما اینطور نیست. نکته 2 - این تست را با Discriminant Analysis در SPSS اجرا می کنم.
چرا پیش‌بینی یک متغیر پیش‌بینی‌شده از تحلیل تفکیکی ناقص است
55191
مسئله ایجاد نقاط توزیع یکنواخت روی سطح توپ واحد n بعدی قبلاً ده ها بار در اینجا پست شده است. وقتی می‌خواهیم روش را به توزیع یکنواخت روی سطح n-ball شعاع_غیر واحدی تعمیم دهیم، چیزی که به آن علاقه دارم، مقیاس بندی مناسب است. به طور خاص، من به دنبال مقیاس بندی برای روش پرتاب کردن گوسی روی توپ هستم. من می دانم که این یک سؤال نسبتاً آسان است، اما من نمی توانم ریاضی را بفهمم و از هر نظر یا مرجعی قدردانی می کنم.
مقیاس بندی مناسب برای ایجاد نقاط توزیع یکنواخت در توپ n-d شعاع *غیر واحد*؟
30818
من کاملاً با کدگذاری متغیرهای ساختگی سنتی آشنا هستم - کد 1 برای حضور صفت و 0 برای عدم وجود. سپس یک متغیر چند طبقه ای با یک سری از متغیرهای ساختگی نشان داده می شود در حالی که 1 دسته به عنوان مرجع حذف می شود، بنابراین برای متغیری با n دسته من n-1 متغیر ساختگی را شامل می شود. ساده اما اگر در دسته هایم همپوشانی داشته باشم چه اتفاقی می افتد؟ در اینجا یک مثال ساده (کمی ساختگی) برای توضیح وجود دارد. فرض کنید من به تأثیر ورزش های مختلف بر آسیب (یک نتیجه دوگانه) نگاه می کنم. 6 ورزش وجود دارد - فوتبال، بیسبال، بسکتبال، فوتبال، چوگان و هاکی. اکنون، می دانم به چه چیزی فکر می کنید، اینها متقابلاً منحصر به فرد هستند، هیچ همپوشانی وجود ندارد. درست است، من می‌توانم این ورزش‌ها را با 5 متغیر ساختگی نشان دهم و از یکی، مثلاً فوتبال، به عنوان مرجع استفاده کنم. اما در عوض می‌خواهم به جنبه‌ای از ورزش که به آسیب‌دیدگی مربوط می‌شود نگاه کنم. به عبارت دیگر، این ورزش به خودی خود نیست، بلکه اقدامات مربوط به انجام هر ورزش است. برخی از ورزش ها شامل اقدامات مشابهی هستند، بنابراین همپوشانی وجود دارد. من می خواهم آدمک هایی مانند موارد زیر داشته باشم: 1. توپ سخت است (بیس بال، هاکی، چوگان) 2. همه بازیکنان کلاه ایمنی می پوشند (لاکروس، هاکی، فوتبال) 3. زمین/زمین سخت است (هاکی، بسکتبال) حالا، فکر می‌کنم تا زمانی که متغیرهای ساختگی خیلی هم خط نباشند، می‌توانم این کار را انجام دهم. این معادل به اصطلاح «تله متغیر ساختگی» خواهد بود. درسته؟ چگونه این را بررسی کنم؟ VIF برای آدمک ها؟ شماره شرایط؟ آیا چیز دیگری وجود دارد که باید مراقب آن باشم؟ چیزی که من از دست می دهم؟ در برنامه واقعی من به حدود 5 وجه فکر می کنم و بیش از 50 دسته مختلف وجود دارد. من می‌توانم این دسته‌ها را به 5 یا بیشتر دسته‌بندی جذاب تقسیم کنم، اما ترجیح می‌دهم به دلایل نظری که در این مرحله نیازی به ورود به آن‌ها نیست، این کار را انجام ندهم. من می‌توانم به ماشین اجازه دهم «ابعاد» یا «وجه» را از طریق تحلیل عاملی اکتشافی انتخاب کند، اما مجموعه‌ای از «وجوه» نظری بسیار خاصی دارم که می‌خواهم آن‌ها را آزمایش کنم، از این رو متغیرهای ساختگی را که انتخاب می‌کنم ترجیح می‌دهم.
متغیرهای ساختگی با دسته های همپوشانی؟
109335
من به دنبال نوع خاصی از مدل مخلوط هستم (که در زیر توضیح داده شده است) و امیدوارم بتوانم نکاتی را در رابطه با ادبیات مربوطه برای بررسی یا نام هایی که باید جستجو کنیم، دریافت کنم. در سطح کلی، من می‌خواهم خوشه‌بندی را با استفاده از ترکیبی از گاوسیان انجام دهم تا برچسب کلاس را برای هر مشاهده استنتاج کنم (انواع سلول در مورد من). عارضه ای که من با آن روبرو هستم این است که برخی از مشاهدات فردی وابسته هستند زیرا از یک موضوع گرفته شده اند. من می‌خواهم با سوژه‌ها به‌عنوان یک اثر تصادفی رفتار کنم که به هر مشاهده یک افست اضافه می‌افزاید. بنابراین، مدل مولد چیزی شبیه به $x_{ijk} = \mu_i + \nu_j + \epsilon_{ijk}$ است که $\mu_i$ میانگین برای هر نوع سلول است، $\nu_j$ تغییر تصادفی برای هر موضوع است. و $\epsilon_{ijk} \sim N(0, C_i)$ نویز معمولی چند متغیره است. کلاس به معنای $\mu_i$ و ماتریس‌های کوواریانس نویز $C_i$ پارامترهای مدل هستند، در حالی که افست افزودنی برای هر موضوع $\nu_j$ و عضویت‌های کلاس متغیرهای پنهان هستند. می‌توانیم $\nu_j$ را گاوسی با کوواریانس پایین فرض کنیم. هر نکته ای؟
مدل مخلوط برای مشاهدات وابسته با عوامل مخدوش کننده در سطح گروه افزایشی
78770
من می خواهم یک نمونه از یک توزیع با p.d.f $$f(p,q,r,s) \sim \mathrm{e}^{-w(|p+q-r-s|+|p-q-r+s| +|p-q+r-s|)}p^aq^br^cs^d \mathbb{1}_{p+q+r+s=1}$$$w > 0$ یک پارامتر رایگان است (که می تواند بسیار بزرگ یا بسیار کوچک باشد) و $a,b,c,d$ همگی اعداد صحیح غیر منفی هستند. **آنچه در حال حاضر به آن فکر می کنم** 1. نمونه برداری رد از توزیع دیریکله * اگر w بزرگ باشد خیلی کند است 2. ترسیم نمونه از توزیع دیریکله از نمونه وزنی احتمال برای استنتاج پارامترهای بهتر از D.d استفاده کنید. به عنوان یک پیشنهاد برای MCMC استفاده کنید. * کمی Voodo، بررسی همگرایی سخت است. 3. اگر 8 ربع را جدا کنم، قدر مطلق ناپدید می شود و انتگرال تا حدودی قابل حمل می شود. * فکر می‌کنم سپس می‌توانم سیمپلکس را در جایی که توزیع من زندگی می‌کند پارتیشن بندی کنم و اگر بتوانم انتگرال‌ها را محاسبه کنم، می‌توانم به طور تصادفی روی یک منطقه بزرگنمایی کنم. بی اهمیت به نظر نمی رسد. 4. به نحوی توزیع حاشیه ای جفت ها را بفهمید و از نمونه گیری گیبس استفاده کنید. * آه، اما محدودیت L1 به این معنی است که همه چیز می تواند کاملاً مرتبط باشد و نمونه گیری گیبس ممکن است کاملاً شکست بخورد. 5. با $x=p-q-r-s،~ y=p-q-r+s،~ z=p-q+r-s$ دوباره پارامتریزه کنید * بسیار عالی، اما اکنون همبستگی از قسمت دیریکله توزیع من می آید. نمونه گیری گیبس ممکن است همچنان مشکل ساز باشد. ** چیزی که من به دنبال آن هستم ** سریع * بی طرفانه (یا حداقل همگرایی به چیزی بی طرفانه به اندازه کافی سریع با ابزاری برای بررسی همگرایی خواهد بود)
چگونه از این توزیع دیریکله با پیشین L1 نمونه برداری کنیم؟
114953
من سعی می‌کنم (تا حدودی) 3 مدل (خطی، نمایی و درجه دوم) را به یک مجموعه داده با کلاس‌ها/فاکتورها برازش دهم و مقادیر p و R2 را برای هر مدل و کلاس/عامل ذخیره کنم. مجموعه داده ساده با 3 متغیر: x، y و class. چیزی که من نمی توانم بفهمم این است که چگونه هر یک از 3 مدل را مجبور کنم تا در هر یک از 3 کلاس قرار بگیرند. آنچه اکنون دارم هر مدل را با مجموعه داده کامل مطابقت می دهد. سوال بعدی این است که چگونه P-values ​​و R2 را به یک جدول خروجی می‌دهم، برای هر مدل+کلاس، کد من به این صورت است: set.seed(100) library(plyr) #create datast nit <- inside(data.frame(x = 3:32)، { class <- rep(1:3، هر = 10) y <- 0.5 * x* (1:10) + rnorm(30) class <- factor(class) # تبدیل به ضریب } ) x2<-nit$x*nit$x #برای اشکال مدل درجه دوم<- paste(c(y ~ x, y ~ x+x2, log (y) ~ x), sep = ) # ایجاد 3 مدل نام (فرم‌ها) <- چسباندن (مدل، حروف[1: طول(فرم‌ها)]) مدل‌ها <- llply(forms, lm, data = nit) models # ضرایب هر یک از 3 مدل را نشان می دهد
برازش مدل های خطی (چندگانه) بر اساس گروه در R
114950
من به داده های تبلیغات دیجیتال با ستون های زیر نگاه می کنم: site_id | impressions_count| تعداد_کلیک من به یک هیستوگرام نرخ کلیک (کلیک ها/نمایش ها) در جمعیت سایت هایم علاقه مند هستم: برای پاسخ به سؤال در 50٪ از سایت ها، CTR بیشتر از x٪ است و غیره. اکنون خطای نمونه گیری CTR در هر سایت به تعداد نمونه ها (=impressions) و CTR سایت جمعیت بستگی دارد. آیا راهی برای در نظر گرفتن این موضوع وجود دارد؟ من می‌توانم سه راه را ببینم: الف) سعی کنید از خطای استاندارد دوجمله‌ای سایت در هسته گاوسی استفاده کنید (یا از توزیع بتا استفاده کنید؟) \- به نظر می‌رسد این عدم قطعیت را با گسترش مقادیر اشتباه می‌گیرد ب) بازه‌های اطمینان بالا و پایین CTR را برای هر سایت محاسبه کنید. و به طور جداگانه هیستوگرام هایی از اینها بسازید. ج) از پاسخ glen_bs در هیستوگرام داده های نامشخص برای افزودن نوارهای خطا به هیستوگرام CTR های سایت استفاده کنید. هر گونه اشاره در ادبیات خوش آمدید - به نظر می رسد یک مشکل استاندارد است.
هیستوگرام / تخمین چگالی هسته برای داده های نسبت
31141
من در تلاش هستم تا تاخیر بین سری های زمانی دو قیمت سهام را تحلیل کنم. در تجزیه و تحلیل سری های زمانی منظم، می توانیم Cross Correlaton، VECM (علت گرنجر) را انجام دهیم. با این حال، چگونه می توان در سری های زمانی با فاصله نامنظم با آن برخورد کرد. فرضیه این است که یکی از ابزارها دیگری را هدایت می کند. من داده هایی برای هر دو نماد به میکروثانیه دارم. من به بسته RTAQ نگاه کردم و همچنین سعی کردم از VECM استفاده کنم. RTAQ بیشتر در یک سری زمانی تک متغیره است در حالی که VECM در این مقیاس های زمانی قابل توجه نیست. > dput(STOCKS[,])) ساختار(c(29979، 29980، 29980، 29980، 29981، 29981، 29991، 29992، 29993، 29991، 29990، 29990، 29.L =) .Dimnames = list(NULL، c(Pair_Bid، Calc_Bid))، index = structure(c(1340686178.55163، 1340686181.40801، 1340686187.2642، 1348.2645، 1340686178.55163 1340686187.78777، 1340686189.36693)، کلاس = c (POSIXct، POSIXt)، tzone = )، کلاس = باغ وحش)
تجزیه و تحلیل سری های زمانی ناهمزمان (نامنظم).
114956
می‌خواهم تأثیر تجزیه و تحلیل ویدئویی بازتابی را بر قصد معلم برای ماندن یا ترک پست تدریس، کارآمدی معلم و رضایت شغلی معلم در مدارس راهنمایی روستایی بدانم. من یک گروه کنترل (بدون انتساب تصادفی) و یک گروه غیر کنترل خواهم داشت. هر دو گروه یک نظرسنجی قبل و بعد از مقیاس لیکرت را تکمیل می کنند که قصد معلمان برای ماندن یا ترک موقعیت، کارآمدی معلم و رضایت شغلی معلمان را می سنجد.
برای اجرای پیش و پس از مداخله با گروه کنترل 15 شرکت کننده از چه چیزی باید استفاده کنم؟
67854
سعی کردم سرچ کنم ولی جوابی برای مشکلم پیدا نکردم. من داده هایی از موضوعات مختلف دارم که در معرض شرایط مختلف قرار دارند. اما آنها در معرض شرایط مختلف زمان های نابرابر (گاهی اوقات حتی صفر برابر) هستند. مانند این شرط 1 شرط 2 شرط 3 ------------------------------------------ ------------------------------------------------- موضوع 1 | Meas1 Meas2 Meas3 Meas1 Meas2 Meas3 Meas4 Meas5 Meas1 Meas2 Meas3 Subj 2 | Meas1 Meas1 Meas2 Meas3 Meas1 Subj 3 | Meas1 Meas2 Meas3 Meas4 Meas1 Meas1 Meas2 Meas3 Subj 4 | --- Meas1 Meas2 Meas3 Meas4 Meas1 Subj 5 | Meas1 Meas2 Meas3 Meas1 Meas2 Meas3 Meas1 Meas2 و غیره... من می‌خواهم آزمایش کنم (غیر پارامتری)، اگر اندازه‌گیری‌ها در شرایط متفاوت است، مانند آزمون کروسکال-والیس یا فریدمن، اما می‌خواهم اطلاعات را از جفت شدن بر اساس سوژه ها و من نمی‌خواهم اندازه‌گیری‌ها را صرفاً به این دلیل که هیچ اندازه‌گیری برای یکی از شرایط وجود نداشت، کنار بگذارم. من دنبال چه نوع آزمونی هستم؟ در ضمن اگه تو متلب هم بشه واقعا خوشحال میشم!
تحلیل واریانس زوجی ناپارامتریک با داده های نابرابر
31142
من به این http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation اشاره می کردم. در اینجا ذکر شده است که تخمین پارامترهای $\theta$ در واقع یافتن حالت توزیع پسین است. من متوجه نشدم که چگونه این درست است.
برآورد پارامترها به عنوان یک حالت توزیع پسین
73832
من ردیف‌هایی از داده‌ها با ستون‌های «سن»، «جنس»، «تحصیلات» و «درآمد» دارم. من در حال انجام تکالیف هستم که از من می خواهد درآمد را با بیز ساده در R با فرمول «درآمد ~ سن + جنس + تحصیل» پیش بینی کنم. من همچنین می دانم که فرمول ها به هیچ متغیر خاصی در یک مجموعه داده اشاره نمی کنند -- آنها فقط شکل داده ها را می دهند. بنابراین با تمام آنچه گفته شد، فرمول «درآمد ~ سن + جنس + تحصیل» به چه معناست؟ من حدس می زنم که معنی آن p(درآمد|سن، جنس، درآمد) = P(y|x1,x2,x3) = P(x1|y) * P(x2|y) * P(x3|y) * P (y)
منظور از این فرمول در R چیست؟
78776
مشکل من حل مسئله بهینه سازی زیر با استفاده از GA (الگوریتم ژنتیک) و شبیه سازی تصادفی است. هدف حل مشکل بیشینه سازی است: \begin{equation*} \begin{aligned} \text{Max}_{x_{1},\cdots,x_{n}} \qquad &\mathbb{E}[\ xi_{1}x_{1}+\xi_{2}x_{2}+\cdots+\xi_{n}x_{n}]\\\ \text{s.t.} \qquad &\left\\{ \begin{array}{rcr} & \mathbb{P}r\\{(0.4-(\xi_{1}x_{1}+\xi_{2} x_{2}+\cdots+\xi_{n}x_{n}))\geqslant r\\}\leqslant \alpha(r)\\\ & \forall r\geqslant 0\\\ &x_{1}+x_{2}+\cdots+x_{n}=1\\\ &x_{1} \qquad \forall i \in \\{1,2,\cdots, n\\}.\\\ \end{آرایه} \راست. \end{تراز شده} \end{معادله*} که در آن $ n=5 $، $ \ \xi_{i}\sim N(\mu_{i}،\sigma_{i}) $ با $\mu_{i}\ در \\{0.1، 0.2، 0.3،0.4،0.5\\}$، $\sigma_{i}=1$ و $ \ \alpha(r)=\dfrac{1}{(r+1.1)^{4}} $, $\ r\geqslant 0 $.
یک احتمال را با استفاده از شبیه سازی تصادفی محاسبه کنید
78772
من 2 سوال از کتاب تسای دارم که مربوط به نمایندگی ARIMA است. I. تقسیم چند جمله ای چگونه کار می کند - مراحلی که به حلی که نشان می دهند منجر می شود کدامند؟ آنها یک مثال ساده را نشان می دهند، اما من مطمئن نیستم که این ریاضی چگونه کار می کند؟: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iQ8UA.jpg) II. آنها همچنین موارد زیر را نشان می دهند، آیا کسی می تواند توضیح دهد که تتا(1) در مخرج معادله اول چه چیزی را نشان می دهد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RgSeW.jpg)
نمایش ARIMA با استفاده از تقسیم طولانی چند جمله ای
35399
من سعی می کنم یک عبارت اغتشاش تصادفی را به متغیر پاسخ خود اضافه کنم (برای تخمین تأثیر چند هم خطی در تخمین های بتا)، اما مطمئن نیستم که چگونه آن را انجام دهم وقتی متغیر پاسخ با استفاده از توان 1/4 تبدیل می شود. در R. بدون تغییر در متغیر پاسخ، با توجه به مدل های خطی با R فاراوی، روش نوشتن آن به این صورت است: g <- lm(hipcenter+10*rnorm(38) ~ ., seatpos). بنابراین اگر من یک تبدیل توان 1/4 برای متغیر پاسخ داشته باشم، کد باید این باشد: g <- lm((hipcenter^(1/4))+10*rnorm(38) ~ ., seatpos). آیا این درست است؟
چگونه یک عبارت اغتشاش تصادفی را با تبدیل در R به متغیر پاسخ اضافه کنیم؟
91974
من سعی می کنم یک تابع رگرسیون لجستیک را در c++ پیاده سازی کنم و مطمئن نیستم از چه الگوریتمی استفاده کنم. تا به حال در مورد این موارد شنیده ام: 1. نیوتن رافسون 2. IRLS 3. نزول گرادیان آیا الگوریتم های دیگری در دسترس هستند؟ مزایا و معایب آنها چیست؟ آیا الگوریتمی وجود دارد که به طور کلی برتر از سایرین تشخیص داده شود؟
چه الگوریتم هایی برای رگرسیون لجستیک موجود است؟
34667
فرض کنید ${X_{it}}،{Y_{it}}$ سری زمانی با $X_{it}\sim N(0.1,1)$، ($\sigma^2(Y_{it}) = 1$ هستند و $mean(Y_{it})$ شبیه به $X_{it}$ است، اما زمانی تغییر می‌کند که dummy = 1 باشد. و $t \\in \\{1,2,...,200\\}$, $i \in \\{1,2,...,N\\}$. در یک محیط واقعی، این بازدهی دوره‌ای بازار سهام بیش از شرکت‌های N$ است (اما شما می‌توانید این را نادیده بگیرید). یک ساختگی وجود دارد، $D_t$ که برابر است با وحدت بیش از $t \\in \\{150,151,...,200\\}$ و در غیر این صورت برابر با صفر است. مدل سری زمانی که با OLS $\forall i$ تخمین زده می شود عبارت است از: $(1) Y_{it} = \alpha_i + \beta_i X_{it} + \gamma_i D_{t} + \epsilon_{it}$ این مدل به طور کلی به مفروضات گاوس-مارکوف برای هر $i$ پایبند است. با این حال، $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ برای همه $i$ و $j$ داریم. گام بعدی ساختن بردار گاما با استفاده از تخمین $N$ مدل $(1)$ است. این بردار را $\bf{\hat{\gamma}}$ بنامید. سپس از این در مدل مقطعی استفاده می‌کنیم: $(2) \hat{\gamma}_i = a + b Z_i + u_i$ که در آن $Z_i$ یک متغیر مقطعی است که هیچ گونه نقضی در مفروضات OLS ایجاد نمی‌کند. و برای توضیح $\hat{\gamma}_i$ مرتبط است. * * * ادعا در ادبیات اقتصاد سنجی کاربردی این است که $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ در مدل $(1)$ منجر به (i) مشکلی برای OLS نمی شود برآورد ضریب در $ (2) $، اما (ii) خطاهای استاندارد بایاس در $ (2) $. * لطفاً کسی می تواند ایده های خود را در مورد چرایی این موضوع ارسال کند؟ * من نمی فهمم $\epsilon_{it}^T$ در عبارت $E[\epsilon_{it}^T \epsilon_{jt}] \not= 0$ چیست. البته $\epsilon_{it}$ یک اسکالر است و شما نمی توانید یک اسکالر را جابجا کنید. این در اینجا دیده می شود، جایی که آنها این روش را اعمال می کنند.
OLS: $E[\epsilon_{it}^T\epsilon_{it}] \not= 0$ در معادله 1، خطاهای استاندارد در معادله 2 را بایاس می کند؟
26880
من می خواهم AUC ها را برای دو درمان با استفاده از بسته بوت در R مقایسه کنم. با این حال، مشکلی در کد R من وجود دارد و نمی دانم چگونه آن را برطرف کنم. میشه لطفا یکی راهنماییم کنه؟ پیشاپیش با تشکر فراوان نیازمند(بوت) #Create Data set.seed(123) N = 150 y1 = rnorm(150) y2 = rnorm(150,1,0.2) y3 = rnorm(150,2,0.5) time = rep( 1:3، هر = 50) trt = تکرار (تکرار (0:1، هر = 25)، بار = 3) داده = data.frame(trt,time,y1,y2,y3) #قانون ذوزنقه trap.rule = تابع(x,y) sum(diff(x)*(y[-1]+y[-length(y)] ))/2 # مجموع y1-y3 برای هر trt در هر نقطه زمانی SUM = تابع (داده){ set1 = زیر مجموعه (x = داده، داده$time==1) set2 = زیرمجموعه (x = داده، data$time==2) set3 = زیر مجموعه (x = داده، data$time==3) s1 = by(set1[,c(y1،y2،y3)] , set1$trt, sum) s2 = by(set1[,c(y1,y2,y3)], set2$trt, sum) s3 = توسط(set3[,c(y1،y2،y3)]، set3$trt، sum) result = ماتریس(داده = c(s1[1],s2[1],s3[1], s1[2]،s2[2]،s3[2])، ncol=2) colnames(نتیجه) = c(trt = 0، trt = 1) خروجی = cbind(زمان = 1:3، نتیجه) بازگشت (خروجی) } # آمار برای بوت AREA = تابع (داده، i){ d = داده[i،] MQ = SUM(داده = د) A.0 = trap.rule (x = 1:3، y = MQ[,2]) A.1 = trap.rule(x = 1:3، y = MQ[,3]) ناحیه = A.1 - A.0 result = c(A.0، A.1، area) return(نتیجه) } area.boot = boot(data = داده، آمار = AREA، R = 1000) area.boot یک پیام خطا است Error in tapply(1L:49L, list(`set2$trt` = c(0L, 1L, 1L, 1L, 0L, 1L, 0L، : آرگومان ها باید طول یکسانی داشته باشند
چگونه AUC ها را با استفاده از بسته بوت در R مقایسه کنیم؟
29673
برای یافتن روابط بین متغیرهای مستقل و وابسته به جای رگرسیون از کدام روش آماری می توان استفاده کرد؟ و مزایای آنها نسبت به رگرسیون. لازم به ذکر است به دلیل تعداد مشاهدات کمتر قادر به انجام رگرسیون نیستم که 5 متغیر مستقل 3 طبقه و دو متغیر پیوسته دارم.
روش هایی برای یافتن روابط بین متغیرهای مستقل و وابسته به جای رگرسیون
50016
من اسناد WinBugs را مرور کردم (به عنوان مثال، http://www.mrc-bsu.cam.ac.uk/bugs/thebugsbook/examples/html/Chapter-11-Specialised/Example-11_7_2-leukaemia.html). و همچنین از طریق این کتاب (http://www.amazon.ca/Bayesian-Survival-Analysis- Joseph-Ibrahim/dp/0387952772). هر دو از توزیع گاما قبل از نرخ (لامبدا) برای توزیع نمایی استفاده می کنند. آنها بین گاما (0.01، 0.01) و گاما (0.001،0.001) متناوب هستند. من می خواهم از یک پیشین غیر اطلاعاتی استفاده کنم .... اما فکر نمی کنم این باشد؟ کسی می تواند توضیح دهد که آیا این یک قبل غیر اطلاعاتی است؟ اگر نه، کسی می تواند یکی را پیشنهاد دهد؟
توزیع نمایی - نرخ - قبل بیزی؟
29676
من یک اندازه گیری برای دو گروه از موضوعات دارم که هر موضوع شامل 3 تکرار است. به عنوان مثال، داده ها مانند زیر است: > مقدار تکرار گروه موضوع > 1 A 1 0.2 > 1 A 2 0.3 > 1 A 3 0.25 > 1 B 1 0.4 > 1 B 2 0.3 > 1 B 3 0.7 > 2 C 1 0.2 > 2 C 2 0.1 > 2 C 3 0.3 > 2 D 1 0.4 > 2 D 2 0.2 > 2 D 3 0.25 > من به استفاده از ANOVA فکر می کنم که در آن موضوع عبارت خطا است، به عنوان مثال. aov(Value~Group+Error(Subject)) در R. درست است؟ با تشکر گیم
تفاوت گروه را با تکرار مقایسه کنید؟
66103
این یک پست متقابل است. من می‌خواهم از تخمین‌گر کوواریانس نیوی وست برای بهینه‌سازی پورتفولیو استفاده کنم. تا یک تاخیر $$ \Sigma = \Sigma(0) + \frac12 \left (\Sigma(1) + \Sigma(1)^T \راست)، $$ که در آن $\Sigma(i) داده می‌شود. $ ماتریس کوواریانس $i$ برای $i=0,1$ است. بعلاوه من دوست دارم از برآوردگرهای انقباض همانطور که در بسته corpcor برای R پیاده سازی شده است استفاده کنم. ماتریس هویت به عنوان انقباض قبل برای $\Sigma(0)$ قابل قبول است. چه چیزی را به عنوان قبلی برای $\Sigma(1)$ - ماتریس صفر استفاده می کنید؟ آیا پیاده سازی R را می شناسید که اجازه می دهد ماتریس های تاخیر-کوواریانس را با استفاده از انقباض تخمین بزنیم؟ باید تفاوت اساسی وجود داشته باشد زیرا ماتریس تاخیر-کوواریانس لزوماً مثبت-معین نیست (مثلاً ماتریس صفر). اگر انقباض را روی $\Sigma(0)$ اعمال کنم و از تخمین‌گر نمونه استاندارد برای $\Sigma(1)$ استفاده کنم، مطمئن نیستم که $\Sigma$ مثبت و قطعی است. تعریف فوق از: Whitney K. Newey and Keneth D. West گرفته شده است. یک ماتریس کوواریانس سازگار با نیمه دنیت ساده، مثبت، هتروسکداستیکی و خودهمبستگی. Econometrica, 55(3):703-708, 1987. همچنین می توان آن را در فرمول (1.9) در صفحه 6 در اینجا یافت.
برآوردگر انقباض برای ماتریس کوواریانس نیوی-وست
73830
من یک نمونه $n = 100$ با دو موفقیت دارم (دو بچه مبتلا به بیماری در بین 100 نفر). بنابراین واضح است که توزیع دوجمله ای داریم. ابتدا باید برآوردگر حداکثر احتمال (ML) $\hat{p}$ را محاسبه می‌کردم. من $\hat{p} = \frac{k}{n}$ دریافت کردم. اکنون، من باید توزیع نرمال مجانبی را برای $\hat{p}$ از طریق قضیه حد مرکزی (CLT) استخراج کنم. من می دانم که مقدار مورد انتظار $\hat{p}$ بی نهایت نیست و همچنین واریانس نیز بی نهایت نیست، بنابراین می دانم که به طور معمول توزیع می شود. برای بدست آوردن توزیع نرمال مجانبی باید مقدار مورد انتظار و واریانس $\hat{p}$ را بدانم، درست است؟ می دانم که مقدار مورد انتظار $\frac{k}{n}$ است. اما واریانس چیست؟
توزیع نرمال مجانبی از طریق قضیه حد مرکزی