_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
87051
من این سوال را در StackOverflow پرسیدم و شخصی به من اشاره کرد که این را اینجا بپرسم. فرض کنید من 3 متغیر دارم: x، y، z که اعداد صحیح هستند. من 5000 مقدار از هر کدام را دارم و می خواهم با توجه به این مجموعه داده، مقدار 5001 (یا دیگر) را پیش بینی کنم. مسئله این است که مقادیر بسیار نوسان می کنند، بنابراین من فکر می کردم که احتمالاً می توانم معادله این مجموعه داده را به صورت محاسباتی پیدا کنم و می توانم با استفاده از این معادله مقدار 5001 را تقریب کنم. بهترین راه برای انجام این کار برای من چیست؟
یافتن معادله یک مجموعه داده
70334
من در حال انجام یک تجزیه و تحلیل اساسی برای تحقیق خود هستم، در رابطه با رابطه بین قیمت جهانی نفت و گاز و کل استرالیا و بازارهای سهام بخشی. سرپرست من از من خواسته است که از EVIEWS 8 به دلیل در دسترس بودن آن در دانشگاه استفاده کنم. داده‌های من شامل شاخص‌های قیمت برای قیمت جهانی O&G، بازار مالی Aus، بازار O&G Aus، و غیره است. سرپرست من به من دستور داد که از بازده‌ها برای جلوگیری از همبستگی سریال در اصطلاح خطا استفاده کنم، اما من کاملاً مطمئن نیستم که آن را درست می‌دانم. کسی میتونه توضیح بده لطفا من واقعاً تفاوت بین گرفتن ln (قیمت) و ln (تفاوت اول) و اینکه آیا ln (تفاوت اول) را می توان به عنوان بازده آن بازار خاص در نظر گرفت، نمی دانم.
قیمت لاگ در مقابل بازده لاگ
14377
من 4 جفت نمونه دارم، فرض کنید (x1، y1)،...، (x4، y4). * حداقل حجم نمونه برای آزمون t زوجی چقدر است؟ * کدام فرض را برای آزمون t زوجی باید بررسی کنم؟ * اگر داده‌های من غیرعادی هستند، آزمون ناپارامتریک جایگزین چیست؟
حداقل حجم نمونه برای آزمون t زوجی چقدر است و اگر داده ها غیرعادی باشند، معادل ناپارامتریک چیست؟
14374
من داده هایی برای جمعیت تعدادی از ماهی های مختلف دارم که در طی یک دوره حدود 5 ساله نمونه برداری شده اند، اما در یک الگوی بسیار نامنظم. گاهی اوقات بین نمونه ها ماه ها وجود دارد، گاهی اوقات چندین نمونه در یک ماه وجود دارد. همچنین تعداد زیادی 0 وجود دارد چگونه با چنین داده هایی برخورد کنیم؟ من می توانم آن را به راحتی در R ترسیم کنم، اما نمودارها به خصوص روشن کننده نیستند، زیرا بسیار پر دست انداز هستند. از نظر مدل سازی - با گونه هایی که به عنوان تابعی از چیزهای مختلف مدل شده اند - شاید یک مدل ترکیبی (معروف به مدل چند سطحی). هر مرجع یا ایده ای استقبال می شود برخی از جزئیات در پاسخ به نظرات حدود 15 گونه وجود دارد. من سعی می کنم هم ایده ای از هر گونه روند یا فصلی در هر ماهی داشته باشم و هم به نحوه ارتباط گونه ها با یکدیگر نگاه کنم (مشکل من در ابتدا یک جدول ساده از همبستگی ها می خواست) هدف توصیفی و تحلیلی است، نه پیش بینی کننده ویرایش های بیشتر : من این مقاله را توسط K. Rehfield و همکاران پیدا کردم، که پیشنهاد می کند از هسته های گاوسی برای تخمین ACF برای سری های زمانی بسیار نامنظم استفاده شود. http://www.nonlin-processes-geophys.net/18/389/2011/npg-18-389-2011.pdf
سری زمانی بسیار نامنظم
79685
من انتخاب هدفمندی را انجام دادم که در آمار اپیدمیولوژی جول ذکر شده است. آزمون‌های لاگ درست‌نمایی متغیرهای کمکی را نشان دادند، که به نظر من در مدل‌سازی مخدوش‌کننده هستند، اما در مدل‌سازی معنی‌دار نیستند، در صورت حذف، معنی‌دار نیستند. اما در نهایت، آزمون خوب بودن برازش معنادار بود. هنگام معرفی مجدد متغیرهای کمکی گیج کننده، خوبی برازش معنی دار نبود. متأسفانه، من نمی توانم تحقیقات زیادی در این زمینه پیدا کنم، زیرا بیشتر برای اهداف سیاست و برنامه است، بنابراین مرجعی برای نگهداری متغیرها وجود ندارد. آیا همچنان باید متغیرهای کمکی را که تصور می‌شود مخدوش‌کننده هستند، صرف‌نظر از نتایج آزمون احتمال ورود به سیستم نگه دارم؟
انتخاب هدفمند و گیج کننده
45957
در کتاب متنی من آمده است: > هر یک از $y_t، x_{t1}$، و $x_{t2}$ را بر روی یک ثابت و روند زمانی رگرسیون کنید > $t$ و باقیمانده ها را ذخیره کنید... رگرسیون به چه معناست. هر کدام در یک ثابت؟ به طور خاص چه ثابتی؟ این از بخشی در کتاب درسی (دقیقاً اقتصاد سنجی مقدماتی) است که به کاهش روند یک سری زمانی می پردازد.
کاهش روند یک مدل رگرسیون سری زمانی
64336
من یک رگرسیون چندگانه برای تعیین اینکه کدام عوامل تمایل به پرداخت برای اعضای گروه دیگر را پیش بینی می کنند انجام داده ام. رگرسیون چندگانه مشخص کرد که تهدید نمادین (ترس از حمله فرهنگی و سنتی به ارزش‌های گروه توسط دیگران) تنها پیش‌بینی‌کننده مهمی است که نشان می‌دهد چقدر برای اعضای گروه دیگر هزینه می‌شود. با این حال، در تحقیقاتم دریافتم که نگرش نسبت به گروه برون‌گروه مورد نظر کاملاً واسطه این تأثیر است. نتایج نهایی مانند نشان داده شده است: (من نمی توانم یک عکس پست کنم زیرا شهرت من هنوز 10 نشده است، بنابراین آن را به بهترین شکل ممکن می نویسم، همه خطوط ---- باید ثابت باشند) نگرش نسبت به گروه برون گروهی ㅅ \ / \ .633***/ \.482*** / \ / v نمادین ------------------> مقدار تهدید مایل به مالیات 0.495*** (0.190 ns) برای پرداخت در گروه خارجی. با این حال، من در تفسیر معنای این میانجی گری مشکل دارم. * آیا این میانجی گری به این معناست که بدون هیچ گونه نگرش نسبت به برون گروه، تهدید نمادین دیگر مبلغی را که یکی برای گروه دیگر می پردازد، پیش بینی نمی کند؟ * آیا این بدان معناست که نگرش های موجود همراه با تهدید نمادین، مبلغی را که یکی برای گروه دیگر می پردازد، صادقانه پیش بینی می کند، در حالی که به طور جداگانه نمی توان پیش بینی کرد؟ هر ایده یا مرجع مفیدی واقعا مفید خواهد بود با تشکر.
چگونه مدل میانجیگری سه متغیر اساسی را تفسیر کنیم؟
103482
من به دنبال پیاده‌سازی‌های موجود برای هم‌خوشه‌سازی (معروف به biclustering) هستم. من با تابع 'biclust' موجود در متلب آمدم، اما هنوز نمی دانم که آیا پیاده سازی های بیشتری برای این موضوع وجود دارد، چه در متلب یا R.
پیاده سازی برای Co-Clustering
103104
برای یک مطالعه شبیه سازی، من قدرت LMEM های مختلف را برای اندازه گیری های مکرر مقایسه می کنم. برای بدست آوردن مقادیر p، از آزمون‌های نسبت درستنمایی استفاده می‌کنم که در آن مدلی شامل اثر درمان ثابت را با مدلی که دارای ساختار اثرات تصادفی یکسان است، اما بدون اثر درمان ثابت، مقایسه می‌کنم. من می خواهم مدلی را مشخص کنم که در آن وقفه تصادفی و شیب مجاز به همبستگی هستند و مدلی که در آن مجاز نیست. اما، وقتی من مقادیر p هر دو مدل را استخراج می کنم، به نظر می رسد که آنها دقیقاً یکسان هستند. چرا؟ من متخصص مدل های ترکیبی نیستم اما عجیب به نظر می رسد. این کد من با استفاده از نحو lmer است: # همبستگی مجاز ml3 <- lmer(rt ~ درمان + (1+درمان|موضوع),data=df) ml0 <- lmer(rt ~ 1 + (1+درمان|موضوع),data= df) lrt <- anova(ml3,ml0) pVal <- lrt$Pr(>Chisq)[2] # no همبستگی ml2 <- lmer(rt ~ درمان + (1|موضوع) + (0+درمان|موضوع) ,data=df) ml0 <- lmer(rt ~ 1 + (1|موضوع) + (0 + درمان|موضوع) ,data=df) lrt <- anova(ml2,ml0) pVal <- lrt$Pr(>Chisq)[2] داده: ساختار dput(DF)(لیست(موضوع = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 11،11،1، 1 ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر 11 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 1 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 18 لیتر، 17 لیتر، 18 لیتر، 17 لیتر 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 21 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر 21 لیتر، 21 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 2 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 2 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر،
برازش LMEM برای اندازه گیری های مکرر بدون همبستگی بین برش و شیب
87055
از آن‌چه من می‌دانم، jackknife و bootstrapping روش‌های فراوانی برای محاسبه آمار (بایاس، واریانس، و غیره) یک برآوردگر هستند. با توجه به نمونه‌ای از داده‌های من و یک برآوردگر، و با فرض کمی در مورد فرآیند تولیدی، چگونه می‌توانم همان آمار برآوردگر خود را با استفاده از رویکرد بیزی محاسبه کنم؟
رویکرد بیزی برای تعصب و واریانس برآوردگر محاسباتی
18655
من جفت های زیادی دارم مانند: A B 10 20 15.3 19.5 23 13 45 32 و غیره، من آن جفت ها را با محاسبه انحراف معیار بسیاری از بردارها (بردارهای R) ایجاد می کنم و سپس آنها را با 2 (A - B) گروه بندی می کنم. حالا باید آن جفت ها را با درصد اختلافشان فیلتر کنم. من درصدی مانند `30%` تنظیم می کنم، سپس تمام جفت ها را فیلتر می کنم تا کسانی که اختلاف دارند **زیر** یا **برابر** 30٪ سؤال من این است که آیا این فرمول برای بدست آوردن تفاوت (در درصد) صحیح است. از دو عدد) ((A / B) -1) * 100 شک من این است که به تفاوت آنها نیاز دارم تا بفهمم آیا می توانم آنها را بگیرم یا نه اما اگر انجام دهم: ((B / A) -1) *100 بدیهی است که من دریافت کنید یک نتیجه متفاوت، به عنوان مثال: A = 10 B = 20 A-B % = -50 % ((10 / 20) -1) *100 B-A % = 100 % ((20 / 10) -1) *100 بنابراین، چگونه می توانم بهتر است تفاوت واقعی دو عدد (تفاوت انحراف استاندارد) را مطالعه کنید؟ **ویرایش (@Henry)** > a <- log(sd(rnorm(250))) > b <- log(sd(rnorm(250))) > a/b [1] 0.6049963 **0.60%* * از تغییر؟ متشکرم
چگونه تفاضل دو عدد (انحراف معیار) را بدست آوریم؟
17932
من یک مدل پیش‌بینی برای یک سری زمانی دارم و می‌خواهم خطای پیش‌بینی خارج از نمونه آن را محاسبه کنم. در حال حاضر استراتژی که من دنبال می کنم، همان استراتژی پیشنهادی در وبلاگ راب هیندمن (نزدیک به انتهای صفحه) است که به این صورت است (با فرض یک سری زمانی $y_1،\dots،y_n$ و یک مجموعه آموزشی با اندازه $k). $) 1. مدل را با داده‌های $y_t,\dots,y_{t+k-1}$ مطابقت دهید و اجازه دهید $\hat{y}_{t+k}$ پیش‌بینی برای مشاهده بعدی 2. خطای پیش بینی را به صورت $e_{t} = \hat{y}_{t+k} - y_{t+k}$ محاسبه کنید. 3. برای $t=1,\dots,n-k$4 تکرار کنید. میانگین مربع خطا را به صورت $\textrm{MSE}=\frac{1}{n-k}\sum_{t=1}^{n-k} e_t^ محاسبه کنید 2$ سوال من این است که به دلیل همپوشانی مجموعه های آموزشی من چقدر باید نگران همبستگی ها باشم. به طور خاص، بگویید من می‌خواهم نه تنها مقدار بعدی، بلکه مقادیر $m$ بعدی را پیش‌بینی کنم تا پیش‌بینی‌های $\hat{y}_{t+k}،\dots،\hat{y}_{ داشته باشم. t+k+m-1}$ و خطاهای $e_{t,1},\dots,e_{t,m}$ و من می‌خواهم یک ساختار اصطلاحی از خطاهای پیش‌بینی بسازم. آیا باز هم می توانم هر بار پنجره آموزش تنظیم شده با 1 را به جلو بچرخانم یا باید آن را با $m$ به جلو بچرخانم؟ اگر در سری‌هایی که من پیش‌بینی می‌کنم، خودهمبستگی قابل‌توجهی وجود داشته باشد، پاسخ به این سؤالات چگونه تغییر می‌کند (احتمالاً این یک فرآیند با حافظه طولانی است، یعنی تابع خودهمبستگی به‌عنوان یک قانون قدرت به جای نمایی تحلیل می‌رود.) توضیحی در اینجا، یا پیوندهایی به جایی که بتوانم نتایج نظری در مورد فواصل اطمینان در اطراف MSE (یا سایر معیارهای خطا) پیدا کنم.
محاسبه خطای پیش‌بینی با اعتبارسنجی متقابل سری‌های زمانی
87054
طبیعی ترین خانواده توزیع ها در بازه [0,1] که با میانگین $\mu$ و انحراف استاندارد $\sigma$ نمایه شده است، کدام است؟ من به دنبال چیزی هستم که در طبیعت رخ می دهد، مانند توزیع های عادی، با این تفاوت که باید مقادیری از 0 تا 1 بگیرد.
معادل توزیع نرمال در یک بازه چیست؟
55670
من در استفاده از RF جدید هستم. من می خواهم از آن برای محاسبه اهمیت نسبی ویژگی ها استفاده کنم. متوجه شدم وزن آن بسیار کوچک است (بسته پارتی، cforest). آیا به هر حال می توان این وزن ها را در محدوده 0-1 بدست آورد؟ وزن کل به 1؟ برای مثال، اگر $x_1$، $x_2$ و $x_3$ ویژگی‌ها باشند، اهمیت نسبی این ویژگی‌ها چیزی شبیه به $r_1: 0.5، r_2:0.4$ و $r_3:0.1$ است. پیشاپیش ممنون
وزن اهمیت نسبی با جنگل
45954
نتایج رگرسیون من به شرح زیر است. متغیر B exp(B) سن 0.004575 1.004586 سرمایه 0.2250 1.2524 سال -0.1026 0.9024 لطفاً کسی می تواند به من کمک کند تا اینها را تفسیر کنم؟ (به عنوان مثال: یک سال افزایش سن خطر را تا Xx٪ افزایش یا کاهش می دهد.
تفسیر رگرسیون کاکس
71065
من یک مجموعه داده دارم و QQ-plot را در برابر توزیع $N(0,1)$ ساختم. طرح در زیر گنجانده شده است. ![](http://i.stack.imgur.com/MlXsY.png) حداقل بگویم آمار من زنگ زده است (یعنی دانش کمی که داشتم اکنون زنگ زده است!) واضح است که توزیع نرمال مناسب نیست -- دم در داده های من سنگین تر از دم های موجود در یک توزیع معمولی است. اما به نظر می رسد که داده ها نسبت به توزیع نرمال منحرف نیستند. بنابراین، کدام توزیع ممکن است مناسب تر باشد؟ آیا این چیزی است که تحولی مانند باکس کاکس می تواند درمان کند تا آن را بهتر کند؟ ویرایش: داده‌های من کاملاً مثبت نیستند، بنابراین Box-Cox خارج شده است... اما ممکن است تغییر دیگری وجود داشته باشد که کار کند. ویرایش 2: من مجموعه داده‌های بزرگ‌تری دارم و باید ببینم مجموعه داده‌ها به چه چیزی همگرا می‌شوند. این یک تحلیل اکتشافی است، من ترجیح می‌دهم توزیعی پیدا کنم که با داده‌ها مطابقت داشته باشد تا اینکه داده‌ها را به یک توزیع تبدیل کنم. همه اینها با SciPy انجام می شود که مقدار مجانبی کشش بایاس را به صورت -1 و چولگی را 0 گزارش می دهد. اما من نمی دانم چگونه از این اطلاعات برای تعیین اینکه کدام توزیع ممکن است استفاده کنم، به غیر از بررسی همه آنها. ببینید کدام یک $r^2$ بهتر می دهند. ویرایش 3: بر اساس نظری از gung، من آن را در برابر توزیع یکنواخت بررسی کردم: ![](http://i.stack.imgur.com/vNETx.png) مطمئناً، این بسیار بهتر است، اگرچه هنوز تفاوتی در دم ها
از چه توزیعی برای این نمودار QQ استفاده کنیم؟
14373
**مقدمه** من یک ماتریس $N$ با ابعاد $I\times J$، $I> J$ دارم، و $n_{ij}$ فرض می شود که از توزیع پواسون با میانگین $\lambda_{ij} پیروی می کند. $. با استفاده از یک روش (مثلا _NtoM_)، $N$ را به یک ماتریس $M$ با ابعاد $I \times K$ تقلیل می‌دهم (ردیف‌ها مطابق با $N$ هستند، اما ستون‌ها همان مقادیر را در $N$ نشان نمی‌دهند. )، $I >> K$، و ورودی های $M$ اعداد واقعی مثبت هستند. _Edit_ (با تشکر از نظر @whuber) این رابطه بین $N$ و $M$ است: برای هر $i \in \{1,\ldots, I\}$ و یک $j$, $\lambda_{ij خاص }$ در $m_{ik}$، $k \in \{1،\ldots، K\}$ خواهد بود. با این حال، نکته کلیدی این است که برای $i$ خاص، $\lambda_{ij_1}$ و $\lambda_{ij_2}$ لازم نیست اگر $j_1\neq j_2$ باشد. $K$ را می توان کمتر از $J$ فرض کرد. **سوال** آیا راهی برای اندازه گیری تفاوت محتوای اطلاعاتی (سود یا ضرر) در کاهش ماتریس $N$ به $M$ با استفاده از روش _NtoM_ وجود دارد؟
آیا راهی برای اندازه گیری محتوای اطلاعاتی (یا تفاوت) در دو ماتریس وجود دارد؟
45950
من می‌خواهم آزمایش کنم که داده‌های من چقدر با توزیع یکنواخت تناسب دارند و از آن به عنوان یکی از عوامل در تابع احتمالی که می‌سازم استفاده کنم. متأسفانه من هیچ مبنای محکمی در آمار ندارم. تا اینجا متوجه شدم که یک معیار خوب برای استفاده، آزمون کولموگروف-اسمیرنوف است. من می توانم آزمایش را انجام دهم، اما نمی دانم عددی که به دست می آید به چه معناست. چیزی که من می‌خواهم داشته باشم، ارزش PDF است که توضیح می‌دهد آیا نمونه من از توزیع داده‌شده می‌آید یا نه، تا بتوانم آن را به تابع احتمال خود وصل کنم. چگونه آن را دریافت کنم؟ متشکرم!
آزمون کولموگروف اسمیرنوف در تابع درستنمایی
66909
در یک BIBD، اجازه دهید $a$ تعداد درمان‌ها را نشان دهد. $b$ تعداد بلوک ها را نشان می دهد. $k$ تعداد درمان ها را دقیقاً در هر بلوک نشان می دهد. $\lambda$ تعداد دفعاتی است که هر جفت درمان در یک بلوک ظاهر می شود. هر درمان برابر $r$ اتفاق می افتد. روابط $r=\binom{a-1}{k-1}$ و $\lambda=\binom{a-2}{k-2}$ چگونه به دست می آیند؟
طراحی بلوک ناقص متعادل
17933
من یک مجموعه داده از تیم ها دارم. هر تیم مجموع امتیاز دارد. من می‌خواهم تیم‌ها را در محدوده‌های امتیازی (0 - 999؛ 1000 - 1999؛ و غیره) تقسیم کنم، مانند اینکه محدوده برتر (با بیشترین امتیاز) کوچک‌تر باشد (تیم‌های کمتری دارد) از تیم بعدی و غیره. فرض کنید تعداد محدوده ها 7 و زاویه آن X درجه است مانند این شکل: ![a](http://i1198.photobucket.com/albums/aa451/KakaOriginal/album/distribuicao.png) چگونه می توانم محدوده نقطه برای تشکیل آن شکل؟ ویرایش: میله ها بدون توجه به اندازه محدوده مربوطه، اندازه پایه یکسانی دارند.
چگونه یک توزیع را شکل دهیم؟
66905
من یک مدل گرافیکی با متغیرهای باینری Y، X1، X2 و داده‌های مشاهده شده D دارم. D به Y بستگی دارد X1 و X2 به Y بستگی دارد وقتی Y نادرست است، X1 و X2 مستقل هستند: (D) <-- (Y) - -> (X1) | V (X2) با این حال، وقتی Y درست است، X1 و X2 مستقل نیستند و باید به صورت مشترک مدل شوند: (D) <-- (Y) --> (X1,X2) من سعی کردم متغیر لبه E بین X1 و X2 که تحت تاثیر Y است. وقتی Y غلط است می توانم رفتار صحیح را دریافت کنم، اما وقتی Y درست است نه: (D) <-- (Y) --> (X1) | ^ V E (X2) <- / (یعنی Y --> E و E --> X1 و E --> X2) اگر لبه های جهت دار را برعکس کنم به طوری که از X1 و X2 به E اشاره کنند، نمودار اخلاقی یک بار دیگر همیشه X1 و X2 را به عنوان مفصل در نظر می گیرد. بنابراین به نظر نمی‌رسد که نمی‌توانم استقلال وابسته به دولت را رمزگذاری کنم... آیا تئوری ثابتی در مورد چنین شبکه‌هایی وجود دارد (اگر چنین است این رابطه چه نامیده می‌شود)؟ آیا راهی برای رمزگذاری یا تبدیل نمودار با متغیرهای موقت یا چیزی وجود دارد که اگر D داده شده را می‌دانید، Y باید نادرست باشد، تا بتوانید از اولین نمودار (که X1 و X2 مستقل از Y هستند) استفاده کنید و سریع‌تر داشته باشید. استنباط؟ البته باید اشاره کنم که این یک نمونه اسباب بازی است. واقعی بزرگ است از کمک شما بسیار سپاسگزارم. و متاسفم برای نمودارهای ascii، من توسط گرگ ها بزرگ شدم.
استقلال وابسته به دولت در مدلهای گرافیکی
91754
من از یک مجموعه داده بسیار ساده از یک مقاله برای درک بیشتر GLMها استفاده می کنم. من داده ها را با استفاده از SAS وارد کرده ام و هر دو رویه PROC REG و PROC GENMOD را روی داده ها اجرا کرده ام. در روش PROC GENMOD، من از یک پیوند ورود به سیستم با توزیع نرمال استفاده کردم. در روش PROC REG، من از لاگ متغیر پاسخ در مدل استفاده کردم. سوال من این است که چرا تخمین پارامترهای دو روش مطابقت ندارند؟ درک من این است که PROC REG از OLS برای تخمین پارامترها استفاده می کند، در حالی که PROC GENMOD از MLE با فرآیند تکراری نیوتن رافسون برای تخمین استفاده می کند. اما من فکر می کردم که وقتی توزیع فرضی نرمال است و رابطه خطی است (که پس از تبدیل log، در GLM است، درست است؟)، MLE برابر با OLS است. در اینجا پارامترهای حاصل از اجرا آمده است: REG GENMOD A1 4.623 4.579 A2 4.688 4.730 A3 4.654 4.654 B1 (0.735) (0.741) B2 (0.487) (0.436: کد GLM) ورودی Y A1 A2 A3 B1 B2; lnY = LOG(Y); خطوط داده؛ 95 1 0 0 0 0 115 0 1 0 0 0 105 0 0 1 0 0 55 1 0 0 1 0 45 0 1 0 1 0 30 1 0 0 1 1 ; proc genmod data=GLM; مدل Y = A1 A2 A3 B1 B2 / dist=normal link=log scale=noint deviance ; وزن Y; اجرا؛ proc reg data=GLM; مدل lnY = A1 A2 A3 B1 B2 / noint; وزن Y; اجرا؛ هر بینشی که هر کسی می تواند کمک کند بسیار قدردانی می شود! سوال جایزه - در داده های من 6 معادله و 5 متغیر دارم. چرا یک فرآیند تکراری برای حل آن مورد نیاز است؟
SAS - REG در مقابل GENMOD؛ OLS در مقابل MLE
61008
من یک دانشجوی روان‌زبان‌شناسی با دانش کمی در آمار هستم و در مورد همبستگی اثرات ثابت در تابع lmer (بسته lme4) تردید دارم. بنابراین، اگر سوال من احمقانه است… هومم… متاسفم! متغیر پاسخ من RT (زمان واکنش در آزمایش خواندن خودگام) و متغیرهای مستقل من Ant (PP، NP) و Verbo (SG، PL) هستند. من داده‌ها را با رهگیری‌هایی برای Sujeitos (افرادی که کار را انجام می‌دهند) و Item (جملاتی که استفاده کرده‌ام) مدل‌سازی کرده‌ام، و درخواست اثرات اصلی و تعامل بین متغیرها را دارم. در اینجا مدل `lmer(RT~Ant*Verbo+(1|Sujeitos)+(1|Item))` و این ضرایب برای جلوه های ثابت است: ![Table Fixed Effects](http://i.stack.imgur. com/MM27e.jpg) بنابراین، من جدولی از ضرایب تعاملات تهیه کرده ام. مشکل من این است: که اثرات همبستگی -0.705 و -0.716 برای شرایط تعامل من مشکل دارند؟ این را می گویم زیرا ضرایب شرط NP:SG فقط از ضرایب SG آمده است: ![NP:SG](http://i.stack.imgur.com/vsYZo.jpg) و ضرایب برای PP :PL فقط از PP آمده است: ![PP:PL](http://i.stack.imgur.com/t0f8G.jpg) بنابراین، برای من، هیچ مشکلی وجود ندارد در اینجا، چون من PP:SG x PP (همبستگی = -0.705) را متضاد نمی‌کنم و PP:SG x SG را متضاد نمی‌کنم ((همبستگی = -0.716)). اما من این کار را هنگام بدست آوردن ضرایب برای PP:SG: x PP و SG. بنابراین، همبستگی می تواند یک مشکل باشد. آیا این درست است؟ و اگر چنین است، چگونه می توانم با این موضوع کنار بیایم؟ من برخی از افکار را در وبلاگ جیگر و در این کتاب خوانده ام: «Howell, 2010. Statistical Methods for Psychology»، اما کمک چندانی نمی کند. متشکرم.
همبستگی اثرات ثابت در lmer
41707
دو آزمایشگاه وجود دارد که نمونه های یکسان را اندازه گیری می کنند. یکی از داده های آزمایشگاه غیر طبیعی است، بنابراین من به دنبال یک آزمایش ناپارامتریک هستم. پس از مقایسه تفاوت‌های کلی در متغیر وابسته (مستمر) با استفاده از Wilcoxon Mann-Whitney، می‌خواهم تفاوت‌های بین آزمایشگاه‌ها را بر اساس متغیر سوم آزمایش کنم. تعدادی متغیر سوم وجود دارد که می‌خواهم آنها را آزمایش کنم، و برخی از آنها طبقه‌بندی هستند (2 سطح و 3 سطح) و دیگری ترتیبی (بر اساس ماه). کدام آزمون مناسب خواهد بود؟ در مورد تست ون الترن خوندم ولی خروجی SAS معنی نداشت. پیشاپیش متشکرم
کنترل آزمون غیر پارامتریک برای متغیر سوم
91757
من در حال کار بر روی یک تجزیه و تحلیل سری زمانی با 52 داده سه ماهه در مورد انواع عوامل تعیین کننده احتمالی انتشار CO $_2$ توسط حمل و نقل (CO$_2$ مالیات، تولید ناخالص داخلی، ضریب بار، حجم حمل و نقل) هستم. یعنی حداقل 3 متغیر مستقل خواهم داشت. من از Stata استفاده می‌کنم و می‌خواهم ببینم آیا رابطه بلندمدت و کوتاه‌مدتی بین آن‌ها وجود دارد، بنابراین یک فرآیند همگرایی را شروع کرده‌ام. 1. من یک آزمایش ADF برای آزمایش ریشه واحد انجام داده ام و 3 متغیر از 5 متغیر I(1) هستند اما 2 متغیر دیگر I(0) هستند. من اینجا در پاسخ دیگری خوانده ام که در یک مدل چند متغیره، حتی اگر I(0) و I(1) داشته باشید، می توان به هم انباشتگی ادامه داد. آیا این درست است و چگونه تفسیر نتایج را تغییر می دهد؟ 2. همچنین من یک مشکل اساسی برای جدا کردن VAR از VECM دارم. چه تفاوتی بین آنها وجود دارد؟ 3. آیا باید ابتدا VAR و سپس VECM انجام دهم یا فقط یکی از آنها؟ کدام دقیق تر است؟
مشکلات همگرایی با استفاده از Stata
41702
من سعی می کنم مشخص کنم که چرا با این پیاده سازی های مختلف تست Wilcoxson در R نسخه 2.15.2 نتایج متفاوتی دریافت می کنم. من داده ها را با برخی از پیوندها جفت کرده ام. من پاسخ مربوط به تفاوت بین wilcox.test و wilcox_test در R را خوانده ام، اما برخی از مقادیر p در داده های من بسیار متفاوت هستند. همچنین، من متوجه نمی شوم که چرا بسته سکه دارای دو عملکرد (wilcoxsign_test و wilcox_test) برای ایجاد یک نتیجه است. چه چیزی را از دست داده ام؟ داده‌های مثال من در اینجا آمده است: library('exactRankTests') # برای wilcox.exact library('coin') data <- data.frame( y = c(2770.00, 3160.00, 4120.00, 4510.00, 3320.00, 3320.00, 300.30.30. 3810.00، 3760.00، 6350.00، 2720.00، 3740.00، 5210.00، 3330.00، 4230.00، 3490.00، 3138.07، 3138.07، 2641.08، 2641.8. 4941.09، 5762.31، 3565.89، 3517.91، 3413.32، 3415.98، 3439.96، 2602.11، 2659.36، 3099.79، 2820.203، 2820. 4010.00، 2780.00، 2730.00، 3130.00، 2700.00، 3510.00، 3460.00، 2470.00، 2920.00، 3230.00، 3230.00، 3030.02، 33302. 2845.69، 2137.58، 3477.96، 3128.84، 3117.77، 4949.78، 3061.60، 2942.57، 3149.46، 3067.10، 3067.10، 3123، 3123، 3122.6. 3154.66)، شرط = ضریب (c(rep('A', 30), rep('B', 30)))، شرکت کننده = ضریب (تکرار (1:30، بار = 2)) هنگام تلاش برای بدست آوردن دقیق نتایج من wilcoxsign_test، wilcox_test، و wilcox.exact مستهلک شده را مقایسه کردم. wilcoxsign_test(y ~ شرط | شرکت‌کننده، داده=داده، جایگزین='کمتر'، توزیع = دقیق) ## آزمون دقیق رتبه‌بندی امضاشده Wilcoxon ## ## داده: y توسط x (نفی، pos) ## طبقه‌بندی شده توسط بلوک ## Z = -4.577، p-value = 3.818e-08 ## فرضیه جایگزین: mu واقعی کمتر از 0 است wilcox_test(y ~ شرط | شرکت‌کننده، داده=داده، جایگزین='بزرگتر'، توزیع = دقیق) ## آزمون جمع رتبه دقیق Wilcoxon Mann-Whitney ## ## داده: y با ## شرط (A, B) ## طبقه بندی شده توسط شرکت کننده ## Z = 4.15، p-value = 0.05913 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 wilcox.exact(y ~ شرط، داده=داده، جایگزین='بزرگتر'، دقیق=صحیح، جفت شده = TRUE) ## آزمون رتبه بندی امضا شده دقیق Wilcoxon ## ## داده: y بر اساس شرط ## V = 455، p -value = 3.818e-08 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 است. wilcox_test(y ~ شرط | شرکت کننده، داده = داده، جایگزین = بزرگتر، توزیع = تقریبی) ## ## آزمون مجموع رتبه ویلکاکسون من-ویتنی تقریبی ## ## داده: y با شرط ## (A, ب) ## طبقه بندی شده توسط شرکت کننده ## Z = 4.15، p-value < 2.2e-16 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 wilcoxsign_test است (y ~ شرط | شرکت کننده، داده = داده، جایگزین = کمتر، توزیع = تقریبی) ) ## طبقه بندی شده توسط بلوک ## Z = -4.577، p-value < 2.2e-16 ## فرضیه جایگزین: mu واقعی است کمتر از 0 wilcox.exact (y ~ شرط، داده = داده، جایگزین = بزرگتر، دقیق = FALSE، جفت شده = TRUE) ## تست رتبه مجانبی علامتدار Wilcoxon ## ## داده: y بر اساس شرط ## V = 455 ، p-value = 2.362e-06 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 است wilcox.test(y ~ شرط، داده = داده، جایگزین = بزرگتر، جفت شده = درست) ## اخطار: نمی توان مقدار p دقیق را با پیوندها محاسبه کرد ## ## تست رتبه امضا شده Wilcoxon با تصحیح پیوستگی ## ## داده: y با شرط ## V = 455، p-value = 2.481e-06 ## فرضیه جایگزین: تغییر مکان واقعی بزرگتر از 0 است pairwise.wilcox.test(data$y، data$condition، p.adj = هیچکدام، جفت شده = درست) ## اخطار: نمی توان مقدار p دقیق را با پیوندها محاسبه کرد ## ## مقایسه زوجی با استفاده از تست رتبه علامت دار Wilcoxon # # ## داده: data$y و data$condition ## ## A ## B 5e-06 ## ## روش تنظیم مقدار P: هیچ به عنوان یک مرتبط سوال چگونه می توانم آمار Wilcoxon مشاهده شده را برای wilcoxsign_test بدست بیاورم؟ می دانم که می توانید کارهای زیر را برای wilcox_test انجام دهید، اما به نظر نمی رسد برای wilcoxsign_test کار کند. w_t <- wilcox_test(y ~ شرط | شرکت کننده، داده = داده، جایگزین = بزرگتر، توزیع = دقیق) آمار (w_t، خطی) ## ## A 1128
در R، چرا نتایج برای wilcoxsign_test 1-tailed، wilcox_test و wilcox.exact با داده های جفت شده متفاوت است؟
47705
چگونه می توان نرخ تلاقی در محصولات را تخمین زد؟ در باید آزمایش شامل; کرت اصلی (1- بذر از مزرعه باز 2- بذر از قفس گرده افشان آزاد 3- بذر از قفس گرده افشان)، کرت فرعی (5 ژنوتیپ) و 50 بوته برای هر ژنوتیپ در هر کرت کشت شد. این در سه تکرار تخمین واریانس بین کرت های اصلی و کرت های فرعی آسان است اما سوال من در مورد واریانس ژنتیکی بین گیاهان در همان کرت است. و این به دلیل عبور از خارج خواهد بود.
چگونه می توان نرخ تلاقی در محصولات را تخمین زد؟
87059
من سعی می کنم سفارشات مشتری را پیش بینی کنم و می خواهم خطاهای پیش بینی بلادرنگ را در پیش بینی خود بگنجانم. بگو دوشنبه است و من پیش بینی می کنم که مشتری 100 عدد در روز چهارشنبه سفارش دهد. برای اینکه کارها تا حد امکان آسان شود، فرض کنید که او فقط یک سفارش در این هفته انجام می دهد. موارد زیادی وجود دارد که می‌خواهم پوشش دهم: * سفارش زودهنگام انجام می‌شود: اگر سفارشی برای 120 واحد در روز سه‌شنبه ببینم، می‌خواهم پیش‌بینی خود را به 0 واحد در روز چهارشنبه تنظیم کنم. * برخی از سفارش‌ها زودتر اتفاق می‌افتد: اگر سفارشی برای 60 واحد در روز سه‌شنبه ببینم، می‌خواهم پیش‌بینی خود را به 40 واحد در روز چهارشنبه تنظیم کنم. * سفارش دیر اتفاق می افتد: اگر چهارشنبه بگذرد و سفارشی وجود نداشته باشد، می خواهم پیش بینی خود را به 100 واحد در روز پنجشنبه تنظیم کنم. * و غیره. من هرگز مشکلی مانند این ندیده ام، که در آن پیش بینی آینده باید به نوعی به اشتباهات پیش بینی گذشته بستگی داشته باشد. یک مشکل دیگر این است که نویز زیادی در فرآیند زیربنایی وجود دارد، بنابراین حتی اگر بتوانم زمان بندی را 100% درست دریافت کنم، خطاهای پیش بینی زیادی را مشاهده می کنم. همچنین، ممکن است چندین سفارش در هفته وجود داشته باشد. با این حال، من 100٪ مطمئن هستم که این دستور انجام می شود. آیا کسی راهی برای مقابله با چنین مشکلاتی دیده است؟
استفاده از خطاهای پیش بینی بلادرنگ برای بهبود پیش بینی
79683
من آزمایشی را با 21 نفر انجام دادم. هر آزمودنی 80 کارآزمایی را برای 3 دسته مختلف آزمون (مجموع 240 کارآزمایی) انجام داد. کاری که اکنون باید انجام دهم این است که به دنبال رابطه ای بین دسته 1/2/3 برای هر یک از 80 کارآزمایی بگردم و باید این کار را با جمع کردن همه داده های آزمودنی ها به گونه ای انجام دهم که گویی توسط یک موضوع واحد تولید شده اند. آیا کسی ایده ای در مورد نحوه انجام این کار دارد؟ همچنین من یک متغیر وابسته طبقه بندی برای هر یک از 80 کارآزمایی دارم، چگونه می توانم یک رگرسیون انجام دهم که دوباره همه آزمودنی ها را در یک واحد جمع می کند و از دسته 1/2/3 به عنوان متغیرهای مستقل استفاده می کند؟ در نهایت، در این مورد، آیا باید از یک رگرسیون استفاده کنم که این واقعیت را در نظر بگیرد که داده ها توسط 21 فرد مختلف تولید شده است؟ ممنون با آرزوی بهترین ها، آندریا
تجزیه و تحلیل همبستگی با موضوعات درهم شکسته
94502
من با درختان تصمیم تازه کار هستم و در مورد نحوه مدیریت متغیرهای فاکتور و متغیرهای کاراکتر/رشته غیر مرتبه در یک تقسیم سردرگمی دارم. فرض کنید من فاکتوری مانند کوچک، کوچک، متوسط، بزرگ، بزرگ دارم که در آن سطوح مهم هستند. چگونه یک درخت تصمیم برای یافتن بهترین تقسیم تلاش می کند؟ آیا فقط 4 تقسیم آشکار را بررسی می کند، یا تقسیمات را برای ترکیبات عجیب و غریب مانند، ریز یا بزرگ، اما نه کوچک متوسط ​​یا بزرگ بررسی می کند؟ به طور مشابه، درخت تصمیم چگونه تقسیم را برای یک متغیر کاراکتر نامرتب مانند نیواورلئان، بیرمنگام، جکسون، میامی، آتلانتا بررسی می کند؟ من از بسته rpart در R استفاده می کنم زیرا سعی می کنم این موارد را یاد بگیرم، بنابراین هرگونه ارجاع به پیاده سازی rpart مفید خواهد بود. با تشکر
درخت تصمیم - متغیرهای عامل تقسیم
28905
من با آمار نسبتاً تازه کار هستم و می دانم که سؤال من ممکن است کاملاً اشتباه باشد. من الگوریتم خودم را در مقابل الگوریتم دیگری آزمایش می کنم. در حالی که خروجی ها یکسان نیستند، می خواهم نشان دهم که تفاوت ها از نظر آماری ناچیز هستند. چگونه می توانم این را کمیت کنم تا منظورم را بیان کنم؟
چگونه بی اهمیت بودن آماری را کمی کنیم؟
28904
من یک توسعه دهنده مجرد مشتاق هستم که روی یک ایده راه اندازی کوچک کار می کنم. من یک مجموعه از خود را با استفاده از «gensim» به فضای برداری LSA/LDA کاهش دادم. اکنون من یکسری موضوعات دارم و مطمئن نیستم که چگونه اسناد مجموعه را دسته بندی کنم. من می بینم که برخی از افراد از k-means برای خوشه بندی موضوعات استفاده می کنند. میشه لطفا یکی توضیح بده؟ * * * بنابراین من مقداری برای خواندن درست LDA/LSA داشتم و نگاهی به منبع gensim انداختم. من متوجه نشدم که ماتریس شباهت در واقع یک ماتریس MXM است که در آن M تعداد اسناد موجود در مجموعه من است، فکر کردم MXN است که در آن N تعداد موضوعات است. با استفاده از ماتریس به عنوان ورودی برای تابع پیوند scikit، توانستم یک خوشه heirachical ایجاد کنم. خوب، من توانستم این کار را برای 1000 سند در مجموعه خود انجام دهم (برای مدیریت یک مجموعه بزرگ به رم بیشتری نیاز دارم).
چگونه موضوعات LDA/LSI تولید شده توسط gensim را خوشه بندی کنیم؟
27961
من سعی می کنم با استفاده از جعبه ابزار Matlab's Dimensionality Reduction، کاهش ابعاد را روی مجموعه ای از تصاویر (~3000 پیکسل) اعمال کنم. با این حال، من اطلاعات کمی در مورد کاهش ابعاد دارم. بنابراین چندین عملکرد را با آزمون و خطا امتحان کردم. PCA یک ماتریس با اعداد مختلط را برگرداند و بقیه MATLAB را مسدود کردند. آیا می توانم در مورد اینکه کدام روش روی تصاویر خوب عمل می کند، راهنمایی دریافت کنم؟ در اینجا تعدادی از تصاویر آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fi7kJ.jpg)
کاهش ابعاد برای طبقه بندی بافت ها با متلب
17756
من می خواهم وضعیت یک سیستم را از دو مشاهدات مجزا و متفاوت تخمین بزنم. یک رویکرد ساده که من در برخی از ادبیات دیده‌ام، ترکیب بردارهای ویژگی (مشاهدات) با به هم پیوستن آنهاست. بنابراین اگر مشاهده اول $x \in \Re^{10}$ و دومی با $y \in \Re^5$ نشان داده شود، یک ویژگی منفرد (ترکیب) $z \in \Re^{15 بدست می‌آوریم. }$. من فقط دیده‌ام که این تکنیک (به ظاهر کورکورانه) بدون هیچ بحثی در مورد آنچه واقعاً زیر سرپوش می‌گذرد، اعمال می‌شود. **سوالات** 1. چه زمانی این رویکرد معنا دارد و چه زمانی معنا ندارد؟ دیدن نمونه ای از آنچه در حال وقوع است و چرا این رویکرد کار می کند یا کار نمی کند بسیار عالی است. 2. آیا کاری وجود دارد که باید برای دو ویژگی ($x$ و $y$) قبل از الحاق آنها انجام شود؟ (مثلاً مقیاس‌بندی/نرمال‌سازی؟) 3. آیا چیزی وجود دارد که به این رویکرد کمک کند؟ (به عنوان مثال کاهش ابعاد)
چرا به هم پیوستن بردارهای ویژگی منجر به تخمین بهتر می شود؟
28906
من اخیراً آزمایشی را انجام دادم که تأثیر سه عامل سیستم (عامل A؛ عامل B؛ عامل C) را بر نگرش کاربران (مقیاس 4 آیتمی) ارزیابی می کرد. هر عامل سیستم دارای دو سطح (بالا در مقابل پایین) بود. در نتیجه، آزمایش من نه شرط داشت: هشت شرایط درمانی (منعکس کننده طرح 2x2x2) به اضافه یک گروه کنترل. آزمودنی‌های گروه کنترل از سیستم «پایه» استفاده کردند که در آن هیچ یک از سه عامل سیستم وجود نداشت. برای تجزیه و تحلیل داده‌هایم، در نظر دارم دو ANOVA را اجرا کنم: (1) یک ANOVA یک طرفه که گروه کنترل را با میانگین کلی درمان مقایسه می‌کند و (2) یک ANOVA 2x2x2 که سه عامل و تعامل آنها را مقایسه می‌کند. با این حال، این به من اجازه نمی دهد که سه عامل را به طور همزمان با گروه کنترل مقایسه کنم. چگونه می توان این کار را انجام داد؟ ANOVA تو در تو؟ هر گونه پیشنهاد تا حد زیادی قدردانی می شود.
2x2x2 به علاوه گروه کنترل: ANOVA تو در تو؟
41703
تصمیم گیری در مورد اینکه کدام یک از یک آزمون تی دو نمونه ای و یک آزمون مجذور کای برای این نوع سوالات مناسب تر است، مشکل دارم. به عنوان مثال: 70 نفر از 120 آمریکایی دوست دارند هات داگ. 50 نفر از 95 اروپایی هات داگ را دوست دارند. آیا این دو گروه در نظرات هات داگ خود با هم تفاوت دارند؟ از 1000 نفر از قفقازی ها، آفریقایی-آمریکایی ها و آسیایی ها پرسیده شد که آیا پیاز قرمز، سفید یا زرد را ترجیح می دهند (تعداد ارائه شده در جدول). آیا پاسخ دهندگان از قومیت های مختلف در پاسخ های خود متفاوت هستند؟ من متوجه شدم که آن سوالات کمی متفاوت بیان شده اند - فکر می کنم ممکن است این جمله بندی باشد که آنها را متمایز می کند؟ در هر صورت، من در مورد اینکه کدام یک از این دو تست مناسب تر است، سردرگم هستم.
اگر تعداد جمعیت‌های مختلف واقعاً متفاوت است، کدام آزمون آماری را آزمایش کنیم؟ آزمون t در مقابل مجذور کای
15425
لطفاً به من اطلاع دهید که چگونه می توان خوشه بندی بازگشتی را در R انجام داد؟ نحوه دادن ورودی اولین تکرار خوشه به بعدی و غیره. هر آموزشی در این زمینه کمک بزرگی خواهد بود.
چگونه می توان خوشه بندی بازگشتی را در R انجام داد؟
88080
من می دانم که این مشخصات کلی برای یک گروه واحد است: $Y_i$ = $\beta_0$ + $\beta_1$*time + $\beta_2$*post + $\beta_3$*timepost که در آن time یک متغیر پیوسته است که نشان می دهد زمان (به عنوان مثال، ماه) هر مشاهده در مطالعه؛ «پست» نشانگر این است که آیا مشاهده پس از معرفی مداخله است یا خیر. و «پست زمانی» زمان از زمان معرفی مداخله است (0 اگر قبل از مداخله باشد). مشخصات صحیح برای یک رگرسیون تقسیم‌بندی شده داده‌های سری زمانی منقطع با یک گروه مقایسه غیرمعادل چیست؟
مشخصات صحیح برای یک رگرسیون تقسیم‌بندی شده داده‌های سری زمانی منقطع با یک گروه مقایسه غیرمعادل چیست؟
15426
من در حال انجام تجزیه و تحلیل رگرسیون چندگانه هستم و مطمئن نیستم که آیا نقاط پرت در داده های من باید حذف شوند یا خیر. داده هایی که من نگران آنها هستم به صورت دایره در نمودارهای SPSS ظاهر می شوند، اما هیچ ستاره ای وجود ندارد (که باعث می شود فکر کنم آنقدرها هم بد نیستند). مواردی که من نگران آنها هستم در زیر جدول تشخیص موردی در خروجی ظاهر می شوند - بنابراین آیا باید این موارد را حذف کنم؟
آیا هنگام انجام رگرسیون چندگانه مواردی را که توسط نرم افزارهای آماری به عنوان پرت پرچم گذاری شده اند حذف کنیم؟
28909
من با سناریویی مواجه شده ام که در آن 10 سیگنال/نفر برای 10 نفر (بنابراین 100 نمونه) حاوی 14000 نقطه داده (ابعاد) دارم که باید آنها را به یک طبقه بندی کننده منتقل کنم. من می خواهم ابعاد این داده ها را کاهش دهم و به نظر می رسد PCA راهی برای انجام این کار باشد. با این حال، من فقط توانستم نمونه هایی از PCA را پیدا کنم که تعداد نمونه ها بیشتر از تعداد ابعاد باشد. من از یک برنامه PCA استفاده می کنم که رایانه های شخصی را با استفاده از SVD پیدا می کند. وقتی مجموعه داده 100x14000 خود را ارسال می کنم، 101 رایانه شخصی بازگردانده می شود، بنابراین اکثریت قریب به اتفاق ابعاد به وضوح نادیده گرفته می شوند. این برنامه نشان می دهد که 6 رایانه اول 90 درصد واریانس را شامل می شوند. آیا این فرض معقول است که این 101 رایانه شخصی اساساً همه واریانس ها را دارند و ابعاد باقی مانده قابل چشم پوشی هستند؟ یکی از مقالاتی که خوانده‌ام ادعا می‌کند که با استفاده از مجموعه داده‌ای مشابه (هر چند با کیفیت کمی پایین‌تر) نسبت به من، آنها توانستند 4500 بعد را به 80 کاهش دهند و 96٪ از اطلاعات اصلی را حفظ کنند. دست کاغذ بر روی جزئیات تکنیک PCA استفاده شده، تنها 3100 نمونه در دسترس بود، و من دلیلی دارم که باور کنم نمونه های کمتری نسبت به آن برای انجام واقعی PCA (برای حذف سوگیری از مرحله طبقه بندی) استفاده شده است. آیا من چیزی را از دست داده ام یا واقعاً این روشی است که PCA با مجموعه داده های نمونه با ابعاد بالا و حجم کم استفاده می شود؟ هر گونه بازخورد بسیار قدردانی خواهد شد.
PCA زمانی که ابعاد بیشتر از تعداد نمونه ها باشد
15429
در این تحقیق، همبستگی و همبستگی ناهمسانی در تحلیل داده‌های تابلویی شناسایی می‌شوند. من می توانم آنها را به طور جداگانه در stata با دستور xtregar و robust حل کنم. با این حال، من نمی توانم راهی برای حل هر دو مشکل به طور همزمان پیدا کنم. در صورت امکان، لطفاً به من نشان دهید که چگونه می توان مشکل همبستگی خودکار و ناهمگونی را برای داده های پانل در یک برآورد تعمیر کرد. با استفاده از Stata عالی خواهد بود، اما SPSS نیز خوب است.
خودهمبستگی و هتروسکداستیکی در داده های تابلویی
110725
من یک مجموعه داده پانل نامتعادل با بیش از 400000 مشاهده در طول 20 سال دارم. متغیر پانل من شناسه شخص و متغیر سری زمانی من سال است. این افراد از سراسر آلمان هستند، به این معنی که آنها از مناطق مختلف هستند. برای توضیح همبستگی های احتمالی بین افراد در همان مناطق، می خواهم از خطاهای استاندارد خوشه ای در رگرسیون اثرات ثابت خود استفاده کنم. کد Stata به این صورت است: xtreg depvar var1 var2 ... varN if year > 1990, fe vce(cluster clustvar) ابتدا از متغیر region استفاده کردم که یک متغیر عددی است که نشان می دهد مشاهده (شخص) در کدام منطقه زندگی می کند. به عنوان متغیر خوشه (clustvar). البته، من با خطای پانل ها در داخل خوشه ها تو در تو قرار ندارند دریافت کردم، زیرا فراموش کردم که افراد در مناطق مختلف حرکت می کنند به طوری که در بیش از یک منطقه ظاهر می شوند. برای رفع این مشکل، من می‌خواستم از یک متغیر region-year استفاده کنم که یک متغیر عددی است که سال و منطقه را نشان می‌دهد. برای تجسم متغیر، عصاره زیر از مجموعه داده من شامل متغیر region-year ممکن است کمک کند: منطقه سال منطقه-سال 1 1991 2000 1 1992 3000 2 1991 2500 2 1992 3500 2 1993 4500 توجه داشته باشید که این عصاره وجود ندارد. شناسه شخص مقادیر region-year در این مثال خودسرانه انتخاب شده اند. به نظر من، فقط مهم است که همه مشاهدات متعلق به یک منطقه در یک سال، بدون توجه به اینکه این عدد چگونه به نظر می رسد، یک عدد باشد. درست میگم؟ اجرای رگرسیون xtreg depvar var1 var2 ... varN اگر سال > 1990، fe vce (منطقه خوشه‌ای-سال) نیز باعث خطای پانل‌ها درون خوشه‌ها تودرتو نیستند می‌شود. اما نمی دانم چرا.
خطای Stata: پانل ها درون خوشه ها تودرتو نیستند
110722
من یک مجموعه داده بزرگ دارم که می‌خواهم با استفاده از الگوریتم کروی K معنی خوشه‌بندی کنم. با این حال من با این موضوع و به طور کلی R نسبتاً تازه کار هستم. بیشتر دانش من به صورت خودآموز است و من هنوز در مراحل ابتدایی هستم - در چند روز گذشته همه چیز را در مورد K معنی خوشه‌بندی خوانده‌ام و می‌خواهم آن را در پروژه خود اعمال کنم (184 ردیف از 4000+ ستون حاوی اندازه‌گیری‌ها در مقادیر اعشاری). چگونه و از کجا شروع کنم؟ من سعی می‌کنم به خودم یاد بدهم که چگونه این کار را در R انجام دهم، اما به نظر نمی‌رسد نمونه‌هایی را به صورت آنلاین در مورد نحوه انجام این کار پیدا کنم، یا حداقل در مورد من صدق نمی‌کند. می خواستم بدانم که آیا کسی در اینجا درباره یک آموزش گام به گام می داند یا به اسکریپتی دسترسی دارد که در آن k کروی به معنای خوشه بندی در R انجام شده است، و آیا می توانید آن را با من به اشتراک بگذارید. من چند مقاله پیدا کرده ام اما آنها بسیار پیشرفته هستند و بیشتر آنها برای خوشه بندی متن هستند و نه مقادیر عددی. امیدوارم این سوال خیلی مبهم نباشد. آیا کسی تجربه ای در این زمینه دارد و می تواند مرا راهنمایی کند که برای شروع چه مراحلی را باید طی کنم؟ در اینجا مبتدی مطلق است، بنابراین اگر من کاملاً اشتباه می کنم که چنین سؤالی را در این پلتفرم بپرسم عذرخواهی می کنم. از اینکه وقت خود را برای خواندن این مطلب اختصاص دادید متشکرم!
کروی K-means Clustering در R
28903
آیا کسی می تواند به من نشان دهد که چرا برای یک تابع توزیع $F$ در $(0,\infty)$, $0 < y \leq x$، موارد زیر صادق است: $\frac{F(x)-F^{*2}( x)}{\overline{F}(x)}=\int\limits_{0}^{x}\frac{\overline{F}(x-t)}{\overline{F}(x)}dF(t ) دلار ویرایش: $F^{*2}$ مخفف پیچیدگی $F$ با خودش است: $F^{*2}= F \star F = \int\limits_0^x F(x-y)dF(y)$ $ \overline{F}=1-F$
چگونه می توان یک هویت خاص را که شامل CDF یک متغیر تصادفی پیوسته و کاملاً مثبت است، اثبات کرد؟
95122
ما x1 و x2 داریم که نشان دهنده تغییرات دما و فشار است و پاسخ تولید پنی سیلین است. دلیل عملی استفاده از نقاط (-1،-1)، (-1،1)، (1،-1)، (1،1) به جای استفاده از (0.0) در محل (-1،) چیست. -1)؟ آیا به این دلیل است که استفاده از (0,0) آن را مجبور به عبور از مبدا می کند؟ همچنین، آیا تکرار آن چهار نقطه سه بار طرح معقولی است؟
طراحی آزمایش
66906
من در حال ساخت مدلی برای پیش‌بینی یک نتیجه باینری (بله/خیر) هستم. من یک نمونه یادگیری دارم که به ماشین 1500 نمونه از گروه بله و 500 نمونه از گروه نه می دهد. آیا باید از تمام داده هایی که برای ورودی دارم برای یادگیری ماشین استفاده کنم؟ آیا این نسبت به بله تعصب دارد؟ فکر می‌کردم 500 مثال «بله» و 500 «نه» بیاورم، اما مطمئن نیستم که آیا این پیش‌بینی‌های آینده من را مثبت یا منفی می‌کند. با تشکر
نمونه یادگیری ایده آل در یادگیری ماشین
79980
من یک مدل مارکوف پنهان (HMM) از یک داده متوالی خاص با استفاده از نمونه گیری گیبس آموخته ام. من موفق به بدست آوردن احتمالات انتقال (ماتریس انتقال) زنجیره مارکوف و پارامترهای توزیع احتمال حالت های پنهان شده ام. تنها مجموعه پارامترهایی که من هنوز توانسته ام به دست بیاورم، احتمالات اولیه $\pi$ هستند که مشخص می کنند زنجیره مارکوف از کجا شروع می شود. بنابراین با توجه به پارامترهایی که من تخمین زده ام، آیا راهی برای محاسبه $\pi$ وجود دارد؟ یا چگونه می توانم نمونه گیبس را برای پیدا کردن $\pi$ مشخص کنم؟
احتمالات اولیه یک HMM
47707
در مدل AR(1) $y_{t}=\beta_{0}+\beta_{1}y_{t-1}+u_{t}$، با فرض $E(u_{t-1}|y_{ t-1},y_{t-2}...)=0$، چگونه قانون انتظارات تکراری تضمین می کند که خطاها باید ناهمبسته باشند: $E(u_{t}u_{s}|x_{t},x_{s})=0$؟
AR1 و قانون انتظارات تکراری: هیچ همبستگی سریالی وجود ندارد
47706
ما یک data-point x و کلاس های زیادی داریم. فرض کنید $P(c|x)$ احتمال اینکه $x$ از کلاس $c$ باشد. $c_1$ محتمل ترین کلاس برای $x$ (یعنی $P_1=P(c_1|x)$ بالاترین احتمال است)، $c_2$ دومین کلاس محتمل برای $x$ (یعنی $P_2=P( c_2|x)$ دومین احتمال بالاتر است ($P_1> P_2$)). بدیهی است که وقتی $P_1$ نزدیک به P2 باشد (یعنی $P_1P_2$ کوچک یا نزدیکتر به 0 باشد) مطمئن نیستیم که $c_1$ یا $c_2$ کلاس واقعی $x$ است یا خیر، در این صورت مفید است که بخواهیم برچسب واقعی $x$. ما $u$ را به عنوان یک مقدار آستانه برای تفاوت بین بالاترین و دومین احتمال بالاتر تعریف می کنیم (آستانه ای برای $P_1$-P2). بنابراین، اگر $P_1-P_2 > u$ باشد، می‌توانیم (با مقداری هزینه) کلاس واقعی $x$ را بخواهیم (به آن توجه کنیم $c_x$). $c_1$ (کلاس پیش‌بینی‌شده برای $x$) معمولاً برابر با cx است، اما ممکن است گاهی اوقات برابر نباشد. با توجه به این مشکل، من می خواهم مقدار خوبی برای پارامتر $u$ یاد بگیرم. برای انجام این کار، در حال حاضر، من فقط u را روی یک مقدار اولیه قرار می دهم (به عنوان مثال $u=0.2$) و سپس این مقدار را بر اساس اینکه $c_1$ برابر است یا نه $c_x$ تنظیم می کنم: اگر $c_1 = c_x$، مقدار بیشتری دریافت می کنیم. مطمئن باشید و بنابراین مقدار $u$ را کاهش دهید (به عنوان مثال $u=u-\epsilon$)، در غیر این صورت (زمانی که $c_1$!= cx) اطمینان کمتری پیدا می کنیم و بنابراین مقدار u را افزایش دهید (به عنوان مثال $=u+\epsilon$)، که برای مثال $\epsilon=0.01$. **سوال:** آیا بهتر از این وجود دارد که چرا مقدار $u$ را یاد بگیریم؟ (با فرض اینکه می‌توانیم با مقدار اولیه u شروع کنیم تا در ابتدا داده‌های برچسب‌دار به دست آوریم، یا فرض کنیم که زیر مجموعه‌ای از داده‌های برچسب‌دار دارم که می‌توانم از آنها برای یادگیری مقدار $u$ استفاده کنم).
یادگیری مقدار یک پارامتر با پیش بینی درست یا نادرست برای هر نقطه داده x
56324
به یک فرد 10 تصویر نمونه (بر اساس همان تصویر) با تکنیک های مربوطه در مورد نحوه به دست آوردن تصویر داده می شود. من می‌خواهم نقشه بیت ماتریسی تصویر 10 تصویر روی تصویر ایجاد شده توسط شخص را به‌عنوان روشی ناخالص برای دانستن اینکه شخص از کدام تصاویر کپی کرده است، رگرسیون کنم. من فرض می کنم که اگر شخص از یک شخص خاص کپی کرده باشد، پیکسل های متناظر بیشتری نسبت به افراد دیگر خواهد داشت. آیا چیزی به نام رگرسیون ماتریسی وجود دارد؟ آیا کسی می تواند به من روش های ممکن دیگر را راهنمایی کند؟ من همچنین یک مقیاس رتبه بندی از ویژگی های موجود در هر تصویر دارم. با هدفی مشابه، می‌خواهم امتیازهای فرعی مقیاس رتبه‌بندی تصاویر نمونه را به زیرامتیاز تصویر شخص خاص برگردانم. من تصور می کنم می توان از همان تکنیک رگرسیون استفاده کرد. به امید اینکه کسی در آنجا بتواند تکنیکی را به من نشان دهد که به من اجازه دهد این کار را انجام دهم.
رگرسیون تصویر ماتریسی یا رگرسیون خرده مقیاس ها
48828
متغیر پاسخ در مدل لاجیت سفارشی من دارای 5 دسته است که از «1 = کاملاً مخالفم» تا «5 = کاملاً موافقم» است. با این حال، تنها 0.3٪ از مشاهدات در دسته 1 قرار می گیرند (4 مشاهده از 1320). این باعث ایجاد برخی مشکلات مانند عدم امکان تست فرض خطوط موازی (تست برانت) در Stata شده است. همچنین، تلقی این 4 مشاهده به عنوان داده های مفقود، ضرایب/سطوح معناداری مدل را به طور قابل توجهی تغییر می دهد، که تا آنجا که 4 مشاهده نباید تأثیر زیادی روی مدل داشته باشد، من را نگران می کند. آیا اجرای مدل با 4 مشاهده تنظیم شده روی از دست رفته مناسب است؟ یا باید متغیر وابسته را بدون تغییر رها کنم؟ هر گونه پیشنهاد دیگر استقبال می شود. با تشکر
متغیر ترتیبی با 0.3 درصد مشاهدات در یک دسته - حذف، نادیده گرفته شود؟
7723
ما در حال یادگیری توابع محوری، آمار آزمون و آزمون فرضیه ها در دانشگاه هستیم، اما معنی ندارد. سعی کرده‌ام کتاب درسی/یادداشت‌هایم را بخوانم، مثال‌ها را مرور کنم، اما مفاهیم به نظر یک حدس تصادفی می‌رسند و نمی‌دانم که چگونه می‌توانم حتی شروع به حدس زدن کنم. ### قسمت اول لطفاً نحوه محاسبه تابع pivot را توضیح دهید؟ به عنوان مثال $X_{1}،\dots،X_{n} \sim N(\mu، \sigma^2)$. تابع Pivot برای $\sigma^2$ زمانی که $\mu$ شناخته شده است و زمانی که $\mu$ ناشناخته است. چرا ناشناخته بودن $\mu$ اهمیت دارد؟ همچنین چگونه تابع محوری را برای نسبت دو واریانس ($\sigma_{x}^2$ و $\sigma_{y}^2$) محاسبه می‌کنید؟ آیا توزیع F است؟ فرض کنید $\mu_x$ و $\mu_y$ شناخته شده هستند و $X_1,\dots,X_n \sim N(\mu_x,\sigma_x^2)$ و $Y_1,\dots,Y_n \sim N(\mu_y, \sigma_y ^2) دلار. ### قسمت دوم لطفاً توضیح دهید که چگونه یک آمار تست را محاسبه کنم (من متوجه شدم که چگونه می توانم آمار آزمایشی را نشان دهم اما نمی دانم چگونه از ابتدا یک آمار را تشکیل دهم). در آخر، من چند سوال در مورد آزمون فرضیه دارم. من واقعاً نمی دانم که چگونه می توان قدرت یک آزمون را محاسبه کرد یا حتی معنای آن را صادقانه بگویم. مجموعه کاملی از تئوری ها و تعاریف زیادی وجود دارد، اما آنها کاملاً انتزاعی هستند، بنابراین من اصلاً آن را نمی فهمم ... من نماد یا نحوه محاسبه اندازه / قدرت یک آزمون را نمی فهمم (شکل عمومی - نه فقط با اعداد). مثال: $X \sim N(\mu, \sigma^2)$. $H_0: \mu >= \mu_0$ و $H_1: \mu < \mu_0$. $\mu$ و $\sigma$ ناشناخته است. قدرت و اندازه این تست را محاسبه کنید. اصلا چطور شروع کنم؟ من خیلی گیج شدم :( من واقعاً با همه اینها گیر کردم و امیدوارم بتوانید به من کمک کنید! :) اگر منبع بهتری برای کمک وجود دارد لطفاً به من اطلاع دهید. ویرایش 1: با تشکر از پاسخ شما. من از استادم خواستم توضیح بدهد... اما در نهایت گیج تر شدم. او موافق است که یادداشت ها نامشخص هستند اما آنها را اصلاح نمی کند زیرا به نظر می رسد دیگران آنها را دریافت می کنند! :( من هم پیش معلم کلاسم رفتم و چندین بار فصل استنتاج آماری را خواندم - اصول اولیه را می‌دانم اما هنوز بیشتر آن را واقعاً درک نمی‌کنم. من در گوگل جستجو کردم - و ویکی‌پدیا را خواندم - اما این فقط تئوری بیشتر و بیشتر است. بدون مثال های گام به گام توضیح می دهد که همه چیز به طور تصادفی انتخاب شده و حدس زده می شود و از این رو سردرگمی گسترده من - نمی توانم این را بخوانم. $$T_{X}=\sum_{i=1}^{N}\Big(\frac{X_{i}-\mu_{X}}{\sigma{X}}\Big)^{2} \ sim \chi^{2}(N)$$ آیا قرار است در نماد ریاضی باشد هنگامی که من Pivot را داشته باشم، محاسبه CI کاملاً ساده است، اما این محور است که باعث ایجاد مشکلات می شود: وقتی که mu شناخته شده است تابع pivot نیست آیا نامعلوم بودن mu اهمیت دارد؟ آیا توزیع F است؟ فرض کنید mu x و mu y شناخته شده هستند و X1....Xn - N(mu x,sigmax^2) و Y1...Yn -N(mu y, sigmay^2). آیا 1/Fn-1، m-1 = Fm-1،n-1 است؟ و سوالات آزمون فرضیه بالا لطفا…. آیا می توانید کمی در این مورد روشن کنید لطفا؟ ویرایش 2: من از استادم خواستم توضیح دهد... اما در نهایت گیج تر شدم. او موافق است که یادداشت ها نامشخص هستند اما آنها را اصلاح نمی کند زیرا به نظر می رسد دیگران آنها را دریافت می کنند! :( من هم پیش معلم کلاسم رفتم و چندین بار فصل استنتاج آماری را خواندم - اصول اولیه را می‌دانم اما هنوز بیشتر آن را واقعاً درک نمی‌کنم. من در گوگل جستجو کردم - و ویکی‌پدیا را خواندم - اما این فقط تئوری بیشتر و بیشتر است. بدون مثال های گام به گام توضیح می دهد که همه چیز به طور تصادفی انتخاب شده و حدس زده می شود و از این رو سردرگمی گسترده من - نمی توانم این را بخوانم. $$T_{X}=\sum_{i=1}^{N}\Big(\frac{X_{i}-\mu_{X}}{\sigma{X}}\Big)^{2} \ sim \chi^{2}(N)$$ آیا قرار است در نماد ریاضی باشد هنگامی که من Pivot را داشته باشم، محاسبه CI کاملاً ساده است، اما این محور است که باعث ایجاد مشکلات می شود: وقتی که mu شناخته شده است تابع pivot نیست آیا نامعلوم بودن mu اهمیت دارد؟ آیا توزیع F است؟ فرض کنید mu x و mu y شناخته شده هستند و X1....Xn - N(mu x,sigmax^2) و Y1...Yn -N(mu y, sigmay^2). آیا 1/Fn-1، m-1 = Fm-1،n-1 است؟ و سوالات آزمون فرضیه بالا لطفا…. آیا می توانید کمی در این مورد روشن کنید لطفا؟
کمیت های محوری، آمار آزمون و آزمون های فرضیه
15423
صفحه راهنما برای پریسم توضیح زیر را برای نحوه محاسبه باندهای پیش بینی برای رگرسیون غیر خطی ارائه می دهد. لطفاً نقل قول طولانی را ببخشید، اما من پاراگراف دوم را دنبال نمی کنم (که توضیح می دهد که چگونه $G|x$ تعریف می شود و $dY/dP$ محاسبه می شود). هر گونه کمکی بسیار قدردانی خواهد شد. > محاسبه باندهای اطمینان و پیش بینی نسبتاً استاندارد هستند. > برای جزئیات نحوه محاسبه پیش بینی و اطمینان > باندهای رگرسیون غیرخطی به ادامه مطلب بروید. > > ابتدا، اجازه دهید G|x را تعریف کنیم، که گرادیان پارامترها در یک مقدار خاص X و با استفاده از تمام مقادیر مناسب پارامترها است. > نتیجه یک بردار با یک عنصر در هر پارامتر است. برای هر پارامتر، > به صورت dY/dP تعریف می شود، که در آن Y مقدار Y منحنی با توجه به > مقدار خاص X و تمام مقادیر پارامتر مناسب است، و P یکی از > پارامترها است.) > > G'|x آن بردار گرادیان است که جابجا شده است، بنابراین یک ستون است نه یک ردیف > از مقادیر. > > Cov ماتریس کوواریانس است (هسین معکوس از آخرین تکرار). این یک ماتریس مربع مربع است که تعداد سطرها و ستون ها برابر با تعداد پارامترهای > است. هر آیتم در ماتریس کوواریانس بین دو پارامتر > است. > > اکنون c = G'|x * Cov * G|x را محاسبه کنید. نتیجه یک عدد واحد برای هر مقدار از X است. > > باندهای اطمینان در بالا و پایین منحنی گسترش می یابند: = > sqrt(c)*sqrt(SS/DF)*CriticalT(اعتماد، DF) > > باندهای پیش بینی فاصله بیشتری را در بالا و پایین منحنی گسترش می دهند، > برابر است با: = sqrt(c+1)*sqrt(SS/DF)*CriticalT(اعتماد، DF)
چگونه باندهای پیش بینی را برای رگرسیون غیر خطی محاسبه کنیم؟
50819
به دلایلی به دلیل راحتی ریاضی، هنگام یافتن MLE ها (تخمین حداکثر احتمال)، اغلب تابع log-relihood است --- بر خلاف تابع درستنمایی استاندارد --- که حداکثر می شود. از آنچه من جمع آوری کرده ام، این رویکرد به عنوان یک نتیجه از ماهیت افزایشی یکنواخت تابع لگاریتم (طبیعی) معتبر تلقی می شود. درک من از یک تابع افزایش یکنواخت این است: برای همه $x$ و $y$ (تعریف شده بر روی زیر مجموعه ای از واقعی)، اگر $x \leq y$ پس $f(x) \leq f(y)$. با این حال، به نظر نمی رسد که این مورد برای همه توابع log-lihood باشد. به عنوان مثال: برای تابع log-likelihood $\text{Gamma}(3, 5)$، اگر $x = 0.15$ و $y = 0.46$، سپس $f(x) = -0.59$ و $f(y ) = -1.19 دلار. واضح است که من این مفهوم را اشتباه متوجه شده ام. اساساً، حدس می‌زنم می‌پرسم آیا کسی (ترجیحاً از نظر ریاضی) می‌تواند دلیل را نشان دهد: $$ \hat{\theta} = \text{max} \text{} L(\theta) = \text{max} \text{ } \text{log} \text{ } L(\theta) $$ که در آن $\hat{\theta}$ MLE برای یک تابع درستنمایی معین است.
اعتبار حداکثر کردن احتمال ورود به سیستم برای تخمین حداکثر احتمال
76723
من سعی می کنم بفهمم چه زمانی از الگوریتم های MCMC استفاده می شود. من می توانم تخمین چگالی را با MLE برای موارد غیر خطی درست مانند موارد خطی و EM برای متغیرهای پنهان و مقادیر گم شده انجام دهم. وقتی این ابزارها کافی نیستند و از MCMC استفاده می کنیم چه سناریوهایی وجود دارد؟ با تشکر
چه زمانی MCMC مورد نیاز است؟
48821
مثالی در مورد محاسبه ضریب تشابه Gower در صفحه وجود دارد، ضریب تشابه Gower من سعی می کنم شباهت را به صورت دستی بین بیمار 1 و 2 بررسی کنم، اما محاسبات من نتایج کاملاً متفاوتی به من می دهد. در اینجا فرمولی است که من استفاده می کنم، به ترتیب متغیرها و انواع آنها $$ \frac{\left(1*\left(1 - \left(\frac{150-120}{150-110}\right)\ right)+ 0 + 1 + 1 + 0\right)}{5} $$ من هنوز نمی توانم 0.0625 را همانطور که در مثال نشان داده شده است بدست بیاورم. من چه غلطی می کنم؟
محاسبه دستی ضریب تشابه Gower
50816
با عرض پوزش اگر عنوان کمی مبهم است، من دقیقا نمی دانم چگونه جمله ام را مختصر کنم. من دو سری زمان دارم: مقدار سرمایه گذاری در عراق در طول زمان (در ماه) قیمت سهام در طول زمان (به طور میانگین هر ماه) موارد کمی وجود دارد که می خواهم بدانم، اما من فقط در سطح مقدماتی آمار و اقتصاد سنجی هستم. Uni. اول اینکه چگونه می‌توانم این دو سری زمانی را به هم مرتبط کنم، چند پست در اینجا خوانده‌ام، می‌خواهم درباره بهترین رویکرد برای یافتن همبستگی بین آنها توضیح دهم. تا کنون معتقدم که باید از همبستگی متقابل استفاده کنم که امیدوارم با استفاده از minitab انجام دهم. من می خواهم این کار را انجام دهم تا ببینم آیا بین این دو مجموعه داده همبستگی بیش از حد وجود دارد یا خیر. دوم اینکه آیا به هر حال می توانم بفهمم چه زمانی داده ها بیشترین همبستگی را دارند و چه زمانی بیش از 150 نقطه داده دارم و من واقعاً دوست دارم ببینم در چه ماه هایی این همبستگی رشد کرده یا در قوی ترین حالت خود بوده است. من می خواهم این کار را انجام دهم تا بتوانم تحلیل کنم که چرا ممکن است همبستگی کاهش یافته باشد و غیره (شاید نسبت دادن آن به سایر عوامل کلان). امیدوارم این منطقی باشد و اگر نیاز به توضیح بیشتری داشتید بلافاصله پاسخ خواهم داد. بابت هر نکته ای متشکرم و مشتاقانه منتظرم تا امروز کمی بیشتر یاد بگیرم.
من دو مجموعه داده دارم (فاصله های زمانی منظم) آیا راهی وجود دارد که بفهمیم چه زمانی بیشترین همبستگی دارند و چه زمانی نه؟
48822
هنگام کار با بسیاری از متغیرهای ورودی، اغلب نگران چند خطی بودن هستیم. تعدادی از معیارهای چند خطی وجود دارد که برای تشخیص، فکر کردن، و / یا ارتباط چند خطی استفاده می شود. برخی از توصیه های رایج عبارتند از: 1. چندگانه $R^2_j$ برای یک متغیر خاص 2. تحمل $1-R^2_j$، برای یک متغیر خاص 3. ضریب تورم واریانس، $\text{VIF}=\frac {1}{\text{tolerance}}$، برای یک متغیر خاص 4. شماره شرط، $\sqrt{\text{max(eigenvalue(X'X))}/\text{min(eigenvalue(X'X))}}$، از ماتریس طراحی به عنوان یک کل (گزینه‌های دیگری وجود دارد که در مقاله ویکی‌پدیا، و در اینجا در SO در زمینه R.) این واقعیت که سه مورد اول تابعی کامل از یکدیگر هستند نشان می‌دهد که تنها مزیت خالص ممکن بین آنها روانی خواهد بود. از طرف دیگر، سه مورد اول به شما امکان می دهد متغیرها را به صورت جداگانه بررسی کنید، که ممکن است یک مزیت باشد، اما شنیده ام که روش شماره شرط بهترین در نظر گرفته می شود. * آیا این واقعیت دارد؟ بهترین برای چه؟ * آیا عدد شرط تابع کاملی از $R^2_j$ است؟ (من فکر می کنم اینطور باشد.) * آیا مردم متوجه می شوند که توضیح یکی از آنها ساده تر است؟ (من هرگز سعی نکردم این اعداد را خارج از کلاس توضیح دهم، فقط یک توصیف ساده و کیفی از چند خطی بودن ارائه می دهم.)
آیا دلیلی برای ترجیح معیار خاصی از چند خطی وجود دارد؟
6916
من یک کلاس آمار مقدماتی تدریس می‌کنم و انواع نمونه‌گیری را مرور می‌کردم، از جمله نمونه‌گیری سیستماتیک که در آن شما هر کیلومین فرد یا شی را نمونه‌برداری می‌کنید. دانش آموزی پرسید که آیا نمونه برداری از هر فردی با یک ویژگی خاص می تواند همان کار را انجام دهد؟ به عنوان مثال، آیا نمونه برداری از هر فردی با یک تی شرت آبی به اندازه کافی تصادفی است و به اندازه کافی نشان دهنده کل جمعیت است؟ حداقل، اگر سوالی غیر از این می‌پرسید که چه رنگی تی‌شرت را ترجیح می‌دهید؟ حس من این است که خیر، اما تعجب کردم که آیا کسی در اینجا نظری در این مورد دارد؟
آیا «هر تی شرت آبی» یک نمونه سیستماتیک است؟
82106
من می خواهم از **ksvm** از بسته **kernlab** در **R** برای آموزش و تست یک ماشین بردار پشتیبانی استفاده کنم. من می توانم از آن استفاده کنم اما می خواهم از مقادیر مختلف _C_ برای هر مشاهدات استفاده کنم. برای دقیق تر، می خواهم مشکل کوچک سازی زیر را حل کنم (با استفاده از نماد SVM استاندارد) $ \frac{1}{2}w\cdot w +C \sum_{i=1}^l \xi_i + C\_ \ sum_{i=l+1}^n (\xi_i \cdot 1_{\{y_i=-1\}}) + C_{+} \sum_{i=l+1}^n (\xi_i \cdot 1_{\{y_i=1\}}) $ به جای استانداردتر $ \frac{1}{2}w\cdot w +C \sum_{i=1}^l \xi_i $ ( من در واقع روی یک ماشین بردار پشتیبانی انتقالی کار می کنم). سوال: آیا می دانید با ksvm (یا بسته R svm دیگری) می توان این مشکل را حل کرد؟ متشکرم
استفاده از ksvm در R با قیود متفاوت
19214
با توجه به دو نمونه از نرخ رسیدن یک فرآیند (آنها باید به چیزی شبیه توزیع پواسون ختم شوند): * یکی در یک دوره طولانی (چیزی حدود چند روز) * دیگری از یک زمان کوتاه تر (شاید 30 دقیقه) چگونه می توانم مقایسه کنم توزیع کوتاه‌تر برای دیدن اینکه آیا تفاوت قابل‌توجهی با توزیع طولانی‌تر دارد؟ آیا از یک تابع موجود در R استفاده می کنید؟ من معتقدم که یک Plot Q-Q این را به صورت بصری نشان می دهد، اما من به دنبال یک عدد واحد هستم که نشان دهنده فاصله نمونه کوتاه تر از نمونه طولانی تر باشد. همچنین، شاید برای یک سوال دیگر مناسب تر باشد. من کمی کنجکاو هستم که چگونه می توانم بگویم چه مقدار زمانی نمونه ای نماینده برای مدت زمان طولانی تر است. برای مرجع، نمودار دوره طولانی‌تر چیزی شبیه به شکل زیر است، اما ممکن است تا حدودی وقتی تصمیم می‌گیرم کدام ویژگی‌ها را فیلتر کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ethnm .png)
مقایسه توزیع نرخ ورود
110242
من مجموعه ای **H** از ابرصفحه های k `m`-بعدی در فضای بعدی n دارم که در آن 1<<m<<n<<k. من می‌خواهم یک ابرصفحه m'بعدی **p** پیدا کنم که نزدیکترین به **H** باشد. با این حال، بخش قابل توجهی از **H** پرت در نظر گرفته می شود. فاصله هر عدد درونی تا **p** واقعی محدود است، در حالی که فاصله‌های پرت از قبل قابل پیش‌بینی نیستند. راه متعارف برای برخورد با این مشکل چیست؟ RANSAC و دیگر روش‌های تخمین مدل مبتنی بر EM بلافاصله به ذهن می‌رسند، اما نمونه‌برداری به امید یافتن زیرمجموعه‌ای از **H** به طور تصاعدی با رشد ابعاد ناکارآمدتر می‌شود. اشاره به یک مقاله تحقیقاتی موجود تنها چیزی است که نیاز دارم.
تخمین مدل با ابعاد بالا با مقادیر پرت
15424
هنگام مطالعه مدل‌سازی لجستیک، عبارت زیر را خواندم > این واقعیت که فقط نسبت‌های شانس و نه ریسک‌های فردی را می‌توان از مدل‌سازی > لجستیک در مطالعات مورد شاهدی یا مقطعی تخمین زد، تعجب‌آور نیست. نمی دانم «مطالعات مورد-شاهدی» و «مطالعات مقطعی» در تحلیل آماری چه معنایی دارند؟ علاوه بر این، من کاملاً نمی فهمم که عبارت فوق از نظر تحلیل آماری به چه معناست. هر گونه توضیحات قدردانی خواهد شد.
«مورد-کنترلی» و «مقطعی» در زمینه مدل‌سازی لجستیک به چه معناست؟
48820
در _Davidson & McKinnon - Estimation and Inference_ خواندم که در یک بازار رقابتی که همیشه در تعادل است مشاهده می کنیم: $Q^d_t = Q^s_t = Q_t$ که در آن $Q^d_t$ کمیت تقاضا است، $Q^s_t $ مقدار عرضه شده است. اگر بتوان معادله (1) را توسط OLS در مدلی که با (1) داده شده است تخمین زد: $Q_t^d = \alpha P_t + Z^d_t\beta + u^d_t$ (2) $Q_t^s = \گاما P_t + Z^s_t\delta + u^s_t$ با $P_t$ قیمت در دوره t، $Z^d_t$ مطابق با دسته ای از متغیرهای برون زا است. که مقدار را تعیین می کند، با مشکلی ناشی از درون زایی $P_t$ مواجه خواهیم شد. اگر معادلات (1) و (2) را بر حسب متغیرهای قابل مشاهده $Q_t$ و $P_t$ بازنویسی کنیم، این امر قابل مشاهده است. **سوال من این است:** اگر با داده های واقعی بازار رگرسیون انجام دهیم، آیا این به طور کلی درست است؟
سوال در مورد کشش قیمت و درون زایی
85513
در درخت رگرسیون، اغلب فرض می شود که هر برگ یک توزیع گاوسی $\mathcal{N}(\mu_i, \sigma)$ است، که در آن $i$ شاخص برگ است. آیا $\sigma$ به عنوان انحراف استاندارد _در یک برگ_ محاسبه می شود یا انحراف استاندارد برای مجموعه داده؟ اگر درختی به گونه‌ای رشد کرده باشد که هر برگ شامل یک نمونه باشد (همانطور که در مورد درختان کیسه‌ای وجود دارد) محاسبه _ درون برگ_ نامناسب به نظر می‌رسد. با این حال، استفاده از کل مجموعه داده به نظر می رسد که می تواند سوگیری زیادی را القا کند. آیا چیزی وجود دارد که من اینجا گم کرده ام؟
انحراف معیار در درختان رگرسیون
110099
من در حال حاضر در حال یادگیری استفاده از ماشین بردار پشتیبان به عنوان طبقه بندی هستم. من یک مجموعه داده با 161 مشاهده و 18 بعد دارم. من 160 بردار پشتیبانی را با استفاده از تابع svm از بسته R، e1071 دریافت می کنم. دقت به دست آمده 1 است. آیا کسی می تواند بگوید که آیا نتیجه دقیق است یا خیر؟ در واقع من نمونه svm را از اینترنت پیدا کردم و استراتژی آنها را دنبال کردم که استفاده از svm روی مجموعه داده های آموزش ندیده (کل داده ها) و دوم در مجموعه داده های آموزش دیده (تقسیم داده ها به مجموعه آموزشی و آزمایشی) است. برای اولی و دومی، دقت مدل 1 و 0.51 است. برای افزایش دقت مدل چه کاری باید انجام دهم؟
کل داده ها به عنوان بردار پشتیبان در نظر گرفته می شوند
110091
چگونه می توانم خطای استاندارد قوی _y_ پیش بینی شده را از یک مدل رگرسیون خطی در R محاسبه کنم؟ هر گونه پیشنهاد قدردانی می شود.
چگونه می توان خطای استاندارد قوی y پیش بینی شده را از یک مدل رگرسیون خطی در R محاسبه کرد؟
50813
من از WinBUGS برای تخمین / به روز رسانی پارامترهای یک مدل استفاده می کنم. مدل این است: $$ \begin{تراز شده} D(T,B,a)&= B*(a_0+a_1T+a_2T^2+a_3T^3)+error(B,T,a) \\ خطا &= \mathcal N(0، B^{0.5}a_4(a_0+a_1T+a_2T^2+a_3T^3)) \end{تراز شده} $$ که در آن $D$ یک پاسخ مشاهده شده است، $B$ و $T$ پارامترهای ورودی مشاهده شده و $a_i$s پارامترهای مدل غیر قابل مشاهده هستند. برای تخمین پارامترهای مدل با اولین مجموعه داده‌ها، از پیشین‌های عادی غیر اطلاعاتی برای $a_i$ استفاده کردم. سوال من این است: **اگر بخواهم به روز رسانی متوالی / بازگشتی انجام دهم، ** از مجموعه ای از مشاهدات $(D,B,T)$ برای محاسبه توزیع های پسین برای پارامترهای مدل استفاده کنم و سپس از این پسین ها به عنوان پیشین استفاده کنم. برای به‌روزرسانی پارامترهای مدل با مجموعه جدیدی از داده‌ها $(D,B,T)$ (و غیره)، **آیا می‌توانم مستقیماً از توزیع‌های پسینی که WinBUGS پیدا می‌کند استفاده کنم یا در عوض به آن اهمیت بدهم. توزیع خلفی مشترک؟**
نحوه استفاده از یک پسین اولیه برای به روز رسانی بازگشتی / متوالی در WinBUGS
110726
در این تمرین، از من خواسته شد ثابت کنم که رگرسیون خطی ساده - ($Y_i=\beta_0+\beta_1X_i+\epsilon_i$ با تمام شرایط اولیه معمول) - $\{Y_{ji}\}$ برای هر $X_i$ همان رگرسیون خطی ${\bar{Y}_i}$ برای هر $X_i$ است، که در آن $\bar{Y}_i=\sum_j^nY_{ji}$ . اینو من موفق شدم ثابت کنم پس از آن، از من می‌خواهند ببینم که آیا واریانس عبارت خطا در این تنظیم، بدون برازش خط قابل تخمین است یا خیر. به این سوال آخر، فکر می کنم پاسخ منفی است، اما مطمئن نیستم. عبارت خطای برآوردگر بی طرفانه واریانس $s^2=\frac{\sum(Y_i-\hat{Y}_i)^2}{n-2}$ است، که $\hat{Y}_i$ معمول برازش است ارزش با انطباق با این تنظیم فرمول معمول، می دانیم که $s^2=\frac{\sum(\bar{Y}_i-\hat{Y}_i)^2}{n-2}=\frac{\sum_i \sum_j(Y_{ij}-\hat{Y}_i)^2}{n-2}$. من هیچ سرنخی در مورد چگونگی مقابله با این تمرین ندارم. هر گونه کمکی قدردانی خواهد شد.
آیا می توان واریانس در عبارت خطا را بدون برازش یک خط تخمین زد؟
110090
من نمونه نسبتاً کوچکی از رویدادهای دوتایی (50-100 رویداد) دارم که در یک زمان از روز اتفاق افتاده است (نرخ موفقیت ارتباط نزدیکی با زمان روز دارد). من این رویدادها را در فواصل ساعتی گروه بندی می کنم، به عنوان مثال: * .. * [08:00-09:00) موفقیت: 5; شکست: 7; 42% موفقیت * [09:00-10:00) موفقیت: 1; شکست: 0; 100% موفقیت * [10:00-11:00) موفقیت: 30; شکست: 20; 60% موفقیت * [12:00-13:00) موفقیت: 11; شکست: 19; 37% موفقیت * ... پس از آن باید n محدوده زمانی را انتخاب کنم تا بتوانم یک رویداد را در محدوده زمانی انتخاب شده برنامه ریزی کنم و چیزی شبیه به حداقل احتمال موفقیت داشته باشم. سوال من این است که آیا راهی وجود دارد که بتوان در نظر گرفت که برخی بازه های زمانی داده های بسیار کمی در دسترس دارند (مانند بازه دوم در مثال) و به نوعی این ویژگی را وزن می کنند تا از انتخاب تنها این بازه ها با فرض احتمال موفقیت بسیار بالا اجتناب شود. برای ارائه برخی زمینه‌ها: وقتی رویدادی را برنامه‌ریزی می‌کنم، رویداد کم و بیش در ابتدای بازه زمانی اجرا می‌شود و در صورت عدم موفقیت، 2 یا 3 بار دیگر به‌طور تصادفی در بازه زمانی انتخاب‌شده برنامه‌ریزی می‌شود، هدف این است که یک نتیجه موفق با استفاده از تلاش های کمتر ممکن. هر توصیه ای بسیار قدردانی خواهد شد.
بهینه سازی احتمال رویداد باینری
50817
فرض کنید $y$ یک متغیر تصادفی پیوسته و $d$ یک متغیر تصادفی باینری است که مقدار $1$ را با احتمال $p$ و $0$ را با احتمال $1-p$ می گیرد. چگونه نشان دهم که $\text{Cov}(y,d)=(E[y|d=1]-E[y|d=0])p(1-p)$؟
کوواریانس متغیر باینری و پیوسته
81454
من با توصیف همبستگی درون کلاسی (ICC) برای یک مدل مختلط خطی با داده های طولی از این ماده گیج شده ام. تصویربرداری از صفحه نمایش در زیر نشان داده شده است. چیزی که من در مورد آن گیج شده‌ام این است که ICC مقدار تغییرات $Y$ (متغیر وابسته) بین افراد را در این زمینه (داده‌های طولی) توصیف می‌کند، اما سپس همبستگی بین مشاهدات (که من فکر می‌کنم به عنوان همبستگی است) است. بین یک مشاهده برای یک فرد معین در زمان $t$ و همان فرد در زمان $t+k$). به نظر می رسد این ماتریس همبستگی همبستگی را در یک فرد توصیف می کند. چرا این منطقی است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/tEdTz.jpg)
ICC در یک مدل مختلط خطی - داده های طولی - چرا این همبستگی بین دوره های زمانی است؟
13744
من سعی می کنم تحلیل K-mean را با الگوریتم استاندارد پیاده سازی کنم. به نظر می رسد اجرای من کار می کند، اما متوجه رفتار عجیبی شدم. اگر _k_ نزدیک به نیمی از طول لیست مورد تجزیه و تحلیل باشد، مجموعه ای را دریافت می کنم که خالی است. من مطمئن نیستم که آیا این رفتار درست است. من فکر می کنم بدترین حالت _k_ برابر طول لیست است و هر مجموعه نتیجه فقط 1 عنصر دارد. اگر _k_ بزرگتر از طول لیست باشد، مجموعه نتایج خالی اتفاق می افتد، اما وضعیت نامعتبر است.
چگونه الگوریتم تحلیل خوشه ای k-means را به درستی پیاده سازی کنیم؟
110243
من یک طبقه بندی کننده SVM برای کلاس های m و n نقطه داده دارم (تا حدودی به طور مساوی در هر کلاس توزیع شده است). آیا می توانم از ماتریس احتمال ورود MxN برای ادغام کلاس های مشابه استفاده کنم؟
آیا می توانیم از log-likelihood برای خوشه بندی کلاس ها استفاده کنیم؟
12432
متغیرهای وابسته (DV) باید به طور عادی توزیع شوند. من یک مشکل دارم چون بعضی از آنها اینطور نیستند. من یک متغیر مستقل (IV) دارم، به نام _نوع تحصیل_. DVها عبارتند از _مشکلات برونی_سازی___مشکلات_درونی_سازی___خود_تصویری___انگیزه_____________________________________________________________________________________ سوال تحقیق این است: سطوح IV برای کدام DV ها متفاوت است. من نرمال بودن تک متغیره را با کولموگروف- اسمیرنوف ارزیابی کردم، و تست ها نشان دادند که _ پشتکار_ و _ اضطراب اجتماعی_ به طور معمول توزیع نمی شوند. من همچنین تجزیه و تحلیل چند متغیره را بر اساس فاصله Mahalanobis اجرا کردم تا مقادیر پرت چند متغیره را پیدا کنم. هیچکدام وجود ندارند. با این حال، چندین عدد پرت تک متغیره وجود دارد. من سعی کردم داده ها را تغییر دهم، اما وقتی این کار را انجام دادم، هر دو سطح IV را تغییر دادم، بنابراین آزمون کلمورگروف-اسمیرنوف قابل توجه باقی ماند. سوال من این است که آیا اکنون نیاز است که _استقامت_و_اضطراب_اجتماعی_ را از MANOVA خارج کنم و یک تست ناپارامتریک روی آن اجرا کنم؟ اگر اینطور است، کدام یک ممکن است مناسب ترین باشد؟ و آیا باید کاری مانند اصلاح بونفرونی انجام دهم زیرا اکنون چندین تحلیل انجام می دهم؟ پیشاپیش از شما بسیار سپاسگزارم
چگونه با غیر عادی بودن در MANOVA برخورد کنیم؟
50812
من سعی می کنم بفهمم که مدل خاص من چقدر در توضیح برخی داده های مشاهده شده خوب است. مشکل اینجاست که داده های مشاهده شده به شکل مقادیر متوسط ​​(میانگین) برای هر یک از نمرات پیش بینی من است. هنگام انجام یک همبستگی ساده، مقدار R-squared واقعاً بالایی را دریافت می کنم (و این برای مجموعه داده های مستقل تکرار می شود)، که فرض می کنم به این معنی است که یک رابطه ثابت بین ارزش پیش بینی من و داده های مشاهده شده وجود دارد. با این حال، اگر بخواهم تخمین بزنم که چه مقدار از واریانس داده های مشاهده شده را با امتیاز پیش بینی خود توضیح می دهم، چگونه این کار را با مقادیر میانگین مشاهده شده انجام می دهم؟ نگرانی اساسی من این است که اگرچه در همه موارد همبستگی خوبی دارم، ممکن است عوامل زمینه‌ای زیادی وجود داشته باشد که داده‌های مشاهده‌شده من را نیز هدایت می‌کند که به سادگی در هر دسته‌ای «میانگین» می‌شوند، و به این ترتیب، مقدار r-squared من بی‌معنی است. . فقط به عنوان مثال، اگر داده های زیرین مشاهده شده من این بود: x<-c(3,4,3,2,1,6,5,7,5,4,9,7,8,10,11) و پیش بینی من امتیاز برای این مقادیر این است: y<-c(1,1,1,1,1,2,2,2,2,2,3,3,3,3,3) من r-square 0.911 می گیرم. با این حال، اگر داده های مشاهده شده خود را میانگین کنم (که تمام چیزی است که در مورد خود می توانم اندازه گیری کنم)، به این نتیجه می رسم: x1<-c((13/5),(27/5),9) y1<-c(1, 2،3) R-squared = 0.997 بنابراین به من می گوید که نمره پیش بینی من تقریباً تمام تغییرات در داده های مشاهده شده را توضیح می دهد، زمانی که یک نمایش بهتر در بالا (x در مقابل y) به من می گوید که من توضیح می دهم 91 درصد از تغییرات. با تشکر
واریانس برای مقادیر متوسط ​​توضیح داده شده است
65595
جعبه ابزار «CircStats» برای متلب (http://bit.ly/18C1SCF) رویه ای را برای محاسبه همبستگی بین یک متغیر خطی و یک متغیر دایره ای پیاده سازی می کند. به طور خاص، همبستگی بین یک متغیر خطی $x$ و یک متغیر دایره‌ای $\alpha$ توسط $$\rho_{\textrm{cl}} = \sqrt{\frac{r^2_{\textrm{cx}} داده می‌شود. +r^2_{\textrm{sx}}- 2r_{\textrm{cx}}r_{\textrm{sx}}r_{\textrm{cs}}}{1-r^2_{\textrm{cs}}}}، $$ جایی که $r_\textrm{sx }$ ضریب همبستگی پیرسون بین $\sin\alpha$ و $x$ است، $r_\textrm{cx}$ ضریب بین $\cos\alpha$ و $x$ و $r_\textrm{cs}$ ضریب بین $\cos\alpha$ و $\sin\alpha$ است. چگونه می توانم همبستگی جزئی $x$ و $\alpha$ را با توجه به متغیر سوم، $y$ (خطی)، به عنوان یک متغیر کنترل محاسبه کنم؟
محاسبه همبستگی جزئی دایره ای خطی
23548
من نمی‌دانم چرا پیش‌بینی‌های «lm.ridge()» در هنگام استفاده از «بهترین» لامبدا، بر اساس GCV، بسیار دور از ذهن است. آیا کسی می تواند به من کمک کند تا پیش بینی های بهتری داشته باشم؟ یا حداقل، آیا کسی یک نمونه رج خوب با توضیح ساده نتایج دارد؟ در زیر کد R من برای داده‌های کیفیت شراب است (از http://archive.ics.uci.edu/ml/machine-learning-databases/wine- quality/winequality-red.csv): library(MASS) wine_all <- read.table(http://archive.ics.uci.edu/ml/machine-learning-databases/wine-quality/winequality-red.csv, sep=;, header = T) #wine_all <- read.table(winequality-red.csv, sep=;, header = T) wine_train <- wine_all[1:1400,] wine_test <- wine_all[-(1:1400)،] train.lm <- lm.ridge(کیفیت~.، wine_train، lambda = seq(0, 100, 0.1)) plot(x=train.lm$lambda, y =train.lm$GCV) pred.test <- scale(wine_test[,1:11], center = F, scale = train.lm$scales) %*% train.lm$coef[, which.min(train.lm$GCV)] + train.lm$ym pred.all <- scale(wine_all[,1:11]، مرکز = F، مقیاس = train.lm$scales) %*% train.lm$coef[, which.min(train.lm$GCV)] + train.lm$ym cor(wine_test[, 12], pred.test)^2 cor(wine_all[, 12], pred.all)^2
پیش بینی ضعیف از lm.ridge؟
7727
من **این سوال** را در StackOverflow پرسیدم و پیشنهاد شد که آن را اینجا بپرسم. * * * من دو سری زمانی از داده‌های شتاب‌سنج سه‌بعدی دارم که پایه‌های زمانی متفاوتی دارند (ساعت‌ها در زمان‌های مختلف شروع می‌شوند، با مقداری خزش بسیار جزئی در طول زمان نمونه‌برداری)، و همچنین حاوی شکاف‌های زیادی با اندازه‌های مختلف (به دلیل تاخیرهای مرتبط با نوشتن بر روی دستگاه های فلش جداگانه). شتاب سنج هایی که من استفاده می کنم GCDC X250-2 ارزان قیمت هستند. من شتاب‌سنج‌ها را با بالاترین بهره‌شان اجرا می‌کنم، بنابراین داده‌ها کف نویز قابل‌توجهی دارند. سری های زمانی هر کدام حدود 2 میلیون نقطه داده دارند (بیش از یک ساعت با سرعت 512 نمونه در ثانیه)، و حاوی حدود 500 رویداد مورد علاقه هستند که در آن یک رویداد معمولی 100-150 نمونه (هر کدام 200-300 میلی ثانیه) را در بر می گیرد. بسیاری از این رویدادها تحت تأثیر قطع اطلاعات در هنگام نوشتن فلش قرار می گیرند. بنابراین، داده ها دست نخورده نیستند و حتی خیلی زیبا هم نیستند. اما بازرسی کره چشم من نشان می‌دهد که به وضوح حاوی اطلاعاتی است که به آن علاقه دارم. (در صورت نیاز می‌توانم نمودارها را ارسال کنم.) شتاب‌سنج‌ها در محیط‌های مشابه هستند اما فقط به طور متوسط ​​جفت می‌شوند، به این معنی که می‌توانم با چشم تشخیص دهم که کدام رویدادها از هر کدام مطابقت دارند. شتاب سنج، اما من تا به حال در نرم افزار این کار را انجام نداده ام. به دلیل محدودیت‌های فیزیکی، دستگاه‌ها نیز در جهت‌های مختلفی نصب می‌شوند، جایی که محورها مطابقت ندارند، اما تا جایی که من می‌توانم آنها را بسازم به متعامد نزدیک هستند. بنابراین، برای مثال، برای شتاب‌سنج‌های 3 محوری A و B، +Ax به -By (بالا به پایین)، +Az به -Bx (چپ-راست) و +Ay به -Bz (جلو-پشت) نقشه می‌دهد. . هدف اولیه من این است که رویدادهای شوک را در محور عمودی به هم مرتبط کنم، اگرچه در نهایت می‌خواهم الف) نقشه‌برداری محور را به طور خودکار کشف کنم، ب) فعالیت روی آس‌های نقشه‌برداری شده را مرتبط کنم، و ج) تفاوت‌های رفتاری بین دو شتاب‌سنج را استخراج کنم (مانند پیچش). یا خم شدن). ماهیت داده های سری زمانی باعث می شود که () numpy.correlate پایتون غیر قابل استفاده باشد. من همچنین بسته R's Zoo را نگاه کردم، اما هیچ پیشرفتی با آن نداشتم. من برای کمک به زمینه های مختلف تجزیه و تحلیل سیگنال نگاه کرده ام، اما هیچ پیشرفتی نداشته ام. کسی سرنخی برای کارهایی که می توانم انجام دهم یا رویکردهایی که باید در مورد آنها تحقیق کنم، دارد؟ به روز رسانی 28 فوریه 2011: تعدادی نمودار **اینجا** اضافه شد که نمونه هایی از داده ها را نشان می دهد.
چگونه دو سری زمانی را با شکاف ها و پایه های زمانی مختلف مرتبط کنیم؟
81459
من یک جعبه سیاه کوچک دارم که هر بار که دکمه آن را فشار می دهم 0 یا 1 را نشان می دهد. راستش می‌توانم به شما بگویم که در 20,000,000,000 بار گذشته فشار داده شده است، 19999999990 بار 1 نشان داده است. برای سادگی، من هیچ شکلی از عواقب را به نتایج ضمیمه نمی کنم. شما حدس می زنید و یا درست می گویید یا اشتباه می کنید. چگونه انتخاب خود را انجام می دهید و از چه نظر آن انتخاب را معتبر می دانید؟ * * * در اینجا برخی از محدودیت‌های دیگر وجود دارد که می‌توانید با خیال راحت از آنها استفاده کنید یا اگر فکر می‌کنید نتیجه جالب است، آنها را نادیده بگیرید: 1. توزیع زمانی نتایج ثبت‌شده ناشناخته است. 2. تا زمانی که دکمه فشار داده نشود، صفحه نمایش خالی است و پس از آن رقم برای مدت کوتاهی ظاهر می شود. وقتی آن را می بینید خالی است. 3. دکمه در حال فشردن باعث نمایش رقم می شود.
آیا اعمال آمار در مقیاس بزرگ برای یک مورد معتبر است؟
19213
من یک فایل csv بزرگ با حدود 45000 سطر و حدود 6 ستون دارم. ستون‌ها به این صورت تنظیم می‌شوند: ماژول، مسیر فایل، وضعیت، نسخه قدیمی، نسخه جدید، تغییر تفاوت _Change-diff_ به سادگی نتیجه انجام این کار است: _جدید - قدیمی_. حدود 30 ماژول مختلف وجود دارد و من می خواهم تجزیه و تحلیل انجام دهم و نمودارهای مختلفی را برای هر ماژول بر اساس تغییر-تفاوت ایجاد کنم. من می‌خواهم تعداد «ردیف‌ها» برای هر «ماژول» را بدانم - حدس می‌زنم فقط می‌توانم تعداد نام هر ماژول را برای ستون ماژول بشمارم تا آن را حل کنم. می‌خواهم برنامه‌ای وجود داشته باشد که بتوانم از آن برای آسان‌تر کردن کارم استفاده کنم، در حال حاضر سعی می‌کنم همه آن را به اکسل وصل کنم، اما مطمئن نیستم که چگونه می‌توانم برای هر ماژول به جای یک نمودار بزرگ، نمودار ایجاد کنم. همه ماژول ها آیا R، SPSS یا Matlab گزینه بهتری هستند؟ یا هر چیز دیگری؟ ویرایش: فقط در مورد ظاهر داده‌ها بسط می‌دهیم. ماژول، مسیر، وضعیت، قدیمی، جدید، تغییر modA، modA/a/a، 1، 11، 19، 8 modA، modA/a/b، 1، 2، 4، 2 modA، modA/a/c، 1 , 0, 1, 1 modA, modA/b/c, 0, 0, 1, 1 modA, modA/b/a, 1, 7، 12، 5 modB، modB/a/a، 1، 8، 9، 1 modB، modB/a/b، 0، 0، 1، 1 modB، modB/a/c، 1، 4، 10، 6 modC، modC/a/a، 0، 0، 4، 4 modC، modC/a/b، 1، 0، 3، 3 بنابراین من می خواهم برای تجزیه و تحلیل همه modA بر اساس Change (و احتمالاً بر اساس قدیمی در مقابل جدید و غیره) سپس همه modB، modC و غیره را به یک شکل اما در نمودارهای جداگانه تجزیه و تحلیل کنید، به دلیل حجم داده‌ای که با آن سروکار دارم. . پیشاپیش ممنون
برای هر گروه از رکوردها در مجموعه داده نمودارهای جداگانه ایجاد کنید
69902
من یک مشکل معمولی با چندین متغیر و مقدار زیادی داده دارم که در حال حاضر مهم نیستند. هدف این مطالعه ارتباط متغیر $Y$ با متغیرهای $X_1,X_2,...,X_n$ است. من یک ANOVA انجام داده ام تا ببینم کدام متغیرها می توانند تغییرپذیری را در $Y$ توضیح دهند. اما سوال من این است که این رویه (ANOVA) تا چه حد برای انتخاب متغیرها معتبر است؟ معیار انتخاب من این است که موارد مهمتر را انتخاب کنم. آیا درست است؟
کاهش متغیر با استفاده از ANOVA؟
19210
در یک xyplot شبکه با چندین منحنی صاف، من منحنی‌هایی را که بر اساس رنگ طبقه‌بندی شده‌اند رسم کردم (y1، y2، y3 به رنگ آبی؛ z1، z2، z3 در قرمز). اگر داده های ساده زیر را در نظر بگیریم: x<-1:50 y1<-rnorm(50,100,20) y2<-rnorm(50,80,20) y3<-rnorm(50,90,20) z1<-rnorm( 50،60،20) z2<-rnorm(50،40،20) z3<-rnorm(50,65,20) می توانیم چنین نموداری را با خطوط صاف بسازیم و رنگ ها را با این کد مشخص کنیم: xyplot(y1+y2+y3+z1+z2+z3~x,type='smooth', span =0.4، par.settings=list(superpose.line=list(col=c('blue',' blue',' blue','red','red','red')))) و این نتیجه را دریافت می کنیم: ! [چند منحنی صاف](http://i.stack.imgur.com/fWU66.jpg) سوال من: **آیا می دانید چگونه برای شناسایی هر منحنی نماد (نشانگرها) اضافه کنید؟** به عنوان مثال، y1 با یک نشانگر مثلث به رنگ آبی، y2 با یک نشانگر مربع به رنگ آبی، و غیره. وقتی داده های خام رسم می شوند، انجام این کار آسان است، اما من نمی توانم نحوه انجام آن را با منحنی های صاف پیدا کنم. من سعی کردم از superpose.symbol استفاده کنم، اما به نظر می رسد که فقط زمانی کار می کند که type=c('p','smooth'). اما در این حالت نمادها روی منحنی ها نیستند بلکه در موقعیت های خام قرار دارند. NB. من سعی کردم منحنی ها را با نوع خط های مختلف شناسایی کنم (مطالعه کنید به 'lty') اما نتیجه اجازه نمی دهد تجسم خوبی با داده های من انجام شود.
چگونه می توان نمادها را بر روی خطوط صاف در یک Xyplot شبکه R اضافه کرد؟
13740
من سه سری زمانی $m_i$، $k_i$، $s_i$، برای $i \in [1,N]$ دارم. مشکل این است که ثابت های $A_m$، $A_k$، $A_s$ را پیدا کنیم، به طوری که برای $p_i = ( A_m \cdot m_i ) + ( A_k \cdot k_i ) + ( A_s \cdot s_i )$ و یک عدد صحیح داده شده ثابت $t$ \[ \sum_{i=1}^{N-t} { (m_i - p_i) (p_{t+i} - p_i) } = 0 \] \[\sum_{i=1}^{N-t} { (k_i - p_i) (p_{t+i} - p_i) } = 0 \] \ [\sum_{i=1}^{N-t} { (s_i - p_i) (p_{t+i} - p_i) } = 0 \] مطمئن نیستم چنین ثابت هایی همیشه وجود خواهد داشت هر اشاره ای؟
یافتن وزنه هایی که محصول نقطه باقیمانده را حذف می کنند
69906
آیا راهی/روش/رویکردی برای تجزیه داده‌های سری زمانی با استفاده از خطوط رگرسیون وجود دارد: 1. سری‌های زمانی فصلی به جزء روند+فصلی+تصادفی؟ 2. یک سری زمانی غیر فصلی به جزء روند + تصادفی؟ من با STL، سرشماری و تجزیه کلاسیک در R آشنا هستم. همه این تکنیک ها به داده های سری زمانی با مولفه فصلی نیاز دارند. اگر سری زمانی غیر فصلی باشد (به عنوان مثال، فرکانس = 1) نمی توانیم روند را استخراج کنیم. من اخیراً با این مقاله جالب برخوردم که در ISF اخیر 2013 مبتنی بر داده است. هر گونه بینش در مورد روش هایی مانند این که تجزیه مبتنی بر داده ها با استفاده از خطوط رگرسیون هستند و می توانند به راحتی در بسته های نرم افزاری مانند R برنامه ریزی شوند، بسیار مفید خواهد بود. با تشکر فراوان **سری های زمانی بی روند با اجزای چرخه و فصلی** _تاتیانا کریوبوکووا و فرانسیسکو روزالس_ در این کار ما یک رویکرد ناپارامتریک و کاملاً مبتنی بر داده برای تجزیه سری های زمانی به یک روند (چرخه)، مؤلفه های فصلی و تصادفی را مورد بحث قرار می دهیم. . دو مورد اول با اسپلاین جریمه‌شده مدل‌سازی می‌شوند، در حالی که دومی از ساختار ARMA پیروی می‌کند. رویکرد بیزی تجربی امکان تخمین پارامترهای هموارسازی و دستورات فرآیند ARMA را به طور همزمان فراهم می کند که منجر به یک فرآیند تجزیه کارآمد، سریع و مبتنی بر داده می شود. ارتباط عملی این رویکرد با مثال های داده واقعی نشان داده شده است. این کار بسط Kauermann, G., Krivobokova, T., Semmler, W. (2011) فیلتر کردن سری های زمانی با خطوط جریمه شده است. _مطالعات دینامیک غیرخطی و اقتصادسنجی._
تجزیه سری های زمانی/dtrending با استفاده از splines
110092
من وضعیتی دارم که در آن n فرد و p ویژگی (متغیر) وجود دارد. من اطلاعات خوشه آنها را دارم. در اینجا یک مثال وجود دارد: myd <- data.frame ( sub1 = c(1، AB، AB، BB، BB، AA، BB، AB، AA، «BB»، «AB»، «AA»، «AB»)، sub2 = c(1، «AB»، «BB»، «BB»، «BB»، «AA»، «BB»، «AB» ، AA، BB، AB، AA، AB)، sub3 = c(1، «AB»، «BB»، «AB»، «BB»، «AA»، «BB»، «AB»، «AA»، «BB»، «AB»، «AA»، «AB )، sub4 = c(1، AB، BB، AB، BB، AA، BB، AB، AA، BB، AB، AA، AB)، sub5 = c(1، AB، BB، BB، AB، AB، «BB»، «AB»، «AA»، «BB»، «AB»، «AA»، «AB»)، sub6 = c(1، «AB»، «BB»، «BB»، «BB» , AA، AB، AB، AA، BB، AB، AA، AB)، sub7 = c(2، AA، AA، BB ، AB، AA، AB، AB، AB، AB، AB، AB، BB)، sub8 = c(2، AB، AA، AB، AB، AA، AB، AB، AB، AB، AB، AB، «BB»)، sub9 = c(2، «AA»، «AA»، «BB»، «AB»، «AA»، «AB»، «AB»، «AB»، «AB»، «AB» ، AB، BB)، sub10 = c(2، AB، AA، BB، AB، AA، «BB»، «AB»، «AB»، «AB»، «AB»، «AB»، «BB»)، sub11 = c(2، «AA»، «AA»، «BB»، «AB» , AB، AB، AB، AB، AB، AB، AB، AB)، sub12 = c(2، AA، AB، BB ، BB، AA، AB، AB، AB، AB، AB، AB، BB)، sub13 = c(3، AB، AB، AB، AB، AB، BB، AB، AA، AB، AA، AB، «BB»)، sub14 = c(3، «AB»، «BB»، «BB»، «AB»، «AB»، «BB»، «AB»، «AA»، «AB»، «AA» , AB، BB)، sub15 = c(3، AA، AB، BB، BB، AA، AB، AB، AB، AB، AB، AB، BB)) نام ردیف (myd) <- c(cluster, paste(var , 1:12, sep=)) بنابراین این داده دارای 15 موضوع «sub1 : sub15» است که توسط متغیرهای طبقه‌بندی «var1: var12» طبقه‌بندی شده‌اند. شناسه خوشه در ردیف اول است - با نام ردیف - `خوشه`. myd sub1 sub2 sub3 sub4 sub5 sub6 sub7 sub8 sub9 sub10 sub11 sub12 sub13 sub14 sub15 خوشه 1 1 1 1 1 1 2 2 2 2 2 2 3 3 3 var1 AB AB AB AB AB AB AB AA AB AB AB AA var AA بی بی بی بی بی بی بی بی بی AA AA AA AA AA AB AB BB AB var3 BB BB AB AB BB BB BB BB BB BB BB BB BB BB BB BB var4 BB BB BB BB AB BB AB AB AB AB AB BB AB AB BB var5 AA AA AA AA AA AA AA AA AB AA AB AB AA var6 BB BB BB BB BB AB AB AB AB BB AB AB BB BB AB var7 AB AB AB AB AB AB AB AB AB AB AB AB AB AB AB AB var8 AA AA AA AA AA AA AB AB AB AB AB AB AB AB AB AB var9 BAB BB BB BB AB AB AB AB AB AB AB AB AB var10 AB AB AB AB AB AB AB AB AB AB AB AB AA AA AB var11 AA AA AA AA AA AA AB AB AB AB AB AB AB AB AB AB var12 AB AB AB AB AB AB AB AB AB AB AA AA AB var11 BB من می خواهم ببینم خوشه ** است مناسب** با محاسبه برخی از معیارها (مانند p-value) که می تواند **احتمال تعلق موضوع خاص به خوشه خاص** را ارائه دهد. _چطور میتونم به این برسم_؟ _من تعداد زیادی متغیر/موضوع دارم، بنابراین به راه حل سریع تری نیز نیاز دارم_.
محاسبه احتمال یا فیلتر کردن اینکه موضوع خاصی در خوشه خاص نیست
93629
من کد SAS زیر را دارم که از PROC FORECAST استفاده می‌کند که می‌خواهم آن را با Python Pandas pandas.stats.moments.ewma proc forecast data=ewma method=expo interval=weekday weight=(0.05) /*i.e تکرار کنم. lambda=0.95*/ nstart=20 lead=0 out=out_ewma outfull; تاریخ شناسه؛ var sq_gspc cross_returns; اجرا؛ My DataFrame در Pandas برای تقلید از مجموعه داده «ewma» در SAS تنظیم شده است - همان نام ستون ها و همه چیز، از جمله مقادیر شروع یکسان. با این حال، به نظر نمی‌رسد که من نمی‌توانم همان مقادیر را با پانداها محاسبه کنم، احتمالاً به دلیل عدم درک گزینه‌های SAS و نحوه تنظیم همان محاسبه با پانداها. به عنوان مثال، برای افزودن ستون‌های «sq_gspc» و «cross_returns» به Pandas DataFrame، کارهای زیر را انجام می‌دهم: ewmadf['f_sq_gspc'] = pd.ewma(ewmadf[sq_gspc], span=20, freq= د) ewmadf['f_cross_returns'] = pd.ewma(ewmadf[cross_returns], span=20, freq=D) چگونه می توانم PROC FORECAST را در اینجا با پارامترهای Python تکرار کنم؟ ویرایش: اسناد SAS موارد زیر را ارائه می‌کند: > برای METHOD=EXPO، n مقدار ابتدایی سری برای تشکیل مقادیر S1، S2 و S3 به صورت نمایی استفاده می‌شود، جایی که n مقدار گزینه > NSTART= است. پارامترها با برازش یک روند زمانی > رگرسیون به اولین n مقدار غیر گمشده سری، مقداردهی اولیه می شوند.
تبدیل کد SAS EWMA به پایتون
13747
R-squared بالا و کاذب یکی از مشکلات رگرسیون از طریق مبدا (یعنی مدل‌های وقفه صفر) است. اگر پیش‌بینی‌کننده‌ها دارای صفر نباشند، آیا این یک برون‌یابی است؟ کاربردها و سایر مشکلات رگرسیون از طریق مبدأ چیست؟ آیا مقالاتی وجود دارد که توسط همتایان بررسی شده اند؟
کاربردها و مشکلات رجعت از طریق مبدأ چیست؟
94253
من یک منحنی غیرخطی اخترفیزیکی دارم، به ویژه یک طیف توان. من باید این منحنی را با یک مدل تطبیق دهم و خوب بودن تناسب (GOF) را بدست بیاورم. این به من ارزش های مورد انتظار و مشاهده شده می دهد. داده ها همچنین دارای خطاهای مشاهده ای مربوط به عدم قطعیت های ابزاری هستند. آیا راهی وجود دارد که بتوانم خطاهای مشاهده ای را با آزمون کای اسکوئر (یا هر آزمون GOF دیگری) ادغام کنم؟
چگونه خطاهای مشاهده‌ای را در تست‌های برازش ادغام کنیم؟
43287
من در حال حاضر در حال نوشتن یک پایان نامه هستم و باید یک تخمین ضریب را تفسیر کنم که در مقایسه با آنچه من فرض کردم بسیار منفی است. چگونه می توانم این موضوع را به بهترین نحو برقرار کنم؟ توصیف آن به عنوان بسیار منفی کمی عجیب به نظر می رسد، اما نمی توانم چیزی بهتر از این را فکر کنم.
چگونه می توان تخمین پارامتر بسیار منفی را در کاغذ بیان کرد؟
3842
من می‌خواهم یک باردیاگرام برای این داده‌ها در R ایجاد کنم (از یک فایل CVS بخوانید): Experiment_Name MetricA MetricB Just_X 2 10 Just_X_and_Y 3 20 تا نمودار زیر را داشته باشد: ![alt text](http://i.stack.imgur. com/kGwFA.png) من مبتدی هستم و حتی نمی دانم چگونه شروع کنم.
نحوه ایجاد نمودار بارپلات که در آن میله ها در R کنار هم قرار می گیرند
11429
کسی همچین چیزی رو میشناسه؟ من سعی کردم چنین رویه هایی را در Gretl پیدا کنم، اما در آنجا می توانید از روش hsk برای تصحیح heteroskedasticity یا رویه ar1 برای تصحیح همبستگی سریال استفاده کنید. من به روش GLS نیاز دارم که با هر دوی آنها سروکار دارد. با تشکر
نرم افزاری که تخمین GLS را با تصحیح همبستگی ناهمگون و سریال قادر می سازد
82815
من در یادگیری ماشین بسیار جدید هستم و از این رو با سردرگمی زیادی در مفاهیم عادی سازی داده ها مواجه هستم. کسی خواهش می‌کند شک‌های زیر را روشن کند: 1) در حالی که یک ماتریس داده‌ای از m-نمونه‌ها x n-ویژگی‌ها را عادی می‌کنیم، عادی‌سازی باید در امتداد m-نمونه‌ها یا در امتداد n-ویژگی‌ها انجام شود، یعنی هر سطر یا هر ستون را در اینجا عادی می‌کنیم؟ 2) باید همه داده ها را با هم نرمال سازی کنیم یا اینکه نرمال سازی برای هر کلاس جداگانه انجام شود. 3) فرض کنید من بردار 2-نمونه x n-ویژگی دارم که نشان داده شده است class_1 0.4432 27.19 0.6733 0.0828 0.4134 -0.6662 0.3381 0.0552 0.0 -0.01050.0 0.0 -0.0116 0.0 0.0 0.03111 0.05778 0.01333 0.0 -0.02722 -0.02333 0.0 0.00222 -0.02722 0.0 0.0 0.0 10100 10010 10010 11000 11000 10001 11000 10001 10001 10100 10001 10001 10001 class_2 0.7647 16.1073 0.7867 -0.2414 -0.2414 -0.2414 -0.2414 -0.2414 -0.2414 - 0.7647 -0.3524 -0.01944 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.04611 0.0 -0.01944 0.03556 -0.02722 0.03111 0.001 0.001 0.001 10100 11000 10010 10001 10100 10010 10001 10001 11000 10001 10001 10001 11000 10001 چگونه می توان در این حالت مقدار کمی از ویژگی ها را نرمال کرد اما می بینید که در این مورد مقدار کمی وجود دارد، اما می بینید که در ابتدا مقدار کمی وجود دارد. ویژگی ها (انواع 00110 برخی از اطلاعات موقعیت هستند). اگر عادی کنیم چه اتفاقی برای چنین اطلاعاتی خواهد افتاد؟ 4) داده های آموزش و آزمایش باید بعد از نرمال سازی جدا شوند یا قبل از نرمال سازی و سپس نرمال شوند؟ 5) در مورد نمونه کاربر چطور؟ وقتی طبقه‌بندی‌کننده‌ام را آموزش دادم و آماده کردم، کاربر یک ورودی واحد از 1 نمونه x n ویژگی می‌دهد؟ کاملاً بدیهی است که مقادیر برای هر ویژگی در مقایسه با داده های نرمال شده مورد استفاده در آموزش و آزمایش، از نظر بزرگی بسیار متفاوت است. چگونه با این موضوع برخورد کنیم؟
مشکلات عادی سازی داده ها
65590
من از «cut()» برای تبدیل داده‌ها به این شکل استفاده می‌کنم: N <- 10 جدول (cut(iris$Sepal.Length,quantile(iris$Sepal.Length,probs=seq(0,1,1/N)) )) با این حال، من متغیرهای زیادی دارم و می خواهم تعیین کنم حداکثر N قابل قبول برای متغیر چیست. من فکر می‌کردم این به مقادیر منحصربه‌فرد مرتبط می‌شود، اما به این آسانی نیست: طول(یونیک(iris$Sepal.Length)) # 35 مقدار منحصربه‌فرد N <- 19 ## شکست می‌خورد اگر جدول N > 19 (برش(iris$Sepal .Length,quantile(iris$Sepal.Length,probs=seq(0,1,1/N))))) آیا راهی برای محاسبه N وجود دارد یا باید این عدد را تکراری پیدا کنم؟ شاید کار کردن با این حالت ساده‌تر باشد: N <- 4 x <- c(1,2,2,2,2,2,2,3,3,3,3,4,5,6,7 ,8) جدول(برش(x,چندک(x,probs=sq(0,1,1/N))))
تعیین حداقل مرحله قابل قبول در cut()
13743
فرض کنید $N$ آزمایش می تواند در شرایط مختلف انجام شود. هر یک از آنها یک تخمین $f_i$ از یک تابع پیوسته (و در صورت لزوم مثبت) x را در بازه‌ای زمانی به دست می‌دهد. آزمایش $i$ چندین بار $n_i$ تکرار می‌شود و هر بار یک تابع $f_i^j$ به دست می‌دهد. به من داده های زیر داده می شود $$\forall x \quad \forall i \quad {n_i,f_i(x),\sigma_i(x)}$$ که $$f_i(x) = \frac{1}{n_i} \sum_{j=1}^{n_i} f_i^j(x) $$ $$\sigma_i^2(x) = \frac{1}{n_i}\sum_{j=1}^{n_i} (f_i^j(x)-f_i(x))^2 $$ فرض کنید آزمایش $1$ آزمایش مرجع است. می‌خواهم بدانم آیا برخی یا همه $f_i$ با تابع $f_1$ موافق هستند یا خیر. اگر موافق نیستند، دوست دارم بدانم در چه منطقه ای اختلاف نظر وجود دارد. البته توجه داشته باشید که از آنجایی که آزمایش‌ها در شرایط مختلف انجام شده‌اند، انتظار می‌رود که توابع واریانس مطابقت نداشته باشند و باید برای هر آزمایش متفاوت در نظر گرفته شوند. در حال حاضر، من در حال برنامه ریزی برای انجام یک ANOVA دو طرفه بر روی هر مقدار $x$ و سپس یک آزمون دو نمونه $t$-تست در صورت لزوم برای تعیین آزمایش های مخالف بودم. با این حال، من به دنبال روشی بودم که تابع را به عنوان یک کل، هتروسکداستیک، و در صورت امکان بیزی رفتار کند. چیزی پیدا نکردم. منابع ادبی قدردانی می شود.
آزمون t دو نمونه ای / ANOVA روی توابع، با واریانس های نابرابر
82810
من مجموعه داده‌های سری زمانی متعددی با داده‌های از دست رفته دارم (داده‌ها به دلیل ثبت نشدن در این تاریخ‌ها وجود ندارند)، و می‌خواهم یک تبدیل موجک روی داده‌ها انجام دهم (احتمالاً یک MODWT، به دلیل ویژگی‌های آن که توسط Percival و Walden تعریف شده است. 2000]). با توجه به اینکه جزئیات موجک در فرکانس‌های مختلف رخ می‌دهد - و موجک همواری هم وجود دارد - آیا باید قبل از مرحله فیلتر کردن موجک (مثلاً درونیابی و غیره) به داده‌های از دست رفته بپردازم؟ یا به دلیل ویژگی های فیلتر موجک در فرکانس های مختلف، آیا بایاس ناشی از داده های از دست رفته در فرکانس های مختلف فیلتر کاهش می یابد؟ با تشکر
داده های از دست رفته موجک
2563
برخی از بهترین الگوریتم‌های رتبه‌بندی با ورودی‌ها به صورت آرای بالا و پایین کدامند؟
برخی از بهترین الگوریتم‌های رتبه‌بندی با ورودی‌ها به صورت آرای بالا و پایین کدامند؟
69907
من از SPSS استفاده می کنم تا یک مدل ترکیبی پیدا کنم که به اندازه کافی اطلاعاتی را که دارم توضیح دهد. دو تا از متغیرهای توضیحی ارتباط نزدیکی با هم دارند (گروه نمونه و فرد)، زیرا یک فرد تنها بخشی از یک گروه نمونه است، بنابراین اگر آنها در یک مدل باشند، آنها را تودرتو کرده ام. من از امتیاز AIC مدل ها برای رتبه بندی مدل ها به ترتیب قدرت توضیحی استفاده کرده ام. برخی از مدل‌ها از متغیرهای تودرتو استفاده می‌کنند و برخی از مدل‌ها فقط از «گروه نمونه» یا «فرد» استفاده می‌کنند. سوال من این است: آیا استفاده از AIC برای مقایسه بین مدل هایی که از متغیرهای تودرتو استفاده می کنند و مدل هایی که استفاده نمی کنند معتبر است؟ برای روشن شدن متغیرهای تو در تو، منظور من این است که برخی از متغیرهای بالقوه مورد استفاده در یک مدل عبارتند از: 1) سایت نمونه (فردی) 2) سایت نمونه 3) فردی
استفاده از AIC برای انتخاب بین مدل هایی که از متغیرهای تودرتو و غیر تودرتو استفاده می کنند
23540
لطفاً کسی می تواند کمک کند که چگونه محاسبه شود $P(A)$ داده شده: $ P(B) = 0.2 $ $P(A|B) = 0.6 $ $P(A|{\rm نه} \ B) = 0.6$ هر گونه توضیح / کمک بسیار قدردانی می شود.
مشکل احتمال شرطی
43283
من چندین مقاله و گزیده‌ای از کتاب‌ها را خوانده‌ام که توضیح می‌دهند چگونه می‌توان تعداد _خوب_ بازه‌ها (بین‌ها) را برای هیستوگرام مجموعه داده‌ها انتخاب کرد، اما نمی‌دانم که آیا یک _حداکثر_ سخت بازه‌ها بر اساس تعداد نقاط وجود دارد. یک مجموعه داده یا معیار دیگری. **زمینه:** دلیلی که من می پرسم این است که سعی می کنم نرم افزاری را بر اساس رویه ای از یک مقاله تحقیقاتی بنویسم. یک مرحله در این روش، ایجاد چندین هیستوگرام از یک مجموعه داده، سپس انتخاب وضوح بهینه بر اساس یک تابع مشخصه (تعریف شده توسط نویسندگان مقاله) است. مشکل من این است که نویسندگان کران بالایی برای تعداد فواصل آزمایش ذکر نمی کنند. (من صدها مجموعه داده برای تجزیه و تحلیل دارم، و هر یک می تواند تعداد بهینه متفاوتی از bin ها داشته باشد. همچنین، مهم است که تعداد _optimal_ bin ها انتخاب شود، بنابراین نگاه دستی به نتایج و انتخاب یک _good_ نمی تواند باشد. کار است.) آیا صرفاً تنظیم حداکثر تعداد فواصل به عنوان تعداد نقاط در مجموعه داده ها راهنمایی خوبی است یا معیار دیگری وجود دارد که معمولاً در آمار استفاده می شود؟
آیا محدودیت بالایی برای تعداد فواصل در یک هیستوگرام وجود دارد؟