_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
87051 | من این سوال را در StackOverflow پرسیدم و شخصی به من اشاره کرد که این را اینجا بپرسم. فرض کنید من 3 متغیر دارم: x، y، z که اعداد صحیح هستند. من 5000 مقدار از هر کدام را دارم و می خواهم با توجه به این مجموعه داده، مقدار 5001 (یا دیگر) را پیش بینی کنم. مسئله این است که مقادیر بسیار نوسان می کنند، بنابراین من فکر می کردم که احتمالاً می توانم معادله این مجموعه داده را به صورت محاسباتی پیدا کنم و می توانم با استفاده از این معادله مقدار 5001 را تقریب کنم. بهترین راه برای انجام این کار برای من چیست؟ | یافتن معادله یک مجموعه داده |
70334 | من در حال انجام یک تجزیه و تحلیل اساسی برای تحقیق خود هستم، در رابطه با رابطه بین قیمت جهانی نفت و گاز و کل استرالیا و بازارهای سهام بخشی. سرپرست من از من خواسته است که از EVIEWS 8 به دلیل در دسترس بودن آن در دانشگاه استفاده کنم. دادههای من شامل شاخصهای قیمت برای قیمت جهانی O&G، بازار مالی Aus، بازار O&G Aus، و غیره است. سرپرست من به من دستور داد که از بازدهها برای جلوگیری از همبستگی سریال در اصطلاح خطا استفاده کنم، اما من کاملاً مطمئن نیستم که آن را درست میدانم. کسی میتونه توضیح بده لطفا من واقعاً تفاوت بین گرفتن ln (قیمت) و ln (تفاوت اول) و اینکه آیا ln (تفاوت اول) را می توان به عنوان بازده آن بازار خاص در نظر گرفت، نمی دانم. | قیمت لاگ در مقابل بازده لاگ |
14377 | من 4 جفت نمونه دارم، فرض کنید (x1، y1)،...، (x4، y4). * حداقل حجم نمونه برای آزمون t زوجی چقدر است؟ * کدام فرض را برای آزمون t زوجی باید بررسی کنم؟ * اگر دادههای من غیرعادی هستند، آزمون ناپارامتریک جایگزین چیست؟ | حداقل حجم نمونه برای آزمون t زوجی چقدر است و اگر داده ها غیرعادی باشند، معادل ناپارامتریک چیست؟ |
14374 | من داده هایی برای جمعیت تعدادی از ماهی های مختلف دارم که در طی یک دوره حدود 5 ساله نمونه برداری شده اند، اما در یک الگوی بسیار نامنظم. گاهی اوقات بین نمونه ها ماه ها وجود دارد، گاهی اوقات چندین نمونه در یک ماه وجود دارد. همچنین تعداد زیادی 0 وجود دارد چگونه با چنین داده هایی برخورد کنیم؟ من می توانم آن را به راحتی در R ترسیم کنم، اما نمودارها به خصوص روشن کننده نیستند، زیرا بسیار پر دست انداز هستند. از نظر مدل سازی - با گونه هایی که به عنوان تابعی از چیزهای مختلف مدل شده اند - شاید یک مدل ترکیبی (معروف به مدل چند سطحی). هر مرجع یا ایده ای استقبال می شود برخی از جزئیات در پاسخ به نظرات حدود 15 گونه وجود دارد. من سعی می کنم هم ایده ای از هر گونه روند یا فصلی در هر ماهی داشته باشم و هم به نحوه ارتباط گونه ها با یکدیگر نگاه کنم (مشکل من در ابتدا یک جدول ساده از همبستگی ها می خواست) هدف توصیفی و تحلیلی است، نه پیش بینی کننده ویرایش های بیشتر : من این مقاله را توسط K. Rehfield و همکاران پیدا کردم، که پیشنهاد می کند از هسته های گاوسی برای تخمین ACF برای سری های زمانی بسیار نامنظم استفاده شود. http://www.nonlin-processes-geophys.net/18/389/2011/npg-18-389-2011.pdf | سری زمانی بسیار نامنظم |
79685 | من انتخاب هدفمندی را انجام دادم که در آمار اپیدمیولوژی جول ذکر شده است. آزمونهای لاگ درستنمایی متغیرهای کمکی را نشان دادند، که به نظر من در مدلسازی مخدوشکننده هستند، اما در مدلسازی معنیدار نیستند، در صورت حذف، معنیدار نیستند. اما در نهایت، آزمون خوب بودن برازش معنادار بود. هنگام معرفی مجدد متغیرهای کمکی گیج کننده، خوبی برازش معنی دار نبود. متأسفانه، من نمی توانم تحقیقات زیادی در این زمینه پیدا کنم، زیرا بیشتر برای اهداف سیاست و برنامه است، بنابراین مرجعی برای نگهداری متغیرها وجود ندارد. آیا همچنان باید متغیرهای کمکی را که تصور میشود مخدوشکننده هستند، صرفنظر از نتایج آزمون احتمال ورود به سیستم نگه دارم؟ | انتخاب هدفمند و گیج کننده |
45957 | در کتاب متنی من آمده است: > هر یک از $y_t، x_{t1}$، و $x_{t2}$ را بر روی یک ثابت و روند زمانی رگرسیون کنید > $t$ و باقیمانده ها را ذخیره کنید... رگرسیون به چه معناست. هر کدام در یک ثابت؟ به طور خاص چه ثابتی؟ این از بخشی در کتاب درسی (دقیقاً اقتصاد سنجی مقدماتی) است که به کاهش روند یک سری زمانی می پردازد. | کاهش روند یک مدل رگرسیون سری زمانی |
64336 | من یک رگرسیون چندگانه برای تعیین اینکه کدام عوامل تمایل به پرداخت برای اعضای گروه دیگر را پیش بینی می کنند انجام داده ام. رگرسیون چندگانه مشخص کرد که تهدید نمادین (ترس از حمله فرهنگی و سنتی به ارزشهای گروه توسط دیگران) تنها پیشبینیکننده مهمی است که نشان میدهد چقدر برای اعضای گروه دیگر هزینه میشود. با این حال، در تحقیقاتم دریافتم که نگرش نسبت به گروه برونگروه مورد نظر کاملاً واسطه این تأثیر است. نتایج نهایی مانند نشان داده شده است: (من نمی توانم یک عکس پست کنم زیرا شهرت من هنوز 10 نشده است، بنابراین آن را به بهترین شکل ممکن می نویسم، همه خطوط ---- باید ثابت باشند) نگرش نسبت به گروه برون گروهی ㅅ \ / \ .633***/ \.482*** / \ / v نمادین ------------------> مقدار تهدید مایل به مالیات 0.495*** (0.190 ns) برای پرداخت در گروه خارجی. با این حال، من در تفسیر معنای این میانجی گری مشکل دارم. * آیا این میانجی گری به این معناست که بدون هیچ گونه نگرش نسبت به برون گروه، تهدید نمادین دیگر مبلغی را که یکی برای گروه دیگر می پردازد، پیش بینی نمی کند؟ * آیا این بدان معناست که نگرش های موجود همراه با تهدید نمادین، مبلغی را که یکی برای گروه دیگر می پردازد، صادقانه پیش بینی می کند، در حالی که به طور جداگانه نمی توان پیش بینی کرد؟ هر ایده یا مرجع مفیدی واقعا مفید خواهد بود با تشکر. | چگونه مدل میانجیگری سه متغیر اساسی را تفسیر کنیم؟ |
103482 | من به دنبال پیادهسازیهای موجود برای همخوشهسازی (معروف به biclustering) هستم. من با تابع 'biclust' موجود در متلب آمدم، اما هنوز نمی دانم که آیا پیاده سازی های بیشتری برای این موضوع وجود دارد، چه در متلب یا R. | پیاده سازی برای Co-Clustering |
103104 | برای یک مطالعه شبیه سازی، من قدرت LMEM های مختلف را برای اندازه گیری های مکرر مقایسه می کنم. برای بدست آوردن مقادیر p، از آزمونهای نسبت درستنمایی استفاده میکنم که در آن مدلی شامل اثر درمان ثابت را با مدلی که دارای ساختار اثرات تصادفی یکسان است، اما بدون اثر درمان ثابت، مقایسه میکنم. من می خواهم مدلی را مشخص کنم که در آن وقفه تصادفی و شیب مجاز به همبستگی هستند و مدلی که در آن مجاز نیست. اما، وقتی من مقادیر p هر دو مدل را استخراج می کنم، به نظر می رسد که آنها دقیقاً یکسان هستند. چرا؟ من متخصص مدل های ترکیبی نیستم اما عجیب به نظر می رسد. این کد من با استفاده از نحو lmer است: # همبستگی مجاز ml3 <- lmer(rt ~ درمان + (1+درمان|موضوع),data=df) ml0 <- lmer(rt ~ 1 + (1+درمان|موضوع),data= df) lrt <- anova(ml3,ml0) pVal <- lrt$Pr(>Chisq)[2] # no همبستگی ml2 <- lmer(rt ~ درمان + (1|موضوع) + (0+درمان|موضوع) ,data=df) ml0 <- lmer(rt ~ 1 + (1|موضوع) + (0 + درمان|موضوع) ,data=df) lrt <- anova(ml2,ml0) pVal <- lrt$Pr(>Chisq)[2] داده: ساختار dput(DF)(لیست(موضوع = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، ۵ لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 11،11،1، 1 ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر، ۱۱ لیتر 11 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 1 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 18 لیتر، 17 لیتر، 18 لیتر، 17 لیتر 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 21 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر، 21 لیتر 21 لیتر، 21 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 2 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 2 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، | برازش LMEM برای اندازه گیری های مکرر بدون همبستگی بین برش و شیب |
87055 | از آنچه من میدانم، jackknife و bootstrapping روشهای فراوانی برای محاسبه آمار (بایاس، واریانس، و غیره) یک برآوردگر هستند. با توجه به نمونهای از دادههای من و یک برآوردگر، و با فرض کمی در مورد فرآیند تولیدی، چگونه میتوانم همان آمار برآوردگر خود را با استفاده از رویکرد بیزی محاسبه کنم؟ | رویکرد بیزی برای تعصب و واریانس برآوردگر محاسباتی |
18655 | من جفت های زیادی دارم مانند: A B 10 20 15.3 19.5 23 13 45 32 و غیره، من آن جفت ها را با محاسبه انحراف معیار بسیاری از بردارها (بردارهای R) ایجاد می کنم و سپس آنها را با 2 (A - B) گروه بندی می کنم. حالا باید آن جفت ها را با درصد اختلافشان فیلتر کنم. من درصدی مانند `30%` تنظیم می کنم، سپس تمام جفت ها را فیلتر می کنم تا کسانی که اختلاف دارند **زیر** یا **برابر** 30٪ سؤال من این است که آیا این فرمول برای بدست آوردن تفاوت (در درصد) صحیح است. از دو عدد) ((A / B) -1) * 100 شک من این است که به تفاوت آنها نیاز دارم تا بفهمم آیا می توانم آنها را بگیرم یا نه اما اگر انجام دهم: ((B / A) -1) *100 بدیهی است که من دریافت کنید یک نتیجه متفاوت، به عنوان مثال: A = 10 B = 20 A-B % = -50 % ((10 / 20) -1) *100 B-A % = 100 % ((20 / 10) -1) *100 بنابراین، چگونه می توانم بهتر است تفاوت واقعی دو عدد (تفاوت انحراف استاندارد) را مطالعه کنید؟ **ویرایش (@Henry)** > a <- log(sd(rnorm(250))) > b <- log(sd(rnorm(250))) > a/b [1] 0.6049963 **0.60%* * از تغییر؟ متشکرم | چگونه تفاضل دو عدد (انحراف معیار) را بدست آوریم؟ |
17932 | من یک مدل پیشبینی برای یک سری زمانی دارم و میخواهم خطای پیشبینی خارج از نمونه آن را محاسبه کنم. در حال حاضر استراتژی که من دنبال می کنم، همان استراتژی پیشنهادی در وبلاگ راب هیندمن (نزدیک به انتهای صفحه) است که به این صورت است (با فرض یک سری زمانی $y_1،\dots،y_n$ و یک مجموعه آموزشی با اندازه $k). $) 1. مدل را با دادههای $y_t,\dots,y_{t+k-1}$ مطابقت دهید و اجازه دهید $\hat{y}_{t+k}$ پیشبینی برای مشاهده بعدی 2. خطای پیش بینی را به صورت $e_{t} = \hat{y}_{t+k} - y_{t+k}$ محاسبه کنید. 3. برای $t=1,\dots,n-k$4 تکرار کنید. میانگین مربع خطا را به صورت $\textrm{MSE}=\frac{1}{n-k}\sum_{t=1}^{n-k} e_t^ محاسبه کنید 2$ سوال من این است که به دلیل همپوشانی مجموعه های آموزشی من چقدر باید نگران همبستگی ها باشم. به طور خاص، بگویید من میخواهم نه تنها مقدار بعدی، بلکه مقادیر $m$ بعدی را پیشبینی کنم تا پیشبینیهای $\hat{y}_{t+k}،\dots،\hat{y}_{ داشته باشم. t+k+m-1}$ و خطاهای $e_{t,1},\dots,e_{t,m}$ و من میخواهم یک ساختار اصطلاحی از خطاهای پیشبینی بسازم. آیا باز هم می توانم هر بار پنجره آموزش تنظیم شده با 1 را به جلو بچرخانم یا باید آن را با $m$ به جلو بچرخانم؟ اگر در سریهایی که من پیشبینی میکنم، خودهمبستگی قابلتوجهی وجود داشته باشد، پاسخ به این سؤالات چگونه تغییر میکند (احتمالاً این یک فرآیند با حافظه طولانی است، یعنی تابع خودهمبستگی بهعنوان یک قانون قدرت به جای نمایی تحلیل میرود.) توضیحی در اینجا، یا پیوندهایی به جایی که بتوانم نتایج نظری در مورد فواصل اطمینان در اطراف MSE (یا سایر معیارهای خطا) پیدا کنم. | محاسبه خطای پیشبینی با اعتبارسنجی متقابل سریهای زمانی |
87054 | طبیعی ترین خانواده توزیع ها در بازه [0,1] که با میانگین $\mu$ و انحراف استاندارد $\sigma$ نمایه شده است، کدام است؟ من به دنبال چیزی هستم که در طبیعت رخ می دهد، مانند توزیع های عادی، با این تفاوت که باید مقادیری از 0 تا 1 بگیرد. | معادل توزیع نرمال در یک بازه چیست؟ |
55670 | من در استفاده از RF جدید هستم. من می خواهم از آن برای محاسبه اهمیت نسبی ویژگی ها استفاده کنم. متوجه شدم وزن آن بسیار کوچک است (بسته پارتی، cforest). آیا به هر حال می توان این وزن ها را در محدوده 0-1 بدست آورد؟ وزن کل به 1؟ برای مثال، اگر $x_1$، $x_2$ و $x_3$ ویژگیها باشند، اهمیت نسبی این ویژگیها چیزی شبیه به $r_1: 0.5، r_2:0.4$ و $r_3:0.1$ است. پیشاپیش ممنون | وزن اهمیت نسبی با جنگل |
45954 | نتایج رگرسیون من به شرح زیر است. متغیر B exp(B) سن 0.004575 1.004586 سرمایه 0.2250 1.2524 سال -0.1026 0.9024 لطفاً کسی می تواند به من کمک کند تا اینها را تفسیر کنم؟ (به عنوان مثال: یک سال افزایش سن خطر را تا Xx٪ افزایش یا کاهش می دهد. | تفسیر رگرسیون کاکس |
71065 | من یک مجموعه داده دارم و QQ-plot را در برابر توزیع $N(0,1)$ ساختم. طرح در زیر گنجانده شده است.  حداقل بگویم آمار من زنگ زده است (یعنی دانش کمی که داشتم اکنون زنگ زده است!) واضح است که توزیع نرمال مناسب نیست -- دم در داده های من سنگین تر از دم های موجود در یک توزیع معمولی است. اما به نظر می رسد که داده ها نسبت به توزیع نرمال منحرف نیستند. بنابراین، کدام توزیع ممکن است مناسب تر باشد؟ آیا این چیزی است که تحولی مانند باکس کاکس می تواند درمان کند تا آن را بهتر کند؟ ویرایش: دادههای من کاملاً مثبت نیستند، بنابراین Box-Cox خارج شده است... اما ممکن است تغییر دیگری وجود داشته باشد که کار کند. ویرایش 2: من مجموعه دادههای بزرگتری دارم و باید ببینم مجموعه دادهها به چه چیزی همگرا میشوند. این یک تحلیل اکتشافی است، من ترجیح میدهم توزیعی پیدا کنم که با دادهها مطابقت داشته باشد تا اینکه دادهها را به یک توزیع تبدیل کنم. همه اینها با SciPy انجام می شود که مقدار مجانبی کشش بایاس را به صورت -1 و چولگی را 0 گزارش می دهد. اما من نمی دانم چگونه از این اطلاعات برای تعیین اینکه کدام توزیع ممکن است استفاده کنم، به غیر از بررسی همه آنها. ببینید کدام یک $r^2$ بهتر می دهند. ویرایش 3: بر اساس نظری از gung، من آن را در برابر توزیع یکنواخت بررسی کردم:  مطمئناً، این بسیار بهتر است، اگرچه هنوز تفاوتی در دم ها | از چه توزیعی برای این نمودار QQ استفاده کنیم؟ |
14373 | **مقدمه** من یک ماتریس $N$ با ابعاد $I\times J$، $I> J$ دارم، و $n_{ij}$ فرض می شود که از توزیع پواسون با میانگین $\lambda_{ij} پیروی می کند. $. با استفاده از یک روش (مثلا _NtoM_)، $N$ را به یک ماتریس $M$ با ابعاد $I \times K$ تقلیل میدهم (ردیفها مطابق با $N$ هستند، اما ستونها همان مقادیر را در $N$ نشان نمیدهند. )، $I >> K$، و ورودی های $M$ اعداد واقعی مثبت هستند. _Edit_ (با تشکر از نظر @whuber) این رابطه بین $N$ و $M$ است: برای هر $i \in \{1,\ldots, I\}$ و یک $j$, $\lambda_{ij خاص }$ در $m_{ik}$، $k \in \{1،\ldots، K\}$ خواهد بود. با این حال، نکته کلیدی این است که برای $i$ خاص، $\lambda_{ij_1}$ و $\lambda_{ij_2}$ لازم نیست اگر $j_1\neq j_2$ باشد. $K$ را می توان کمتر از $J$ فرض کرد. **سوال** آیا راهی برای اندازه گیری تفاوت محتوای اطلاعاتی (سود یا ضرر) در کاهش ماتریس $N$ به $M$ با استفاده از روش _NtoM_ وجود دارد؟ | آیا راهی برای اندازه گیری محتوای اطلاعاتی (یا تفاوت) در دو ماتریس وجود دارد؟ |
45950 | من میخواهم آزمایش کنم که دادههای من چقدر با توزیع یکنواخت تناسب دارند و از آن به عنوان یکی از عوامل در تابع احتمالی که میسازم استفاده کنم. متأسفانه من هیچ مبنای محکمی در آمار ندارم. تا اینجا متوجه شدم که یک معیار خوب برای استفاده، آزمون کولموگروف-اسمیرنوف است. من می توانم آزمایش را انجام دهم، اما نمی دانم عددی که به دست می آید به چه معناست. چیزی که من میخواهم داشته باشم، ارزش PDF است که توضیح میدهد آیا نمونه من از توزیع دادهشده میآید یا نه، تا بتوانم آن را به تابع احتمال خود وصل کنم. چگونه آن را دریافت کنم؟ متشکرم! | آزمون کولموگروف اسمیرنوف در تابع درستنمایی |
66909 | در یک BIBD، اجازه دهید $a$ تعداد درمانها را نشان دهد. $b$ تعداد بلوک ها را نشان می دهد. $k$ تعداد درمان ها را دقیقاً در هر بلوک نشان می دهد. $\lambda$ تعداد دفعاتی است که هر جفت درمان در یک بلوک ظاهر می شود. هر درمان برابر $r$ اتفاق می افتد. روابط $r=\binom{a-1}{k-1}$ و $\lambda=\binom{a-2}{k-2}$ چگونه به دست می آیند؟ | طراحی بلوک ناقص متعادل |
17933 | من یک مجموعه داده از تیم ها دارم. هر تیم مجموع امتیاز دارد. من میخواهم تیمها را در محدودههای امتیازی (0 - 999؛ 1000 - 1999؛ و غیره) تقسیم کنم، مانند اینکه محدوده برتر (با بیشترین امتیاز) کوچکتر باشد (تیمهای کمتری دارد) از تیم بعدی و غیره. فرض کنید تعداد محدوده ها 7 و زاویه آن X درجه است مانند این شکل:  چگونه می توانم محدوده نقطه برای تشکیل آن شکل؟ ویرایش: میله ها بدون توجه به اندازه محدوده مربوطه، اندازه پایه یکسانی دارند. | چگونه یک توزیع را شکل دهیم؟ |
66905 | من یک مدل گرافیکی با متغیرهای باینری Y، X1، X2 و دادههای مشاهده شده D دارم. D به Y بستگی دارد X1 و X2 به Y بستگی دارد وقتی Y نادرست است، X1 و X2 مستقل هستند: (D) <-- (Y) - -> (X1) | V (X2) با این حال، وقتی Y درست است، X1 و X2 مستقل نیستند و باید به صورت مشترک مدل شوند: (D) <-- (Y) --> (X1,X2) من سعی کردم متغیر لبه E بین X1 و X2 که تحت تاثیر Y است. وقتی Y غلط است می توانم رفتار صحیح را دریافت کنم، اما وقتی Y درست است نه: (D) <-- (Y) --> (X1) | ^ V E (X2) <- / (یعنی Y --> E و E --> X1 و E --> X2) اگر لبه های جهت دار را برعکس کنم به طوری که از X1 و X2 به E اشاره کنند، نمودار اخلاقی یک بار دیگر همیشه X1 و X2 را به عنوان مفصل در نظر می گیرد. بنابراین به نظر نمیرسد که نمیتوانم استقلال وابسته به دولت را رمزگذاری کنم... آیا تئوری ثابتی در مورد چنین شبکههایی وجود دارد (اگر چنین است این رابطه چه نامیده میشود)؟ آیا راهی برای رمزگذاری یا تبدیل نمودار با متغیرهای موقت یا چیزی وجود دارد که اگر D داده شده را میدانید، Y باید نادرست باشد، تا بتوانید از اولین نمودار (که X1 و X2 مستقل از Y هستند) استفاده کنید و سریعتر داشته باشید. استنباط؟ البته باید اشاره کنم که این یک نمونه اسباب بازی است. واقعی بزرگ است از کمک شما بسیار سپاسگزارم. و متاسفم برای نمودارهای ascii، من توسط گرگ ها بزرگ شدم. | استقلال وابسته به دولت در مدلهای گرافیکی |
91754 | من از یک مجموعه داده بسیار ساده از یک مقاله برای درک بیشتر GLMها استفاده می کنم. من داده ها را با استفاده از SAS وارد کرده ام و هر دو رویه PROC REG و PROC GENMOD را روی داده ها اجرا کرده ام. در روش PROC GENMOD، من از یک پیوند ورود به سیستم با توزیع نرمال استفاده کردم. در روش PROC REG، من از لاگ متغیر پاسخ در مدل استفاده کردم. سوال من این است که چرا تخمین پارامترهای دو روش مطابقت ندارند؟ درک من این است که PROC REG از OLS برای تخمین پارامترها استفاده می کند، در حالی که PROC GENMOD از MLE با فرآیند تکراری نیوتن رافسون برای تخمین استفاده می کند. اما من فکر می کردم که وقتی توزیع فرضی نرمال است و رابطه خطی است (که پس از تبدیل log، در GLM است، درست است؟)، MLE برابر با OLS است. در اینجا پارامترهای حاصل از اجرا آمده است: REG GENMOD A1 4.623 4.579 A2 4.688 4.730 A3 4.654 4.654 B1 (0.735) (0.741) B2 (0.487) (0.436: کد GLM) ورودی Y A1 A2 A3 B1 B2; lnY = LOG(Y); خطوط داده؛ 95 1 0 0 0 0 115 0 1 0 0 0 105 0 0 1 0 0 55 1 0 0 1 0 45 0 1 0 1 0 30 1 0 0 1 1 ; proc genmod data=GLM; مدل Y = A1 A2 A3 B1 B2 / dist=normal link=log scale=noint deviance ; وزن Y; اجرا؛ proc reg data=GLM; مدل lnY = A1 A2 A3 B1 B2 / noint; وزن Y; اجرا؛ هر بینشی که هر کسی می تواند کمک کند بسیار قدردانی می شود! سوال جایزه - در داده های من 6 معادله و 5 متغیر دارم. چرا یک فرآیند تکراری برای حل آن مورد نیاز است؟ | SAS - REG در مقابل GENMOD؛ OLS در مقابل MLE |
61008 | من یک دانشجوی روانزبانشناسی با دانش کمی در آمار هستم و در مورد همبستگی اثرات ثابت در تابع lmer (بسته lme4) تردید دارم. بنابراین، اگر سوال من احمقانه است… هومم… متاسفم! متغیر پاسخ من RT (زمان واکنش در آزمایش خواندن خودگام) و متغیرهای مستقل من Ant (PP، NP) و Verbo (SG، PL) هستند. من دادهها را با رهگیریهایی برای Sujeitos (افرادی که کار را انجام میدهند) و Item (جملاتی که استفاده کردهام) مدلسازی کردهام، و درخواست اثرات اصلی و تعامل بین متغیرها را دارم. در اینجا مدل `lmer(RT~Ant*Verbo+(1|Sujeitos)+(1|Item))` و این ضرایب برای جلوه های ثابت است:  بنابراین، من جدولی از ضرایب تعاملات تهیه کرده ام. مشکل من این است: که اثرات همبستگی -0.705 و -0.716 برای شرایط تعامل من مشکل دارند؟ این را می گویم زیرا ضرایب شرط NP:SG فقط از ضرایب SG آمده است:  و ضرایب برای PP :PL فقط از PP آمده است:  بنابراین، برای من، هیچ مشکلی وجود ندارد در اینجا، چون من PP:SG x PP (همبستگی = -0.705) را متضاد نمیکنم و PP:SG x SG را متضاد نمیکنم ((همبستگی = -0.716)). اما من این کار را هنگام بدست آوردن ضرایب برای PP:SG: x PP و SG. بنابراین، همبستگی می تواند یک مشکل باشد. آیا این درست است؟ و اگر چنین است، چگونه می توانم با این موضوع کنار بیایم؟ من برخی از افکار را در وبلاگ جیگر و در این کتاب خوانده ام: «Howell, 2010. Statistical Methods for Psychology»، اما کمک چندانی نمی کند. متشکرم. | همبستگی اثرات ثابت در lmer |
41707 | دو آزمایشگاه وجود دارد که نمونه های یکسان را اندازه گیری می کنند. یکی از داده های آزمایشگاه غیر طبیعی است، بنابراین من به دنبال یک آزمایش ناپارامتریک هستم. پس از مقایسه تفاوتهای کلی در متغیر وابسته (مستمر) با استفاده از Wilcoxon Mann-Whitney، میخواهم تفاوتهای بین آزمایشگاهها را بر اساس متغیر سوم آزمایش کنم. تعدادی متغیر سوم وجود دارد که میخواهم آنها را آزمایش کنم، و برخی از آنها طبقهبندی هستند (2 سطح و 3 سطح) و دیگری ترتیبی (بر اساس ماه). کدام آزمون مناسب خواهد بود؟ در مورد تست ون الترن خوندم ولی خروجی SAS معنی نداشت. پیشاپیش متشکرم | کنترل آزمون غیر پارامتریک برای متغیر سوم |
91757 | من در حال کار بر روی یک تجزیه و تحلیل سری زمانی با 52 داده سه ماهه در مورد انواع عوامل تعیین کننده احتمالی انتشار CO $_2$ توسط حمل و نقل (CO$_2$ مالیات، تولید ناخالص داخلی، ضریب بار، حجم حمل و نقل) هستم. یعنی حداقل 3 متغیر مستقل خواهم داشت. من از Stata استفاده میکنم و میخواهم ببینم آیا رابطه بلندمدت و کوتاهمدتی بین آنها وجود دارد، بنابراین یک فرآیند همگرایی را شروع کردهام. 1. من یک آزمایش ADF برای آزمایش ریشه واحد انجام داده ام و 3 متغیر از 5 متغیر I(1) هستند اما 2 متغیر دیگر I(0) هستند. من اینجا در پاسخ دیگری خوانده ام که در یک مدل چند متغیره، حتی اگر I(0) و I(1) داشته باشید، می توان به هم انباشتگی ادامه داد. آیا این درست است و چگونه تفسیر نتایج را تغییر می دهد؟ 2. همچنین من یک مشکل اساسی برای جدا کردن VAR از VECM دارم. چه تفاوتی بین آنها وجود دارد؟ 3. آیا باید ابتدا VAR و سپس VECM انجام دهم یا فقط یکی از آنها؟ کدام دقیق تر است؟ | مشکلات همگرایی با استفاده از Stata |
41702 | من سعی می کنم مشخص کنم که چرا با این پیاده سازی های مختلف تست Wilcoxson در R نسخه 2.15.2 نتایج متفاوتی دریافت می کنم. من داده ها را با برخی از پیوندها جفت کرده ام. من پاسخ مربوط به تفاوت بین wilcox.test و wilcox_test در R را خوانده ام، اما برخی از مقادیر p در داده های من بسیار متفاوت هستند. همچنین، من متوجه نمی شوم که چرا بسته سکه دارای دو عملکرد (wilcoxsign_test و wilcox_test) برای ایجاد یک نتیجه است. چه چیزی را از دست داده ام؟ دادههای مثال من در اینجا آمده است: library('exactRankTests') # برای wilcox.exact library('coin') data <- data.frame( y = c(2770.00, 3160.00, 4120.00, 4510.00, 3320.00, 3320.00, 300.30.30. 3810.00، 3760.00، 6350.00، 2720.00، 3740.00، 5210.00، 3330.00، 4230.00، 3490.00، 3138.07، 3138.07، 2641.08، 2641.8. 4941.09، 5762.31، 3565.89، 3517.91، 3413.32، 3415.98، 3439.96، 2602.11، 2659.36، 3099.79، 2820.203، 2820. 4010.00، 2780.00، 2730.00، 3130.00، 2700.00، 3510.00، 3460.00، 2470.00، 2920.00، 3230.00، 3230.00، 3030.02، 33302. 2845.69، 2137.58، 3477.96، 3128.84، 3117.77، 4949.78، 3061.60، 2942.57، 3149.46، 3067.10، 3067.10، 3123، 3123، 3122.6. 3154.66)، شرط = ضریب (c(rep('A', 30), rep('B', 30)))، شرکت کننده = ضریب (تکرار (1:30، بار = 2)) هنگام تلاش برای بدست آوردن دقیق نتایج من wilcoxsign_test، wilcox_test، و wilcox.exact مستهلک شده را مقایسه کردم. wilcoxsign_test(y ~ شرط | شرکتکننده، داده=داده، جایگزین='کمتر'، توزیع = دقیق) ## آزمون دقیق رتبهبندی امضاشده Wilcoxon ## ## داده: y توسط x (نفی، pos) ## طبقهبندی شده توسط بلوک ## Z = -4.577، p-value = 3.818e-08 ## فرضیه جایگزین: mu واقعی کمتر از 0 است wilcox_test(y ~ شرط | شرکتکننده، داده=داده، جایگزین='بزرگتر'، توزیع = دقیق) ## آزمون جمع رتبه دقیق Wilcoxon Mann-Whitney ## ## داده: y با ## شرط (A, B) ## طبقه بندی شده توسط شرکت کننده ## Z = 4.15، p-value = 0.05913 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 wilcox.exact(y ~ شرط، داده=داده، جایگزین='بزرگتر'، دقیق=صحیح، جفت شده = TRUE) ## آزمون رتبه بندی امضا شده دقیق Wilcoxon ## ## داده: y بر اساس شرط ## V = 455، p -value = 3.818e-08 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 است. wilcox_test(y ~ شرط | شرکت کننده، داده = داده، جایگزین = بزرگتر، توزیع = تقریبی) ## ## آزمون مجموع رتبه ویلکاکسون من-ویتنی تقریبی ## ## داده: y با شرط ## (A, ب) ## طبقه بندی شده توسط شرکت کننده ## Z = 4.15، p-value < 2.2e-16 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 wilcoxsign_test است (y ~ شرط | شرکت کننده، داده = داده، جایگزین = کمتر، توزیع = تقریبی) ) ## طبقه بندی شده توسط بلوک ## Z = -4.577، p-value < 2.2e-16 ## فرضیه جایگزین: mu واقعی است کمتر از 0 wilcox.exact (y ~ شرط، داده = داده، جایگزین = بزرگتر، دقیق = FALSE، جفت شده = TRUE) ## تست رتبه مجانبی علامتدار Wilcoxon ## ## داده: y بر اساس شرط ## V = 455 ، p-value = 2.362e-06 ## فرضیه جایگزین: mu واقعی بزرگتر از 0 است wilcox.test(y ~ شرط، داده = داده، جایگزین = بزرگتر، جفت شده = درست) ## اخطار: نمی توان مقدار p دقیق را با پیوندها محاسبه کرد ## ## تست رتبه امضا شده Wilcoxon با تصحیح پیوستگی ## ## داده: y با شرط ## V = 455، p-value = 2.481e-06 ## فرضیه جایگزین: تغییر مکان واقعی بزرگتر از 0 است pairwise.wilcox.test(data$y، data$condition، p.adj = هیچکدام، جفت شده = درست) ## اخطار: نمی توان مقدار p دقیق را با پیوندها محاسبه کرد ## ## مقایسه زوجی با استفاده از تست رتبه علامت دار Wilcoxon # # ## داده: data$y و data$condition ## ## A ## B 5e-06 ## ## روش تنظیم مقدار P: هیچ به عنوان یک مرتبط سوال چگونه می توانم آمار Wilcoxon مشاهده شده را برای wilcoxsign_test بدست بیاورم؟ می دانم که می توانید کارهای زیر را برای wilcox_test انجام دهید، اما به نظر نمی رسد برای wilcoxsign_test کار کند. w_t <- wilcox_test(y ~ شرط | شرکت کننده، داده = داده، جایگزین = بزرگتر، توزیع = دقیق) آمار (w_t، خطی) ## ## A 1128 | در R، چرا نتایج برای wilcoxsign_test 1-tailed، wilcox_test و wilcox.exact با داده های جفت شده متفاوت است؟ |
47705 | چگونه می توان نرخ تلاقی در محصولات را تخمین زد؟ در باید آزمایش شامل; کرت اصلی (1- بذر از مزرعه باز 2- بذر از قفس گرده افشان آزاد 3- بذر از قفس گرده افشان)، کرت فرعی (5 ژنوتیپ) و 50 بوته برای هر ژنوتیپ در هر کرت کشت شد. این در سه تکرار تخمین واریانس بین کرت های اصلی و کرت های فرعی آسان است اما سوال من در مورد واریانس ژنتیکی بین گیاهان در همان کرت است. و این به دلیل عبور از خارج خواهد بود. | چگونه می توان نرخ تلاقی در محصولات را تخمین زد؟ |
87059 | من سعی می کنم سفارشات مشتری را پیش بینی کنم و می خواهم خطاهای پیش بینی بلادرنگ را در پیش بینی خود بگنجانم. بگو دوشنبه است و من پیش بینی می کنم که مشتری 100 عدد در روز چهارشنبه سفارش دهد. برای اینکه کارها تا حد امکان آسان شود، فرض کنید که او فقط یک سفارش در این هفته انجام می دهد. موارد زیادی وجود دارد که میخواهم پوشش دهم: * سفارش زودهنگام انجام میشود: اگر سفارشی برای 120 واحد در روز سهشنبه ببینم، میخواهم پیشبینی خود را به 0 واحد در روز چهارشنبه تنظیم کنم. * برخی از سفارشها زودتر اتفاق میافتد: اگر سفارشی برای 60 واحد در روز سهشنبه ببینم، میخواهم پیشبینی خود را به 40 واحد در روز چهارشنبه تنظیم کنم. * سفارش دیر اتفاق می افتد: اگر چهارشنبه بگذرد و سفارشی وجود نداشته باشد، می خواهم پیش بینی خود را به 100 واحد در روز پنجشنبه تنظیم کنم. * و غیره. من هرگز مشکلی مانند این ندیده ام، که در آن پیش بینی آینده باید به نوعی به اشتباهات پیش بینی گذشته بستگی داشته باشد. یک مشکل دیگر این است که نویز زیادی در فرآیند زیربنایی وجود دارد، بنابراین حتی اگر بتوانم زمان بندی را 100% درست دریافت کنم، خطاهای پیش بینی زیادی را مشاهده می کنم. همچنین، ممکن است چندین سفارش در هفته وجود داشته باشد. با این حال، من 100٪ مطمئن هستم که این دستور انجام می شود. آیا کسی راهی برای مقابله با چنین مشکلاتی دیده است؟ | استفاده از خطاهای پیش بینی بلادرنگ برای بهبود پیش بینی |
79683 | من آزمایشی را با 21 نفر انجام دادم. هر آزمودنی 80 کارآزمایی را برای 3 دسته مختلف آزمون (مجموع 240 کارآزمایی) انجام داد. کاری که اکنون باید انجام دهم این است که به دنبال رابطه ای بین دسته 1/2/3 برای هر یک از 80 کارآزمایی بگردم و باید این کار را با جمع کردن همه داده های آزمودنی ها به گونه ای انجام دهم که گویی توسط یک موضوع واحد تولید شده اند. آیا کسی ایده ای در مورد نحوه انجام این کار دارد؟ همچنین من یک متغیر وابسته طبقه بندی برای هر یک از 80 کارآزمایی دارم، چگونه می توانم یک رگرسیون انجام دهم که دوباره همه آزمودنی ها را در یک واحد جمع می کند و از دسته 1/2/3 به عنوان متغیرهای مستقل استفاده می کند؟ در نهایت، در این مورد، آیا باید از یک رگرسیون استفاده کنم که این واقعیت را در نظر بگیرد که داده ها توسط 21 فرد مختلف تولید شده است؟ ممنون با آرزوی بهترین ها، آندریا | تجزیه و تحلیل همبستگی با موضوعات درهم شکسته |
94502 | من با درختان تصمیم تازه کار هستم و در مورد نحوه مدیریت متغیرهای فاکتور و متغیرهای کاراکتر/رشته غیر مرتبه در یک تقسیم سردرگمی دارم. فرض کنید من فاکتوری مانند کوچک، کوچک، متوسط، بزرگ، بزرگ دارم که در آن سطوح مهم هستند. چگونه یک درخت تصمیم برای یافتن بهترین تقسیم تلاش می کند؟ آیا فقط 4 تقسیم آشکار را بررسی می کند، یا تقسیمات را برای ترکیبات عجیب و غریب مانند، ریز یا بزرگ، اما نه کوچک متوسط یا بزرگ بررسی می کند؟ به طور مشابه، درخت تصمیم چگونه تقسیم را برای یک متغیر کاراکتر نامرتب مانند نیواورلئان، بیرمنگام، جکسون، میامی، آتلانتا بررسی می کند؟ من از بسته rpart در R استفاده می کنم زیرا سعی می کنم این موارد را یاد بگیرم، بنابراین هرگونه ارجاع به پیاده سازی rpart مفید خواهد بود. با تشکر | درخت تصمیم - متغیرهای عامل تقسیم |
28905 | من با آمار نسبتاً تازه کار هستم و می دانم که سؤال من ممکن است کاملاً اشتباه باشد. من الگوریتم خودم را در مقابل الگوریتم دیگری آزمایش می کنم. در حالی که خروجی ها یکسان نیستند، می خواهم نشان دهم که تفاوت ها از نظر آماری ناچیز هستند. چگونه می توانم این را کمیت کنم تا منظورم را بیان کنم؟ | چگونه بی اهمیت بودن آماری را کمی کنیم؟ |
28904 | من یک توسعه دهنده مجرد مشتاق هستم که روی یک ایده راه اندازی کوچک کار می کنم. من یک مجموعه از خود را با استفاده از «gensim» به فضای برداری LSA/LDA کاهش دادم. اکنون من یکسری موضوعات دارم و مطمئن نیستم که چگونه اسناد مجموعه را دسته بندی کنم. من می بینم که برخی از افراد از k-means برای خوشه بندی موضوعات استفاده می کنند. میشه لطفا یکی توضیح بده؟ * * * بنابراین من مقداری برای خواندن درست LDA/LSA داشتم و نگاهی به منبع gensim انداختم. من متوجه نشدم که ماتریس شباهت در واقع یک ماتریس MXM است که در آن M تعداد اسناد موجود در مجموعه من است، فکر کردم MXN است که در آن N تعداد موضوعات است. با استفاده از ماتریس به عنوان ورودی برای تابع پیوند scikit، توانستم یک خوشه heirachical ایجاد کنم. خوب، من توانستم این کار را برای 1000 سند در مجموعه خود انجام دهم (برای مدیریت یک مجموعه بزرگ به رم بیشتری نیاز دارم). | چگونه موضوعات LDA/LSI تولید شده توسط gensim را خوشه بندی کنیم؟ |
27961 | من سعی می کنم با استفاده از جعبه ابزار Matlab's Dimensionality Reduction، کاهش ابعاد را روی مجموعه ای از تصاویر (~3000 پیکسل) اعمال کنم. با این حال، من اطلاعات کمی در مورد کاهش ابعاد دارم. بنابراین چندین عملکرد را با آزمون و خطا امتحان کردم. PCA یک ماتریس با اعداد مختلط را برگرداند و بقیه MATLAB را مسدود کردند. آیا می توانم در مورد اینکه کدام روش روی تصاویر خوب عمل می کند، راهنمایی دریافت کنم؟ در اینجا تعدادی از تصاویر آمده است:  | کاهش ابعاد برای طبقه بندی بافت ها با متلب |
17756 | من می خواهم وضعیت یک سیستم را از دو مشاهدات مجزا و متفاوت تخمین بزنم. یک رویکرد ساده که من در برخی از ادبیات دیدهام، ترکیب بردارهای ویژگی (مشاهدات) با به هم پیوستن آنهاست. بنابراین اگر مشاهده اول $x \in \Re^{10}$ و دومی با $y \in \Re^5$ نشان داده شود، یک ویژگی منفرد (ترکیب) $z \in \Re^{15 بدست میآوریم. }$. من فقط دیدهام که این تکنیک (به ظاهر کورکورانه) بدون هیچ بحثی در مورد آنچه واقعاً زیر سرپوش میگذرد، اعمال میشود. **سوالات** 1. چه زمانی این رویکرد معنا دارد و چه زمانی معنا ندارد؟ دیدن نمونه ای از آنچه در حال وقوع است و چرا این رویکرد کار می کند یا کار نمی کند بسیار عالی است. 2. آیا کاری وجود دارد که باید برای دو ویژگی ($x$ و $y$) قبل از الحاق آنها انجام شود؟ (مثلاً مقیاسبندی/نرمالسازی؟) 3. آیا چیزی وجود دارد که به این رویکرد کمک کند؟ (به عنوان مثال کاهش ابعاد) | چرا به هم پیوستن بردارهای ویژگی منجر به تخمین بهتر می شود؟ |
28906 | من اخیراً آزمایشی را انجام دادم که تأثیر سه عامل سیستم (عامل A؛ عامل B؛ عامل C) را بر نگرش کاربران (مقیاس 4 آیتمی) ارزیابی می کرد. هر عامل سیستم دارای دو سطح (بالا در مقابل پایین) بود. در نتیجه، آزمایش من نه شرط داشت: هشت شرایط درمانی (منعکس کننده طرح 2x2x2) به اضافه یک گروه کنترل. آزمودنیهای گروه کنترل از سیستم «پایه» استفاده کردند که در آن هیچ یک از سه عامل سیستم وجود نداشت. برای تجزیه و تحلیل دادههایم، در نظر دارم دو ANOVA را اجرا کنم: (1) یک ANOVA یک طرفه که گروه کنترل را با میانگین کلی درمان مقایسه میکند و (2) یک ANOVA 2x2x2 که سه عامل و تعامل آنها را مقایسه میکند. با این حال، این به من اجازه نمی دهد که سه عامل را به طور همزمان با گروه کنترل مقایسه کنم. چگونه می توان این کار را انجام داد؟ ANOVA تو در تو؟ هر گونه پیشنهاد تا حد زیادی قدردانی می شود. | 2x2x2 به علاوه گروه کنترل: ANOVA تو در تو؟ |
41703 | تصمیم گیری در مورد اینکه کدام یک از یک آزمون تی دو نمونه ای و یک آزمون مجذور کای برای این نوع سوالات مناسب تر است، مشکل دارم. به عنوان مثال: 70 نفر از 120 آمریکایی دوست دارند هات داگ. 50 نفر از 95 اروپایی هات داگ را دوست دارند. آیا این دو گروه در نظرات هات داگ خود با هم تفاوت دارند؟ از 1000 نفر از قفقازی ها، آفریقایی-آمریکایی ها و آسیایی ها پرسیده شد که آیا پیاز قرمز، سفید یا زرد را ترجیح می دهند (تعداد ارائه شده در جدول). آیا پاسخ دهندگان از قومیت های مختلف در پاسخ های خود متفاوت هستند؟ من متوجه شدم که آن سوالات کمی متفاوت بیان شده اند - فکر می کنم ممکن است این جمله بندی باشد که آنها را متمایز می کند؟ در هر صورت، من در مورد اینکه کدام یک از این دو تست مناسب تر است، سردرگم هستم. | اگر تعداد جمعیتهای مختلف واقعاً متفاوت است، کدام آزمون آماری را آزمایش کنیم؟ آزمون t در مقابل مجذور کای |
15425 | لطفاً به من اطلاع دهید که چگونه می توان خوشه بندی بازگشتی را در R انجام داد؟ نحوه دادن ورودی اولین تکرار خوشه به بعدی و غیره. هر آموزشی در این زمینه کمک بزرگی خواهد بود. | چگونه می توان خوشه بندی بازگشتی را در R انجام داد؟ |
88080 | من می دانم که این مشخصات کلی برای یک گروه واحد است: $Y_i$ = $\beta_0$ + $\beta_1$*time + $\beta_2$*post + $\beta_3$*timepost که در آن time یک متغیر پیوسته است که نشان می دهد زمان (به عنوان مثال، ماه) هر مشاهده در مطالعه؛ «پست» نشانگر این است که آیا مشاهده پس از معرفی مداخله است یا خیر. و «پست زمانی» زمان از زمان معرفی مداخله است (0 اگر قبل از مداخله باشد). مشخصات صحیح برای یک رگرسیون تقسیمبندی شده دادههای سری زمانی منقطع با یک گروه مقایسه غیرمعادل چیست؟ | مشخصات صحیح برای یک رگرسیون تقسیمبندی شده دادههای سری زمانی منقطع با یک گروه مقایسه غیرمعادل چیست؟ |
15426 | من در حال انجام تجزیه و تحلیل رگرسیون چندگانه هستم و مطمئن نیستم که آیا نقاط پرت در داده های من باید حذف شوند یا خیر. داده هایی که من نگران آنها هستم به صورت دایره در نمودارهای SPSS ظاهر می شوند، اما هیچ ستاره ای وجود ندارد (که باعث می شود فکر کنم آنقدرها هم بد نیستند). مواردی که من نگران آنها هستم در زیر جدول تشخیص موردی در خروجی ظاهر می شوند - بنابراین آیا باید این موارد را حذف کنم؟ | آیا هنگام انجام رگرسیون چندگانه مواردی را که توسط نرم افزارهای آماری به عنوان پرت پرچم گذاری شده اند حذف کنیم؟ |
28909 | من با سناریویی مواجه شده ام که در آن 10 سیگنال/نفر برای 10 نفر (بنابراین 100 نمونه) حاوی 14000 نقطه داده (ابعاد) دارم که باید آنها را به یک طبقه بندی کننده منتقل کنم. من می خواهم ابعاد این داده ها را کاهش دهم و به نظر می رسد PCA راهی برای انجام این کار باشد. با این حال، من فقط توانستم نمونه هایی از PCA را پیدا کنم که تعداد نمونه ها بیشتر از تعداد ابعاد باشد. من از یک برنامه PCA استفاده می کنم که رایانه های شخصی را با استفاده از SVD پیدا می کند. وقتی مجموعه داده 100x14000 خود را ارسال می کنم، 101 رایانه شخصی بازگردانده می شود، بنابراین اکثریت قریب به اتفاق ابعاد به وضوح نادیده گرفته می شوند. این برنامه نشان می دهد که 6 رایانه اول 90 درصد واریانس را شامل می شوند. آیا این فرض معقول است که این 101 رایانه شخصی اساساً همه واریانس ها را دارند و ابعاد باقی مانده قابل چشم پوشی هستند؟ یکی از مقالاتی که خواندهام ادعا میکند که با استفاده از مجموعه دادهای مشابه (هر چند با کیفیت کمی پایینتر) نسبت به من، آنها توانستند 4500 بعد را به 80 کاهش دهند و 96٪ از اطلاعات اصلی را حفظ کنند. دست کاغذ بر روی جزئیات تکنیک PCA استفاده شده، تنها 3100 نمونه در دسترس بود، و من دلیلی دارم که باور کنم نمونه های کمتری نسبت به آن برای انجام واقعی PCA (برای حذف سوگیری از مرحله طبقه بندی) استفاده شده است. آیا من چیزی را از دست داده ام یا واقعاً این روشی است که PCA با مجموعه داده های نمونه با ابعاد بالا و حجم کم استفاده می شود؟ هر گونه بازخورد بسیار قدردانی خواهد شد. | PCA زمانی که ابعاد بیشتر از تعداد نمونه ها باشد |
15429 | در این تحقیق، همبستگی و همبستگی ناهمسانی در تحلیل دادههای تابلویی شناسایی میشوند. من می توانم آنها را به طور جداگانه در stata با دستور xtregar و robust حل کنم. با این حال، من نمی توانم راهی برای حل هر دو مشکل به طور همزمان پیدا کنم. در صورت امکان، لطفاً به من نشان دهید که چگونه می توان مشکل همبستگی خودکار و ناهمگونی را برای داده های پانل در یک برآورد تعمیر کرد. با استفاده از Stata عالی خواهد بود، اما SPSS نیز خوب است. | خودهمبستگی و هتروسکداستیکی در داده های تابلویی |
110725 | من یک مجموعه داده پانل نامتعادل با بیش از 400000 مشاهده در طول 20 سال دارم. متغیر پانل من شناسه شخص و متغیر سری زمانی من سال است. این افراد از سراسر آلمان هستند، به این معنی که آنها از مناطق مختلف هستند. برای توضیح همبستگی های احتمالی بین افراد در همان مناطق، می خواهم از خطاهای استاندارد خوشه ای در رگرسیون اثرات ثابت خود استفاده کنم. کد Stata به این صورت است: xtreg depvar var1 var2 ... varN if year > 1990, fe vce(cluster clustvar) ابتدا از متغیر region استفاده کردم که یک متغیر عددی است که نشان می دهد مشاهده (شخص) در کدام منطقه زندگی می کند. به عنوان متغیر خوشه (clustvar). البته، من با خطای پانل ها در داخل خوشه ها تو در تو قرار ندارند دریافت کردم، زیرا فراموش کردم که افراد در مناطق مختلف حرکت می کنند به طوری که در بیش از یک منطقه ظاهر می شوند. برای رفع این مشکل، من میخواستم از یک متغیر region-year استفاده کنم که یک متغیر عددی است که سال و منطقه را نشان میدهد. برای تجسم متغیر، عصاره زیر از مجموعه داده من شامل متغیر region-year ممکن است کمک کند: منطقه سال منطقه-سال 1 1991 2000 1 1992 3000 2 1991 2500 2 1992 3500 2 1993 4500 توجه داشته باشید که این عصاره وجود ندارد. شناسه شخص مقادیر region-year در این مثال خودسرانه انتخاب شده اند. به نظر من، فقط مهم است که همه مشاهدات متعلق به یک منطقه در یک سال، بدون توجه به اینکه این عدد چگونه به نظر می رسد، یک عدد باشد. درست میگم؟ اجرای رگرسیون xtreg depvar var1 var2 ... varN اگر سال > 1990، fe vce (منطقه خوشهای-سال) نیز باعث خطای پانلها درون خوشهها تودرتو نیستند میشود. اما نمی دانم چرا. | خطای Stata: پانل ها درون خوشه ها تودرتو نیستند |
110722 | من یک مجموعه داده بزرگ دارم که میخواهم با استفاده از الگوریتم کروی K معنی خوشهبندی کنم. با این حال من با این موضوع و به طور کلی R نسبتاً تازه کار هستم. بیشتر دانش من به صورت خودآموز است و من هنوز در مراحل ابتدایی هستم - در چند روز گذشته همه چیز را در مورد K معنی خوشهبندی خواندهام و میخواهم آن را در پروژه خود اعمال کنم (184 ردیف از 4000+ ستون حاوی اندازهگیریها در مقادیر اعشاری). چگونه و از کجا شروع کنم؟ من سعی میکنم به خودم یاد بدهم که چگونه این کار را در R انجام دهم، اما به نظر نمیرسد نمونههایی را به صورت آنلاین در مورد نحوه انجام این کار پیدا کنم، یا حداقل در مورد من صدق نمیکند. می خواستم بدانم که آیا کسی در اینجا درباره یک آموزش گام به گام می داند یا به اسکریپتی دسترسی دارد که در آن k کروی به معنای خوشه بندی در R انجام شده است، و آیا می توانید آن را با من به اشتراک بگذارید. من چند مقاله پیدا کرده ام اما آنها بسیار پیشرفته هستند و بیشتر آنها برای خوشه بندی متن هستند و نه مقادیر عددی. امیدوارم این سوال خیلی مبهم نباشد. آیا کسی تجربه ای در این زمینه دارد و می تواند مرا راهنمایی کند که برای شروع چه مراحلی را باید طی کنم؟ در اینجا مبتدی مطلق است، بنابراین اگر من کاملاً اشتباه می کنم که چنین سؤالی را در این پلتفرم بپرسم عذرخواهی می کنم. از اینکه وقت خود را برای خواندن این مطلب اختصاص دادید متشکرم! | کروی K-means Clustering در R |
28903 | آیا کسی می تواند به من نشان دهد که چرا برای یک تابع توزیع $F$ در $(0,\infty)$, $0 < y \leq x$، موارد زیر صادق است: $\frac{F(x)-F^{*2}( x)}{\overline{F}(x)}=\int\limits_{0}^{x}\frac{\overline{F}(x-t)}{\overline{F}(x)}dF(t ) دلار ویرایش: $F^{*2}$ مخفف پیچیدگی $F$ با خودش است: $F^{*2}= F \star F = \int\limits_0^x F(x-y)dF(y)$ $ \overline{F}=1-F$ | چگونه می توان یک هویت خاص را که شامل CDF یک متغیر تصادفی پیوسته و کاملاً مثبت است، اثبات کرد؟ |
95122 | ما x1 و x2 داریم که نشان دهنده تغییرات دما و فشار است و پاسخ تولید پنی سیلین است. دلیل عملی استفاده از نقاط (-1،-1)، (-1،1)، (1،-1)، (1،1) به جای استفاده از (0.0) در محل (-1،) چیست. -1)؟ آیا به این دلیل است که استفاده از (0,0) آن را مجبور به عبور از مبدا می کند؟ همچنین، آیا تکرار آن چهار نقطه سه بار طرح معقولی است؟ | طراحی آزمایش |
66906 | من در حال ساخت مدلی برای پیشبینی یک نتیجه باینری (بله/خیر) هستم. من یک نمونه یادگیری دارم که به ماشین 1500 نمونه از گروه بله و 500 نمونه از گروه نه می دهد. آیا باید از تمام داده هایی که برای ورودی دارم برای یادگیری ماشین استفاده کنم؟ آیا این نسبت به بله تعصب دارد؟ فکر میکردم 500 مثال «بله» و 500 «نه» بیاورم، اما مطمئن نیستم که آیا این پیشبینیهای آینده من را مثبت یا منفی میکند. با تشکر | نمونه یادگیری ایده آل در یادگیری ماشین |
79980 | من یک مدل مارکوف پنهان (HMM) از یک داده متوالی خاص با استفاده از نمونه گیری گیبس آموخته ام. من موفق به بدست آوردن احتمالات انتقال (ماتریس انتقال) زنجیره مارکوف و پارامترهای توزیع احتمال حالت های پنهان شده ام. تنها مجموعه پارامترهایی که من هنوز توانسته ام به دست بیاورم، احتمالات اولیه $\pi$ هستند که مشخص می کنند زنجیره مارکوف از کجا شروع می شود. بنابراین با توجه به پارامترهایی که من تخمین زده ام، آیا راهی برای محاسبه $\pi$ وجود دارد؟ یا چگونه می توانم نمونه گیبس را برای پیدا کردن $\pi$ مشخص کنم؟ | احتمالات اولیه یک HMM |
47707 | در مدل AR(1) $y_{t}=\beta_{0}+\beta_{1}y_{t-1}+u_{t}$، با فرض $E(u_{t-1}|y_{ t-1},y_{t-2}...)=0$، چگونه قانون انتظارات تکراری تضمین می کند که خطاها باید ناهمبسته باشند: $E(u_{t}u_{s}|x_{t},x_{s})=0$؟ | AR1 و قانون انتظارات تکراری: هیچ همبستگی سریالی وجود ندارد |
47706 | ما یک data-point x و کلاس های زیادی داریم. فرض کنید $P(c|x)$ احتمال اینکه $x$ از کلاس $c$ باشد. $c_1$ محتمل ترین کلاس برای $x$ (یعنی $P_1=P(c_1|x)$ بالاترین احتمال است)، $c_2$ دومین کلاس محتمل برای $x$ (یعنی $P_2=P( c_2|x)$ دومین احتمال بالاتر است ($P_1> P_2$)). بدیهی است که وقتی $P_1$ نزدیک به P2 باشد (یعنی $P_1P_2$ کوچک یا نزدیکتر به 0 باشد) مطمئن نیستیم که $c_1$ یا $c_2$ کلاس واقعی $x$ است یا خیر، در این صورت مفید است که بخواهیم برچسب واقعی $x$. ما $u$ را به عنوان یک مقدار آستانه برای تفاوت بین بالاترین و دومین احتمال بالاتر تعریف می کنیم (آستانه ای برای $P_1$-P2). بنابراین، اگر $P_1-P_2 > u$ باشد، میتوانیم (با مقداری هزینه) کلاس واقعی $x$ را بخواهیم (به آن توجه کنیم $c_x$). $c_1$ (کلاس پیشبینیشده برای $x$) معمولاً برابر با cx است، اما ممکن است گاهی اوقات برابر نباشد. با توجه به این مشکل، من می خواهم مقدار خوبی برای پارامتر $u$ یاد بگیرم. برای انجام این کار، در حال حاضر، من فقط u را روی یک مقدار اولیه قرار می دهم (به عنوان مثال $u=0.2$) و سپس این مقدار را بر اساس اینکه $c_1$ برابر است یا نه $c_x$ تنظیم می کنم: اگر $c_1 = c_x$، مقدار بیشتری دریافت می کنیم. مطمئن باشید و بنابراین مقدار $u$ را کاهش دهید (به عنوان مثال $u=u-\epsilon$)، در غیر این صورت (زمانی که $c_1$!= cx) اطمینان کمتری پیدا می کنیم و بنابراین مقدار u را افزایش دهید (به عنوان مثال $=u+\epsilon$)، که برای مثال $\epsilon=0.01$. **سوال:** آیا بهتر از این وجود دارد که چرا مقدار $u$ را یاد بگیریم؟ (با فرض اینکه میتوانیم با مقدار اولیه u شروع کنیم تا در ابتدا دادههای برچسبدار به دست آوریم، یا فرض کنیم که زیر مجموعهای از دادههای برچسبدار دارم که میتوانم از آنها برای یادگیری مقدار $u$ استفاده کنم). | یادگیری مقدار یک پارامتر با پیش بینی درست یا نادرست برای هر نقطه داده x |
56324 | به یک فرد 10 تصویر نمونه (بر اساس همان تصویر) با تکنیک های مربوطه در مورد نحوه به دست آوردن تصویر داده می شود. من میخواهم نقشه بیت ماتریسی تصویر 10 تصویر روی تصویر ایجاد شده توسط شخص را بهعنوان روشی ناخالص برای دانستن اینکه شخص از کدام تصاویر کپی کرده است، رگرسیون کنم. من فرض می کنم که اگر شخص از یک شخص خاص کپی کرده باشد، پیکسل های متناظر بیشتری نسبت به افراد دیگر خواهد داشت. آیا چیزی به نام رگرسیون ماتریسی وجود دارد؟ آیا کسی می تواند به من روش های ممکن دیگر را راهنمایی کند؟ من همچنین یک مقیاس رتبه بندی از ویژگی های موجود در هر تصویر دارم. با هدفی مشابه، میخواهم امتیازهای فرعی مقیاس رتبهبندی تصاویر نمونه را به زیرامتیاز تصویر شخص خاص برگردانم. من تصور می کنم می توان از همان تکنیک رگرسیون استفاده کرد. به امید اینکه کسی در آنجا بتواند تکنیکی را به من نشان دهد که به من اجازه دهد این کار را انجام دهم. | رگرسیون تصویر ماتریسی یا رگرسیون خرده مقیاس ها |
48828 | متغیر پاسخ در مدل لاجیت سفارشی من دارای 5 دسته است که از «1 = کاملاً مخالفم» تا «5 = کاملاً موافقم» است. با این حال، تنها 0.3٪ از مشاهدات در دسته 1 قرار می گیرند (4 مشاهده از 1320). این باعث ایجاد برخی مشکلات مانند عدم امکان تست فرض خطوط موازی (تست برانت) در Stata شده است. همچنین، تلقی این 4 مشاهده به عنوان داده های مفقود، ضرایب/سطوح معناداری مدل را به طور قابل توجهی تغییر می دهد، که تا آنجا که 4 مشاهده نباید تأثیر زیادی روی مدل داشته باشد، من را نگران می کند. آیا اجرای مدل با 4 مشاهده تنظیم شده روی از دست رفته مناسب است؟ یا باید متغیر وابسته را بدون تغییر رها کنم؟ هر گونه پیشنهاد دیگر استقبال می شود. با تشکر | متغیر ترتیبی با 0.3 درصد مشاهدات در یک دسته - حذف، نادیده گرفته شود؟ |
7723 | ما در حال یادگیری توابع محوری، آمار آزمون و آزمون فرضیه ها در دانشگاه هستیم، اما معنی ندارد. سعی کردهام کتاب درسی/یادداشتهایم را بخوانم، مثالها را مرور کنم، اما مفاهیم به نظر یک حدس تصادفی میرسند و نمیدانم که چگونه میتوانم حتی شروع به حدس زدن کنم. ### قسمت اول لطفاً نحوه محاسبه تابع pivot را توضیح دهید؟ به عنوان مثال $X_{1}،\dots،X_{n} \sim N(\mu، \sigma^2)$. تابع Pivot برای $\sigma^2$ زمانی که $\mu$ شناخته شده است و زمانی که $\mu$ ناشناخته است. چرا ناشناخته بودن $\mu$ اهمیت دارد؟ همچنین چگونه تابع محوری را برای نسبت دو واریانس ($\sigma_{x}^2$ و $\sigma_{y}^2$) محاسبه میکنید؟ آیا توزیع F است؟ فرض کنید $\mu_x$ و $\mu_y$ شناخته شده هستند و $X_1,\dots,X_n \sim N(\mu_x,\sigma_x^2)$ و $Y_1,\dots,Y_n \sim N(\mu_y, \sigma_y ^2) دلار. ### قسمت دوم لطفاً توضیح دهید که چگونه یک آمار تست را محاسبه کنم (من متوجه شدم که چگونه می توانم آمار آزمایشی را نشان دهم اما نمی دانم چگونه از ابتدا یک آمار را تشکیل دهم). در آخر، من چند سوال در مورد آزمون فرضیه دارم. من واقعاً نمی دانم که چگونه می توان قدرت یک آزمون را محاسبه کرد یا حتی معنای آن را صادقانه بگویم. مجموعه کاملی از تئوری ها و تعاریف زیادی وجود دارد، اما آنها کاملاً انتزاعی هستند، بنابراین من اصلاً آن را نمی فهمم ... من نماد یا نحوه محاسبه اندازه / قدرت یک آزمون را نمی فهمم (شکل عمومی - نه فقط با اعداد). مثال: $X \sim N(\mu, \sigma^2)$. $H_0: \mu >= \mu_0$ و $H_1: \mu < \mu_0$. $\mu$ و $\sigma$ ناشناخته است. قدرت و اندازه این تست را محاسبه کنید. اصلا چطور شروع کنم؟ من خیلی گیج شدم :( من واقعاً با همه اینها گیر کردم و امیدوارم بتوانید به من کمک کنید! :) اگر منبع بهتری برای کمک وجود دارد لطفاً به من اطلاع دهید. ویرایش 1: با تشکر از پاسخ شما. من از استادم خواستم توضیح بدهد... اما در نهایت گیج تر شدم. او موافق است که یادداشت ها نامشخص هستند اما آنها را اصلاح نمی کند زیرا به نظر می رسد دیگران آنها را دریافت می کنند! :( من هم پیش معلم کلاسم رفتم و چندین بار فصل استنتاج آماری را خواندم - اصول اولیه را میدانم اما هنوز بیشتر آن را واقعاً درک نمیکنم. من در گوگل جستجو کردم - و ویکیپدیا را خواندم - اما این فقط تئوری بیشتر و بیشتر است. بدون مثال های گام به گام توضیح می دهد که همه چیز به طور تصادفی انتخاب شده و حدس زده می شود و از این رو سردرگمی گسترده من - نمی توانم این را بخوانم. $$T_{X}=\sum_{i=1}^{N}\Big(\frac{X_{i}-\mu_{X}}{\sigma{X}}\Big)^{2} \ sim \chi^{2}(N)$$ آیا قرار است در نماد ریاضی باشد هنگامی که من Pivot را داشته باشم، محاسبه CI کاملاً ساده است، اما این محور است که باعث ایجاد مشکلات می شود: وقتی که mu شناخته شده است تابع pivot نیست آیا نامعلوم بودن mu اهمیت دارد؟ آیا توزیع F است؟ فرض کنید mu x و mu y شناخته شده هستند و X1....Xn - N(mu x,sigmax^2) و Y1...Yn -N(mu y, sigmay^2). آیا 1/Fn-1، m-1 = Fm-1،n-1 است؟ و سوالات آزمون فرضیه بالا لطفا…. آیا می توانید کمی در این مورد روشن کنید لطفا؟ ویرایش 2: من از استادم خواستم توضیح دهد... اما در نهایت گیج تر شدم. او موافق است که یادداشت ها نامشخص هستند اما آنها را اصلاح نمی کند زیرا به نظر می رسد دیگران آنها را دریافت می کنند! :( من هم پیش معلم کلاسم رفتم و چندین بار فصل استنتاج آماری را خواندم - اصول اولیه را میدانم اما هنوز بیشتر آن را واقعاً درک نمیکنم. من در گوگل جستجو کردم - و ویکیپدیا را خواندم - اما این فقط تئوری بیشتر و بیشتر است. بدون مثال های گام به گام توضیح می دهد که همه چیز به طور تصادفی انتخاب شده و حدس زده می شود و از این رو سردرگمی گسترده من - نمی توانم این را بخوانم. $$T_{X}=\sum_{i=1}^{N}\Big(\frac{X_{i}-\mu_{X}}{\sigma{X}}\Big)^{2} \ sim \chi^{2}(N)$$ آیا قرار است در نماد ریاضی باشد هنگامی که من Pivot را داشته باشم، محاسبه CI کاملاً ساده است، اما این محور است که باعث ایجاد مشکلات می شود: وقتی که mu شناخته شده است تابع pivot نیست آیا نامعلوم بودن mu اهمیت دارد؟ آیا توزیع F است؟ فرض کنید mu x و mu y شناخته شده هستند و X1....Xn - N(mu x,sigmax^2) و Y1...Yn -N(mu y, sigmay^2). آیا 1/Fn-1، m-1 = Fm-1،n-1 است؟ و سوالات آزمون فرضیه بالا لطفا…. آیا می توانید کمی در این مورد روشن کنید لطفا؟ | کمیت های محوری، آمار آزمون و آزمون های فرضیه |
15423 | صفحه راهنما برای پریسم توضیح زیر را برای نحوه محاسبه باندهای پیش بینی برای رگرسیون غیر خطی ارائه می دهد. لطفاً نقل قول طولانی را ببخشید، اما من پاراگراف دوم را دنبال نمی کنم (که توضیح می دهد که چگونه $G|x$ تعریف می شود و $dY/dP$ محاسبه می شود). هر گونه کمکی بسیار قدردانی خواهد شد. > محاسبه باندهای اطمینان و پیش بینی نسبتاً استاندارد هستند. > برای جزئیات نحوه محاسبه پیش بینی و اطمینان > باندهای رگرسیون غیرخطی به ادامه مطلب بروید. > > ابتدا، اجازه دهید G|x را تعریف کنیم، که گرادیان پارامترها در یک مقدار خاص X و با استفاده از تمام مقادیر مناسب پارامترها است. > نتیجه یک بردار با یک عنصر در هر پارامتر است. برای هر پارامتر، > به صورت dY/dP تعریف می شود، که در آن Y مقدار Y منحنی با توجه به > مقدار خاص X و تمام مقادیر پارامتر مناسب است، و P یکی از > پارامترها است.) > > G'|x آن بردار گرادیان است که جابجا شده است، بنابراین یک ستون است نه یک ردیف > از مقادیر. > > Cov ماتریس کوواریانس است (هسین معکوس از آخرین تکرار). این یک ماتریس مربع مربع است که تعداد سطرها و ستون ها برابر با تعداد پارامترهای > است. هر آیتم در ماتریس کوواریانس بین دو پارامتر > است. > > اکنون c = G'|x * Cov * G|x را محاسبه کنید. نتیجه یک عدد واحد برای هر مقدار از X است. > > باندهای اطمینان در بالا و پایین منحنی گسترش می یابند: = > sqrt(c)*sqrt(SS/DF)*CriticalT(اعتماد، DF) > > باندهای پیش بینی فاصله بیشتری را در بالا و پایین منحنی گسترش می دهند، > برابر است با: = sqrt(c+1)*sqrt(SS/DF)*CriticalT(اعتماد، DF) | چگونه باندهای پیش بینی را برای رگرسیون غیر خطی محاسبه کنیم؟ |
50819 | به دلایلی به دلیل راحتی ریاضی، هنگام یافتن MLE ها (تخمین حداکثر احتمال)، اغلب تابع log-relihood است --- بر خلاف تابع درستنمایی استاندارد --- که حداکثر می شود. از آنچه من جمع آوری کرده ام، این رویکرد به عنوان یک نتیجه از ماهیت افزایشی یکنواخت تابع لگاریتم (طبیعی) معتبر تلقی می شود. درک من از یک تابع افزایش یکنواخت این است: برای همه $x$ و $y$ (تعریف شده بر روی زیر مجموعه ای از واقعی)، اگر $x \leq y$ پس $f(x) \leq f(y)$. با این حال، به نظر نمی رسد که این مورد برای همه توابع log-lihood باشد. به عنوان مثال: برای تابع log-likelihood $\text{Gamma}(3, 5)$، اگر $x = 0.15$ و $y = 0.46$، سپس $f(x) = -0.59$ و $f(y ) = -1.19 دلار. واضح است که من این مفهوم را اشتباه متوجه شده ام. اساساً، حدس میزنم میپرسم آیا کسی (ترجیحاً از نظر ریاضی) میتواند دلیل را نشان دهد: $$ \hat{\theta} = \text{max} \text{} L(\theta) = \text{max} \text{ } \text{log} \text{ } L(\theta) $$ که در آن $\hat{\theta}$ MLE برای یک تابع درستنمایی معین است. | اعتبار حداکثر کردن احتمال ورود به سیستم برای تخمین حداکثر احتمال |
76723 | من سعی می کنم بفهمم چه زمانی از الگوریتم های MCMC استفاده می شود. من می توانم تخمین چگالی را با MLE برای موارد غیر خطی درست مانند موارد خطی و EM برای متغیرهای پنهان و مقادیر گم شده انجام دهم. وقتی این ابزارها کافی نیستند و از MCMC استفاده می کنیم چه سناریوهایی وجود دارد؟ با تشکر | چه زمانی MCMC مورد نیاز است؟ |
48821 | مثالی در مورد محاسبه ضریب تشابه Gower در صفحه وجود دارد، ضریب تشابه Gower من سعی می کنم شباهت را به صورت دستی بین بیمار 1 و 2 بررسی کنم، اما محاسبات من نتایج کاملاً متفاوتی به من می دهد. در اینجا فرمولی است که من استفاده می کنم، به ترتیب متغیرها و انواع آنها $$ \frac{\left(1*\left(1 - \left(\frac{150-120}{150-110}\right)\ right)+ 0 + 1 + 1 + 0\right)}{5} $$ من هنوز نمی توانم 0.0625 را همانطور که در مثال نشان داده شده است بدست بیاورم. من چه غلطی می کنم؟ | محاسبه دستی ضریب تشابه Gower |
50816 | با عرض پوزش اگر عنوان کمی مبهم است، من دقیقا نمی دانم چگونه جمله ام را مختصر کنم. من دو سری زمان دارم: مقدار سرمایه گذاری در عراق در طول زمان (در ماه) قیمت سهام در طول زمان (به طور میانگین هر ماه) موارد کمی وجود دارد که می خواهم بدانم، اما من فقط در سطح مقدماتی آمار و اقتصاد سنجی هستم. Uni. اول اینکه چگونه میتوانم این دو سری زمانی را به هم مرتبط کنم، چند پست در اینجا خواندهام، میخواهم درباره بهترین رویکرد برای یافتن همبستگی بین آنها توضیح دهم. تا کنون معتقدم که باید از همبستگی متقابل استفاده کنم که امیدوارم با استفاده از minitab انجام دهم. من می خواهم این کار را انجام دهم تا ببینم آیا بین این دو مجموعه داده همبستگی بیش از حد وجود دارد یا خیر. دوم اینکه آیا به هر حال می توانم بفهمم چه زمانی داده ها بیشترین همبستگی را دارند و چه زمانی بیش از 150 نقطه داده دارم و من واقعاً دوست دارم ببینم در چه ماه هایی این همبستگی رشد کرده یا در قوی ترین حالت خود بوده است. من می خواهم این کار را انجام دهم تا بتوانم تحلیل کنم که چرا ممکن است همبستگی کاهش یافته باشد و غیره (شاید نسبت دادن آن به سایر عوامل کلان). امیدوارم این منطقی باشد و اگر نیاز به توضیح بیشتری داشتید بلافاصله پاسخ خواهم داد. بابت هر نکته ای متشکرم و مشتاقانه منتظرم تا امروز کمی بیشتر یاد بگیرم. | من دو مجموعه داده دارم (فاصله های زمانی منظم) آیا راهی وجود دارد که بفهمیم چه زمانی بیشترین همبستگی دارند و چه زمانی نه؟ |
48822 | هنگام کار با بسیاری از متغیرهای ورودی، اغلب نگران چند خطی بودن هستیم. تعدادی از معیارهای چند خطی وجود دارد که برای تشخیص، فکر کردن، و / یا ارتباط چند خطی استفاده می شود. برخی از توصیه های رایج عبارتند از: 1. چندگانه $R^2_j$ برای یک متغیر خاص 2. تحمل $1-R^2_j$، برای یک متغیر خاص 3. ضریب تورم واریانس، $\text{VIF}=\frac {1}{\text{tolerance}}$، برای یک متغیر خاص 4. شماره شرط، $\sqrt{\text{max(eigenvalue(X'X))}/\text{min(eigenvalue(X'X))}}$، از ماتریس طراحی به عنوان یک کل (گزینههای دیگری وجود دارد که در مقاله ویکیپدیا، و در اینجا در SO در زمینه R.) این واقعیت که سه مورد اول تابعی کامل از یکدیگر هستند نشان میدهد که تنها مزیت خالص ممکن بین آنها روانی خواهد بود. از طرف دیگر، سه مورد اول به شما امکان می دهد متغیرها را به صورت جداگانه بررسی کنید، که ممکن است یک مزیت باشد، اما شنیده ام که روش شماره شرط بهترین در نظر گرفته می شود. * آیا این واقعیت دارد؟ بهترین برای چه؟ * آیا عدد شرط تابع کاملی از $R^2_j$ است؟ (من فکر می کنم اینطور باشد.) * آیا مردم متوجه می شوند که توضیح یکی از آنها ساده تر است؟ (من هرگز سعی نکردم این اعداد را خارج از کلاس توضیح دهم، فقط یک توصیف ساده و کیفی از چند خطی بودن ارائه می دهم.) | آیا دلیلی برای ترجیح معیار خاصی از چند خطی وجود دارد؟ |
6916 | من یک کلاس آمار مقدماتی تدریس میکنم و انواع نمونهگیری را مرور میکردم، از جمله نمونهگیری سیستماتیک که در آن شما هر کیلومین فرد یا شی را نمونهبرداری میکنید. دانش آموزی پرسید که آیا نمونه برداری از هر فردی با یک ویژگی خاص می تواند همان کار را انجام دهد؟ به عنوان مثال، آیا نمونه برداری از هر فردی با یک تی شرت آبی به اندازه کافی تصادفی است و به اندازه کافی نشان دهنده کل جمعیت است؟ حداقل، اگر سوالی غیر از این میپرسید که چه رنگی تیشرت را ترجیح میدهید؟ حس من این است که خیر، اما تعجب کردم که آیا کسی در اینجا نظری در این مورد دارد؟ | آیا «هر تی شرت آبی» یک نمونه سیستماتیک است؟ |
82106 | من می خواهم از **ksvm** از بسته **kernlab** در **R** برای آموزش و تست یک ماشین بردار پشتیبانی استفاده کنم. من می توانم از آن استفاده کنم اما می خواهم از مقادیر مختلف _C_ برای هر مشاهدات استفاده کنم. برای دقیق تر، می خواهم مشکل کوچک سازی زیر را حل کنم (با استفاده از نماد SVM استاندارد) $ \frac{1}{2}w\cdot w +C \sum_{i=1}^l \xi_i + C\_ \ sum_{i=l+1}^n (\xi_i \cdot 1_{\{y_i=-1\}}) + C_{+} \sum_{i=l+1}^n (\xi_i \cdot 1_{\{y_i=1\}}) $ به جای استانداردتر $ \frac{1}{2}w\cdot w +C \sum_{i=1}^l \xi_i $ ( من در واقع روی یک ماشین بردار پشتیبانی انتقالی کار می کنم). سوال: آیا می دانید با ksvm (یا بسته R svm دیگری) می توان این مشکل را حل کرد؟ متشکرم | استفاده از ksvm در R با قیود متفاوت |
19214 | با توجه به دو نمونه از نرخ رسیدن یک فرآیند (آنها باید به چیزی شبیه توزیع پواسون ختم شوند): * یکی در یک دوره طولانی (چیزی حدود چند روز) * دیگری از یک زمان کوتاه تر (شاید 30 دقیقه) چگونه می توانم مقایسه کنم توزیع کوتاهتر برای دیدن اینکه آیا تفاوت قابلتوجهی با توزیع طولانیتر دارد؟ آیا از یک تابع موجود در R استفاده می کنید؟ من معتقدم که یک Plot Q-Q این را به صورت بصری نشان می دهد، اما من به دنبال یک عدد واحد هستم که نشان دهنده فاصله نمونه کوتاه تر از نمونه طولانی تر باشد. همچنین، شاید برای یک سوال دیگر مناسب تر باشد. من کمی کنجکاو هستم که چگونه می توانم بگویم چه مقدار زمانی نمونه ای نماینده برای مدت زمان طولانی تر است. برای مرجع، نمودار دوره طولانیتر چیزی شبیه به شکل زیر است، اما ممکن است تا حدودی وقتی تصمیم میگیرم کدام ویژگیها را فیلتر کنم:  | مقایسه توزیع نرخ ورود |
110242 | من مجموعه ای **H** از ابرصفحه های k `m`-بعدی در فضای بعدی n دارم که در آن 1<<m<<n<<k. من میخواهم یک ابرصفحه m'بعدی **p** پیدا کنم که نزدیکترین به **H** باشد. با این حال، بخش قابل توجهی از **H** پرت در نظر گرفته می شود. فاصله هر عدد درونی تا **p** واقعی محدود است، در حالی که فاصلههای پرت از قبل قابل پیشبینی نیستند. راه متعارف برای برخورد با این مشکل چیست؟ RANSAC و دیگر روشهای تخمین مدل مبتنی بر EM بلافاصله به ذهن میرسند، اما نمونهبرداری به امید یافتن زیرمجموعهای از **H** به طور تصاعدی با رشد ابعاد ناکارآمدتر میشود. اشاره به یک مقاله تحقیقاتی موجود تنها چیزی است که نیاز دارم. | تخمین مدل با ابعاد بالا با مقادیر پرت |
15424 | هنگام مطالعه مدلسازی لجستیک، عبارت زیر را خواندم > این واقعیت که فقط نسبتهای شانس و نه ریسکهای فردی را میتوان از مدلسازی > لجستیک در مطالعات مورد شاهدی یا مقطعی تخمین زد، تعجبآور نیست. نمی دانم «مطالعات مورد-شاهدی» و «مطالعات مقطعی» در تحلیل آماری چه معنایی دارند؟ علاوه بر این، من کاملاً نمی فهمم که عبارت فوق از نظر تحلیل آماری به چه معناست. هر گونه توضیحات قدردانی خواهد شد. | «مورد-کنترلی» و «مقطعی» در زمینه مدلسازی لجستیک به چه معناست؟ |
48820 | در _Davidson & McKinnon - Estimation and Inference_ خواندم که در یک بازار رقابتی که همیشه در تعادل است مشاهده می کنیم: $Q^d_t = Q^s_t = Q_t$ که در آن $Q^d_t$ کمیت تقاضا است، $Q^s_t $ مقدار عرضه شده است. اگر بتوان معادله (1) را توسط OLS در مدلی که با (1) داده شده است تخمین زد: $Q_t^d = \alpha P_t + Z^d_t\beta + u^d_t$ (2) $Q_t^s = \گاما P_t + Z^s_t\delta + u^s_t$ با $P_t$ قیمت در دوره t، $Z^d_t$ مطابق با دسته ای از متغیرهای برون زا است. که مقدار را تعیین می کند، با مشکلی ناشی از درون زایی $P_t$ مواجه خواهیم شد. اگر معادلات (1) و (2) را بر حسب متغیرهای قابل مشاهده $Q_t$ و $P_t$ بازنویسی کنیم، این امر قابل مشاهده است. **سوال من این است:** اگر با داده های واقعی بازار رگرسیون انجام دهیم، آیا این به طور کلی درست است؟ | سوال در مورد کشش قیمت و درون زایی |
85513 | در درخت رگرسیون، اغلب فرض می شود که هر برگ یک توزیع گاوسی $\mathcal{N}(\mu_i, \sigma)$ است، که در آن $i$ شاخص برگ است. آیا $\sigma$ به عنوان انحراف استاندارد _در یک برگ_ محاسبه می شود یا انحراف استاندارد برای مجموعه داده؟ اگر درختی به گونهای رشد کرده باشد که هر برگ شامل یک نمونه باشد (همانطور که در مورد درختان کیسهای وجود دارد) محاسبه _ درون برگ_ نامناسب به نظر میرسد. با این حال، استفاده از کل مجموعه داده به نظر می رسد که می تواند سوگیری زیادی را القا کند. آیا چیزی وجود دارد که من اینجا گم کرده ام؟ | انحراف معیار در درختان رگرسیون |
110099 | من در حال حاضر در حال یادگیری استفاده از ماشین بردار پشتیبان به عنوان طبقه بندی هستم. من یک مجموعه داده با 161 مشاهده و 18 بعد دارم. من 160 بردار پشتیبانی را با استفاده از تابع svm از بسته R، e1071 دریافت می کنم. دقت به دست آمده 1 است. آیا کسی می تواند بگوید که آیا نتیجه دقیق است یا خیر؟ در واقع من نمونه svm را از اینترنت پیدا کردم و استراتژی آنها را دنبال کردم که استفاده از svm روی مجموعه داده های آموزش ندیده (کل داده ها) و دوم در مجموعه داده های آموزش دیده (تقسیم داده ها به مجموعه آموزشی و آزمایشی) است. برای اولی و دومی، دقت مدل 1 و 0.51 است. برای افزایش دقت مدل چه کاری باید انجام دهم؟ | کل داده ها به عنوان بردار پشتیبان در نظر گرفته می شوند |
110091 | چگونه می توانم خطای استاندارد قوی _y_ پیش بینی شده را از یک مدل رگرسیون خطی در R محاسبه کنم؟ هر گونه پیشنهاد قدردانی می شود. | چگونه می توان خطای استاندارد قوی y پیش بینی شده را از یک مدل رگرسیون خطی در R محاسبه کرد؟ |
50813 | من از WinBUGS برای تخمین / به روز رسانی پارامترهای یک مدل استفاده می کنم. مدل این است: $$ \begin{تراز شده} D(T,B,a)&= B*(a_0+a_1T+a_2T^2+a_3T^3)+error(B,T,a) \\ خطا &= \mathcal N(0، B^{0.5}a_4(a_0+a_1T+a_2T^2+a_3T^3)) \end{تراز شده} $$ که در آن $D$ یک پاسخ مشاهده شده است، $B$ و $T$ پارامترهای ورودی مشاهده شده و $a_i$s پارامترهای مدل غیر قابل مشاهده هستند. برای تخمین پارامترهای مدل با اولین مجموعه دادهها، از پیشینهای عادی غیر اطلاعاتی برای $a_i$ استفاده کردم. سوال من این است: **اگر بخواهم به روز رسانی متوالی / بازگشتی انجام دهم، ** از مجموعه ای از مشاهدات $(D,B,T)$ برای محاسبه توزیع های پسین برای پارامترهای مدل استفاده کنم و سپس از این پسین ها به عنوان پیشین استفاده کنم. برای بهروزرسانی پارامترهای مدل با مجموعه جدیدی از دادهها $(D,B,T)$ (و غیره)، **آیا میتوانم مستقیماً از توزیعهای پسینی که WinBUGS پیدا میکند استفاده کنم یا در عوض به آن اهمیت بدهم. توزیع خلفی مشترک؟** | نحوه استفاده از یک پسین اولیه برای به روز رسانی بازگشتی / متوالی در WinBUGS |
110726 | در این تمرین، از من خواسته شد ثابت کنم که رگرسیون خطی ساده - ($Y_i=\beta_0+\beta_1X_i+\epsilon_i$ با تمام شرایط اولیه معمول) - $\{Y_{ji}\}$ برای هر $X_i$ همان رگرسیون خطی ${\bar{Y}_i}$ برای هر $X_i$ است، که در آن $\bar{Y}_i=\sum_j^nY_{ji}$ . اینو من موفق شدم ثابت کنم پس از آن، از من میخواهند ببینم که آیا واریانس عبارت خطا در این تنظیم، بدون برازش خط قابل تخمین است یا خیر. به این سوال آخر، فکر می کنم پاسخ منفی است، اما مطمئن نیستم. عبارت خطای برآوردگر بی طرفانه واریانس $s^2=\frac{\sum(Y_i-\hat{Y}_i)^2}{n-2}$ است، که $\hat{Y}_i$ معمول برازش است ارزش با انطباق با این تنظیم فرمول معمول، می دانیم که $s^2=\frac{\sum(\bar{Y}_i-\hat{Y}_i)^2}{n-2}=\frac{\sum_i \sum_j(Y_{ij}-\hat{Y}_i)^2}{n-2}$. من هیچ سرنخی در مورد چگونگی مقابله با این تمرین ندارم. هر گونه کمکی قدردانی خواهد شد. | آیا می توان واریانس در عبارت خطا را بدون برازش یک خط تخمین زد؟ |
110090 | من نمونه نسبتاً کوچکی از رویدادهای دوتایی (50-100 رویداد) دارم که در یک زمان از روز اتفاق افتاده است (نرخ موفقیت ارتباط نزدیکی با زمان روز دارد). من این رویدادها را در فواصل ساعتی گروه بندی می کنم، به عنوان مثال: * .. * [08:00-09:00) موفقیت: 5; شکست: 7; 42% موفقیت * [09:00-10:00) موفقیت: 1; شکست: 0; 100% موفقیت * [10:00-11:00) موفقیت: 30; شکست: 20; 60% موفقیت * [12:00-13:00) موفقیت: 11; شکست: 19; 37% موفقیت * ... پس از آن باید n محدوده زمانی را انتخاب کنم تا بتوانم یک رویداد را در محدوده زمانی انتخاب شده برنامه ریزی کنم و چیزی شبیه به حداقل احتمال موفقیت داشته باشم. سوال من این است که آیا راهی وجود دارد که بتوان در نظر گرفت که برخی بازه های زمانی داده های بسیار کمی در دسترس دارند (مانند بازه دوم در مثال) و به نوعی این ویژگی را وزن می کنند تا از انتخاب تنها این بازه ها با فرض احتمال موفقیت بسیار بالا اجتناب شود. برای ارائه برخی زمینهها: وقتی رویدادی را برنامهریزی میکنم، رویداد کم و بیش در ابتدای بازه زمانی اجرا میشود و در صورت عدم موفقیت، 2 یا 3 بار دیگر بهطور تصادفی در بازه زمانی انتخابشده برنامهریزی میشود، هدف این است که یک نتیجه موفق با استفاده از تلاش های کمتر ممکن. هر توصیه ای بسیار قدردانی خواهد شد. | بهینه سازی احتمال رویداد باینری |
50817 | فرض کنید $y$ یک متغیر تصادفی پیوسته و $d$ یک متغیر تصادفی باینری است که مقدار $1$ را با احتمال $p$ و $0$ را با احتمال $1-p$ می گیرد. چگونه نشان دهم که $\text{Cov}(y,d)=(E[y|d=1]-E[y|d=0])p(1-p)$؟ | کوواریانس متغیر باینری و پیوسته |
81454 | من با توصیف همبستگی درون کلاسی (ICC) برای یک مدل مختلط خطی با داده های طولی از این ماده گیج شده ام. تصویربرداری از صفحه نمایش در زیر نشان داده شده است. چیزی که من در مورد آن گیج شدهام این است که ICC مقدار تغییرات $Y$ (متغیر وابسته) بین افراد را در این زمینه (دادههای طولی) توصیف میکند، اما سپس همبستگی بین مشاهدات (که من فکر میکنم به عنوان همبستگی است) است. بین یک مشاهده برای یک فرد معین در زمان $t$ و همان فرد در زمان $t+k$). به نظر می رسد این ماتریس همبستگی همبستگی را در یک فرد توصیف می کند. چرا این منطقی است؟  | ICC در یک مدل مختلط خطی - داده های طولی - چرا این همبستگی بین دوره های زمانی است؟ |
13744 | من سعی می کنم تحلیل K-mean را با الگوریتم استاندارد پیاده سازی کنم. به نظر می رسد اجرای من کار می کند، اما متوجه رفتار عجیبی شدم. اگر _k_ نزدیک به نیمی از طول لیست مورد تجزیه و تحلیل باشد، مجموعه ای را دریافت می کنم که خالی است. من مطمئن نیستم که آیا این رفتار درست است. من فکر می کنم بدترین حالت _k_ برابر طول لیست است و هر مجموعه نتیجه فقط 1 عنصر دارد. اگر _k_ بزرگتر از طول لیست باشد، مجموعه نتایج خالی اتفاق می افتد، اما وضعیت نامعتبر است. | چگونه الگوریتم تحلیل خوشه ای k-means را به درستی پیاده سازی کنیم؟ |
110243 | من یک طبقه بندی کننده SVM برای کلاس های m و n نقطه داده دارم (تا حدودی به طور مساوی در هر کلاس توزیع شده است). آیا می توانم از ماتریس احتمال ورود MxN برای ادغام کلاس های مشابه استفاده کنم؟ | آیا می توانیم از log-likelihood برای خوشه بندی کلاس ها استفاده کنیم؟ |
12432 | متغیرهای وابسته (DV) باید به طور عادی توزیع شوند. من یک مشکل دارم چون بعضی از آنها اینطور نیستند. من یک متغیر مستقل (IV) دارم، به نام _نوع تحصیل_. DVها عبارتند از _مشکلات برونی_سازی___مشکلات_درونی_سازی___خود_تصویری___انگیزه_____________________________________________________________________________________ سوال تحقیق این است: سطوح IV برای کدام DV ها متفاوت است. من نرمال بودن تک متغیره را با کولموگروف- اسمیرنوف ارزیابی کردم، و تست ها نشان دادند که _ پشتکار_ و _ اضطراب اجتماعی_ به طور معمول توزیع نمی شوند. من همچنین تجزیه و تحلیل چند متغیره را بر اساس فاصله Mahalanobis اجرا کردم تا مقادیر پرت چند متغیره را پیدا کنم. هیچکدام وجود ندارند. با این حال، چندین عدد پرت تک متغیره وجود دارد. من سعی کردم داده ها را تغییر دهم، اما وقتی این کار را انجام دادم، هر دو سطح IV را تغییر دادم، بنابراین آزمون کلمورگروف-اسمیرنوف قابل توجه باقی ماند. سوال من این است که آیا اکنون نیاز است که _استقامت_و_اضطراب_اجتماعی_ را از MANOVA خارج کنم و یک تست ناپارامتریک روی آن اجرا کنم؟ اگر اینطور است، کدام یک ممکن است مناسب ترین باشد؟ و آیا باید کاری مانند اصلاح بونفرونی انجام دهم زیرا اکنون چندین تحلیل انجام می دهم؟ پیشاپیش از شما بسیار سپاسگزارم | چگونه با غیر عادی بودن در MANOVA برخورد کنیم؟ |
50812 | من سعی می کنم بفهمم که مدل خاص من چقدر در توضیح برخی داده های مشاهده شده خوب است. مشکل اینجاست که داده های مشاهده شده به شکل مقادیر متوسط (میانگین) برای هر یک از نمرات پیش بینی من است. هنگام انجام یک همبستگی ساده، مقدار R-squared واقعاً بالایی را دریافت می کنم (و این برای مجموعه داده های مستقل تکرار می شود)، که فرض می کنم به این معنی است که یک رابطه ثابت بین ارزش پیش بینی من و داده های مشاهده شده وجود دارد. با این حال، اگر بخواهم تخمین بزنم که چه مقدار از واریانس داده های مشاهده شده را با امتیاز پیش بینی خود توضیح می دهم، چگونه این کار را با مقادیر میانگین مشاهده شده انجام می دهم؟ نگرانی اساسی من این است که اگرچه در همه موارد همبستگی خوبی دارم، ممکن است عوامل زمینهای زیادی وجود داشته باشد که دادههای مشاهدهشده من را نیز هدایت میکند که به سادگی در هر دستهای «میانگین» میشوند، و به این ترتیب، مقدار r-squared من بیمعنی است. . فقط به عنوان مثال، اگر داده های زیرین مشاهده شده من این بود: x<-c(3,4,3,2,1,6,5,7,5,4,9,7,8,10,11) و پیش بینی من امتیاز برای این مقادیر این است: y<-c(1,1,1,1,1,2,2,2,2,2,3,3,3,3,3) من r-square 0.911 می گیرم. با این حال، اگر داده های مشاهده شده خود را میانگین کنم (که تمام چیزی است که در مورد خود می توانم اندازه گیری کنم)، به این نتیجه می رسم: x1<-c((13/5),(27/5),9) y1<-c(1, 2،3) R-squared = 0.997 بنابراین به من می گوید که نمره پیش بینی من تقریباً تمام تغییرات در داده های مشاهده شده را توضیح می دهد، زمانی که یک نمایش بهتر در بالا (x در مقابل y) به من می گوید که من توضیح می دهم 91 درصد از تغییرات. با تشکر | واریانس برای مقادیر متوسط توضیح داده شده است |
65595 | جعبه ابزار «CircStats» برای متلب (http://bit.ly/18C1SCF) رویه ای را برای محاسبه همبستگی بین یک متغیر خطی و یک متغیر دایره ای پیاده سازی می کند. به طور خاص، همبستگی بین یک متغیر خطی $x$ و یک متغیر دایرهای $\alpha$ توسط $$\rho_{\textrm{cl}} = \sqrt{\frac{r^2_{\textrm{cx}} داده میشود. +r^2_{\textrm{sx}}- 2r_{\textrm{cx}}r_{\textrm{sx}}r_{\textrm{cs}}}{1-r^2_{\textrm{cs}}}}، $$ جایی که $r_\textrm{sx }$ ضریب همبستگی پیرسون بین $\sin\alpha$ و $x$ است، $r_\textrm{cx}$ ضریب بین $\cos\alpha$ و $x$ و $r_\textrm{cs}$ ضریب بین $\cos\alpha$ و $\sin\alpha$ است. چگونه می توانم همبستگی جزئی $x$ و $\alpha$ را با توجه به متغیر سوم، $y$ (خطی)، به عنوان یک متغیر کنترل محاسبه کنم؟ | محاسبه همبستگی جزئی دایره ای خطی |
23548 | من نمیدانم چرا پیشبینیهای «lm.ridge()» در هنگام استفاده از «بهترین» لامبدا، بر اساس GCV، بسیار دور از ذهن است. آیا کسی می تواند به من کمک کند تا پیش بینی های بهتری داشته باشم؟ یا حداقل، آیا کسی یک نمونه رج خوب با توضیح ساده نتایج دارد؟ در زیر کد R من برای دادههای کیفیت شراب است (از http://archive.ics.uci.edu/ml/machine-learning-databases/wine- quality/winequality-red.csv): library(MASS) wine_all <- read.table(http://archive.ics.uci.edu/ml/machine-learning-databases/wine-quality/winequality-red.csv, sep=;, header = T) #wine_all <- read.table(winequality-red.csv, sep=;, header = T) wine_train <- wine_all[1:1400,] wine_test <- wine_all[-(1:1400)،] train.lm <- lm.ridge(کیفیت~.، wine_train، lambda = seq(0, 100, 0.1)) plot(x=train.lm$lambda, y =train.lm$GCV) pred.test <- scale(wine_test[,1:11], center = F, scale = train.lm$scales) %*% train.lm$coef[, which.min(train.lm$GCV)] + train.lm$ym pred.all <- scale(wine_all[,1:11]، مرکز = F، مقیاس = train.lm$scales) %*% train.lm$coef[, which.min(train.lm$GCV)] + train.lm$ym cor(wine_test[, 12], pred.test)^2 cor(wine_all[, 12], pred.all)^2 | پیش بینی ضعیف از lm.ridge؟ |
7727 | من **این سوال** را در StackOverflow پرسیدم و پیشنهاد شد که آن را اینجا بپرسم. * * * من دو سری زمانی از دادههای شتابسنج سهبعدی دارم که پایههای زمانی متفاوتی دارند (ساعتها در زمانهای مختلف شروع میشوند، با مقداری خزش بسیار جزئی در طول زمان نمونهبرداری)، و همچنین حاوی شکافهای زیادی با اندازههای مختلف (به دلیل تاخیرهای مرتبط با نوشتن بر روی دستگاه های فلش جداگانه). شتاب سنج هایی که من استفاده می کنم GCDC X250-2 ارزان قیمت هستند. من شتابسنجها را با بالاترین بهرهشان اجرا میکنم، بنابراین دادهها کف نویز قابلتوجهی دارند. سری های زمانی هر کدام حدود 2 میلیون نقطه داده دارند (بیش از یک ساعت با سرعت 512 نمونه در ثانیه)، و حاوی حدود 500 رویداد مورد علاقه هستند که در آن یک رویداد معمولی 100-150 نمونه (هر کدام 200-300 میلی ثانیه) را در بر می گیرد. بسیاری از این رویدادها تحت تأثیر قطع اطلاعات در هنگام نوشتن فلش قرار می گیرند. بنابراین، داده ها دست نخورده نیستند و حتی خیلی زیبا هم نیستند. اما بازرسی کره چشم من نشان میدهد که به وضوح حاوی اطلاعاتی است که به آن علاقه دارم. (در صورت نیاز میتوانم نمودارها را ارسال کنم.) شتابسنجها در محیطهای مشابه هستند اما فقط به طور متوسط جفت میشوند، به این معنی که میتوانم با چشم تشخیص دهم که کدام رویدادها از هر کدام مطابقت دارند. شتاب سنج، اما من تا به حال در نرم افزار این کار را انجام نداده ام. به دلیل محدودیتهای فیزیکی، دستگاهها نیز در جهتهای مختلفی نصب میشوند، جایی که محورها مطابقت ندارند، اما تا جایی که من میتوانم آنها را بسازم به متعامد نزدیک هستند. بنابراین، برای مثال، برای شتابسنجهای 3 محوری A و B، +Ax به -By (بالا به پایین)، +Az به -Bx (چپ-راست) و +Ay به -Bz (جلو-پشت) نقشه میدهد. . هدف اولیه من این است که رویدادهای شوک را در محور عمودی به هم مرتبط کنم، اگرچه در نهایت میخواهم الف) نقشهبرداری محور را به طور خودکار کشف کنم، ب) فعالیت روی آسهای نقشهبرداری شده را مرتبط کنم، و ج) تفاوتهای رفتاری بین دو شتابسنج را استخراج کنم (مانند پیچش). یا خم شدن). ماهیت داده های سری زمانی باعث می شود که () numpy.correlate پایتون غیر قابل استفاده باشد. من همچنین بسته R's Zoo را نگاه کردم، اما هیچ پیشرفتی با آن نداشتم. من برای کمک به زمینه های مختلف تجزیه و تحلیل سیگنال نگاه کرده ام، اما هیچ پیشرفتی نداشته ام. کسی سرنخی برای کارهایی که می توانم انجام دهم یا رویکردهایی که باید در مورد آنها تحقیق کنم، دارد؟ به روز رسانی 28 فوریه 2011: تعدادی نمودار **اینجا** اضافه شد که نمونه هایی از داده ها را نشان می دهد. | چگونه دو سری زمانی را با شکاف ها و پایه های زمانی مختلف مرتبط کنیم؟ |
81459 | من یک جعبه سیاه کوچک دارم که هر بار که دکمه آن را فشار می دهم 0 یا 1 را نشان می دهد. راستش میتوانم به شما بگویم که در 20,000,000,000 بار گذشته فشار داده شده است، 19999999990 بار 1 نشان داده است. برای سادگی، من هیچ شکلی از عواقب را به نتایج ضمیمه نمی کنم. شما حدس می زنید و یا درست می گویید یا اشتباه می کنید. چگونه انتخاب خود را انجام می دهید و از چه نظر آن انتخاب را معتبر می دانید؟ * * * در اینجا برخی از محدودیتهای دیگر وجود دارد که میتوانید با خیال راحت از آنها استفاده کنید یا اگر فکر میکنید نتیجه جالب است، آنها را نادیده بگیرید: 1. توزیع زمانی نتایج ثبتشده ناشناخته است. 2. تا زمانی که دکمه فشار داده نشود، صفحه نمایش خالی است و پس از آن رقم برای مدت کوتاهی ظاهر می شود. وقتی آن را می بینید خالی است. 3. دکمه در حال فشردن باعث نمایش رقم می شود. | آیا اعمال آمار در مقیاس بزرگ برای یک مورد معتبر است؟ |
19213 | من یک فایل csv بزرگ با حدود 45000 سطر و حدود 6 ستون دارم. ستونها به این صورت تنظیم میشوند: ماژول، مسیر فایل، وضعیت، نسخه قدیمی، نسخه جدید، تغییر تفاوت _Change-diff_ به سادگی نتیجه انجام این کار است: _جدید - قدیمی_. حدود 30 ماژول مختلف وجود دارد و من می خواهم تجزیه و تحلیل انجام دهم و نمودارهای مختلفی را برای هر ماژول بر اساس تغییر-تفاوت ایجاد کنم. من میخواهم تعداد «ردیفها» برای هر «ماژول» را بدانم - حدس میزنم فقط میتوانم تعداد نام هر ماژول را برای ستون ماژول بشمارم تا آن را حل کنم. میخواهم برنامهای وجود داشته باشد که بتوانم از آن برای آسانتر کردن کارم استفاده کنم، در حال حاضر سعی میکنم همه آن را به اکسل وصل کنم، اما مطمئن نیستم که چگونه میتوانم برای هر ماژول به جای یک نمودار بزرگ، نمودار ایجاد کنم. همه ماژول ها آیا R، SPSS یا Matlab گزینه بهتری هستند؟ یا هر چیز دیگری؟ ویرایش: فقط در مورد ظاهر دادهها بسط میدهیم. ماژول، مسیر، وضعیت، قدیمی، جدید، تغییر modA، modA/a/a، 1، 11، 19، 8 modA، modA/a/b، 1، 2، 4، 2 modA، modA/a/c، 1 , 0, 1, 1 modA, modA/b/c, 0, 0, 1, 1 modA, modA/b/a, 1, 7، 12، 5 modB، modB/a/a، 1، 8، 9، 1 modB، modB/a/b، 0، 0، 1، 1 modB، modB/a/c، 1، 4، 10، 6 modC، modC/a/a، 0، 0، 4، 4 modC، modC/a/b، 1، 0، 3، 3 بنابراین من می خواهم برای تجزیه و تحلیل همه modA بر اساس Change (و احتمالاً بر اساس قدیمی در مقابل جدید و غیره) سپس همه modB، modC و غیره را به یک شکل اما در نمودارهای جداگانه تجزیه و تحلیل کنید، به دلیل حجم دادهای که با آن سروکار دارم. . پیشاپیش ممنون | برای هر گروه از رکوردها در مجموعه داده نمودارهای جداگانه ایجاد کنید |
69902 | من یک مشکل معمولی با چندین متغیر و مقدار زیادی داده دارم که در حال حاضر مهم نیستند. هدف این مطالعه ارتباط متغیر $Y$ با متغیرهای $X_1,X_2,...,X_n$ است. من یک ANOVA انجام داده ام تا ببینم کدام متغیرها می توانند تغییرپذیری را در $Y$ توضیح دهند. اما سوال من این است که این رویه (ANOVA) تا چه حد برای انتخاب متغیرها معتبر است؟ معیار انتخاب من این است که موارد مهمتر را انتخاب کنم. آیا درست است؟ | کاهش متغیر با استفاده از ANOVA؟ |
19210 | در یک xyplot شبکه با چندین منحنی صاف، من منحنیهایی را که بر اساس رنگ طبقهبندی شدهاند رسم کردم (y1، y2، y3 به رنگ آبی؛ z1، z2، z3 در قرمز). اگر داده های ساده زیر را در نظر بگیریم: x<-1:50 y1<-rnorm(50,100,20) y2<-rnorm(50,80,20) y3<-rnorm(50,90,20) z1<-rnorm( 50،60،20) z2<-rnorm(50،40،20) z3<-rnorm(50,65,20) می توانیم چنین نموداری را با خطوط صاف بسازیم و رنگ ها را با این کد مشخص کنیم: xyplot(y1+y2+y3+z1+z2+z3~x,type='smooth', span =0.4، par.settings=list(superpose.line=list(col=c('blue',' blue',' blue','red','red','red')))) و این نتیجه را دریافت می کنیم: ! [چند منحنی صاف](http://i.stack.imgur.com/fWU66.jpg) سوال من: **آیا می دانید چگونه برای شناسایی هر منحنی نماد (نشانگرها) اضافه کنید؟** به عنوان مثال، y1 با یک نشانگر مثلث به رنگ آبی، y2 با یک نشانگر مربع به رنگ آبی، و غیره. وقتی داده های خام رسم می شوند، انجام این کار آسان است، اما من نمی توانم نحوه انجام آن را با منحنی های صاف پیدا کنم. من سعی کردم از superpose.symbol استفاده کنم، اما به نظر می رسد که فقط زمانی کار می کند که type=c('p','smooth'). اما در این حالت نمادها روی منحنی ها نیستند بلکه در موقعیت های خام قرار دارند. NB. من سعی کردم منحنی ها را با نوع خط های مختلف شناسایی کنم (مطالعه کنید به 'lty') اما نتیجه اجازه نمی دهد تجسم خوبی با داده های من انجام شود. | چگونه می توان نمادها را بر روی خطوط صاف در یک Xyplot شبکه R اضافه کرد؟ |
13740 | من سه سری زمانی $m_i$، $k_i$، $s_i$، برای $i \in [1,N]$ دارم. مشکل این است که ثابت های $A_m$، $A_k$، $A_s$ را پیدا کنیم، به طوری که برای $p_i = ( A_m \cdot m_i ) + ( A_k \cdot k_i ) + ( A_s \cdot s_i )$ و یک عدد صحیح داده شده ثابت $t$ \[ \sum_{i=1}^{N-t} { (m_i - p_i) (p_{t+i} - p_i) } = 0 \] \[\sum_{i=1}^{N-t} { (k_i - p_i) (p_{t+i} - p_i) } = 0 \] \ [\sum_{i=1}^{N-t} { (s_i - p_i) (p_{t+i} - p_i) } = 0 \] مطمئن نیستم چنین ثابت هایی همیشه وجود خواهد داشت هر اشاره ای؟ | یافتن وزنه هایی که محصول نقطه باقیمانده را حذف می کنند |
69906 | آیا راهی/روش/رویکردی برای تجزیه دادههای سری زمانی با استفاده از خطوط رگرسیون وجود دارد: 1. سریهای زمانی فصلی به جزء روند+فصلی+تصادفی؟ 2. یک سری زمانی غیر فصلی به جزء روند + تصادفی؟ من با STL، سرشماری و تجزیه کلاسیک در R آشنا هستم. همه این تکنیک ها به داده های سری زمانی با مولفه فصلی نیاز دارند. اگر سری زمانی غیر فصلی باشد (به عنوان مثال، فرکانس = 1) نمی توانیم روند را استخراج کنیم. من اخیراً با این مقاله جالب برخوردم که در ISF اخیر 2013 مبتنی بر داده است. هر گونه بینش در مورد روش هایی مانند این که تجزیه مبتنی بر داده ها با استفاده از خطوط رگرسیون هستند و می توانند به راحتی در بسته های نرم افزاری مانند R برنامه ریزی شوند، بسیار مفید خواهد بود. با تشکر فراوان **سری های زمانی بی روند با اجزای چرخه و فصلی** _تاتیانا کریوبوکووا و فرانسیسکو روزالس_ در این کار ما یک رویکرد ناپارامتریک و کاملاً مبتنی بر داده برای تجزیه سری های زمانی به یک روند (چرخه)، مؤلفه های فصلی و تصادفی را مورد بحث قرار می دهیم. . دو مورد اول با اسپلاین جریمهشده مدلسازی میشوند، در حالی که دومی از ساختار ARMA پیروی میکند. رویکرد بیزی تجربی امکان تخمین پارامترهای هموارسازی و دستورات فرآیند ARMA را به طور همزمان فراهم می کند که منجر به یک فرآیند تجزیه کارآمد، سریع و مبتنی بر داده می شود. ارتباط عملی این رویکرد با مثال های داده واقعی نشان داده شده است. این کار بسط Kauermann, G., Krivobokova, T., Semmler, W. (2011) فیلتر کردن سری های زمانی با خطوط جریمه شده است. _مطالعات دینامیک غیرخطی و اقتصادسنجی._ | تجزیه سری های زمانی/dtrending با استفاده از splines |
110092 | من وضعیتی دارم که در آن n فرد و p ویژگی (متغیر) وجود دارد. من اطلاعات خوشه آنها را دارم. در اینجا یک مثال وجود دارد: myd <- data.frame ( sub1 = c(1، AB، AB، BB، BB، AA، BB، AB، AA، «BB»، «AB»، «AA»، «AB»)، sub2 = c(1، «AB»، «BB»، «BB»، «BB»، «AA»، «BB»، «AB» ، AA، BB، AB، AA، AB)، sub3 = c(1، «AB»، «BB»، «AB»، «BB»، «AA»، «BB»، «AB»، «AA»، «BB»، «AB»، «AA»، «AB )، sub4 = c(1، AB، BB، AB، BB، AA، BB، AB، AA، BB، AB، AA، AB)، sub5 = c(1، AB، BB، BB، AB، AB، «BB»، «AB»، «AA»، «BB»، «AB»، «AA»، «AB»)، sub6 = c(1، «AB»، «BB»، «BB»، «BB» , AA، AB، AB، AA، BB، AB، AA، AB)، sub7 = c(2، AA، AA، BB ، AB، AA، AB، AB، AB، AB، AB، AB، BB)، sub8 = c(2، AB، AA، AB، AB، AA، AB، AB، AB، AB، AB، AB، «BB»)، sub9 = c(2، «AA»، «AA»، «BB»، «AB»، «AA»، «AB»، «AB»، «AB»، «AB»، «AB» ، AB، BB)، sub10 = c(2، AB، AA، BB، AB، AA، «BB»، «AB»، «AB»، «AB»، «AB»، «AB»، «BB»)، sub11 = c(2، «AA»، «AA»، «BB»، «AB» , AB، AB، AB، AB، AB، AB، AB، AB)، sub12 = c(2، AA، AB، BB ، BB، AA، AB، AB، AB، AB، AB، AB، BB)، sub13 = c(3، AB، AB، AB، AB، AB، BB، AB، AA، AB، AA، AB، «BB»)، sub14 = c(3، «AB»، «BB»، «BB»، «AB»، «AB»، «BB»، «AB»، «AA»، «AB»، «AA» , AB، BB)، sub15 = c(3، AA، AB، BB، BB، AA، AB، AB، AB، AB، AB، AB، BB)) نام ردیف (myd) <- c(cluster, paste(var , 1:12, sep=)) بنابراین این داده دارای 15 موضوع «sub1 : sub15» است که توسط متغیرهای طبقهبندی «var1: var12» طبقهبندی شدهاند. شناسه خوشه در ردیف اول است - با نام ردیف - `خوشه`. myd sub1 sub2 sub3 sub4 sub5 sub6 sub7 sub8 sub9 sub10 sub11 sub12 sub13 sub14 sub15 خوشه 1 1 1 1 1 1 2 2 2 2 2 2 3 3 3 var1 AB AB AB AB AB AB AB AA AB AB AB AA var AA بی بی بی بی بی بی بی بی بی AA AA AA AA AA AB AB BB AB var3 BB BB AB AB BB BB BB BB BB BB BB BB BB BB BB BB var4 BB BB BB BB AB BB AB AB AB AB AB BB AB AB BB var5 AA AA AA AA AA AA AA AA AB AA AB AB AA var6 BB BB BB BB BB AB AB AB AB BB AB AB BB BB AB var7 AB AB AB AB AB AB AB AB AB AB AB AB AB AB AB AB var8 AA AA AA AA AA AA AB AB AB AB AB AB AB AB AB AB var9 BAB BB BB BB AB AB AB AB AB AB AB AB AB var10 AB AB AB AB AB AB AB AB AB AB AB AB AA AA AB var11 AA AA AA AA AA AA AB AB AB AB AB AB AB AB AB AB var12 AB AB AB AB AB AB AB AB AB AB AA AA AB var11 BB من می خواهم ببینم خوشه ** است مناسب** با محاسبه برخی از معیارها (مانند p-value) که می تواند **احتمال تعلق موضوع خاص به خوشه خاص** را ارائه دهد. _چطور میتونم به این برسم_؟ _من تعداد زیادی متغیر/موضوع دارم، بنابراین به راه حل سریع تری نیز نیاز دارم_. | محاسبه احتمال یا فیلتر کردن اینکه موضوع خاصی در خوشه خاص نیست |
93629 | من کد SAS زیر را دارم که از PROC FORECAST استفاده میکند که میخواهم آن را با Python Pandas pandas.stats.moments.ewma proc forecast data=ewma method=expo interval=weekday weight=(0.05) /*i.e تکرار کنم. lambda=0.95*/ nstart=20 lead=0 out=out_ewma outfull; تاریخ شناسه؛ var sq_gspc cross_returns; اجرا؛ My DataFrame در Pandas برای تقلید از مجموعه داده «ewma» در SAS تنظیم شده است - همان نام ستون ها و همه چیز، از جمله مقادیر شروع یکسان. با این حال، به نظر نمیرسد که من نمیتوانم همان مقادیر را با پانداها محاسبه کنم، احتمالاً به دلیل عدم درک گزینههای SAS و نحوه تنظیم همان محاسبه با پانداها. به عنوان مثال، برای افزودن ستونهای «sq_gspc» و «cross_returns» به Pandas DataFrame، کارهای زیر را انجام میدهم: ewmadf['f_sq_gspc'] = pd.ewma(ewmadf[sq_gspc], span=20, freq= د) ewmadf['f_cross_returns'] = pd.ewma(ewmadf[cross_returns], span=20, freq=D) چگونه می توانم PROC FORECAST را در اینجا با پارامترهای Python تکرار کنم؟ ویرایش: اسناد SAS موارد زیر را ارائه میکند: > برای METHOD=EXPO، n مقدار ابتدایی سری برای تشکیل مقادیر S1، S2 و S3 به صورت نمایی استفاده میشود، جایی که n مقدار گزینه > NSTART= است. پارامترها با برازش یک روند زمانی > رگرسیون به اولین n مقدار غیر گمشده سری، مقداردهی اولیه می شوند. | تبدیل کد SAS EWMA به پایتون |
13747 | R-squared بالا و کاذب یکی از مشکلات رگرسیون از طریق مبدا (یعنی مدلهای وقفه صفر) است. اگر پیشبینیکنندهها دارای صفر نباشند، آیا این یک برونیابی است؟ کاربردها و سایر مشکلات رگرسیون از طریق مبدأ چیست؟ آیا مقالاتی وجود دارد که توسط همتایان بررسی شده اند؟ | کاربردها و مشکلات رجعت از طریق مبدأ چیست؟ |
94253 | من یک منحنی غیرخطی اخترفیزیکی دارم، به ویژه یک طیف توان. من باید این منحنی را با یک مدل تطبیق دهم و خوب بودن تناسب (GOF) را بدست بیاورم. این به من ارزش های مورد انتظار و مشاهده شده می دهد. داده ها همچنین دارای خطاهای مشاهده ای مربوط به عدم قطعیت های ابزاری هستند. آیا راهی وجود دارد که بتوانم خطاهای مشاهده ای را با آزمون کای اسکوئر (یا هر آزمون GOF دیگری) ادغام کنم؟ | چگونه خطاهای مشاهدهای را در تستهای برازش ادغام کنیم؟ |
43287 | من در حال حاضر در حال نوشتن یک پایان نامه هستم و باید یک تخمین ضریب را تفسیر کنم که در مقایسه با آنچه من فرض کردم بسیار منفی است. چگونه می توانم این موضوع را به بهترین نحو برقرار کنم؟ توصیف آن به عنوان بسیار منفی کمی عجیب به نظر می رسد، اما نمی توانم چیزی بهتر از این را فکر کنم. | چگونه می توان تخمین پارامتر بسیار منفی را در کاغذ بیان کرد؟ |
3842 | من میخواهم یک باردیاگرام برای این دادهها در R ایجاد کنم (از یک فایل CVS بخوانید): Experiment_Name MetricA MetricB Just_X 2 10 Just_X_and_Y 3 20 تا نمودار زیر را داشته باشد:  من مبتدی هستم و حتی نمی دانم چگونه شروع کنم. | نحوه ایجاد نمودار بارپلات که در آن میله ها در R کنار هم قرار می گیرند |
11429 | کسی همچین چیزی رو میشناسه؟ من سعی کردم چنین رویه هایی را در Gretl پیدا کنم، اما در آنجا می توانید از روش hsk برای تصحیح heteroskedasticity یا رویه ar1 برای تصحیح همبستگی سریال استفاده کنید. من به روش GLS نیاز دارم که با هر دوی آنها سروکار دارد. با تشکر | نرم افزاری که تخمین GLS را با تصحیح همبستگی ناهمگون و سریال قادر می سازد |
82815 | من در یادگیری ماشین بسیار جدید هستم و از این رو با سردرگمی زیادی در مفاهیم عادی سازی داده ها مواجه هستم. کسی خواهش میکند شکهای زیر را روشن کند: 1) در حالی که یک ماتریس دادهای از m-نمونهها x n-ویژگیها را عادی میکنیم، عادیسازی باید در امتداد m-نمونهها یا در امتداد n-ویژگیها انجام شود، یعنی هر سطر یا هر ستون را در اینجا عادی میکنیم؟ 2) باید همه داده ها را با هم نرمال سازی کنیم یا اینکه نرمال سازی برای هر کلاس جداگانه انجام شود. 3) فرض کنید من بردار 2-نمونه x n-ویژگی دارم که نشان داده شده است class_1 0.4432 27.19 0.6733 0.0828 0.4134 -0.6662 0.3381 0.0552 0.0 -0.01050.0 0.0 -0.0116 0.0 0.0 0.03111 0.05778 0.01333 0.0 -0.02722 -0.02333 0.0 0.00222 -0.02722 0.0 0.0 0.0 10100 10010 10010 11000 11000 10001 11000 10001 10001 10100 10001 10001 10001 class_2 0.7647 16.1073 0.7867 -0.2414 -0.2414 -0.2414 -0.2414 -0.2414 -0.2414 - 0.7647 -0.3524 -0.01944 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.04611 0.0 -0.01944 0.03556 -0.02722 0.03111 0.001 0.001 0.001 10100 11000 10010 10001 10100 10010 10001 10001 11000 10001 10001 10001 11000 10001 چگونه می توان در این حالت مقدار کمی از ویژگی ها را نرمال کرد اما می بینید که در این مورد مقدار کمی وجود دارد، اما می بینید که در ابتدا مقدار کمی وجود دارد. ویژگی ها (انواع 00110 برخی از اطلاعات موقعیت هستند). اگر عادی کنیم چه اتفاقی برای چنین اطلاعاتی خواهد افتاد؟ 4) داده های آموزش و آزمایش باید بعد از نرمال سازی جدا شوند یا قبل از نرمال سازی و سپس نرمال شوند؟ 5) در مورد نمونه کاربر چطور؟ وقتی طبقهبندیکنندهام را آموزش دادم و آماده کردم، کاربر یک ورودی واحد از 1 نمونه x n ویژگی میدهد؟ کاملاً بدیهی است که مقادیر برای هر ویژگی در مقایسه با داده های نرمال شده مورد استفاده در آموزش و آزمایش، از نظر بزرگی بسیار متفاوت است. چگونه با این موضوع برخورد کنیم؟ | مشکلات عادی سازی داده ها |
65590 | من از «cut()» برای تبدیل دادهها به این شکل استفاده میکنم: N <- 10 جدول (cut(iris$Sepal.Length,quantile(iris$Sepal.Length,probs=seq(0,1,1/N)) )) با این حال، من متغیرهای زیادی دارم و می خواهم تعیین کنم حداکثر N قابل قبول برای متغیر چیست. من فکر میکردم این به مقادیر منحصربهفرد مرتبط میشود، اما به این آسانی نیست: طول(یونیک(iris$Sepal.Length)) # 35 مقدار منحصربهفرد N <- 19 ## شکست میخورد اگر جدول N > 19 (برش(iris$Sepal .Length,quantile(iris$Sepal.Length,probs=seq(0,1,1/N))))) آیا راهی برای محاسبه N وجود دارد یا باید این عدد را تکراری پیدا کنم؟ شاید کار کردن با این حالت سادهتر باشد: N <- 4 x <- c(1,2,2,2,2,2,2,3,3,3,3,4,5,6,7 ,8) جدول(برش(x,چندک(x,probs=sq(0,1,1/N)))) | تعیین حداقل مرحله قابل قبول در cut() |
13743 | فرض کنید $N$ آزمایش می تواند در شرایط مختلف انجام شود. هر یک از آنها یک تخمین $f_i$ از یک تابع پیوسته (و در صورت لزوم مثبت) x را در بازهای زمانی به دست میدهد. آزمایش $i$ چندین بار $n_i$ تکرار میشود و هر بار یک تابع $f_i^j$ به دست میدهد. به من داده های زیر داده می شود $$\forall x \quad \forall i \quad {n_i,f_i(x),\sigma_i(x)}$$ که $$f_i(x) = \frac{1}{n_i} \sum_{j=1}^{n_i} f_i^j(x) $$ $$\sigma_i^2(x) = \frac{1}{n_i}\sum_{j=1}^{n_i} (f_i^j(x)-f_i(x))^2 $$ فرض کنید آزمایش $1$ آزمایش مرجع است. میخواهم بدانم آیا برخی یا همه $f_i$ با تابع $f_1$ موافق هستند یا خیر. اگر موافق نیستند، دوست دارم بدانم در چه منطقه ای اختلاف نظر وجود دارد. البته توجه داشته باشید که از آنجایی که آزمایشها در شرایط مختلف انجام شدهاند، انتظار میرود که توابع واریانس مطابقت نداشته باشند و باید برای هر آزمایش متفاوت در نظر گرفته شوند. در حال حاضر، من در حال برنامه ریزی برای انجام یک ANOVA دو طرفه بر روی هر مقدار $x$ و سپس یک آزمون دو نمونه $t$-تست در صورت لزوم برای تعیین آزمایش های مخالف بودم. با این حال، من به دنبال روشی بودم که تابع را به عنوان یک کل، هتروسکداستیک، و در صورت امکان بیزی رفتار کند. چیزی پیدا نکردم. منابع ادبی قدردانی می شود. | آزمون t دو نمونه ای / ANOVA روی توابع، با واریانس های نابرابر |
82810 | من مجموعه دادههای سری زمانی متعددی با دادههای از دست رفته دارم (دادهها به دلیل ثبت نشدن در این تاریخها وجود ندارند)، و میخواهم یک تبدیل موجک روی دادهها انجام دهم (احتمالاً یک MODWT، به دلیل ویژگیهای آن که توسط Percival و Walden تعریف شده است. 2000]). با توجه به اینکه جزئیات موجک در فرکانسهای مختلف رخ میدهد - و موجک همواری هم وجود دارد - آیا باید قبل از مرحله فیلتر کردن موجک (مثلاً درونیابی و غیره) به دادههای از دست رفته بپردازم؟ یا به دلیل ویژگی های فیلتر موجک در فرکانس های مختلف، آیا بایاس ناشی از داده های از دست رفته در فرکانس های مختلف فیلتر کاهش می یابد؟ با تشکر | داده های از دست رفته موجک |
2563 | برخی از بهترین الگوریتمهای رتبهبندی با ورودیها به صورت آرای بالا و پایین کدامند؟ | برخی از بهترین الگوریتمهای رتبهبندی با ورودیها به صورت آرای بالا و پایین کدامند؟ |
69907 | من از SPSS استفاده می کنم تا یک مدل ترکیبی پیدا کنم که به اندازه کافی اطلاعاتی را که دارم توضیح دهد. دو تا از متغیرهای توضیحی ارتباط نزدیکی با هم دارند (گروه نمونه و فرد)، زیرا یک فرد تنها بخشی از یک گروه نمونه است، بنابراین اگر آنها در یک مدل باشند، آنها را تودرتو کرده ام. من از امتیاز AIC مدل ها برای رتبه بندی مدل ها به ترتیب قدرت توضیحی استفاده کرده ام. برخی از مدلها از متغیرهای تودرتو استفاده میکنند و برخی از مدلها فقط از «گروه نمونه» یا «فرد» استفاده میکنند. سوال من این است: آیا استفاده از AIC برای مقایسه بین مدل هایی که از متغیرهای تودرتو استفاده می کنند و مدل هایی که استفاده نمی کنند معتبر است؟ برای روشن شدن متغیرهای تو در تو، منظور من این است که برخی از متغیرهای بالقوه مورد استفاده در یک مدل عبارتند از: 1) سایت نمونه (فردی) 2) سایت نمونه 3) فردی | استفاده از AIC برای انتخاب بین مدل هایی که از متغیرهای تودرتو و غیر تودرتو استفاده می کنند |
23540 | لطفاً کسی می تواند کمک کند که چگونه محاسبه شود $P(A)$ داده شده: $ P(B) = 0.2 $ $P(A|B) = 0.6 $ $P(A|{\rm نه} \ B) = 0.6$ هر گونه توضیح / کمک بسیار قدردانی می شود. | مشکل احتمال شرطی |
43283 | من چندین مقاله و گزیدهای از کتابها را خواندهام که توضیح میدهند چگونه میتوان تعداد _خوب_ بازهها (بینها) را برای هیستوگرام مجموعه دادهها انتخاب کرد، اما نمیدانم که آیا یک _حداکثر_ سخت بازهها بر اساس تعداد نقاط وجود دارد. یک مجموعه داده یا معیار دیگری. **زمینه:** دلیلی که من می پرسم این است که سعی می کنم نرم افزاری را بر اساس رویه ای از یک مقاله تحقیقاتی بنویسم. یک مرحله در این روش، ایجاد چندین هیستوگرام از یک مجموعه داده، سپس انتخاب وضوح بهینه بر اساس یک تابع مشخصه (تعریف شده توسط نویسندگان مقاله) است. مشکل من این است که نویسندگان کران بالایی برای تعداد فواصل آزمایش ذکر نمی کنند. (من صدها مجموعه داده برای تجزیه و تحلیل دارم، و هر یک می تواند تعداد بهینه متفاوتی از bin ها داشته باشد. همچنین، مهم است که تعداد _optimal_ bin ها انتخاب شود، بنابراین نگاه دستی به نتایج و انتخاب یک _good_ نمی تواند باشد. کار است.) آیا صرفاً تنظیم حداکثر تعداد فواصل به عنوان تعداد نقاط در مجموعه داده ها راهنمایی خوبی است یا معیار دیگری وجود دارد که معمولاً در آمار استفاده می شود؟ | آیا محدودیت بالایی برای تعداد فواصل در یک هیستوگرام وجود دارد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.