_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
50138 | متغیر وابسته من - logincome - و یک متغیر مستقل - سن - پیوسته هستند. همه متغیرهای توضیحی دیگر از جمله BA_degree، نژاد، شغل، منطقه، مالکیت خانه طبقه بندی می شوند. وقتی OLS را در stata اجرا می کنم، سطوح بسیار بالایی از ناهمسانی را نشان می دهد. آیا پیشنهادی برای رفع این مشکل دارید؟ | سطح ناهمسانی بالا |
22116 | من در تخمین پارامترهای خود برای ANOVA ضرایب B غیر استاندارد دارم. چگونه می توانم از Beta=B(SDx/SDy) برای تبدیل آنها به Bهای استاندارد شده (بتا) استفاده کنم. چرا SPSS مانند رگرسیون این کار را برای من انجام نمی دهد؟ با تشکر | تبدیل تخمین پارامترهای Bs به بتا |
61576 | فرض کنید من دو نمونه مستقل (DS و VS) دارم. دادههای من نیز بسیار چند متغیره هستند (مثلاً یک متغیر وابسته، بیش از 300 پیشبینیکننده بالقوه، N<300). برای کاهش ابعاد این مشکل، تصمیم گرفتم اثر بیش از 300 پیش بینی کننده بالقوه خود را در یک پارامتر شاخص جمع کنم. بنابراین، من هر پیشبینیکننده را روی متغیر وابستهام پسرفت کردم، که برای هر پیشبینیکننده یک امتیاز اثر (مقدار بتا) برای من فراهم میکند. با ضرب این مقادیر بتا با پیشبینیکنندهها، اثر خالص انباشته شده (شاخص ریسک) همه 300+ پیشبینیکننده برای یک مشاهده خاص را دریافت میکنم. در نهایت، من آزمایش کردم که آیا این شاخص ریسک با متغیر وابسته من در نمونه اعتبارسنجی (VS) مرتبط است یا خیر. انتظار داشتم که مقدار بتا برای شاخص ریسک بین 0 (بدون ارتباط) و مقادیر مثبت (قدرت پیش بینی) قرار گیرد. با این حال، در کمال تعجب، من به طور مداوم مقادیر بتای منفی را برای مجموعهای از متغیرهای پیشبینیکننده، بهویژه آنهایی که واقعاً انتظار نداشتم پیشبینیکنندههای خوبی باشند، دریافت کردم. من نمی دانم که آیا بازگشت به میانگین ممکن است توضیح کافی برای این باشد؟ | آیا بازگشت به میانگین می تواند باعث این امر شود؟ |
77414 | آیا کسی می تواند مرا به یک بسته/فرمان در R برای انجام انتخاب مرحله ای ویژگی، ترجیحاً با استفاده از بسته «caret» هدایت کند. من قبلاً از تجزیه و تحلیل تشخیص خطی (LDA)، جنگل تصادفی، PCA و یک پوشش با استفاده از یک ماشین بردار پشتیبانی استفاده کرده ام. من به این فکر میکردم که حداقل مربعات جزئی یا یک روش تقویت گرادیان را در نظر بگیرم، اما در حالی که سعی میکردم از آنها روی دادههای چند کلاسه استفاده کنم، باعث از کار افتادن R میشوند. افراد تجربیات مشابهی را در مورد دادههای چند طبقه با استفاده از «caret» هنگام تلاش برای استفاده از «gbm» گزارش کردهاند. متوجه شدم که از یک رویکرد گام به گام استفاده نکرده ام و به دنبال روشی بودم که بتواند بر روی متغیرهای وابسته بسیار همبسته و وابسته برای انتخاب بهترین عملکرد 20 متغیر (مثلا) برای ایجاد یک مدل صرفه جویی پیاده سازی شود. از هر گونه پیشنهادی استقبال می شود | انتخاب گام به گام ویژگی با دقت |
28771 | من یک سوال از معلمان یادگیری ماشین گراف دارم :). برای این پروژه ای که روی آن کار می کنم، باید بتوانم شباهت بین نمودارهای تایپ شده را یاد بگیرم. منظورم از تایپ شده این است که هر رأس و هر لبه نمودار دارای نوع خود است. همچنین، هر دو گره و رئوس را می توان نسبت داد (با برخی از ویژگی های ارزش کلید نسبت داده می شود). اکنون، میتوانم از ML نظارتشده مبتنی بر ویژگی «استاندارد» برای انجام این کار استفاده کنم، اما پس از آن باید ویژگیهای خوبی پیدا کنم که نشاندهنده شباهت بین دو نمودار تایپشده باشد. در این مورد من با ویژگی های محاسبه شده کار می کنم و نه در سطح خود نمودارها به طور مستقیم. من در مورد هستههای گراف (و الگوریتمهای یادگیری ماشینهای هسته مربوطه آنها) خواندهام که دقیقاً با این موضوع سروکار دارند - آنها بهجای اختراع ویژگیهای عددی که منعکسکننده شباهت هستند، مستقیماً نمودارها را مدیریت میکنند. چیزی که من متوجه شدم این است که از این روش های هسته گراف برای طبقه بندی نمودارها استفاده می شود. من نمیتوانم در مورد نحوه استفاده از آنها برای یادگیری یک تابع شباهت خوب بین یک جفت نمودار صحبت کنم؟ آیا روش های کرنل حتی راه درستی برای این نوع مشکلات هستند؟ من واقعا قدردان هر راهنمایی هستم. آیا احتمالاً الگوریتم بدون نظارت خوب/معروفی برای اندازه گیری شباهت بین دو نمودار تایپ شده وجود دارد؟ معیار تشابه باید هم ساختار و هم معنایی نمودارها را در نظر بگیرد (منظورم از معناشناسی انواع و ویژگی های اختصاص داده شده به گره ها/لبه ها است). من همچنین به برخی از الگوریتمهایی که مطابقتهای نادرست بین چنین نمودارهایی را شناسایی میکنند (با نظارت، بدون نظارت، هر کدام) بسیار علاقه مند هستم. آیا توصیه ای برای آنها وجود دارد؟ هر توصیه ای واقعا قدردانی می شود! پیشاپیش متشکرم | چگونه می توان شباهت نمودارهای تایپ شده / نسبت داده شده را یاد گرفت؟ |
61579 | من می خواهم یک مطالعه کنترل کیفیت برای مجموعه ای از قطعات ساخته شده انجام دهم. برای یک مجموعه معین، می توانم چندین نمونه بکشم. هر نمونه ترسیم شده می تواند خوب یا بد باشد. برنامه من این است که یک شاخص احتمال ایجاد کنم که بتواند خوب یا بد بودن این مجموعه را نشان دهد. به عنوان مثال، 9 نمونه از 10 نمونه خوب ارزیابی می شوند. سپس یک شاخص ساده برای مجموعه اصلی می تواند 0.9 باشد. آیا روش های آماری معتبری برای ساخت این نوع شاخص وجود دارد؟ من فکر میکنم «تئوری نمونه» ممکن است مرتبط باشد، اما مطمئن نیستم که کدام روش مناسبترین روش است تا بتوانم بدون مطالعه کامل کتاب بدون هیچ هدفی کاوش کنم. روش نیز باید بر اساس اندازه مجموعه باشد. در عمل سایز ست می تواند بین 500 تا 10000 متغییر باشد. مسلماً می توانیم اطلاعات قبلی در مورد کیفیت ست داشته باشیم. به عنوان مثال، به احتمال زیاد این مجموعه می تواند خوب یا بد باشد. | نمونه برداری برای کنترل کیفیت |
28776 | من پیشاپیش برای سوال چگونه این مدل را در R اجرا کنم عذرخواهی می کنم، اما معلوم شد که مشکل من این شکلی است :-). امیدوارم به اندازه کافی سؤالات اساسی پیرامون آن داشته باشم تا جالب باشد، و این سؤال بیشتر شبیه این است که آیا این دستور در R با این مدل آماری مطابقت دارد؟ من دادهها را در یک تحلیل مشترک جمعآوری کردهام (ماتریس طراحی ایجاد شده با استفاده از روش فدروف از بسته AlgDesign) - از آنجایی که به نظر میرسد این اصطلاح معانی کمی دارد، توضیح خواهم داد. من از افراد خواستم که از بین چهار گزینه ارائه شده انتخاب کنند، که (به صورت متعامد) در چندین ابعاد طرح «c(«cm»، «pio»، «prev»، «price»)» متفاوت بودند. گزینه چهارم همیشه گزینه پایه بود و بین مجموعه های انتخابی تفاوتی نداشت. من همچنین ویژگیهایی را در مورد هر فرد «c(chi، hexp، جنس، سن)» جمعآوری کردم. به هر فردی یک مجموعه انتخاب ارائه شد، انتخاب خود را انجام داد، سپس با مجموعه انتخاب دیگری برای انتخاب دیگری و غیره معرفی شد. به آنها دستور داده شد که هنگام انتخاب بعدی، انتخاب های قبلی خود را نادیده بگیرند. من می توانم یک لاجیت را روی این نسبتاً ساده اجرا کنم: فرم کتابخانه (mlogit) <- انتخاب~ cm*pio*prev+price | chi+hexp+sex+age Choices.logit <- mlogit(form, data=choices.mldata,reflevel=4) با این حال logit به عنوان اجرا بسیاری از پیچیدگی های داده را از دست می دهد: نمونه های مکرر از یک فرد، این واقعیت است که افراد با مجموعه های انتخابی ارائه می شوند که همیشه گزینه های مشابهی ندارند و غیره. به نظر میرسد «MNP:mnp» به خوبی میتواند این مورد را مدیریت کند، به این صورت که خاطرنشان میکند: > اگر مجموعه انتخاب از مشاهدهای به مشاهده دیگر متفاوت است، از نحو استفاده کنید، > cbind(y1, y2, y3) ~ x1 + x2 ، در مورد مشکل سه گزینه ای، و > گزینه های غیرقابل دسترس را توسط NA نشان دهید. اگر فقط ارجح ترین انتخاب > مشاهده شود، y1، y2 و y3 متغیرهای شاخصی هستند که برای افرادی که آن انتخاب را ترجیح می دهند مقدار > یک و در غیر این صورت صفر می شوند. آخرین ستون > ماتریس پاسخ، y3 در این نحو مثال خاص، > به عنوان دسته پایه استفاده می شود. من میتوانم هر یک از پلانها (که در آن پلن بهعنوان ترکیبی منحصربهفرد از «c(«cm»، «pio»، «prev»، «price»)» تعریف میشود را حذف کنم، ویژگیهای طرح را بهعنوان متغیرهای کمکی لحاظ کنم، و پروبیت با این حال، آنچه در نظرسنجی من یک انتخاب را متمایز می کند، شناسه خود انتخاب نیست، بلکه ترکیبی از ویژگی های ارائه شده است. حس من این است که آنچه MNP تخمین می زند احتمال انتخاب به عنوان مثال است. طرح 3، زمانی که چیزی که من به آن اهمیت می دهم، برنامه 3 نیست، بلکه تمایل به پرداخت هزینه pio، cm و prev است. آیا من جزییات کاری را که «mnp» انجام میدهد اشتباه تفسیر میکنم، و باید ادامه دهم و آن را همانطور که توضیح داده شد اجرا کنم؟ یا نگرانی من مشروع است و باید به دنبال راه دیگری برای اجرای این مدل باشم؟ با تشکر نمونه ای از داده های من در اینجا آمده است: Choices.mldata <- structure(list(PersonId = c(2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 12L, 12L, 12L, 12L, 12L, 12L, 12L, 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر 26 لیتر، 26 لیتر، 26 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31، 3، 3 لیتر، 3 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 36 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 37 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر، 40 لیتر)، گزینه = ساختار(c(1L، 2L، 3L، 4L، 1L، 2L، 3L، 4L، 1L، 2L، 3 , 1 لیتر, 2 لیتر, 3 لیتر, 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 4 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4L، 1L، 2L، 3L، 4L، 1L، 2L، 3L، 4L، 1L، 2L، 3L، 4L)، .Label = c(1، 2، 3، 4)، کلاس = عامل)، cm = c(FALSE، TRUE، FALSE، FALSE، FALSE، FALSE، TRUE، FALSE، درست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، درست، نادرست، نادرست، نادرست، نادرست، نادرست، درست، نادرست، نادرست، درست، نادرست، درست، نادرست، نادرست، نادرست، درست، نادرست، نادرست، نادرست، درست، نادرست، اشتباه نادرست، نادرست، نادرست، درست، درست، نادرست، نادرست، درست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، درست | پروبیت چند جمله ای برای مجموعه انتخاب های مختلف |
61577 | من یک توسعهدهنده نرمافزار هستم و اغلب مشتریان بالقوه از من میخواهند تا تخمین حجم کاری یک پروژه بالقوه را ارائه دهم. من می خواهم یک رویکرد آماری برای تخمین پیاده سازی کنم که به شرح زیر عمل می کند: 1. فهرستی از وظایفی که پروژه را تشکیل می دهند ایجاد کنید. 2. از همکاران N بخواهید برآورد کم و زیاد (بر حسب نفر/روز) برای هر کار ارائه دهند. 3. میانگین برآوردهای کم و برآوردهای بالا برای هر کار. 4. فرض کنید که توزیع بارهای کاری واقعی ممکن برای هر کار (دوباره بر حسب نفر/روز) به طور معمول با تخمین های کم و زیاد هر یک از انحراف استاندارد از میانگین توزیع می شود. 5. برآوردهای حجم کار را برای کل پروژه (بر حسب نفر/روز) با اطمینان 10٪، 50٪ و 90٪ محاسبه کنید. به عبارت دیگر، بر اساس مفروضات مرحله 4، برآورد حجم کل کار چقدر است که می توانم 10/50/90٪ مطمئن باشم که حجم کار واقعی برابر یا کمتر از برآورد خواهد بود؟ جایی که من به راهنمایی نیاز دارم مرحله 5 است. آیا یک رویکرد آماری استاندارد وجود دارد که بتوان از آن استفاده کرد؟ (سوال جانبی: من همچنین علاقه مندم که چگونه تخمین را پس از اینکه داده های تاریخی برای تغذیه در مدل داشته باشیم، اصلاح کنیم. بدیهی است که داشتن داده های حجم کار واقعی برای هر کار ایده آل است، اما دانستن این موضوع با آن سخت خواهد بود. از آنجایی که برنامه نویسان معمولاً روی چندین کار به صورت موازی کار می کنند، قابل اعتمادترین داده های تاریخی، حجم کاری واقعی مورد نیاز برای تکمیل کل پروژه خواهد بود. | برآورد حجم کار آماری |
61572 | من در مورد نمونه گیری مطالعه کرده ام و در مورد موارد زیر متعجب هستم: اگر شما علاقه مند به اندازه گیری میزان تغییر جمعیت خود هستید، در حالت ایده آل فرض می کنم که یک نقطه را به طور تصادفی در مجموعه انتخاب کنید و سپس میزان تغییر را x دقیقه بعد اندازه گیری کنید. (که در آن x عددی است که به طور تصادفی بین حداقل و حداکثر مقدار دوره مورد علاقه شما ایجاد می شود). سپس فرآیند فوق برای رسیدن به تعداد نمونه مورد نیاز، تعداد معینی از زمان تکرار می شود. آیا می توان تعداد نقاط شروع به طور تصادفی انتخاب شده را کاهش داد و به جای آن، نرخ تغییر را از آن نقطه شروع، در چند دوره x دقیقه اندازه گیری کرد؟ برای مثال، اندازهگیری نرخ تغییر تجربه شده پس از 2،10،17 دقیقه (همه بهطور تصادفی تولید شده) از یک نقطه شروع واحد قبل از انتخاب نقطه شروع جدید و محاسبه نرخ تغییر برای 3 مدت زمان تصادفی دیگر. من انتظار دارم که تعداد نقاط شروع همچنان نسبتاً بالا باشد تا از بروز هرگونه مشکلی جلوگیری شود، زیرا هر گروه از 3 نرخ با هم مرتبط هستند؟ آیا قوانین سرانگشتی در مورد تعداد کل نمونه ها در مقابل تعداد قابل محاسبه از هر نقطه شروع وجود دارد؟ والتر | اندازه گیری چند نمونه از یک نقطه خاص در مقابل چندین نمونه از یک نقطه تصادفی |
24426 | من موقعیتی دارم که نقاط حرکت ماوس را از یک وب سایت جمع آوری کرده ام. من یک سری نقاط (x,y) دارم و باید الگوهای تکراری مختلف حرکت ماوس را از این داده ها تشخیص دهم. به عنوان مثال، حرکت ماوس بسیار آهسته، حرکت ماوس بسیار سریع به سمت یک جهت و سپس توقف برای مدتی، پیمایش ماوس و غیره. آیا راهی برای انجام این کار با OpenCV یا شاید کتابخانه دیگری وجود دارد؟ P.S. لطفا به خاطر داشته باشید که من در این نوع کارها مبتدی هستم. | چگونه با استفاده از OpenCV الگوهای حرکتی مکرر رفتار ماوس را تشخیص دهیم؟ |
50137 | من سعی می کنم صدها متغیر زمین اقلیمی را با داده های ژنتیکی مرتبط کنم. وقتی تست های فردی انجام می دهم، چندین همبستگی قابل توجه پیدا می کنم. سپس من ادامه دادم و PCA را روی متغیرها انجام دادم و متوجه شدم که 5 رایانه اول بیشترین واریانس را توضیح می دهند. همبستگی بین رایانه های شخصی و داده های ژنتیکی همبستگی های بسیار کمی (در مقایسه با استفاده از متغیرهای فردی) را نشان می دهد. بنابراین من متعجبم که کدام نتایج درست است. | PCA یا بدون PCA. کدام نتایج درست است |
28772 | مزایا و معایب رگرسیون و رگرسیون تقسیمبندی شده با خطاهای ARIMA برای تجزیه و تحلیل سریهای زمانی منقطع چیست؟ در چه شرایطی یک روش را بر دیگری انتخاب کنم؟ آیا مقاله ای برای مقایسه این دو تکنیک وجود دارد؟ | مزایا و معایب رگرسیون و رگرسیون تقسیمبندی شده با خطاهای ARIMA برای تجزیه و تحلیل سریهای زمانی منقطع چیست؟ |
101108 | من نیاز به پیادهسازی الگوریتمی از Metropolis Independence Sampler دارم، که در آن توزیع پیشنهاد یک نرمال چند متغیره با 3 پارامتر است. از آنجایی که تحلیل تابع $f$ من واقعاً دشوار است، به این فکر میکردم که آیا منطقی است که نقطهای را که $f$ را به حداکثر میرساند (که من میتوانم آن را پیدا کنم!) را به عنوان $mean$ انتخاب کنم و فقط ماتریس کوواریانس را به دلخواه تنظیم کنم. پیشاپیش ممنون :) | نمونه بردار استقلال کلانشهر |
35417 | من مشکلی دارم که شامل یافتن راه حل بهینه بر اساس معیارهای زیر است: 1. منطق برای شناسایی آن رویداد A رخ داده است (یعنی منطق یافتن که دقیق ترین رویداد را دسته بندی می کند) 2. منطق برای شناسایی آن رویداد B. رخ داده است (یعنی منطق یافتن که با دقت بیشتری یک رویداد نوع B را طبقه بندی می کند) 3. حالت های انتقال (پیدا کردن تعداد کمی از حالت ها در که می توان گفت سیستم اشغال می کند) 4. منطق انتقال حالت (بر اساس یک رویداد به کدام حالت منتقل می شود) من بیش از یک سال است که با این مشکل دست و پنجه نرم می کنم و توانستم تشخیص دهم که مشکل به ترکیب تجزیه می شود. چهار مسئله فرعی بالا به یکی که جواب بهینه را تولید می کند. برای اختصار، فرض کنید که من یک تابع هدف (یا تابع ارزیابی تناسب اندام) دارم. تابع تناسب امتیازی را بر اساس نحوه عملکرد راه حل پیشنهادی با داده های جدید برمی گرداند. سوال من با یک سوگیری ناخواسته نسبت به GA بیان شده است، اما صرفاً به این دلیل است که این رویکردی است که (از نظر شاید ساده لوح من) امیدوارکننده ترین خط تحقیق به نظر می رسد. من فکر می کنم GP ممکن است در اینجا مفید باشد (اگرچه من تجربه ای با آن ندارم)، زیرا همانطور که شرط 1،2 و 4 نشان می دهد، منطق بهینه برای استفاده هنوز مشخص نیست. بهعنوان کنار، من ایدههایی درباره راهحلهای ممکن با استفاده از این منطق دارم. فقط این است که من مطمئن نیستم که کدام رویکرد مناسب ترین را ایجاد می کند (از اصطلاحات GA ببخشید، منظورم جانبداری از پاسخ ها نیست). سوال من این است که با توجه به چنین مشکل بهینه سازی، بهترین رویکرد برای حل آن چیست - GA، GP، ML (یا ترکیبی از هر سه)؟ مهمتر (به همان اندازه؟) مراحل عملی که باید برای اجرای راه حلی انجام دهم که می تواند به من در حل این مشکل کمک کند چیست؟ آخرین اما نه کم اهمیت ترین (ممکن است خیلی زود باشد که درباره جزئیات پیاده سازی صحبت کنیم)، اما من می خواهم در صورت امکان راه حل را با استفاده از پایتون پیاده سازی کنم. با این حال، میتوانم از R، Octave و غیره نیز استفاده کنم، اگر بستهها/کیتهای ابزار موجود و غیره وجود داشته باشد تا از اختراع مجدد چرخ جلوگیری کند. | الگوریتم های ژنتیک، برنامه نویسی ژنتیک یا الگوریتم های یادگیری ماشین برای حل این مشکل |
101105 | من اطلاعاتی در مورد 7 ماده مغذی دارم (مصرف 150 نفر - 75 مرد و 75 زن). آیا می توانم برای بدست آوردن الگوی دریافت مواد مغذی تجزیه و تحلیل عاملی انجام دهم؟ اگر چنین است، آیا نباید هر ماده مغذی را با کل انرژی دریافتی تنظیم کرد؟ من می خواهم با داده هایی که دارم یک تحلیل الگوی مصرف مواد مغذی انجام دهم. مصرف برای پروتئین، چربی، کربوهیدرات، کلسیم، آهن، ویتامین A و ویتامین C در دسترس است. به نظر می رسد فقط پروتئین و چربی به طور معمول توزیع می شوند. چه کار کنم؟ | مصرف مواد مغذی تنظیم شده با انرژی |
73242 | من این دستکاری برداری را در کتاب های استاندارد خوانده ام: $$E[XX^T] =E[\mathrm{trace}(XX^T)]$$ که در آن $X^T$ جابجایی $X$، $X است. $ توزیع معمولی دارد و دارای بعد $n\times 1$ است، $XX^T$ دارای بعد $n\times n$ است. چگونه می توانند ردیابی را به انتظار وارد کنند؟ | Trace(AB)=Trace(BA)؟ حتی اگر A، B بردار باشند؟ |
77411 | من با مشکلاتی روبرو هستم و بفهمم که عبارت ARCH در خروجی زیر چیست (و چرا) خروجی از اقتصاد سنجی مقدماتی برای امور مالی از ص. 407_ 1. من C(5) را اصطلاح GARCH دانستم، اما در مورد اصطلاح ARCH نامطمئن هستم. میدونی چیه؟ و اگر چنین است: چگونه آن را می دانستید؟ 2. اگر مجموع عبارت ARCH و GARCH => 1 باشد، آیا به این معنی است که ثابت نیست (یعنی ریشه واحد دارد)؟ 3. آیا من اصطلاح ARCH و GARCH را تفسیر می کنم؟ فکر می کنم اصطلاح ARCH را می توان به عنوان تأثیر عبارت خطای قبلی بر عبارت خطای فعلی تفسیر کرد؟ **پیشاپیش از شما متشکرم** | تفسیر خروجی Eviews: EGARCH - ARCH و اصطلاح GARCH |
101107 | در طرحی از باقیمانده ها در برابر مقادیر برازش شده از یک مدل خطی تعمیم یافته، من متعجبم که اگر یک برهمکنش در مدل وجود نداشته باشد، نمودار چگونه خواهد بود. آیا کسی می تواند مدلی را شبیه سازی کند که تعاملی ندارد. بدون اثر متقابل موجود در مدل، نمودارهای باقیمانده در برابر مقادیر برازش الگوهای واضحی را نشان میدهند. با برهمکنش، باقیمانده ها در برابر مقادیر برازش هیچ الگوی را نشان نمی دهند. | باقیماندههای حاصل از تعامل گمشده مدل |
28775 | من سری زمانی زیر را دارم `1.3578511 0.5119648 1.3189847 0.9214787 1.2272616 4.9167998 1.2272616 1.2272616 0.821331926 0.821331926 0.2030302 0.8426226 1.2277843 NA 1.3189847 1.3578511 0.8530141 2.3386331 1.0541099 0.7747481 0.7747481 0.584 0.7747464 1.2160533 1.2272616 0.6715839 0.9651803 1.6132899 1.2006974 0.6875047 1.3245534 1.2006974 0.8196974 0.82210 1.6132899 1.6132899 1.2006974 1.3189847 1.0018480 1.2277843 1.4424190 1.6132899 1.2277843 1.2277843 1.20067777843 0.9381081 0.8854192 NA NA 1.3189847 1.1070461 0.8221709 4.9167998 0.9214787 1.3189847 1.3189821474741. 1.6132899 1.6132899 4.9167998 0.8235792 0.9708839 1.1070461 1.2160533 0.8354292 1.4424190 1.19461.1958 1.4424190 1.4424190 1.6132899 1.6132899 0.6710844 1.2272616 0.9708839 0.8890464 1.4424190 0.8890 0.4424190 0.8890 1.1958634 0.8132233 0.4630722 4.9167998 0.8890464 1.3189847 0.7373181 1.1070461 1.2279813 1.2279813 0.885858.8890 I من از طریق اینترنت جستجو کردم، اما پیدا نکردم که بسته Amelia بتواند مقادیر از دست رفته را نسبت دهد. من از آن به صورت زیر استفاده کردم: library(Amelia) t <- read.table(C:\\Users\\exam\\Desktop\\missing_ts.txt) a.out <- amelia(t) اما موارد زیر را دریافت کردم خطا: کد خطای آملیا: 42 فقط 1 ستون داده وجود دارد. به همین ترتیب، amelia(x=as.matrix(1:101,t$V1)) منجر به کد خطای Amelia شد: 39 دادههای شما هیچ مقادیری ندارند. مطمئن شوید که کد داده های از دست رفته روی کد R که NA است تنظیم شده باشد. آیا در روشی که من سعی می کنم این سری زمانی را پیش بینی کنم مشکلی وجود دارد؟ اگر بله، پس از چه روشی باید استفاده کنم؟ | چگونه مقادیر از دست رفته در سری های زمانی را پیش بینی کنیم؟ |
24425 | میخواهم بدانم کدام مارک گلولههای چوبی (یعنی سوخت) برای اجاق گاز من مناسبتر است، برای دانستن این موضوع، من 2 عدد سنج دما را در ورودی هوا و دریچه هوای گرم نصب کردهام. اساساً، اگر میدانید هوای ورودی چقدر سرد بوده و چقدر گرم است، میتوانید انرژی بدست آمده را در بازه زمانی معین محاسبه کنید. حال، نیازی نیست بدانم در این مدت چقدر کیلووات توسعه یافته است، یک سیستم «نقاطی» ساده کافی است، به عنوان مثال، می توانم 0.1 امتیاز برای هر دقیقه به ازای هر درجه ای که هوای خروجی گرمتر از هوای ورودی است، در نظر بگیرم. به عنوان مثال، اگر هوای ورودی 20 درجه سانتیگراد و هوای خروجی 60 درجه سانتیگراد برای یک دقیقه باشد، این مارک گلوله ها 4 امتیاز کسب می کند. برای هر نوع مارک گلوله، من حدود 30 کیلوگرم از آن را سوزانده ام و 2 دستگاه ثبت کننده دما را در تمام مدت داشتم، که تقریباً 27 ساعت برای هر مارک گلوله است. اگر بتوانم امتیازهایی را که هر برند «به دست آورده» محاسبه کنم، به من این امکان را می دهد که ببینم بهترین مارک پلت برای من چیست. با این حال، مشکلی که من با آن روبرو هستم این است که ثبتکنندههای دما نمونههای داده را هر 30 تا 60 ثانیه ثبت میکنند و نه هر بار با فاصله زمانی یکسان، و همچنین نه در همان زمان مهر نسبت به یکدیگر. بنابراین دادههای من تقریباً به این شکل به نظر میرسند: در - 10/03/2012 - 00.01.15h: 20°C خارج - 10/03/2012 - 00.00.55h: 60°C در - 10/03/2012 - 00.01.50h خروجی 21 درجه سانتی گراد - 10/03/2012 - 00.01.35h : 63°C اکنون در تلاش برای اعمال سیستم امتیازدهی خود بر روی این داده ها به دیوار برخورد کرده ام، زیرا مهرهای زمانی با هم مطابقت ندارند. چگونه می توانم داده هایی مانند نمونه های بالا را پردازش کنم تا به مقدار امتیاز خود برای هر جلسه رایت دست یابیم؟ | محاسبه انرژی خروجی اجاق گاز پلت با استفاده از سری زمانی |
93412 | من پاسخهای «ضرایب تشخیصدهنده خطی» در LDA چیست؟ را خواندهام، اما هنوز نمیفهمم **ضرایب تشخیصدهنده خطی** در خروجی R به چه معناست. چیست؟ (چگونه) به مرز تصمیم گیری مربوط می شود؟ nb: دانش من در مورد LDA را می توان در این اسلاید خلاصه کرد. library(ISLR, MASS) قطار <- (Smarket$Year < 2005) lda.fit <- lda(Direction ~ Lag1 + Lag2, data = Smarket, subset = train) تماس: lda (جهت ~ Lag1 + Lag2, داده = Smarket ، زیر مجموعه = قطار) احتمالات قبلی گروه ها: Down Up 0.491984 0.508016 گروه یعنی: Lag1 Lag2 Down 0.04279022 0.03389409 Up -0.03954635 -0.03132544 ضرایب تشخیص خطی: LD1 Lag1 -0.6420135 Lag252 -0. | ضرایب ممیز خطی در R |
3977 | M یا MM؟ من «M» را ترجیح میدهم -- کوتاهتر است، اما کسی اینجا برای «MM» فشار میآورد. | چگونه می توانید به اختصار میلیون ها را بیان کنید؟ |
101101 | وقتی لامبدا را در تابع glmnet مشخص میکنم، با مشکل عجیبی مواجه میشوم که اگر اجازه بدهم تابع از تمام لامبداها عبور کند، ظاهر نمیشود. وقتی خطوط زیر را اجرا میکنم، عالی کار میکند: glmnet.out = glmnet(y = yy[train_id]، x=xx[train_id،]، خانواده = دو جملهای، آلفا = 1) پیام هشدار: از کد فرترن glmnet ( کد خطا -82)؛ همگرایی برای 82مین مقدار لامبدا پس از حداکثر 100000 تکرار حاصل نشد. راه حل برای لامبداهای بزرگتر بازگردانده شده glmnet.out$lambda [1] 2.126060e-02 1.937187e-02 1.765092e-02 1.608287e-02 1.465411e-02 1.31061-02 1.31061 1.108530e-02 1.010051e-02 9.203207e-03 [11] 8.385619e-03 7.640664e-03 6.961888e-03 6.343413e-7085 6.343413e-7085 5.266413e-03 4.798560e-03 4.372269e-03 3.983849e-03 3.629934e-03 و ردیف های بیشتر، تا مقدار 82. هشدار خوب است، زیرا من از آن لامبداهای کوچک استفاده نمی کنم. cv.glmnet یک لامبدا در حدود 0.001 می دهد. هنگامی که من یک لامبدا را مشخص می کنم، به عنوان مثال. آخرین مورد در خروجی بالا، glmnet.out = glmnet(y = yy[train_id]، x=xx[train_id،]، خانواده = دو جمله ای، آلفا = 1، لامبدا = 3.629934e-03) سپس موارد زیر را دریافت می کنم پیام هشدار: پیام های هشدار: 1: از کد فرترن glmnet (کد خطا -1); همگرایی برای یکمین مقدار لامبدا پس از تکرارهای maxit=100000 حاصل نشد. راه حل برای لامبداهای بزرگتر برگردانده شده 2: در getcoef(fit، nvars، nx، vnames): یک مدل خالی برگردانده شده است. احتمالاً یک مسئله همگرایی توجه داشته باشید که مقدار لامبدا 1 بی نهایت است، بنابراین چیزی برگردانده نمی شود. این چگونه ممکن است؟ من می توانم با مشخص نکردن لامبدا مشکل را حل کنم و سپس به صورت دستی تخمین ها را برای پیش بینی با مجموعه داده اعتبار متقاطع انتخاب کنم: coefficients = as.matrix(coef(glmnet.out)[,selected_lamdda]) xBeta = cbind(rep( 1، طول (cv_id))، xx[cv_id،])%*% ماتریس (ضرایب) پیشبینی = 1/(1+exp(-xBeta)) اما کاملاً ناکارآمد است، زیرا glmnet محاسبات غیر ضروری زیادی را انجام میدهد. ممنون | خطای همگرایی برای اولین مقدار لامبدا - با استفاده از بسته GLMNET و مشخص کردن پارامتر لامبدا |
56033 | فرض کنید 10 پازل مختلف داریم. هر پازل تعداد قطعات متفاوتی دارد، به عنوان مثال، پازل اول = 100 قطعه، پازل دوم = 120 قطعه، پازل سوم = 240 قطعه. . . علاوه بر این، فرض کنید که همه قطعات را از همه پازل های مختلف برداشته و آنها را در یک انبوه قرار می دهیم (n = 100 + 120 + 240 + ...). حال، با فرض اینکه نمونه ای از X قطعات را از توده برداریم و متوجه شویم که تعداد معینی قطعه از هر پازل را انتخاب کرده ایم به این صورت که: X = 100 3/100 جلد اول پازل 3/100 23/100 جلد پازل دوم 23/ 120 جلد 12/100 پازل سوم 12/240 من علاقه مند به محاسبه هستم احتمال به دست آوردن پوشش (یا نسبت) معینی از هر پازل (به طور جداگانه) از نمونه X. من علاقه ای به احتمال توزیع نسبت ندارم (همانطور که می توان با استفاده از مجذور کای خوب بودن تناسب یافت). در اصل، من می خواهم نشان دهم که پوشش بسیار زیاد یک پازل کوچک در یک نمونه کوچک، احتمال بسیار کمی دارد. سؤالات من این است: 1. با فرض تصادفی بودن نمونه گیری، آیا استفاده از آماره z یک طرفه برای یافتن مقدار p معتبر است؟ 2. با فرض اینکه نمونه گیری در ابتدا تصادفی است، اما از نمونه X فقط قطعاتی که به معیارهای خاصی پاسخ می دهند (مثلاً رنگ یا وزن) در محاسبه پوشش پازل در نظر گرفته می شوند، آیا آزمون آماره z هنوز معتبر است؟ 3. در نهایت، اگر برخی از قطعات بیش از یک پازل قرار بگیرند، چه آزمونی مناسب خواهد بود؟ (صرفاً برای روشن شدن، این تکلیف نیست!) | چگونه می توان احتمالات نمونه گیری نسبت های زیر مجموعه را آزمایش کرد؟ |
35414 | من یک مجموعه داده متشکل از یک سری موارد ماهانه چوب شکسته را از تعداد انگشت شماری از سایت ها دریافت کرده ام. من سعی می کنم یک تخمین خلاصه از دو تکنیک مختلف به دست بیاورم: تکنیک 1: یک چوب شکسته را با یک پواسون GLM با متغیر نشانگر 0/1 تنظیم کنید، و از یک متغیر زمان و زمان^2 برای کنترل روندها استفاده کنید. زمان تخمین متغیر شاخص 0/1 و SE با استفاده از روش بسیار مستقیم بالا و پایین از تکنیک لحظهها یا با استفاده از بسته tlnise در R برای به دست آوردن یک تخمین Bayesian ادغام میشوند. این مشابه کاری است که پنگ و دومینیسی با داده های آلودگی هوا انجام می دهند، اما با سایت های کمتر (حدود یک دوجین). تکنیک 2: برخی از کنترل های خاص سایت را برای روندهای در زمان رها کنید و از یک مدل ترکیبی خطی استفاده کنید. به ویژه: lmer(موارد ~ نشانگر + (1+ماه+I(ماه^2) + افست(log(p))، خانواده=پواسون، داده=داده) سوال من شامل خطاهای استانداردی است که از این تخمین ها بیرون می آیند. خطای استاندارد تکنیک 1، که در واقع از یک مجموعه زمانی هفتگی به جای ماهانه استفاده می کند و بنابراین باید دقت _more_ داشته باشد، دارای یک خطای استاندارد در برآورد ~0.206 است. برای رویکرد Method of Moments و ~0.306 برای tlnise. روش lmer یک خطای استاندارد ~0.09 می دهد. به همان اندازه که مدل ترکیبی بسیار کارآمدتر است پدیده های عمومی، یا یک نتیجه خاص از این مدل؟ | مدل مختلط در مقابل ادغام خطاهای استاندارد برای مطالعات چند سایتی - چرا یک مدل ترکیبی بسیار کارآمدتر است؟ |
55563 | نحوه تخمین پارامترهای توزیع Log Pearson III و نحوه تولید شماره های تصادفی. با استفاده از این پارامترهای تخمین زده شده در R؟ لطفا آکشاتا رو راهنمایی کنید | برآورد پارامترهای توزیع Log Pearson III در R |
22118 | سوال سریع من میخواهم یک رگرسیون خطی انجام دهم که به شکل زیر است: lm(y ~ x1 + x2 + x3 + x4 +x5، mydata) اگر بهصورت دستی این کد را بنویسم، خوب کار میکند. با این حال، متغیرهای مستقلی که می خواهم استفاده کنم به عنوان یک کاراکتر ذخیره می شوند، مانند این: > vars [1] x1 + x2 + x3 + x4 +x5 سعی کردم این را تایپ کنم: lm(y ~ vars, mydata) خطا در model.frame.default... ولی ارور میده! بنابراین من این را امتحان کردم: lm(y ~ noquote(vars), mydata) خطا در model.frame.default... و سپس این lm(y ~ print(vars, quote = FALSE), mydata) خطا در model.frame .default... کسی میداند چگونه میتوانم این مشکل را حل کنم؟ رشته کاراکتر در vars توسط یک برنامه بالادستی در اختیار من قرار می گیرد، بنابراین من نمی توانم در آن سطح کار کنم. با تشکر | مشکل بردار کاراکتر و رگرسیون خطی در R |
34753 | من در حال توسعه پرسشنامه ای برای اندازه گیری چهار عامل تشکیل دهنده معنویت هستم و می خواهم این سوال را بپرسم: آیا هنگام استفاده از روش استخراج فاکتورسازی محور اصلی، تبدیل داده ها روی داده های غیر عادی برای تحلیل عاملی اکتشافی ضروری است؟ من دیروز غربالگری داده هایم را به پایان رساندم و متوجه شدم که 3 سوال از 20 سوال دارای انحراف مثبت هستند در حالی که 1 سوال از 20 دارای انحراف منفی است (سوال 6 = 4.88، سوال 9 = 7.22، سوال 12 = 11.11، سوال 16 = -6.26). همچنین متوجه شدم که 1 سوال (از 20 سوال) لپتوکورتیک است (سوال 12 = 12.21). من روش استخراج فاکتورگیری محور اصلی را انتخاب کردم زیرا خواندم که از این روش در داده های به شدت غیر عادی استفاده می شود در حالی که از حداکثر احتمال در داده های معمولی استفاده می شود، اما: 1. چگونه می توانم بفهمم که داده های من به شدت غیر عادی هستند. عادی؟ 2. اگر داده های من به شدت غیر عادی هستند، آیا این بدان معناست که می توانم داده ها را به همان شکلی که الان هستند بگذارم (آنها را تبدیل نکنم) و با استفاده از روش استخراج فاکتورسازی محور اصلی آن را تجزیه و تحلیل کنم؟ یا آیا باید قبل از اقدام به EFA داده ها را تبدیل کنم؟ 3. اگر من نیاز به تبدیل دادهها داشته باشم، از چه تبدیلهایی برای موارد دارای چوله مثبت، منحنی منفی و لپتوکورتیک استفاده میکنم؟ | آیا هنگام استفاده از روش استخراج فاکتورینگ محور اصلی، تبدیل دادهها روی دادههای غیر عادی برای تحلیل عاملی اکتشافی ضروری است؟ |
61575 | انحراف استاندارد برای بازپرداخت یک بازی چرخاندن سکه که در آن شما 2 دلار دریافت می کنید و در صورت دم 1 دلار از دست می دهید، چقدر است. چگونه انحراف معیار تغییر می کند اگر احتمالات ثابت بماند اما بازده به 3 دلار برای سر و از دست دادن 1 برای دم تغییر کند. فرمول تعمیم یافته برای انحراف معیار در چرخش سکه با احتمالات و بازده های داده شده چیست؟ | انحراف استاندارد شرط برگرداندن سکه |
3974 | من دادههای (سه متغیره: چند متغیره با سه متغیر) دارم که به نظر میرسد برازش نظری تجربی و معقول خوبی برای یک پیچیدگی (تک متغیره) از یک توزیع نمایی و یک توزیع نرمال است (بعضی اوقات به آن توزیعهای exp-norm یا exGauss گفته میشود). داده های من نمونه هایی از توزیع مشترک هستند: J(R,G,B) به نظر می رسد که حاشیه های R,G,B به دنبال: $R=R_N+R_E$ با $R_N \sim N(\mu_R,\sigma^ 2_R)$ و $R_E \sim Exp(\lambda_R)$ (و به همین ترتیب برای G,B). من می خواهم به طور موثر توزیع های حاشیه ای، مشروط و مشترک را خلاصه کنم. هدف اصلی این خلاصه مقایسه این توزیع ها (حاشیه ای، مشروط و مشترک) با سایر توزیع های تولید شده به روشی مشابه است. مشکل من این است که (1) فرمی برای توزیع مشترک (یا مشروط) نمی دانم و (2) پس از آن، هیچ پارامتری برای تخمین ندارم. بنابراین، من برای کار با این داده ها یا به یک رویکرد بدون توزیع (غیر پارامتریک) نیاز دارم یا باید توزیع چند متغیره ای را پیدا کنم که با داده ها و شکل حاشیه ها مطابقت داشته باشد. یا باید به گزینه های دیگر فکر کنم؟ | از توزیعهای حاشیهای Exp-Norm تا چه شرایطی و مشترک؟ |
93417 | این سوال طولانی شدن این سوال است: چگونه ضرایب را در رگرسیون پواسون تفسیر کنیم؟ اگر از روال (تقریبا) دقیقاً یکسان پیروی کنیم، اما بین درمان متغیر و بهبود یافته همبستگی اضافه کنیم (فقط به خاطر سؤال من که تفسیر خروجی است)، دریافت می کنیم: درمان <- factor(rep(c(1 ، 2)، c(43، 41))، سطوح = c(1، 2)، برچسب ها = c(دارونما، درمان شده)) <-factor(rep(c(1, 2، 3، 1، 2، 3)، c(29، 7، 7، 13، 7، 21))، سطوح = c(1، 2، 3)، برچسب ها = c(هیچ، بعضی، علامت گذاری شده)) تعداد داروها <- rpois(84، 10) + 1 ارزش سلامت <- rpois(84، 5) y <- data.frame (Healthvalue، تعداد داروها، درمان، بهبود یافته) تست <- glm(healthvalue~numberofdrugs+treatment+ بهبود یافته + درمان: بهبود یافته، y، خانواده=poisson) خلاصه (تست) به $\textbf{ درمان: بهبود یافته}$ توجه کنید عبارتی که داخل تابع glm اضافه کردم. اکنون خروجی زیر را دریافت می کنیم: فراخوانی: glm (فرمول = ارزش سلامتی ~ تعداد داروها + درمان + بهبود یافته + درمان: بهبود یافته، خانواده = سم، داده = y) باقیمانده های انحرافی: حداقل 1Q Median 3Q Max -2.9261 -0.8733 -0.0293 0.537 -0.0293 0.547 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 1.553051 0.184229 8.430 <2e-16 *** numberofdrugs 0.004298 0.014242 0.302 0.7628 درمان 0.00104049 0.9605 بهبود یافته 0.358897 0.164891 2.177 0.0295 * بهبود یافته با علامت -0.178360 0.203756 -0.875 0.3814 درمان درمان شده: بهبود یافته: 0.33026336 - 0.33026361 درمان درمان شده: بهبود یافته علامت گذاری شده 0.050617 0.260203 0.195 0.8458 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson 1) انحراف صفر: 97.805 در 83 درجه آزادی انحراف باقیمانده: 89.276 روشن 77 درجه آزادی AIC: 383.29 تعداد تکرارهای امتیاز دهی فیشر: 5 اگر ضرایب ناچیز را نادیده بگیریم، میتوانم سؤالم را بپرسم: میدانم که، همانطور که در پست اصلی، درمان=دارونما و بهبودیافته=هیچ یک سطح پایه برای آن متغیرها هستند، و بنابراین تنظیم شدهاند. به صفر سوال من این است که چرا هیچ گونه اصطلاح تعاملی با سطوح پایه برای درمان = دارونما و بهبود یافته = هیچ وجود ندارد؟ من فکر کردم که صفر کردن سطوح پایه فقط یک ساختار است و در ذهن من هنوز هم باید بین آنها همبستگی وجود داشته باشد...(؟) | چگونه ضرایب را در رگرسیون پواسون با شرایط تعامل تفسیر کنیم؟ |
73249 | **سوال:** برای این سوال، توجه داشته باشید که علامت $y_{1:T} = (y_1, y_2, \cdots, y_T)$، یعنی بردار متغیرهای تصادفی. مدل AR(1) زیر را در نظر بگیرید: \begin{align*} y_{t+1} = \phi y_t + \sigma \eta_t \ \ \cdots (a) \end{align*} برای $t = 1, 2 , \cdots, T$ جایی که \begin{align*} \eta_t \stackrel{iid}{\sim} N(0,1) \ \\cdots (b) \end{align*} با $\eta_1$ مستقل از $y_k$ برای $k \le t$، و جایی که \begin{align*} y_1 \sim N\left(0, \frac{\sigma^2}{ 1-\phi^2}\right) \ \\cdots (c) \end{align*} $\theta = (\phi, \sigma)$ را تعریف کنید و توزیع قبلی را در نظر بگیرید: \begin{align*} p(\theta) \propto \frac{1}{\sigma} \ \text{for} \ \infty < \phi < \infty \ \text{and} \ 0<\sigma<\ infty \ \ \cdots (1) \end{align*} همچنین تابع احتمال شرطی را به صورت زیر تعریف کنید: \begin{align*} p(y_{2:T} \mid y_1، \theta) = \left(2\pi \sigma^2 \right)^{-\frac{T-1}{2}}\exp\left[- \frac{1}{2\sigma^2 }\sum_{t=2}^T \left(y_t - \phi y_{t-1} \right)^2\right] \ \ \cdots (2) \end{align*} نشان دهید که توزیع پسین مشروط، مربوط به تابع احتمال شرطی در $(2)$ و چگالی قبلی در $(1)$، ممکن است به صورت تحلیلی به دست آید، در حالی که توزیع کامل پسین، مربوط به مدل در $(a)-(c )$ و چگالی قبلی در $(1)$ نیاز به یک رویکرد محاسباتی جایگزین دارد. * * * **My Working:** بنابراین در ابتدا، تابع درستنمایی مربوط به مدل AR(1) را که توسط $(a)-(c)$ توضیح داده شده بود، کار کردم. کار من به شرح زیر است: به ما $y_1 \sim N\left(0, \frac{\sigma^2}{1-\phi^2}\right)$ داده می شود، بنابراین pdf توسط: \begin{ align*} p(y_1 \mid \theta) = \left(2\pi\left( \frac{\sigma^2}{1-\phi^2}\right) \right)^{-\frac{1}{2}}\exp\left[ - \frac{y_1^2}{2\left(\frac{\sigma^2}{1-\phi^2}\ right)} \right] \end{align*} به شرطی، $y_2 \mid y_1 \sim N\left( \phi y_1, \sigma^2\right)$ داریم، بنابراین pdf توسط: \begin{align*} p(y_2 \mid y_1, \theta) = \left(2\pi \sigma^2\right)^{-\frac{1}{2}} \exp\ داده میشود left[-\frac{1}{2\sigma^2} \left(y_2 - \phi y_1\right)^2 \right] \end{align*} به طور مشابه، $y_3 \mid y_2, y_1 \equiv y_3 \mid y_2 \sim N\left(\phi y_2, \sigma^2\right)$، بنابراین پی دی اف به صورت زیر داده می شود: \begin{align*} p(y_3 \mid y_2، y_1، \theta) = \left(2\pi \sigma^2\right)^{-\frac{1}{2}} \exp\left[-\frac{1}{2\sigma^2} \left(y_3 - \phi y_2\right)^2 \right] \end{align*} بنابراین به طور کلی $y_t \mid y_{t-1}, y_{t-2}, \cdots, y_1 \equiv y_t \mid y_{t-1} \sim N\left(\phi y_{t-1}، \sigma^2\right)$، با pdf: \begin{align*} p(y_t \mid y_{t -1}، y_{t-2}، \cdots، y_1، \theta) = \left(2\pi \sigma^2\right)^{-\frac{1}{2}} \exp\left[-\frac{1}{2\sigma^2} \left(y_t - \phi y_{t-1} \right)^2 \right] \end{align*} با استفاده از روش ترکیب داریم: \begin{align*} p(y_{1:T} \mid \theta) & = p(y_1 \mid \theta)p(y_2 \mid y_1, \theta)p(y_3 \mid y_1, y_2, \theta) \cdots p(y_T \mid y_1, y_2, \cdots, y_{T-1}, \theta ) \\\ & = p(y_1 \mid \theta) \prod_{t=2}^T p(y_t \mid y_{t-1}، \theta) \end{align*} بنابراین تابع احتمال برای مقدار معین $\theta = \left(\phi, \sigma^2\right)$ محاسبه میشود، توسط: \begin{align} L(\theta) & = \left\\{ \left(2\pi\left( \frac{\sigma^2}{1-\phi^2}\right) \right)^{-\frac{1}{2}}\exp\left[ - \frac{y_1^2}{2\ left(\frac{\sigma^2}{1-\phi^2}\right)} \right]\right\\} \prod_{t=2}^T \left(2\pi \sigma^2\right)^{-\frac{1}{2}} \exp\left[-\frac{1}{2\sigma^2} \left(y_t - \phi y_{t-1} \right)^2 \right] \\\ & \propto (1-\phi^2)^{\frac{1}{2}}\sigma^{-T} \exp\left[-\frac{\sum_{t=2}^T\left(y_t - \phi y_{t-1}\right)^2+y_1^2\left(1-\phi^2\ right)}{2\sigma^2} \right] \ \ \cdots (W1) \end{align} استخراج احتمال شرطی داده شده در $(2)$ را می توان به صورت زیر انجام داد: \begin{align*} p(y_{2:T} \mid y_1, \theta) & = \frac{p(y_{1:T} \mid \theta)}{p(y_1 \mid \theta)} \\\ & = \prod_{t=2}^T p(y_t \mid y_{t-1}، \theta) \\\ & = \left(2\pi \sigma^2 \right)^{-\frac{T-1}{2}}\exp\left[- \frac{1}{2\sigma^2}\sum_{t=2}^T \left (y_t - \phi y_{t-1} \right)^2 \right] \end{align*} * * * **سوال من:** من واقعاً متوجه نشدم که سؤال از من چه می خواهد بپرسد انجام دهید؟ پسین مشروط به چه معناست؟ خلفی کامل؟ هر گونه کمکی قدردانی خواهد شد! * * * **ویرایش 1 پیشرفت:** بسیار خوب، پس من کمی بیشتر بازی کردم و کمی پیشرفت کردم. من خلفی شرطی را به صورت زیر تفسیر می کنم: توجه کنید که وقتی $T$ بزرگ است، فاکتور $(1-\phi^2)$ در معادله. $(W1)$ کوچک است، بنابراین میتوانیم احتمال کامل را با احتمال شرطی تقریبی کنیم: \begin{align*} p(y_{2:T} \mid y_1, \theta) \propto \sigma^{-(T -1)}\exp\left[- \frac{1}{2\sigma^2}\sum_{t=2}^T \left(y_t - \phi y_{t-1} \right)^2 \right] \end{align*} بنابراین تحت $p(\theta) \propto \frac{1}{\sigma}$ قبلی، داریم: \begin{align *} p(\theta \mid y_{1:T}) & \propto \sigma^{-T}\exp\left[- \frac{1}{2\sigma^2}\sum_{t=2}^T \left(y_t - \phi y_{t-1} \right)^2 \right] \\\ & = \sigma^ {-T}\exp\left[-\frac{1}{2\sigma^2}\sum_{t=2}^T \left(y_t^2 -2y_t \phi y_{t-1} + \phi^2 y_{t-1}^2 \right) \right] \\\ & = \sigma^{-T}\exp\left[-\frac{1}{2 \sigma^2}\left(\underbrace{\sum_{t=2}^Ty_t | تعیین توزیع پسین برای مدل خودرگرسیون یا مرتبه 1 |
74146 | من سعی می کنم توزیع های نرمال چند متغیره را در برخی نقاط محاسبه کنم. من از تابع mvnpdf Matlab استفاده می کنم: `y = mvnpdf(X,MU,SIGMA)` اولین آرگومان نقطه ای است که چگالی را محاسبه می کنم، MU میانگین و SIGMA کوواریانس است. من از نتیجه زیر متحیر شدم: mvnpdf([0 0 0]،[0 0 0]،0.001*eye(3)) ans = 2.0078e+03 >> mvnpdf([0 0 0.002]،[0 0 0] ,0.001*eye(3)) ans = 2.0038e+03 من در $2\sigma^2$ از میانگین و چگالی تقریباً یکسان است؟ آیا نتیجه نباید نزدیک به صفر باشد؟ | تابع چگالی نرمال چند متغیره |
71529 | من دادههایی در مورد تصویر بدن و رفتارهای تغییر وزن از پسران نوجوان $N = 397$ دارم که در سال 2000 جمعآوری کردیم. سن از 13.5 دلار سال تا 18.67 دلار متغیر بود و میانگین سنی 15.92 $ ~ [SD= 1.02] دلار بود. ما اخیراً دور دیگری از جمعآوری دادهها را در همان مدارس (بهعلاوه مدارس دیگری که مشخصات اجتماعی-اقتصادی مشابهی دارند)، با استفاده از همان پرسشنامه انجام دادیم، و میخواهیم رفتارهای تغییر وزن و تصویر بدن را بین سالهای 2000 و 2012 مقایسه کنیم. زیرا هیچ سالی وجود نداشت. هفت دانش آموز در گروه اولیه، دانش آموزان سال 7 از گروه 2012 حذف شدند. بنابراین ما $n = 892 $ شرکت کننده در گروه 2012 داریم. سن در این گروه از 12.33 تا 21.08 دلار متغیر است و میانگین سنی 15.09 $ ~ [SD=1.26] دلار بود. ANOVA نشان داد که هنوز بین سن شرکت کنندگان در دو موج جمع آوری داده ها تفاوت معنی داری وجود دارد. تصویر بدن و رفتارهای تغییر وزن ارتباط نزدیکی با سن دارند. سؤالات من: * آیا در مقایسه دادههای گروههایی با این اندازههای نمونه (397 دلار در مقابل 892 دلار) با استفاده از ANCOVA مشکلی وجود دارد؟ * آیا ANCOVA برای محدود کردن تأثیر سن بر تجزیه و تحلیل کافی است؟ یا باید با انتخاب تصادفی از هر گروه سنی در داده های اخیر، نمونه را برای سن مطابقت دهم؟ | آیا برای مقایسه ANCOVA نیاز به طبقه بندی / مطابقت نمونه دارید؟ |
56032 | من با این مجموعه داده های Optdigits از مخزن یادگیری ماشین UCI کار می کنم و می خواهم یک مجموعه داده آموزشی جدید با نویز ایجاد کنم. چگونه به طور تصادفی نویز را به یک بردار در R اضافه کنیم؟ می گویند خراب 10٪ از مقادیر بردار. | اضافه کردن نویز به ستونی از داده ها |
55569 | آیا کسی می داند که چگونه می توان با استفاده از ضرایب همبستگی بتا، متاآنالیز انجام داد؟ | نحوه انجام متاآنالیز و ایجاد کرت های جنگلی با استفاده از ضرایب همبستگی بتا |
51663 | برای هدف این پست، بپذیرید که آستانه بحرانی وجود دارد که در زیر آن یک یافته از نظر آماری معنی دار اعلام می شود. مقدار _p_ یک آمار است زیرا تابعی از داده است. آمار تصادفی است. ما می توانیم فاصله های اطمینان را در اطراف آمار قرار دهیم. چرا فواصل اطمینان را حول مقادیر _p_ قرار نمی دهیم؟ یا، به طور معادل، چرا فرضیه را که مقدار _p_ مشاهده شده زیر 0.05 است، آزمایش نمی کنیم؟ یک پاسخ می تواند این باشد که محاسبه تحلیلی سخت است، اما بوت استرپ می تواند این مشکل را حل کند. | p-values برای p-values؟ |
96445 | من نسبت مورد انتظار چهار پارامتر A، B، C و D را دارم. A: B: C: D 3.9: 12.0: 24.3: 59.8 سه آزمایش انجام می دهم که نسبت های A، B، C و D را برای من فراهم می کند. نتایج نشان میدهد که نسبتهای بهدستآمده در آزمایش 1 به نسبت مورد انتظار نزدیکتر هستند به نظر میرسد آزمایش 3 بدترین است. A: B: C: D آزمایش 1 3.9: 12.0: 24.3: 59.8 آزمایش 2 0.7: 2.0: 25.6: 71.7 آزمایش 3 3.9: 29.9: 29.9: 53.2 می تواند به وضوح نشان دهنده مقدار یک : 7 باشد. به دست آمده در آزمایش های مختلف (در مقایسه با نسبت مورد انتظار) نیاز به انجام این کار برای بسیاری از آزمایش ها | به یک متریک مناسب برای نشان دادن نزدیکی بین مجموعه ای از مقادیر مورد انتظار در مقابل مشاهده شده نیاز دارید |
51662 | من یک سری زمانی با متغیر وابسته (مصرف برق) دارم که به صورت روزانه اندازه گیری می شود. من همچنین یک معیار مستقل (بیکاری) در فواصل ماهانه دارم. من می خواهم از یک تحلیل سناریوی نوع ARIMAX استفاده کنم تا تأثیر تغییرات بیکاری آینده را بر مصرف برق ببینم. ابتدا می خواهم مدلی از مصرف برق با بیکاری به عنوان متغیر مستقل بسازم اما می خواهم از سری زمانی به صورت روزانه استفاده کنم. برای تغییر بیکاری روزانه چه باید کرد؟ من نمی توانم اطلاعات بیکاری را به صورت روزانه پیدا کنم زیرا توسط سرویس آماری فقط در بازه های زمانی ماهانه گزارش می شود. ایده 1) نرخ بیکاری ماهانه را بر تعداد روزهای یک ماه مشخص تقسیم کنید. به نظر من خوب نیست. ایده 2) در سری ماهانه بیکاری یک درونتثلی چند جمله ای (اسپلاین) تولید کنید و تقریب هموار پیوسته بیکاری را در هر روز از ماه ایجاد کنید. به نظر شما بهترین ایده چیست؟ آیا ایده دیگری برای ارائه در مورد چگونگی مقابله با مشکل دارید؟ پیشاپیش، آندریاس | بیان یک سری زمانی در بازه زمانی دقیق تر با استفاده از تقریب های ریاضی |
74144 | من هنوز در داده کاوی مبتدی هستم. من در حال کار بر روی یافتن قوانین ارتباط از فرضیه X تا نتیجه گیری Y هستم. برای این منظور، یک نظرسنجی با سوالاتی شبیه به این انجام داده ام: Q1: آیا شما فامیلی با ویژگی ABC دارید؟ (پاسخ: بله یا خیر) Q2: آیا به زمینه XYZ علاقه دارید؟ (پاسخ: بله یا خیر) Q3: شما از کدام موسسه هستید؟ (پاسخ: گزینه 1، 2، 3، 4 یا 5) و غیره. بنابراین تعداد زیادی پارامتر یا ویژگی یا ابعاد برای داده های من وجود دارد. فرمت داده های من مشابه این است: http://www.hakank.org/weka/weather.arff، و من از WEKA استفاده خواهم کرد. با این حال من هنوز در مرحله پیش پردازش داده ها هستم. حذف ورودی های تکراری و برخورد با مقادیر از دست رفته مشکلی نیست. چیزی که من نگران آن هستم حذف موارد پرت است. اولاً، چگونه می توانم این نوع داده های رکورد را به گونه ای نشان دهم که معیارهای تشابه مانند فاصله اقلیدسی یا مینکوفسکی (یا شاید هر!) حتی بتوان روی آن اعمال کرد؟ و ثانیا، معقول ترین معیار تشابه برای استفاده در این نوع موارد چیست؟ من به فاصله ماهالانوبی نگاه کردهام و برای پروژهام بیفایده به نظر میرسد، زیرا مجموعهای از ویژگیهای ایدهآل ندارم که بتوانم بخشهای دیگر داده را با آن مقایسه کنم. آیا معمولاً قبل از یافتن قوانین انجمن نیاز به تشخیص نقاط پرت است؟ یا معمولاً پس از آموختن قوانین، نقاط پرت شناسایی می شوند؟ مدتی است که به این موضوع فکر می کنم اما به نظر نمی رسد به نتیجه معقولی برسم. آیا هر یک از داده کاویان با تجربه تر می تواند کمک کند لطفا؟ | امتیاز فاصله شباهت برای حذف موارد پرت برای داده های نظرسنجی |
101100 | من علاقه مند به یافتن روش صحیح برای تصحیح آزمایش های چندگانه در مدل های چند سطحی برای داده های طولی هستم، جایی که در حال سرمایه گذاری یک تعامل بالقوه بین دو پیش بینی هستم. داده های من شامل 7 متغیر پیامد، 2 متغیر پیش بینی کننده با یک تعامل و 5 متغیر کمکی است. برای استراتژی ساخت مدل من از یک رویکرد راه اندازی استفاده می کنم. مدل 1: مدل تهی مدل 2: زمان معرفی می شود مدل 3: متغیرهای کمکی معرفی می شوند مدل 4: پیش بینی کننده ها معرفی می شوند مدل 5: تعامل بین پیش بینی کننده ها معرفی می شوند. سپس این استراتژی برای هر یک از متغیرهای نتیجه تکرار می شود. در حال حاضر من از تصحیح بونفرونی برای محاسبه آزمایشهای چندگانه استفاده میکنم. آیا این روش صحیحی برای انجام محاسبه برای اصلاح بونفرونی است؟ از طرف دیگر، آیا 0.05 را بر تعداد مدل های نهایی در تجزیه و تحلیل (7) تقسیم می کنید یا تعداد پارامترهای مدل های مورد تجزیه و تحلیل را؟ | مدل سازی چند سطحی و تست چندگانه |
93415 | میخوام بدونم اسم دقیق یه تست برای سنجش شباهت 2 سیستم نویز چیه. با فرض اینکه m1 اندازه گیری برای سیستم 1 و m2 باشد، اندازه گیری برای سیستم 2 این آزمون S1 = (m1 + m2)/2 و S2 = (m1 - m2)/2 را محاسبه می کند. سپس S1 در مقابل S2 را برای هر نقطه اندازه گیری رسم می کند. با تشکر فراوان ps هیچ یک از 2 سیستم حقیقت زمین نیست | نام نامعلوم این آزمون |
25467 | فرض کنید یکی دو مجموعه داده دارد: با تعداد سطرهای مختلف (نمونه) و ستون ها (ویژگی ها). هر یک از این 2 مجموعه داده دارای یک ستون به عنوان یک متغیر پاسخ باینری هستند. بگوییم سالم است یا نه چه نوع روش های آماری می تواند برای کمک به ما برای نتایج بهتر انتخاب ویژگی یا عملکرد بهتر در مدل های طبقه بندی، با استفاده از هر دو مجموعه داده استفاده شود؟ | آمار مربوط به مجموعه داده های مختلف دارای یک متغیر پاسخ مشترک |
25468 | من میخواهم بدانم چگونه یک فاصله تعریفشده را در R در تحلیل خوشهبندی سلسله مراتبی وارد کنم. R فقط برخی از معیارهای فاصله پیشفرض را پیادهسازی میکند، به عنوان مثال «اقلیدسی»، «منهتن» و غیره. بعد باید چیکار کنم؟ بدیهی است که نوشتن یک تابع یک راه حل است. اما، نوشتن آن بسیار پیچیده و همچنین دشوار خواهد بود. لطفا کمکم کنید. من قادر به نوشتن کد نیستم. | چگونه تابع فاصله خود تعریف شده را در R وارد کنیم؟ |
56036 | من داده ها را با استفاده از k-medoid خوشه بندی می کنم. من از شاخص **Davies–Bouldin** برای خوشه های $2$ تا $n-1$ استفاده کردم. در اینجا $n = 100 $ (با استفاده از نمونه آزمایشی کوچکتر). من حداقل مقدار شاخص را برای 98 خوشه پیدا می کنم. اما میزان دقت کلی برای خوشه 98 بسیار کوچک است (کوچکتر از 1). در اینجا میزان دقت به میزان دقیق تطبیق داده های آزمون با داده های آموزشی است. در آن شرایط باید چه کار کنم. اگر مجموعه داده بزرگتر است، پیدا کردن مقدار Davies–Bouldin از $2$ تا $n-1$ کار بزرگی است. برای مجموعه داده بزرگتر چه کاری باید انجام دهم؟ در اینجا نمودار من از مقدار شاخص Davies-Bouldin برای راه حل های خوشه ای است [محور X شاخص در واقع تعداد خوشه های یک راه حل است].  | استفاده از شاخص Davies-Bouldin در خوشه بندی |
74147 | من برای مصاحبه ای آماده می شوم که نیاز به دانش مناسب از احتمال اولیه دارد (حداقل برای انجام مصاحبه). من در حال کار بر روی برگه زیر از دوران دانشجویی به عنوان ویرایش هستم. اکثراً نسبتاً ساده است، اما من در مورد سؤال 12 کاملاً شگفت زده هستم. ویرایش: سوال این است: فرض کنید که $X_1، X_2، ... $ متغیرهای تصادفی مثبت و مستقل با توزیع یکسان با $\mathbb{E}(X_1) = \mu < \infty$ و $\mathbb{E}(X_1) هستند. ^{-1}) < \infty$. اجازه دهید $S_n = \sum_{i=1}^n X_i$. نشان دهید که $\mathbb{E}(S_m/S_n) = m/n$ وقتی $m<=n$، و $\mathbb{E}(S_m/S_n) = 1 + (m-n)\mu\mathbb{E }(S_n^{-1}))$ وقتی $m>=n$. در واقع، در مرحله تایپ کردن، قسمت دوم را حل کردم. برای $m>=n$، $\mathbb{E}(S_m/S_n) = \mathbb{E}(X_1+ . . . +X_m)/\mathbb{E}(X_1+ . . . . +X_n)$= \mathbb{E}(1 + (X_{n+1} + ... + X_m)/(X_1 + ... + X_n)) $ و صورت و مخرج نسبت بالا به وضوح مستقل هستند، بنابراین: $ = 1 + \mathbb{E}(X_{n+1} + ... + X_m)\mathbb{E}(S_n^{-1})$ و به نتیجه مطلوب میرسیم. هرچند هنوز در قسمت اول گیر کرده ام. | انتظار ضریب مجموع متغیرهای تصادفی IID (کاربرگ دانشگاه کمبریج) |
74921 | من فقط به این فکر می کردم که آیا می توانید به من در جهت درست راهنمایی کنید؟ من یک مجموعه داده با 5 کلون درخت دارم که در 10 سایت مختلف کاشته شده اند، یعنی همان کلون ها دو بار در سایت های مختلف تکرار می شوند. Site Clone 1 A 2 A 3 B 4 B 5 C 6 C 7 D 8 D 9 E 10 E در هر سایت هر کلون چندین بار تکرار می شود. در حالت ایدهآل، میخواهم بدانم تأثیر کلون بر متغیر وابسته y من چیست و آیا اثر سایت وجود دارد یا خیر. به نظر من یک طرح بلوک **ناقص** با کلون به عنوان یک افکت ثابت و سایت به عنوان یک افکت تصادفی (و بلوک) به نظر می رسد. با استفاده از lmer از بسته lme4 در R، مدل را به صورت زیر مشخص می کنم: lmer(y~clone + (1|site), data=mydata) آیا این روش درستی برای تجزیه و تحلیل این مجموعه داده است؟ همچنین میتوانم از طریق کلون کردن سایتها، میانگینگیری کنم و سایتها را حذف کنم. اما به این ترتیب من اطلاعات بالقوه مهم در مورد وجود اثر سایت را از دست خواهم داد. هر گونه اشاره قدردانی می شود! | چگونه این طرح بلوک ناقص را در R تحلیل کنیم؟ |
56030 | در یک کامپیوتر استاندارد (~3-6GB RAM) با 2 تا 4 پردازنده. محدودیت های اندازه در ماتریس داده برای R یا SAS چیست؟ | R یا SAS چقدر از یک مجموعه داده را می تواند برای رگرسیون اداره کند؟ |
74145 | اجازه دهید $Y_1<Y_2 $ آمار نظم یک نمونه تصادفی با اندازه 2 را از توزیعی که $N\left( \mu,\sigma^2 \right) $ است، نشان دهد، جایی که $\sigma^2$ شناخته شده است. مقدار مورد انتظار طول تصادفی $Y_2-Y_1$ را محاسبه کنید. میتوانم ببینم که پاسخ $\frac{2\sigma}{\sqrt{\pi}}$ است، اما نمیدانم چگونه به آنجا برسم، زیرا نمیتوانم انتگرال دوگانه را ارزیابی کنم: $$ \int_{-\infty} ^{\infty} \int_{-\infty}^{y_2} \left( y_2-y_1 \right) \frac{1}{2\pi \sigma^2} exp \left\\{ -\frac{1}{2\sigma^2}\left[ \left(y_1-\mu \right)^2 +\left(y_2-\mu \right)^2 \right]\ right\\} \mathrm {dy_1 dy_2}$$ هر گونه ایده در مورد نحوه محاسبه این بسیار قابل قدردانی است، متشکرم! | آمار سفارش-مقدار مورد انتظار طول تصادفی |
74140 | بنابراین من به دنبال یک مدل رگرسیونی هستم که قرار است ارزش یک خانه را بر اساس متغیرهای مستقل متعدد پیش بینی کند. چیزی که من کاملا نمی فهمم این است که چگونه می توان بهترین مدل را هنگام حذف متغیرهای ناچیز انتخاب کرد. مدل اصلی شامل چهار متغیر مستقل بود که سه متغیر آن ناچیز بودند (p-value > 0.05). بنابراین، مثلا X1 را حذف کردم، که بیشترین مقدار p را داشت (t-stat کوچک). مدل جدید حاوی سه متغیر به وضوح بهتر به نظر می رسد، زیرا Adjusted R2 افزایش یافت (من می دانم که Adjusted R Square برای مقایسه مدل هایی با تعداد پارامترهای مختلف مناسب است). همچنین به نظر میرسد که آزمایشهای F تأیید میکنند که حذف X1 به دلیل بیاهمیت بودن، کار درستی است. با این حال، در مدل سه متغیره هنوز یک متغیر ناچیز، X3 وجود داشت. بنابراین من آن را نیز حذف کردم. اکنون، در مدل دو متغیر، هر دو متغیر قابل اعتماد بودند (p-value های کوچک)، اما Adjusted R Square در واقع تا حدودی کمتر از مدل قبلی بود. به نظر میرسد که آزمایشهای F نشان میدهد که X3 به اندازه کافی تأثیر کوچکی بر مدل دارد که حذف شود. در واقع کدام مدل از نظر آماری و اقتصادی بهتر است؟ مدل سه متغیری با بالاترین مربع R تنظیم شده یا مدل دو متغیری بدون متغیرهای ناچیز اما R2 تنظیم شده کمتر؟ من کاملاً نتوانستم منطق پشت این موضوع را بفهمم. | اقتصادسنجی - انتخاب بهترین مدل هنگام حذف متغیرها |
51666 | من 50 موضوع داشتم و 4 بار برای هر موضوع یک آزمایش اجرا کردم و ارزش های قبل و بعد را برای هر اجرا جمع آوری کردم. باید آنالیز قبل از پست انجام دهم. در اینجا یک **نمونه** از داده های من: **آزمایش شناسه PrePost Value** 1 1 prePost 1.2 1 2 post 5.8 1 3 post 4.6 1 4 pre 2.7 .... 2 1 pre 3.2 2 2 post 7.9 2 3 pre 3.5 2 4 post 6.6 .... 3 1 pre 5.1 3 2 post 4.8 3 3 pre 5.7 3 4 post 2.5 چگونه می توانم این کار را در SAS انجام دهم و مفروضات نرمال بودن را بررسی کنم؟ | تجزیه و تحلیل قبل از ارسال با اندازه گیری مکرر |
41252 | من آمار خلاصهای را برای دادههای درصدی انتخاب میکنم که نزدیک به 100% خوشهبندی شدهاند. هر آزمودنی دو بار در یک آزمون شرکت می کند. هر آزمون شامل حداقل 40 سوال است. من میخواهم بتوانم پیشبینی کنم که کدام موضوعات بیشتر پیشرفت خواهند کرد. من این فرضیه را دارم که آزمودنی هایی با تنوع عملکرد بالاتر در آزمون اول بیشتر پیشرفت خواهند کرد. برای آزمایش این، من واریانس نمرات هر سؤال را محاسبه کردم و در واقع آنهایی که واریانس بالاتری داشتند، بهبود بیشتری داشتند. اما مشکل این است که وجود آستانه یک مصنوع را معرفی میکند: آزمودنیهایی با عملکرد نزدیک به 100% برای شروع نمیتوانند پیشرفت زیادی داشته باشند و همچنین ممکن است واریانس پایینتری داشته باشند، زیرا دم بالایی نمرات سؤال با حداکثر آستانه امتیاز محدود میشود. . محدوده بین چارکی نیز از همین مشکل رنج می برد. من واریانس یک طرفه (فقط با استفاده از نمرات سوال کمتر از میانگین) و چارک پایین تر تا محدوده میانه را امتحان خواهم کرد. آیا ایده دیگری وجود دارد، و آیا کسی استفاده از چنین چیزی را در ادبیات می داند؟ | معیار خوبی برای گسترش نزدیک به یک آستانه چیست؟ |
73240 | **سوال:** مدل روند خطی محلی را در نظر بگیرید: \begin{align*} y_t = \mu_t + \tau \varepsilon_t \ \cdots \ \text{معادله مشاهده} \\\ \mu_{t+1} = \phi \mu_t + \eta_t \ \cdots \ \text{معادله حالت} \end{align*} برای $t = 1، 2، \cdots، T$، جایی که $(\varepsilon_t، \eta_t)'$ مستقل از $\mu_k$ برای $k \le t$ است و کجا: \begin{align*} \begin{bmatrix} \ varepsilon_t \\\ \eta_t \end{bmatrix} \stackrel{i.i.d}{\sim} N\left(\begin{bmatrix} 0 \\\ 0 \end{bmatrix}، \begin{bmatrix} 1 & 0 \\\ 0 & 1 \end{bmatrix}\right) \end{align*} and \begin{align*} \mu_1 \sim N\left(0, \frac{1}{1-\phi^2} \right) \end{align*} (توجه داشته باشید در این سوال همه چیز یک کمیت اسکالر است). تحلیل بیزی این مدل را تحت توزیع قبلی در نظر بگیرید: \begin{align*} p(\theta) \propto \frac{1}{\tau} \ \text{for} \ -\infty < \phi < \infty \ \text{and} \ 0<\tau<\infty \end{align*} جایی که $\theta = (\phi, \tau)$. یک نمونهگر گیبس برای نمونهبرداری از توزیع مشترک خلفی طراحی کنید، $p(\mu_{1:T}، \theta \mid y_{1:T})$ که در آن علامت $\mu_{1:T}$ نشان دهنده $( \mu_1، \mu_2، \cdots، \mu_T)$ و به طور مشابه، $y_{1:T}$ نشان دهنده $(y_1، y_2، \cdots، y_T)$. * * * **My Working So Far:** توزیع مشترک خلفی توسط: \begin{align*} p(\mu_{1:T}, \theta \mid y_{1:T}) و \propto داده میشود p(\mu_{1:T}، \theta، y_{1:T}) \\\ & = \underbrace{p(y_{1:T} \mid \mu_{1:T}، \theta)}_{\text{'likelihood'}}\underbrace{p(\mu_{1:T} \mid \theta)p(\theta)}_{\text{preor}} \\\ & = \left[\prod_{t=1}^{T} p(y_t \mid \mu_t, \theta)\right]\left[\prod_{t=1}^{T-1}p(\mu_{t+1} \mid \mu_t, \theta) \right]p(\mu_1 \mid \theta )p(\theta) \ \ \cdots \ \ (1) \end{align*} از آنجایی که $y_t \mid \mu_t، \theta \sim N(\mu_t، \tau^2)$ برای $t=1, 2, \cdots, T$، pdf به صورت زیر داده می شود: \begin{gather*} p(y_t \mid \mu_t, \theta) = \left(2\pi \tau^2\right)^{-\frac{1}{2}}\exp\left[-\frac{1}{2\tau^2}\left(y_t - \mu_t\right)^2 \right] \end{gather*} به طور مشابه، $\mu_{t+1} \mid \mu_t، \theta \sim N\left(\phi \mu_t، 1 \راست)$، بنابراین پی دی اف به صورت زیر داده می شود: \begin{gather*} p(\mu_{t+1} \mid \mu_t, \theta) = \left(2\pi\right)^{-\frac{1}{2}} \exp\left[-\frac{1}{2}\left(\mu_{t+1} - \phi \mu_t \right)^2 \right] \end{gather*} میدانیم که $\mu_1 \mid \theta \sim N\left(0, \frac{1}{1-\phi^2} \right)$، بنابراین pdf توسط: \begin{gather*} p(\mu_1 \mid \theta) = \left(2\pi\left(\frac{1}{1-\phi^2} \right) \right)^ داده می شود {-\frac{1}{2}} \exp\left[-\frac{\mu_1^2}{2\left(\frac{1}{1-\phi^2}\right)} \right] \end{gather*} در نهایت، به ما داده میشود که $p\left(\theta\right) \propto \frac{1}{\tau}$. جایگزینی همه موارد بالا به معادله. $(1)$، توزیع مشترک خلفی را ایجاد می کند: \begin{align*} p(\mu_{1:T}, \theta \mid y_{1:T}) & \propto \left[\prod_{t= 1}^{T} \left(2\pi \tau^2\right)^{-\frac{1}{2}}\exp\left[-\frac{1}{2\tau^2}\left(y_t - \mu_t\right)^2 \ right]\right]\left[\prod_{t=1}^{T-1}\left(2\pi\right)^{-\frac{1}{2}} \exp\left[-\frac{1}{2}\left(\mu_{t+1} - \phi \mu_t \right)^2 \right] \right] \\\ & \times \left(2 \pi\left(\frac{1}{1-\phi^2} \right) \right)^{-\frac{1}{2}} \exp\left[-\frac{\mu_1^2}{2\left(\frac{1}{1-\phi^2}\right)} \right] \left( \frac{1}{\tau }\right) \end{align*} من یک نمونهگر «مسدود شده» گیبس را اجرا میکنم که $\mu_{1:T}^{(i)}$ را با هم نمونهبرداری میکند، به شرح زیر: برای $i = 1، 2، \cdots، M$، نمونه: \begin{align*} \mu_{1:T}^{(i)} & \sim \mu_{1:T} \mid \phi^{(i-1)}، \tau^{(i-1)}، y_{1:T} \ \ \cdots \ \ (2)\\\ \phi^{(i)} & \sim \phi \mid \mu_{1:T}^{(i)}، \tau^{(i-1)}، y_{1:T} \ \ \cdots \ \ (3) \\\ \tau^{(i) } & \sim \tau \mid \mu_{1:T}^{(i)}، \phi^{(i)}، y_{1:T} \ \ \cdots \ \ (4) \end{تراز *} نمونه برداری از $(2)$ با استفاده از فیلتر رو به جلو، نمونه برداری به عقب (FFBS) ساده است **پرسمان من:** من در مورد نحوه نمونه گیری از $(3)$ و $(4)$ برای استفاده گیر کردم یک نمونهگر گیبس در $(3)$ و $(4)$، باید شرطی کامل $\phi \mid \mu_{1:T}، \tau را پیدا کنیم، y_{1:T}$ و $\tau \mid \mu_{1:T}، \phi، y_{1:T}$، اما چگونه این شرایط کامل را پیدا میکنید؟ من هیچ راه واضحی با بررسی توزیع خلفی مشترک نمی بینم. شاید یک زنجیره فرعی متروپلیس هیستینگز بتواند کار کند؟ اما پس از آن چه چیزی را باید برای تراکم نامزد خود برای $\phi$ و $\tau$ انتخاب کنم؟ پیشاپیش ممنون | نمونهگر گیبس برای مدل روند خطی محلی |
101109 | من می دانم که theano یک کتابخانه پایتون برای استفاده از سخت افزار gpu و پیاده سازی موثر است. آیا چنین کتابخانه ای یا راهی برای انجام همین کار در متلب وجود دارد؟ | روشی برای استفاده از سخت افزار GPU در متلب |
74143 | من یک سریال زمانی دارم و می خواهم شباهت هایی در آن پیدا کنم. برای اولین مرحله من ضرایب موجک هار را برای این سری زمانی محاسبه کرده ام و حالا دقیقاً نمی دانم چگونه باید ادامه دهم آیا باید ویژگی ها را از این داده های تبدیل شده استخراج کنم تا شباهت ها را پیدا کنم؟ چگونه می توانم این کار را انجام دهم؟ | یافتن شباهت ها با استفاده از تبدیل موجک |
25464 | Mega Millions امروز بیش از 500 میلیون دلار است. به یاد دارم که مقاله JSTOR را در مورد برخی از اعدادی خواندم که احتمال انتخاب آنها بسیار کم است. به عنوان مثال، بسیاری از مردم 7 را انتخاب می کنند زیرا این عدد شانس آنهاست، و من برعکس آن را می خواهم. با این حال عضویت JSTOR من تمام شده است. در قرعه کشی اعداد بین 1 تا 80، افراد کمترین احتمال را دارند که کدام اعداد را به عنوان انتخاب های قرعه کشی خود انتخاب کنند؟ **توجه:** هر عدد شانس مساوی برای انتخاب شدن دارد. من می خواهم اعدادی را انتخاب کنم که هیچ کس دیگری انجام نمی دهد، بنابراین اگر برنده شدم مجبور نباشم جایزه را با کسی تقسیم کنم. | کدام اعداد کمترین احتمال را دارند که افراد در قرعه کشی انتخاب کنند؟ |
74926 | من 3 ساعت اطلاعات تولید برق برای حدود 600 مکان برای یک سال دارم. (یعنی 8 داده در روز برای 365 روز برای هر مکان.) من می خواهم راهی پیدا کنم که از بین این 600 مکان، می توانم بگویم فرض کنید 10 مکان را انتخاب کنید که در دوره های زمانی مختلف انرژی تولید می کنند. فرض کنید: مکان: ساعت 0، ساعت 3، ساعت 6، ساعت 9، ساعت 12، ساعت 15 A 30 00 50 70 00 20 B 50 20 70 100 00 40 C 00 100 20 00 120304 D اینجا ، A و B در جایی که A و C همبستگی معکوس دارند، همبستگی بالایی دارند. بنابراین، آیا راهی وجود دارد که بتوانم مکانهایی را که در دورههای زمانی مختلف نیرو تولید میکنند تشخیص دهم تا با در نظر گرفتن این چند مکان، تولید برق کلی بتواند به نوعی پایدار باشد؟ منظور من از نوعی پایدار، چیزی شبیه به این است که در کامنت بعداً برای روشن شدن سؤالم ذکر کردم. از آنجایی که A و C رابطه معکوس دارند، بنابراین اگر از بین چهار مکان، قدرت را از A و C انتخاب کنم، همیشه مقداری توان دریافت می کنم (در این سناریو همیشه بالای 30 است). اما اگر A و B را بگیرم، زمانی که توان داشته باشم توان بسیار بالایی دریافت می کنم (مثل 70+100=170 در ساعت 9)، و در ساعت 12 هیچ توانی دریافت نمی کنم (زیرا A و B 00 توان تولید می کنند. ساعت 12). من می خواهم از انتخاب A و B اجتناب کنم و می خواهم A و C را انتخاب کنم. هدف من انتخاب 10 مکان از 600 مکان است که با اضافه کردن توان هر ساعت از 10 مکان، کل توان برای هر ساعت باید بالاتر از یک آستانه خاص باشد. ، مانند 30. | همبستگی معکوس داده های سری زمانی |
41251 | من روی توزیع روی گیاهان کار می کنم و باید شانس هایی را که گیاه در سن خاصی شروع به تولید مثل می کند در یک بردار وارد کنم. فقط این باید برای نسل های بیشتری انجام شود. حالا، تصور کنید من گیاهی دارم که حداقل در 80 سالگی شروع به تولید مثل می کند و در نهایت در 81 سالگی شروع به تولید مثل می کند. من فرض می کنم که شانس یک گیاه برای رسیدن به سن قابل تولید مثل خود به طور مساوی توزیع شده است، بنابراین شانس شروع تولیدمثل در 80 سالگی 0.5 و شانس شروع تولیدمثل گیاه در 81 سالگی نیز 0.5 است. با این حال، من می خواهم این شانس ها را برای 2 نسل از یک گیاه بدانم. بنابراین من یک نمودار درختی ایجاد می کنم که در آن شانس دو نسل 160 سال (2*80) 0.25 (0.5 *0.5) است. شانس دو نسل 161 سال (80+81 یا 81+80) 0.5 است (2*(0.5*0.5)). شانس دو نسل 162 سال نیز 0.25 (0.5*0.5) است. بردار مورد نیاز من در اینجا یک بردار تجمعی شانس است: c(0.25، 0.75، 1) با این حال من گیاهی دارم که شروع به تولیدمثل حداقل در 80 سالگی و در نهایت در 149 سالگی می کند. من مجدداً فرض میکنم که شانس یک گیاه برای رسیدن به سن تکرارپذیر خود به طور مساوی توزیع شده است، بنابراین 1/70 است که یک گیاه در 80، 1/70 در 81 و غیره شروع به تولید مثل میکند. من میخواهم این شانسها را برای 20 نسل بدانم. (البته می توانید یک نمودار درختی از این نیز ایجاد کنید، اما این یک نمودار درختی عظیم خواهد بود). این به بردار 1400 مقدار تبدیل میشود، که در آن اولین مقدار نشاندهنده شانسی است که همه نسلها شروع به تولید مثل جوان میکنند و آن در (80*20) = 1600 سال است و آخرین مقدار نشاندهنده شانسی است که همه نسلها در سنین بالا شروع به تولید مثل میکنند. (150*20)= 3000 سال. در این بردار هر مقدار نشان دهنده شانس در یک سال (3000-1600=1400) است. **بنابراین سوال من اینجاست: آیا راهی برای محاسبه چنین بردار تجمعی شانس در R وجود دارد؟** | چگونه بر اساس دو توزیع احتمال یک بردار تولید کنیم؟ |
36267 | من یک مجموعه داده متشکل از تعداد کمی شرکت کننده دارم: n=5، n=5، n=2. من می خواهم میانگین ها را روی یک متغیر خاص مقایسه کنم. من یک anova 1-way انجام دادم و p-value 0.07 بود، تست Welch به من p = 0.005 می دهد. کدام صحیح است؟ | حجم نمونه کوچک و نابرابر |
4473 | من یک مدل (موسیقی شوم نشانه) در R بر اساس داده های ماه های قبل با استفاده از lm() ایجاد کرده ام. اکنون، میخواهم ببینم که چقدر دادههای ماههای جاری را پیشبینی میکند. به عنوان مثال، مدل من ارقام فروش را پیش بینی می کند. من ارقامی برای ژانویه، فوریه و مارس دارم. مدل من بر اساس ارقام ژانویه و فوریه است و میخواهم تخمین بزنم که مدل چقدر پیشبینیکننده فروش ماه مارس است. آیا روشی برای انجام این کار بدون اعمال دستی همه ضرایب و وزن ها وجود دارد؟ | اعتبارسنجی یک مدل خطی با R, lm() |
101104 | من پیاده سازی دارم که مشکل بهینه سازی $C$-SVM را حل می کند. آیا می توان از این الگوریتم برای ایجاد یک $\nu$-SVM استفاده کرد؟ من می دانم که یک اتصال وجود دارد که می گوید > $\nu$-SVM منجر به $\rho > 0$ می شود، سپس $C$-SVM با $C$ تنظیم > قبلی روی > $1/\rho$ منجر به همان تابع تصمیم می شود. . (بردار پشتیبانی جدید > الگوریتم ها) اما آیا می توانم از یک $\nu$ برای استخراج پارامتر $C$ و آموزش $C$-SVM استفاده کنم؟ | $\nu$ SVM بر حسب C-SVM |
77081 | من مطمئن نیستم که مفهوم درستی از نحوه انجام تست کای اسکوئر داشته باشم یا خیر. من متغیری به نام نژاد دارم که فاکتوری با سطوح چندگانه برای نژادهای مختلف است و میخواهم ببینم آیا بین هر نژاد و متغیر پاسخ (مرگ و میر) همبستگی وجود دارد یا خیر. اگر بخواهم chi-square مانند: chi.race <- chisq.test (مرگ و میر، نژاد) را انجام دهم، خروجی مانند: داده های آزمایش Chi-squared Pearson: مرگ و میر و نژاد X-squared = 4.9626، df = 9 به من می دهد. ، p-value = 0.8376، اما چیزی در مورد همبستگی بین هر سطح در مسابقه به من نمی گوید (به عنوان مثال سفید، سیاه، آسیایی، اسپانیایی، و غیره) و مرگ و میر. چه کار اشتباهی انجام میدهم و/یا چه مشکلی در مفهوم chi-square وجود دارد؟ با تشکر از کمک. | مجذور کای با استفاده از عوامل با سطوح چندگانه در R |
36193 | من نقشههای چگالی را بررسی میکنم تا درمورد معقول بودن مقادیری که با استفاده از بسته «موش» در R نسبت داده شدهاند، احساسی داشته باشم. از راهنمایی/راهنمای/نظر در مورد مشکل زیر سپاسگزار خواهم بود. انباشتهها با فراخوانی به `موش()` ایجاد میشوند: نیاز(موش) imp <- mice(...) جزئیات حذف شده است زیرا تعداد زیادی کد و مجموعه داده بزرگی در آن وجود دارد. امیدوارم این موضوع از سوال کم نکند. این نموداری است که توسط تابع داخلی «densityplot» در بسته «موش» ایجاد میشود: «densityplot(x=imp, data= ~ age)» خط آبی دادههای مشاهدهشده، خطوط قرمز، دادههای منتسب هستند. این باعث ایجاد زنگ خطری برای من شد. به ویژه: 1. از آنجایی که داده های مشاهده شده به طور کامل در هر مجموعه داده منتسب وجود دارد، چگونه برخی از مقادیری که در داده های مشاهده شده ظاهر می شوند می توانند چگالی صفر در داده های منتسب داشته باشند؟ 2. 7019 مشاهدات وجود دارد که تنها 11 مورد از آنها وجود ندارد، بنابراین من انتظار دارم چگالی منتسب شده تقریباً مشابه با مشاهده شده باشد. 3. در یک مفهوم کلی، چگونه می تواند طرح ها متفاوت به نظر برسند؟ بنابراین من آن را با نموداری با استفاده از «ggplot» مقایسه کردم: require(ggplot2) require(reshape) fortify.mids <- function(x){ imps <- do.call(rbind, lapply(seq_len(x$m), function( i){ data.frame(complete(x, i), Imputation = i, Imputed = Imputed) })) orig <- cbind(x$data، Imputation = NA، Imputed = مشاهده شده) rbind(imps، orig) } x11() ggplot(fortify.mids(imp)، aes(x = سن، رنگ = Imputed، group = Imputation)) + geom_density() + scale_colour_manual(مقادیر = c(Imputed = #000000، Observed = #D55E00))  و همانطور که می بینید، همه چگالی ها با هم همپوشانی دارند (شما حتی نمی توانید واقعاً متوجه شوید که بیش از 1 خط وجود دارد). آیا کسی می تواند توضیح دهد که در طرح اول چه اتفاقی می افتد؟ توجه داشته باشید که داده های استفاده شده برای تولید این 2 نمودار یکسان است. | تجسم مقادیر قابل قبول در انتساب چندگانه |
87237 | من آزمایشی را روی یک مدل طبقهبندی جریانی (یک جنگل تصادفی آنلاین) که ایجاد کردهام انجام میدهم. اگر این یک مفهوم کاملاً خارجی برای شما است، در اینجا ارائه ای است که من اخیراً در مورد آن انجام دادم: http://www.slideshare.net/CvilleDataScience/online-random-forest- in-10-minutes. اساسا برای آزمایش پاسخگویی مدل من به یادگیری سیگنال های جدید، مجموعه داده ای را شبیه سازی کرده ام که شامل دو سیگنال است. مدل برای مدتی روی یک سیگنال آموزش داده می شود و سپس من تمرین را روی سیگنال دیگر شروع می کنم (به روش تغییر گام فوری). به تدریج در طول این فرآیند آموزشی از جنگل تصادفی آنلاین گزارش هایی در مورد اهمیت ویژگی ها می خواهم. نتیجه یک سری زمانی با اهمیت ویژگی برای ویژگی ها/پیش بینی کننده های مختلف در طول زمان است. در اینجا تصویری از این سری زمانی با خط سیاه نشان دهنده زمانی است که سیگنال را تغییر دادم:  آزمایشی که من اجرا می کنم تغییر می کند تعدادی از پارامترهای مدل مختلف و دسته ای از این ماتریس های سری زمانی تولید می کند. آنچه من می خواهم اندازه گیری کنم، زمان تثبیت برای هر یک از ماتریس ها است. من به هر رویکردی برای انجام این کار علاقه مند هستم. چیزی که من تاکنون امتحان کردهام این است که کل سری زمانی ماتریس را به یک سری زمانی بر اساس موارد زیر کاهش دهم: 1. فاصله اقلیدسی بعدی بین بردارهای اهمیت ویژگی 2. زاویه بین بردارهای اهمیت ویژگی پس از بدست آوردن این سری زمانی منفرد آن را از طریق فرآیندهای کنترل کیفیت در R با استفاده از کتابخانه qcc اجرا می کند. با استفاده از آن کتابخانه، مدت زمانی که فرآیند در حالت خارج از محدوده باقی می ماند، اندازه گیری می کنم. این خیلی خوب کار میکند، اما آنقدر که من میخواهم قوی نیست، به این معنی که گاهی اوقات نقضهای خارج از محدوده بهطور متوالی اتفاق نمیافتند، حتی اگر فکر میکنم «فکر میکنم» باید باشد. قسمت مفصل سوال من این است. با توجه به سریهای زمانی یکی از ویژگیهایی که میدانم از «بیمهم» به «مهم» تغییر کردهام، چگونه میتوانم بهصورت پویا خطی را از جایی که اهمیت ویژگی از حالت «غیر مهم» پایدار به حالت «مهم» پایدار میرود، قرار دهم. . اساسا چگونه می توانم سیگنال را به 3 جزء تقسیم کنم؟ چگونه میتوانم این کار را به صورت پویا انجام دهم، با توجه به اینکه نمیدانم چه زمانی فرآیند به نقطه تثبیت جدیدی میرسد؟ در اینجا نمونه ای از این خط آمده است (نقشه پایین خطی است که با تابع صاف در R هموار شده است):  هر گونه ارجاع به ادبیات یا بسته های R بسیار قدردانی می شود! | تحلیل روند اهمیت ویژگی در طول زمان در R |
99952 | **لطفا ابتدا ویرایش 3 را بخوانید** من سعی می کنم عوامل مهم در مجموعه داده های درصدی را پیدا کنم که نمونه ای از آنها در زیر آمده است. مشکل این است که داده ها مفروضات ANOVA را نقض می کنند و بیشتر داده ها تقریباً نزدیک به 100٪ هستند. لطفاً توجه داشته باشید که glm + باینری کار نمی کند: نمونه های مورد استفاده برای محاسبه هر نسبت مستقل نیستند. من به مخرج دسترسی دارم، اگر کمک کند. هر جهتی از کجا شروع کنیم؟ من چیزهای زیادی را در اینجا و جاهای دیگر خوانده ام (به ویژه تلاش برای استفاده از تغییر شکل مانند arcsin و غیره...) و همچنین برخی از روش های دیگر که هرگز در مورد آنها نشنیده ام (رویکردهای جدول احتمالی). همانطور که در یک ANOVA کتاب درسی من می خواهم بدانم که کدام عوامل مهم هستند، و چه مقدار از تنوع را توضیح می دهند. داده = c(0.79,0.98,0.95,0.95,1,0.98,0.99,0.97,0.99,0.99,0.98,0.99,0.99,0.94,0.94, 0.86,0.84,0.86,0.97,0.96,0.53,0.87,0.97,0.81,0.99,1,0.99,0.87,0.98,0.97,0.93,0.8, 0.7,0.94,0.89,0.98,0.89,0.98,0.96,0.98) **ویرایش:** با عرض پوزش برای عدم وضوح. درصدهای من به این صورت محاسبه میشوند: من اساساً تعدادی ذره (که فقط به صورت پسینی شناخته میشوند) را در یک قیف میاندازم و شمارش میکنم که چند ذره از آن عبور میکنند/چقدر در قیف گیر کردهاند. درصد نسبت ذراتی است که از آن عبور کردهاند تقسیم بر تعداد کل ذرات. اگر ذرهای که در ابتدای آزمایش آمده است گیر بماند، احتمال گیر ماندن ذره بعدی بیشتر است. به این ترتیب، فکر نمیکنم بتوانم یک مدل خطی تعمیمیافته را اعمال کنم و دوجملهای را بهعنوان خانواده مشخص کنم (منظورم در R است). اما باز هم، بینش آماری من ممکن است کاملاً اشتباه باشد. **ویرایش2:** در مورد استقلال، حدس میزنم نظر من گمراهکننده بود. هر نمونه در بردار بالا از بقیه مستقل است. با این حال، همانطور که در ویرایش بالا توضیح دادم، نمونه هایی که برای محاسبه هر درصد استفاده می شوند، نیستند. **ویرایش3:** خب، فکر میکنم احتمالاً سؤالم را به هم ریختهام، فکر میکنم اگر مشکل را دوباره بیان کنم و برخی دادهها را نشان دهم (کسری از کل مجموعه دادهام) ممکن است کمک کند. علاوه بر این، من کمی پیشرفت کرده ام، امیدوارم در مسیر درست. من نمی دانم که آیا باید یک ویرایش کامل سؤال اصلی خود را انجام دهم یا حتی آن را رها کنم و دوباره شروع کنم، این را به عنوان ویرایشی برای علاقه به تاریخ اضافه می کنم (به من اطلاع دهید که آیا باید به روش دیگری انجام دهم). متغیر پاسخ من درصد ذراتی است که از یک قیف عبور کرده اند (تعداد کل ذرات برای هر درصد متفاوت است). اگر ذره ای در ابتدای آزمایش گیر بماند، احتمال گیر ماندن ذره بعدی بیشتر است. متغیرهای توضیحی (بالقوه) عبارتند از: 1) نوع ذرات، 2) نوع قیف، 3) موقعیت قیف و 4) تعداد کل ذرات. در مرحله اول، من میخواهم پیدا کنم کدام یک از اینها واقعاً بر متغیر پاسخ تأثیر میگذارند و تا چه اندازه. در مرحله دوم، من می خواهم از مجموعه داده فعلی به عنوان مرجعی برای تجزیه و تحلیل نمونه های آینده استفاده کنم. دقیقاً، میخواهم بدانم آیا درصد ذرات ساخته شده از طریق قیف به طور قابل توجهی با مجموعه داده مرجع و چقدر متفاوت است یا خیر. رسم داده ها به من نشان می دهد که هر جمعیت ممکن است میانگین و واریانس متفاوتی داشته باشد. # کتابخانه ها #### library(ggplot2) library(betareg) library(lmtest) #ایجاد داده#### df5 = ساختار(لیست(نوع = c(Type1، Type1، Type1، Type2 ، Type2، Type2، Type2، Type2، Type2، Type3، Type3، Type3، Type1، Type1، Type1، Type3، Type3، Type3، Type2، Type2، Type2، Type1، Type1 ، Type1، Type1، Type1، Type1، Type3، Type3، Type3، Type2، Type2، Type2، Type1، Type1، Type1، Type3، Type3، Type3، Type1، Type1، Type1 ، Type3، Type3، Type3، Type2، Type2، Type2، Type3، Type3، Type3، Type2، Type2، Type2)، funnelType = c(fType1، fType1، fType1، fType1، fType1، fType1، fType2، fType2، fType2، fType1، fType1، fType1، fType2، fType2، fType2، fType1، fType1، fType1، fType1، fType1، fType1، fType1، fType1 ، fType1، fType1، fType1، «fType1»، «fType2»، «fType2»، «fType2»، «fType1»، «fType1»، «fType1»، «fType2»، «fType2»، «fType2»، «fType1»، «fType1»، «fType1» ، fType2، fType2، fType2، موقعیت = c(a، b، c، | ANOVA در درصد |
56039 | من یک متغیر تصادفی X دارم که از N مقدار [$x_{1}$...$x_{N}$] نمونهبرداری میکنم. از این مقادیر، من تخمین P تابع H(x) را با استفاده از نمونهگیری اهمیت محاسبه میکنم، یعنی $P = \sum_{i=1}^{N} w_{i}H(x_{i})$ ($H(x_ {i})$ به عنوان خروجی 0 یا 1 می دهد. این برای آزمایشهای T انجام میشود و برای هر آزمایش «$t$»، من دو بردار خروجی دارم - 1. [$P_{0}$, $P_{1}$, ..., $P_{t}$] و 2. [$Pavg_{0}$, $Pavg_{1}$, ..., $Pavg_{t}$] که در آن $Pavg_{i}$ میانگین تمام P ها تا آزمایشی t یعنی $Pavg_{i}= 1/t*\sum_{k=1}^{t}P_{k}$ سوال این است که واریانس $Pavg_{t}$ چقدر است. من این مقدار را می خواهم تا بتوانم بدانم نتایج شبیه سازی من چقدر به مورد واقعی نزدیک است. آیا باید واریانس ($Pavg_{t}$) را از بردار (2) محاسبه کنم؟ من همچنین با فرمول محاسبه واریانس تخمین در مونت کارلو مواجه شدم که به صورت $Var(P_{MC}) = P_{MC}(1-P_{MC})/N$، که $P_{MC}$ است تخمین مونت کارلو آیا از این برای محاسبه $Var(Pavg_{t})$ استفاده کنم؟ | واریانس میانگین برآورد محاسبه شده با نمونه گیری اهمیت |
36191 | > فرض کنید دو دارو برای هر یک از _n_ بیمار مبتلا به سردرد تجویز می شود. واکنش ها در جدول زیر خلاصه شده است: دارو 1 خوب نیست کل خوب a b a+b دارو 2 خوب نیست c d c+d کل a+c b+d n > شروع از حاشیه های (a+b) و (a+c) )، نشان می دهد که مقایسه داروهای > دوطرفه را می توان با استفاده از آمار $\frac{(b-c)^2}{b+c}$، > که تقریباً یک $\chi_1^2$. لطفا راهنمایی کنید تا بتوانم این تکلیف را حل کنم. مشکل یک مشکل نمونه بزرگ است. | نشان دهید که می توان با استفاده از آماره $(b-c)^2/{b+c}$ مقایسه ای بین داروهای دوطرفه انجام داد. |
109785 | من یک تابع احتمال را به حداکثر می رساندم که محدب است. من می دانم که سیستم یک راه حل K-sparse دارد. میخواستم شرایط (یا برخی شرایط کافی) در تابع احتمال را بدانم که تحت آن تنظیم l1 تضمین شده است تا راهحل پراکنده را به من بدهد. به عبارت دیگر، من در تلاش برای حل مشکل زیر $$\max_{x \in \mathbb{R}^n} f(x)،$$ هستم که در آن $f$ یک تابع مقعر است. با این حال من می دانم که راه حل واقعی K-sparse است. من می خواستم بدانم که تحت چه شرایطی بهینه سازی زیر راه حل صحیح را برمی گرداند $$\max_{x \in \mathbb{R}^n} f(x) - \lambda ||x||_1.$$ من آنلاین پیدا کردم که اگر $f=||y-Ax||_2^2$، آنگاه برای $A$ کافی است تا خاصیتی به نام ویژگی ایزومتریک محدود را برآورده کند. میخواستم بدونم در مورد عمومی یا حتی موارد خاص که چنین ضمانت هایی معلوم بوده چیزی معلومه؟ | چه زمانی تنظیم l1 یک راه حل پراکنده می دهد؟ |
66792 | آیا کسی اشتقاقی از نحوه عملکرد افست در مدل های باینری مانند پروبیت و لاجیت دارد؟ در مشکل من، طول پنجره پیگیری می تواند متفاوت باشد. فرض کنید بیماران به عنوان درمان یک واکسن پروفیلاکتیک دریافت می کنند. شات در زمانهای مختلف اتفاق میافتد، بنابراین اگر نتیجه یک شاخص دوتایی است که نشان میدهد آیا شعلهور شدن _هیچ_ اتفاق افتاده است، باید با این واقعیت تطبیق دهید که برخی افراد زمان بیشتری برای نشان دادن علائم دارند. به نظر می رسد احتمال شعله ور شدن با طول دوره پیگیری متناسب باشد. از نظر ریاضی برای من روشن نیست که چگونه یک مدل باینری با افست این شهود را به تصویر می کشد (برخلاف پواسون). افست یک گزینه استاندارد در Stata (p.1666) و R است و من به راحتی می توانم آن را برای Poisson ببینم، اما مورد باینری کمی مات است. برای مثال، اگر \begin{equation} \frac{E[y \vert x]}{Z}=\exp\\{x'\beta\\} را داشته باشیم، \end{equation} از نظر جبری معادل یک مدلی که در آن \begin{equation}E[y \vert x]=\exp\\{x'\beta+\log{Z}\\}، \end{equation} که مدل استاندارد با ضریب در $\log Z$ به $1$ محدود شده است. به این حالت، آفست لگاریتمی می گویند. اگر $\exp\\{\\}$ را با $\Phi()$ یا $\Lambda()$ جایگزین کنیم، در فهمیدن اینکه چگونه کار می کند مشکل دارم. به روز رسانی شماره 1: مورد لاجیت در زیر توضیح داده شد. به روز رسانی شماره 2: در اینجا توضیحی در مورد آنچه به نظر می رسد استفاده اصلی از آفست برای مدل های غیر سمی مانند probit است. آفست می تواند برای انجام آزمون های نسبت درستنمایی بر روی ضرایب توابع شاخص استفاده شود. ابتدا مدل بدون محدودیت را تخمین زده و تخمین ها را ذخیره می کنید. فرض کنید می خواهید این فرضیه را که $\beta_x=2$ است آزمایش کنید. سپس متغیر $z=2 \cdot x$ را ایجاد میکنید، مدل را حذف میکنید و از $z$ بهعنوان یک افست غیر لگاریتمی استفاده میکنید. این مدل محدود است. تستهای LR این دو را با هم مقایسه میکنند و جایگزینی برای تست معمولی Wald است. | مدل های باینری (Probit و Logit) با افست لگاریتمی |
4471 | برای توزیع مجذور کای، چگونه می توانم چندک ها را برای سه حالت زیر پیدا کنم: الف) $P(X^2> X^2_{\alpha})=0.01$ وقتی $v = 21$ B) $P(X^2 <X^2_{\alpha})=0.95$ وقتی $v =6$ C) $P(X^2_{\alpha} <X^2 <23.209) = 0.015$ وقتی $v = 10$ در اینجا $X^2_{\alpha}$ مقدار $\alpha$-quantile توزیع $\chi^2_{v}$ است. | محاسبه چندک برای توزیع مجذور کای |
24775 | من در تلاش بودم تا راه حلی برای مشکلم پیدا کنم که به شرح زیر است: فرض کنید من 20 گروه دارم و برای هر گروه 10 مقدار صدک دارم. آیا به هر حال می توان صدک دهم را برای گروه ترکیبی با استفاده از آن 20 صدک 10 فردی محاسبه کرد؟ اگر راه حل دقیقی وجود نداشته باشد، هر گونه تقریبی نیز مفید خواهد بود. با احترام، | محاسبه صدک برای گروه ترکیبی |
25460 | فرض کنید من تعداد زیادی داده استفاده از کارت اعتباری دارم و همچنین ابزارهایی برای پیش بینی تقلبی بودن یک تراکنش دارم. حالا می خواهم بدانم چه جنایتکارانی پشت این کلاهبرداری ها هستند. شاید برخی سازمانهای بزرگ بینالمللی/داخلی جنایت، برخی گروههای کوچک و برخی افراد و غیره باشند. من فرض میکنم که تجزیه و تحلیل خوشهبندی به برداشتن اولین قدم در این وضعیت کمک میکند. چه ترکیبی از تکنیک ها در این سناریو مفید هستند و چگونه آنها را به کار می گیرید؟ _EDIT_: برای روشن شدن، کاری که میخواهم انجام دهم، خوشهبندی تراکنشهای متقلبانه «مشابه» است تا بتوانم حدس بزنم که از چه کسی/چه چیزی سرچشمه گرفتهاند. شاید انواع خاصی از کلاهبرداری ها از یک منطقه خاص سرچشمه می گیرند. برخی از انواع دیگر ترکیبات معینی از نقص را در سیستم هدف قرار می دهند (مثلاً بسیاری از تراکنش های کوچک در مقابل تراکنش های بزرگتر) و غیره. در اصل، من می خواهم الگویی را استخراج کنم که به محققین کمک کند. | چگونه می توان از تجزیه و تحلیل خوشه بندی برای کمک به شناسایی اشخاص مجرمانه خارج از داده های استفاده از کارت اعتباری استفاده کرد؟ |
36194 | آیا یک دسته مرجع برای یک سری از متغیرهای ساختگی در رگرسیون پروبیت قرار می دهید؟ اگر چنین است، دسته مرجع را چگونه تفسیر می کنید؟ سوالی که زیربنای سردرگمی من است این است که نمیدانم منظور ثابت از یک رگرسیون پروبیت چیست. من فکر میکنم ثابت به سادگی Y است که 1 در نظر گرفته میشود. با توجه به اینکه Y به عنوان 1 به عنوان ثابت فرض میشود، تأثیرات حاشیهای سایر متغیرها بر روی وقوع این اتفاق چیست؟ اگر مقوله مرجعی وجود داشته باشد، به نظر می رسد که ثابت برابر با Y است که 1 برابر احتمال وقوع مقوله مرجع در زمانی که Y برابر با 1 است، در نظر گرفته شده است. . با تشکر | آیا یک دسته مرجع برای یک سری از متغیرهای ساختگی در رگرسیون پروبیت قرار می دهید؟ |
21480 | من علاقه مند به استفاده از معادلات برآورد تعمیم یافته (GEE) برای مدل سازی داده های شمارش طولی هستم. من مشاهدات شمارش حیوانات را در همان سایت ها در روزهای زیادی ثبت کردم، اما فاصله مشاهدات ناهموار بود. می خواستم بدانم آیا راهی برای مشخص کردن این ساختار ناهموار در هنگام استفاده از ساختار همبستگی خودرگرسیون وجود دارد؟ به عنوان مثال، هنگام استفاده از lme از بسته nlme برای تجزیه و تحلیل مدل های مختلط خطی، می توان ساختار همبستگی را به صورت زیر مشخص کرد: همبستگی = corAR1 (شکل = ~DAY | موضوع) به این ترتیب فاصله مشاهدات برای ساختار خودرگرسیون بر اساس تنظیم می شود. در روز آیا راهی برای انجام این کار در R در مدل GEE با استفاده از بسته هایی مانند geepack، gee یا هر چیز دیگری وجود دارد؟ ممنون، دن | چگونه GEE را با مشاهدات ناهموار تجزیه و تحلیل کنیم؟ |
41259 | بهترین روش محاسبه SVD در یک ماتریس مثبت بسیار بزرگ (65M x 3.4M) که در آن داده ها بسیار پراکنده هستند، چیست؟ ** پراکنده**: کمتر از 0.1 درصد ماتریس غیر صفر است. **بهترین راه**: * در حافظه جا می شود (من می دانم که روش های آنلاین وجود دارد) * در یک زمان معقول محاسبه می شود: 3،4 روز * به اندازه کافی دقیق خواهد بود، اما دقت دغدغه اصلی من نیست و می خواهم بتوانم میزان منابعی را که در آن قرار می دهم کنترل کنم. بسیار خوب است که یک کتابخانه Haskell، Python، C# و غیره داشته باشیم که آن را پیاده سازی کند. من از mathlab یا R استفاده نمی کنم اما در صورت لزوم می توانم با R استفاده کنم. | SVD روی یک ماتریس پراکنده 65 میلیون در 3.4 میلیون |
56034 | از آنجایی که قوانین انجمن جدید به کمک برای شناسایی بیشترین خدمات اضافی سفارش داده شده همراه با محصولات نیاز دارند. و برای استخراج قوانین ارتباط، من از بسته R در داده های گذشته استفاده کرده ام. من مجموعه داده را جمع آوری کرده ام و شکل داده ام به گونه ای که می توانید مجموعه داده نمونه را از لینک (https://www.dropbox.com/s/4g5sqag9afsttmo/finaldf2.csv) دانلود کنید. وقتی آن را با مجموعه کدهای R زیر امتحان کردم، نمی تواند قوانین ارتباط بین محصول و خدمات را محاسبه کند. اما قوانین را بین همه سرویس ها محاسبه می کند. آیا کسی می تواند مرا راهنمایی کند که چرا من مجموعه 0 قانون را برای محاسبه قوانین ارتباطی محصول دریافت می کنم. آیا من برای محاسبه انجمن ها کار اشتباهی انجام می دهم؟ یا مجموعه داده من باید متفاوت باشد. در اینجا کدهای R تولید شده برای «قوانین» آمده است: # بارگیری کتابخانه کتابخانه (قوانین) # بارگیری مجموعه داده product.transaction.set <- read.csv(finaldf2.csv) # محاسبه ارتباط با قوانین الگوی پیشینی <- apriori(product.transaction.set، پارامتر = لیست (پشتیبانی = 0.4، conf = 0.6، هدف = قوانین)) ## 1 - برای محصول # استخراج قوانین مرتبط برای productname rules.sub.product <- subset(rules, subset = lhs %pin% LD) # output -> مجموعه 0 قانون # برای چاپ قوانین انجمن محاسبهشده را بازرسی میکند(rules.sub.product) ## 2- برای خدمات افزودن () # استخراج قوانین انجمن برای افزودن خدمات rules.sub.services <- زیر مجموعه (قوانین، زیرمجموعه = lhs %pin% AO1) # خروجی -> مجموعه ای از 1 قانون # برای چاپ قوانین ارتباط محاسبه شده inspect(rules.sub.services) | تجزیه و تحلیل انجمن 0 قانون مفید را برمی گرداند |
18879 | من در حال جمع آوری داده ها برای استفاده از یک برنامه وب بوده ام. برای هر روز در همان ساعت و در طول چندین ماه، من این موارد را دارم: * (الف) تعداد کل اعضا * تعداد اعضای آنلاین و درصد آن به (A) * تعداد اعضایی که در طول روز متصل شدهاند و % آن به (A) * تعداد اعضای جدید * تعداد اعضای انجمن * تعداد اعضای جدید انجمن * تعداد شرکت کنندگان در چت به اضافه دوره هایی که در آن فروخته می شد (یک بار هزینه برای دسترسی به آن وجود دارد). چه چیزی می توانم با آن داده ها نشان دهم و چگونه می توان آن را به صورت گرافیکی به بهترین شکل نشان داد؟ (من از Apple Numbers استفاده خواهم کرد.) | چگونه می توان استفاده از یک برنامه وب را به بهترین نحو نشان داد؟ |
18877 | یک مزیت معمول برازش آماره برای رگرسیون لجستیک، انحراف است. این همچنین به عنوان آماره خی دو نسبت احتمال نیز شناخته می شود. به این صورت تعریف می شود: $$D=\sum_{i=1}^{N}d_i^2$$ $$d_i^2=2y_i\log\left(\frac{y_i}{n_ip_i}\right)+2 (n_i-y_i)\log\left(\frac{n_i- y_i}{n_i-n_ip_i}\right)$$ جایی که $N$ تعداد سلولهای دوجملهای، $y_i$ پاسخ، $n_i$ تعداد واحدها در سلول ith، و $p_i$ احتمال پیشبینیشده است که توسط $\log\left(\frac{p_i}{1-p_i} داده میشود. \right)=x_i^T\beta$. به من آموخته اند که ما تقریباً داریم: $$E(D)\تقریبا N-\dim(\beta)$$ این بر اساس استفاده از تقریب خی دو به نسبت درستنمایی است. سپس از این رابطه برای آزمایش پراکندگی بیش از حد در مدل استفاده می شود. اگر نسبت $\frac{D}{N-\dim(\beta)}$ به طور قابل توجهی با $1$ متفاوت باشد (با استفاده از توزیع مجذور کای) نتیجه میگیریم که مدل بیش از حد پراکندگی را نشان میدهد. آیا دلیلی وجود دارد که ما صرفاً از یک رویکرد brute force استفاده نکنیم و مستقیماً $y_i$ را از باقیمانده انحراف میانگین نگیریم؟ یعنی برای هر باقیمانده انحراف، میانگین شرط را دقیقاً از طریق محاسبه کنید: $$E(d_i^2|p_i)=\sum_{y_i=0}^{n_i}{n_i\choose y_i}p_i^{y_i}(1- p_i)^{n_i- y_i}\left[2y_i\log\left(\frac{y_i}{n_ip_i}\right)+2(n_i- y_i)\log\left(\frac{n_i-y_i}{n_i-n_ip_i}\right)\ راست]$$ این یک محاسبه فشرده برای انجام (یا کدنویسی) نیست و به راحتی می توان از آن برای محاسبه واریانس شرطی استفاده کرد $d_i^2$ نیز، با توجه به اینکه اکثر سلول های دوجمله ای کوچک هستند. علاوه بر این، میتوانیم سناریوی پراکندگی مدل را با محاسبه $\frac{d_i^2}{E(d_i^2|p_i)}$ تکرار کنیم، یا مقادیر مشابه T را محاسبه کنیم $\frac{d_i^2-E(d_i^2| p_i)}{\sqrt{V(d_i^2|p_i)}}$ و مقادیر پرت را جستجو کنید. احساس می کنم باید چیزی را از دست بدهم. هیچ اشاره ای؟؟ آیا کسی این کار را در جای دیگری دیده است؟ | نیروی بی رحم انحراف مورد انتظار برای رگرسیون لجستیک؟ |
18873 | به دنبال سوال اینجا، به توصیه های مختلف (کتاب درسی) برخورد کردم. برخی از نویسندگان پیشنهاد می کنند که تأثیر متغیر تعدیل کننده به بهترین وجه در یک فرم گرافیکی قابل درک است. دیگران پیشنهاد می کنند که پس از ترسیم نمودار اثر، آزمایش اهمیت بیشتری باید انجام شود تا مشخص شود که آیا الگو (در نمودار) واقعی است یا نه (مطمئن نیستیم که واقعی کلمه مناسبی است یا خیر). سردرگمی من این است که اگر متوجه شده ام که تعامل متغیر تعدیل کننده در رابطه X-Y قابل توجه است، **چرا باید این آزمایش بیشتر مورد نیاز باشد.** به عبارت دیگر، نمودار باید توضیح کافی از اثر تعدیل کننده باشد. . از این گذشته، این الگو را نشان می دهد و آزمایش اولیه نشان داد که این الگو قابل توجه است. آیا بهترین روش در این زمینه وجود دارد؟ البته میدانم که این به زمینه یک مطالعه بستگی دارد، اما همیشه خوب است که بدانیم تفکر رایج در این مورد چیست. مثل همیشه خیلی ممنون..... | نمودارسازی در مقابل تعاملات آزمایشی بیشتر |
33010 | سوال بسیار اساسی: فرض کنید من یک رگرسیون OLS $Y$ ~ $X_1 + X_2$ را اجرا کردم و به ترتیب آمار t_1$، $t_2$ را بدست آوردم. اگر $t_1$ >> $t_2$ (مانند یک مرتبه بزرگتر)، آیا می توان نتیجه گرفت که $X_1$ قدرت پیش بینی قابل توجهی بیشتری در $Y$ دارد، از $X_2$؟ با تشکر | آمارهای t در رگرسیون OLS |
74925 | من یک نمونه حدود 300 نفر دارم که در 3 زمان مختلف (صبح، بعدازظهر، عصر) اندازه گیری شده اند. متغیر مورد علاقه را می توان تقریباً نرمال فرض کرد. به نظر می رسد که بیشتر آزمودنی ها بین صبح و بعدازظهر افزایش می یابند و به دنبال آن از بعد از ظهر تا عصر کاهش می یابد. با این حال برخی الگوی مخالف را نشان می دهند (devrease->increase)، در حالی که برخی دیگر تقریباً یکسان هستند. چیزی که من به آن علاقه دارم خوشه بندی یا طبقه بندی موضوعات بر اساس مسیرشان است. بعد از کمی جستجو، GMM را کشف کردم. من واقعاً نمیدانم پشت صحنه چه میگذرد، اما به نظر میرسد که طبقهبندی بر اساس خطوط مستقیم انجام میشود، زمانی که ما فقط 3 امتیاز داریم. این به نظر من بسیار نامناسب است زیرا خط مستقیم افزایش و به دنبال آن کاهش نوع رفتار را نشان نمی دهد. مورد دیگر این است که به نظر می رسد مردم از بسته Mplus استفاده می کنند که من با آن آشنایی ندارم و ترجیح می دهم از خرید و یادگیری اجتناب کنم (من با R و Matlab خیلی راحت هستم). | بهترین رویکرد برای طبقه بندی مسیرهای 3 نقطه ای؟ |
86547 | فکر میکنم میفهمم ثابت نرمالکننده چیست. مثلاً بگویید یک pdf $f(x)$ با پشتیبانی $0 \le x\le 5$ دارید. اگر میخواهید پیدیاف را کوتاه کنید و فقط به $0 \le x\le 3$ نگاه کنید، باید از یک ثابت عادیسازی $c$ استفاده کنید بهطوری که $\int_0^3 cf(x)\,dx = 1$. مشکلی که من با آن سر و کار دارم بیان می کند: > در کلاس ما یک روش رد برای موردی ارائه کردیم که هدف > توزیع π(x) فقط تا یک ثابت نرمال کننده شناخته شده باشد. نشان دهید که > نمونه های پذیرفته شده از آن الگوریتم واقعاً از توزیع هدف پیروی می کنند > π(x) وقتی می گوید ما فقط توزیع هدف را تا یک ثابت نرمال کننده می دانیم به چه معناست؟ | عادی سازی نمونه گیری ثابت و رد |
74149 | به نظر شما کدام نرم افزار منبع باز (جعبه ابزار) برای مدل سازی مدل های گرافیکی (مانند نمودارهای فاکتور) و استنتاج بر روی آنها بهترین است؟ (زبان مهم نیست) | کدام جعبه ابزار برای انتشار باور و سایر روش های استنتاج در مدل های گرافیکی؟ |
66796 | من یه سوال تازه کار دارم من سعی کردم پاسخ را از گوگل پیدا کنم اما نتوانستم پاسخ واضحی دریافت کنم. آیا مدل MaxEnt دقیقاً مشابه رگرسیون لجستیک چند جمله ای (یعنی رگرسیون سافت مکس) است؟ به نظر می رسد هر دو سعی می کنند پارامترهای تابع softmax را تخمین بزنند. فقط تعجب می کنم، پس تفاوت بین آنها چیست؟ آیا از روش یادگیری متفاوتی استفاده می کنند؟ | حداکثر آنتروپی و تابع لجستیک چند جمله ای |
18872 | من در حال آزمایش جهش در DNA هستم و از روش بنجامینی-هخبرگ برای تغییر آستانه ای که در حال آزمایش مقادیر p خود هستم استفاده می کنم. روش اساساً رتبهبندی مقادیر p و مقایسه آنها با آستانه جدیدی است که با $q(k) = k/n*\alpha$ تعریف شده است، جایی که $\alpha$ آستانه اصلی شما است، معمولاً 0.05، $k$ است. رتبهی p-value که با آن مقایسه میکنید، و $n$ مجموع مقدار p-value است (== تعداد کل آزمایشها). به دلیل ماهیت داده های من، بسیاری از مقادیر p یکسان هستند. مجموعه مرتب شدهای از مقادیر p میتواند مثالی باشد: $p_1$ = 0.01 $p_2$ = 0.03 $p_3$ = 0.03 $p_4$ = 0.03 $p_5$ = 0.09 با فرض آستانه $\alpha$ = 0.05، چه من باید مقادیر خود را با این موارد مقایسه کنم: $q_1$ = 0.01 $q_2$ = 0.02 $q_3$ = 0.03 $q_4$ = 0.04 $q_5$ = 0.05 و به این ترتیب تست دوم را می پذیرم و سوم و چهارم را رد می کنم حتی اگر همان مقدار p اصلی را داشته باشند. من سعی کردم برای یافتن راه حلی در ادبیات جستجو کنم، اما چیزی به دست نیامد. آیا روش مشخصی برای این کار وجود دارد؟ و اگر نه، راه حل مورد نظر شما چیست؟ | نحوه برخورد با مقادیر p یکسان با روش بنجامینی-هوکبرگ برای تصحیح برای آزمایش چندگانه |
83070 | آیا بسته ای برای R (در CRAN، github، r-forge، و غیره) موجود است که CI ها را برای واریانس جمعیت، با توجه به نمونه ای از داده ها، پارامتر CI 95% و غیره محاسبه کند؟ بسته Rmisc CI ها را حول میانگین محاسبه می کند، اما من CI ها را در اطراف واریانس نیز می خواهم. من چند مقاله و یک منبع آنلاین پیدا کردم که حاوی کد R لازم برای انجام این کار است، و قبلاً از آن کد برای اجرای پیادهسازی خودم استفاده کردهام. با این حال، با توجه به اینکه اکوسیستم بسته R چقدر بزرگ و غنی است، من به شدت نسبت به عدم استفاده از راه حل خودم، به ویژه در مورد معیارهای آماری محاسباتی، تعصب دارم. | محاسبه فواصل اطمینان برای واریانس جمعیت از یک نمونه در R |
41254 | من یک مجموعه داده سری زمانی با ورودی های روزانه در 20 سال گذشته دارم. میخواهم ببینم آیا این سریال همبستگی خودکار دارد یا خیر. برای انجام این کار، من دستور زیر را انجام دادم> مجموعه داده=read.csv(file=https://dl.dropbox.com/u/22681355/dataset.csv, head=TRUE) par(mfrow=c(2,1 )) مجموعه داده=diff(مجموعه داده) acf(مجموعه داده) pacf(مجموعه داده) از نمودارها به نظر می رسد که هیچ همبستگی خودکاری وجود ندارد، با این حال، مطمئن نیستم که آیا نمودارهای acf و pacf برای مجموعه داده من مناسب هستند. تست مناسب برای داده های سهام چیست؟ | همبستگی خودکار سریهای زمانی روزانه با استفاده از نمودارهای acf و pacf |
107848 | مشکل یک کوزه با مجموعه ای از توپ ها وجود دارد که در آن هر توپ با یک عدد صحیح متفاوت برچسب گذاری شده است. اعداد روی توپ ها مشخص هستند و محدوده ای از اعداد صحیح نیستند. به عنوان مثال مجموعه توپ ها می تواند $B_k$ = {1,4,67,3,12} باشد. دو ربات $A$ و $B$ وجود دارد که مجموعه ای از $n$ توپ را با جایگزینی ترسیم می کنند. اجازه دهید $a_i$ مجموعه مقادیر اعداد روی توپ های ترسیم شده برای ربات $A$ را نشان دهد که $i$ ترسیمات $n_a$ را نمایه می کند. $b_i$ و $n_b$ به طور مشابه برای $B$ تعریف می شوند. رباتها اطلاعاتی در مورد اینکه چرا هر توپ را میکشند و تعداد آنها را میکشند دارند که ما چیزی در مورد آن نمیدانیم جز اینکه روش تصمیمگیری بین $A$ و $B$ مشابه است. روباتهای $A$ و $B$ مجموعهای از توپها را برای $N_a$ و $N_b$ دور میکشند که $N_a \تقریبا N_b \تقریباً 10^6$. اجازه دهید $j$ دورها را فهرست کند، بنابراین $n_{aj}$ توپها در هر دور کشیده میشوند و اعداد توپ در $a_{ij}$ برای $A$ ثبت میشوند. $n_{bj}$ و $b_{ij}$ به طور مشابه برای $B$ تعریف میشوند. هدف این است که انتخاب کنیم کدام ربات برای نمونهگیری جدید $x_{ij}$ که در آن بهینه مجموع همه توپها، $\Sigma_j \Sigma_i x_{ij}$ را حداکثر میکند، انتخاب بهینه باشد. به بیان ساده، انتظار دارید کدام ربات بیشترین مجموع اعداد توپ را در میلیون دور بعدی بکشد؟ اطلاعات اضافی از آنجایی که $a_{ij}$ و $b_{ij}$ داریم، میتوانیم کمی در مورد توزیع آنها بگوییم. نمونههای ترسیم شده روی هر دور $a_i$ و $b_i$ حدود 95% مواقع 0 توپ کشیده شدهاند. دومین تعداد رایج ترین توپ هایی که در هر دور کشیده می شوند 1 و سپس 2 و 3 و غیره است به طوری که توپ های هیستوگرام در هر دور، $n_j$، به طور یکنواخت در حال کاهش است. برخی از دورها دارای چندین قرعه کشی از یک توپ با شماره بالا هستند که منجر به پرت در توزیع مجموع در هر دور، $\Sigma_i a_{ij}$ می شود. این به این معنی است که مدل سازی تحلیلی مجموع مقادیر توپ در هر دور بسیار دشوار است. ممکن است اطلاعات بیشتری وجود داشته باشد که من به استفاده از آن فکر نمی کنم زیرا این ساده سازی گسترده مشکل واقعی است، لطفاً بپرسید. راه حل استاندارد راه حل استانداردی که به من داده شده این است که بر اساس میانگین و خطای استاندارد در میانگین برای مجموع توپ ها در هر دور تصمیم گیری کنم. تعریف کنید: $\mu_a = \Sigma_j \Sigma_i a_{ij} / N_a = mean_j(\Sigma_i a_{ij})$ و $ \sigma_{\mu_a} = \sqrt{var_j(\Sigma_i a_{ij})/ N_a }$. تصمیم و اطمینان آن تصمیم با مقایسه گاوزیان $\mathcal{N}(\mu_a,\,\sigma^2_{\mu_a}) $ و $\mathcal{N}(\mu_a,\,\sigma^ محاسبه میشود. 2_{\mu_a} )$. انگیزه این انتخاب بیش از $\mu^*_a = \Sigma_j \Sigma_i a_ij / \Sigma_j n_{aj}$ این است که احتمال کشیده شدن توپ دوم در دور با توجه به اینکه توپ از قبل دارد ($\حدود 0.2) $) بسیار بیشتر از احتمال کشیده شدن اولین توپ است ($\حدود 0.05$). این بوی انگیزه بیزی می دهد اما من نمی توانم اشتقاقی را انجام دهم که نشان می دهد $\mu$ تخمینگر تجربی بیز است. پرسش آیا میانگین $\mu_a = \Sigma_j \Sigma_i a_ij / N_a$ واقعا بهترین برآوردگر است و چرا؟ در مورد حساسیت به موارد پرت چطور؟ چرا میانگین روی همه توپهای کشیده شده، $\mu^*_a = \Sigma_j \Sigma_i a_ij / \Sigma_j n_{aj}$ نیست، که حساسیت کمتری به نقاط پرت دارد؟ به نظر می رسد بسیاری از اطلاعات با استفاده نکردن از دانش مجموعه $B_k$ از بین می رود، بنابراین آیا چیزی بیزینی تر توصیه می شود؟ | کشیدن توپ های شماره دار از کوزه |
40616 | لطفاً مرا تحمل کنید زیرا من در زمینه داده کاوی بسیار تازه کار هستم. من یک پایگاه داده از 3 ویژگی دارم: طول جغرافیایی، طول جغرافیایی و دما. من میخواهم خوشههایی را برای دادههای دما پیدا کنم و همچنین میخواهم اثر طول و عرض جغرافیایی را در آن بگنجانم تا دما تنها عامل تعیینکننده برای خوشهها نباشد. اگر من، فرض کنید، با استفاده از همه این ویژگیها، خوشههای K-means بسازم (مثلاً در WEKA)، خوشههای حاصل چه چیزی به من میگویند؟ آیا می توانم تفسیری از نحوه ارتباط اطلاعات طول و عرض جغرافیایی با خوشه های دما داشته باشم؟ راه صحیح رفتن به اینجا چیست؟ | خوشه بندی با 3 ویژگی |
573 | در شبکه های باور عمیق متقابل برای یادگیری بدون نظارت مقیاس پذیر نمایش های سلسله مراتبی توسط لی و همکاران. al.(PDF) DBN های Convolutional پیشنهاد شده است. همچنین روش برای طبقه بندی تصویر ارزیابی می شود. این منطقی به نظر می رسد، زیرا ویژگی های تصویر محلی طبیعی مانند گوشه ها و لبه های کوچک و غیره وجود دارد. al. این روش برای صوت در انواع مختلف طبقه بندی استفاده می شود. شناسایی گوینده، شناسایی جنسیت، طبقه بندی تلفن و همچنین برخی از ژانرهای موسیقی / طبقه بندی هنرمند. چگونه می توان بخش کانولوشن این شبکه را برای صدا تفسیر کرد، همانطور که می توان آن را برای تصاویر به عنوان لبه توضیح داد؟ | چگونه یک شبکه باور عمیق کانولوشنی را برای طبقه بندی صدا درک کنیم؟ |
40617 | من دارم روی مشکلی کار می کنم که به عنوان HMM مطرح کرده ام، با این تفاوت که بر خلاف حالت سنتی که در آن احتمالات انتقال $a(i,j) = p(s_i = j \,|\, s_{i-) 1}=i)$، احتمالات انتشار $b(j,o) = p(o_i | s_i = j)$ و احتمالات اولیه $\pi(j) = p(s_0 = j)$ همه فقط اعداد مستقل هستند، در مورد من آنها توابع (نسبتاً پیچیده) مجموعه ای از پارامترهای مشترک هستند. من کاملاً مطمئن هستم که این بدان معنی است که نمی توانم برای یافتن پارامترهای بهینه به Baum-Welch اعتماد کنم (زیرا Baum-Welch فرض می کند که سه مجموعه احتمالات را می توان به طور مستقل بهینه کرد) و من تلاش خود را در بهینه سازی مستقیم امتحان کرده ام. فقط با محاسبه احتمال با استفاده از الگوریتم رو به جلو، احتمال. با این حال، این نشان داده است که کند است (سکانس من بسیار طولانی است) و تا حدودی غیر قابل اعتماد است (سطح احتمال کمی عجیب به نظر می رسد). یکی از دوستان پیشنهاد کرد که اگر من از الگوریتم EM استفاده کنم (با استفاده از احتمالات رو به جلو در مرحله E و بهینه سازی عددی در مرحله M) هر دوی این مشکلات را می توان حل کرد. با این حال، من زمان زیادی را سپری می کنم تا بفهمم تابع Q دقیقاً چه باید باشد. من معتقدم که $$ است Q(\theta\,|\, \theta^{t}) = \sum_j\log(\pi(j))p(s_0 = j \,|\, x, \theta^{ t}) \\\\+ \sum_t\left[\sum_{i,j} \log(a(i,j))p(s_t = j, s_{t-1} = i \,|\, x, \theta^{t}) \راست]\\\\+\sum_t\left[\sum_j\log(b(j,o))p(s_t = j \,|\, x, \theta^{ t}) \راست]. $$ با این حال، برای من روشن نیست که این کار زندگی را آسان تر می کند، زیرا هنوز به نظر می رسد $O(nm^2)$ است، که $n$ طول دنباله و $m$ تعداد حالات پنهان، زمان ارزیابی و این علاوه بر دویدن رو به عقب برای محاسبه همه احتمالات عقبی لازم در مرحله E است. بنابراین احساس میکنم که باید کار اشتباهی انجام میدهم یا در غیر این صورت به جای بهینهسازی مستقیم احتمال در این مشکل، نکته استفاده از الگوریتم EM را از دست دادهام. | یادگیری مدل مارکوف پنهان که در آن انتقال / انتشار / احتمالات اولیه مستقل نیستند |
102743 | من باید آلفای کرونباخ را برای آزمونی بیابم که 10 سؤال را به طور تصادفی از مجموعه 40 سؤالی برای هر موضوعی که در آزمون شرکت می کند، استخراج می کند. در نتیجه تقریباً هر آزمونی دارای مجموعه سوالات متفاوتی است. فکر میکردم میتوانم CA را برای 40 سؤال محاسبه کنم و موارد بیپاسخ را بهعنوان مقادیر گمشده رها کنم، اما میترسم این ممکن است بر واریانس موارد تأثیر بگذارد. نمونه به اندازه کافی بزرگ نیست که بتواند زیرمجموعه ای از آزمودنی ها را پیدا کند که دقیقاً به سؤالات مشابه پاسخ داده باشند (50=n). | محاسبه آلفای کرونباخ برای آزمون با آیتم های تصادفی |
83073 | من بیش از 30 آزمودنی دارم که هر کدام یک کار را حدود 50 بار انجام دادند. هر یک از این نقاط داده می تواند در شرایط a1 یا a2 متغیر A یا شرایط b1، b2، b3 یا b4 باشد. بنابراین برای هر موضوع، من نقاط داده برای a1b1، a2b2، و غیره دارم. من سه متغیر وابسته (v1، v2، v3) برای هر نقطه داده دارم. من می دانم که این یک تحلیل درون موضوعی است که از طریق آزمون اندازه گیری مکرر انجام می شود. اما اینطور که من فهمیدم، اگر بخواهم a1 را با a2 مقایسه کنم، باید یک ستون برای a1 با میانگین هر موضوع برای a1، برای a2 یکسان، و آن دو ستون را مقایسه کنم. و من باید این کار را برای هر متغیر وابسته و سپس دوباره برای b1-b4 انجام دهم. و اگر بخواهم تعامل را مطالعه کنم، باید برای a1b1، a2b1، a1b2، و غیره همین کار را انجام دهم، دوباره برای هر متغیر وابسته. این کاملا غیر عملی به نظر می رسد. در حال حاضر، داده های من با یک ستون برای شناسه موضوع، یک ستون برای شرط A، یک ستون برای شرط B، یک ستون برای هر متغیر وابسته v1 v2 و v3، و یک ردیف برای هر نقطه داده تنظیم شده است. آیا راهی برای انجام تجزیه و تحلیل اندازه گیری مکرر به شرح زیر وجود دارد؟ (میانگین v1 وقتی A=a1 برای هر موضوع) در مقابل (میانگین v2 وقتی A=a2 برای هر موضوع) | گروه بندی داده های موضوعی برای تحلیل درون موضوعی در SPSS |
40613 | می دانم که اگر از متغیرهای طبقه بندی در تحلیل خوشه ای استفاده کنیم، فرض می کنیم که مقیاس پیوسته است و این مفهوم فاصله بین دو دسته مجاور را نداریم. اما وقتی از متغیرهای ساختگی استفاده می کنید چه تفاوتی وجود دارد؟ صفر و یک به هر حال برای محاسبه فواصل در تحلیل خوشه ای استفاده می شود. به طور خلاصه، چرا 0 و 1 این مشکل را ندارند؟ آیا مرجعی در مورد آن وجود دارد؟ با تشکر | چرا متغیرهای ساختگی مشکل دسته مجاور پیوسته را در تحلیل خوشه ای ندارند؟ |
33011 | (اگر این منطقی نیست به این دلیل است که من در آمار بیتجربه هستم) فرض کنید من جهان گستردهای از اقدامات $A$ دارم که میتوانم دنبال کنم، و برای هر $a_i \in A$ یک ویژگی مرتبط $x_i \in وجود دارد. X$، که در آن $X$ از یک توزیع نرمال در مرکز 0 با انحراف استاندارد 1 ترسیم شده است. همچنین فرض کنید برای هر یک مقدار $v_i$ وجود دارد. $a_i$ که در این مورد به سادگی از معادله پیروی می کند: $$v_i = 0.13x_i+\epsilon، $$ که در آن $\epsilon$ فقط یک عبارت نویز است که از یک توزیع نرمال با میانگین $0$ و انحراف استاندارد $\sigma$ گرفته شده است. . علاوه بر این فرض کنید که من از این رابطه آگاه نیستم، اما می خواهم آن را کشف کنم. یک محدودیت دیگر: من مجاز به استفاده از رگرسیون خطی نیستم. کاری که من انجام دادهام این است که $n$ $a_i$'s با مشخصه $x_1$ و $n$ $a_j$'s با مشخصه $x_2$ را انتخاب کردهام، با در نظر گرفتن میانگین مقادیر $v_i$ و $v_j$: $u_1$ و $u_2$، و استنتاج خط از نقاط $(x_1,u_1)$ و $(x_2، u_2)$. مشکل این است که خط معمولاً بسیار خاموش است، به خصوص زمانی که انحراف استاندارد نویز، $\sigma$، بزرگتر شود. برای اینکه بفهمم چرا اینطور است، بدترین سناریو را ساختم. اساساً ما فقط از توزیع های عادی برای $v$ مربوط به $x_1$ و $x_2$ نمونه برداری می کنیم. بنابراین میتوانیم در اطراف هر نقطه فاصلههای اطمینان ایجاد کنیم. من تصور کردم که بدترین سناریو این است که یک خط را از پایین یک فاصله اطمینان به بالای دیگری استنباط کنیم. من میخواهم 95% مطمئن باشم که خط واقعی در این محدودهها خواهد بود، بنابراین فاصله اطمینان در اطراف هر نقطه باید اطمینان داشته باشد $1-p$ که در آن $p^2/2=.05$، یعنی $p=.316 دلار و ما به اطمینان 68.4 درصدی در مورد هر میانگین نیاز داریم. اکنون با استفاده از نابرابری چبیشف، میتوانیم تعداد نقاطی را که باید ترسیم کنیم تا به یک خطای قابل قبول رسم کنیم، حل کنیم. $\epsilon_a$: $$P(|u_i-\bar{v_i}|\geq\epsilon_a) \leq \frac {\sigma^2}{n\epsilon_a^2} = 0.316.$$ با حل n دریافت می کنیم: $$n = \frac{\sigma^2}{.316\epsilon^2_a}.$$ حالا با قرار دادن پارامترهای واقعی، برای انحراف استاندارد واقعی، $\sigma = 0.1$ داریم، برای خطای قابل قبول، چطور در 1٪ از $\Delta v$ واقعی، که تابعی از تفاوت در $x$ است، که می گوییم 1 است (رگرسیون به راحتی می تواند این کار را انجام دهد)، بنابراین دریافت می کنیم: $$n = \frac{.1^2}{.361(.01*.13*(x_1-x_2))^2} \تقریباً 16000.$$ مشکل این است که از 5 ثانیه تا 5 ثانیه طول می کشد دقیقه برای تولید هر سه برابر $(a_i، x_i، v_i)$ (چیزهای زیادی در پسزمینه در حال انجام است)، بنابراین تا 32000 تکرار بسیار خسته کننده و غیر قابل کنترل است. آیا راه کارآمدتری برای انجام این کار به جز استفاده از مدل خطی وجود دارد؟ همچنین آیا برای الگوریتمی که استفاده می کنم نامی وجود دارد تا بتوانم آن را بهتر تحقیق کنم؟ | یافتن رابطه خطی بدون مدل خطی |
40614 | دو سوال: 1. چند نکته اساسی برای بازگشت به تابلوی ترسیم پس از یک تناسب فصلی ARIMA که ضرایب قابل توجهی (1,0,0)x(0,1,0) را نشان داد اما در آمار Ljung-Box خود ناموفق بود چیست؟ 2. آیا می توان از minitab برای مدل سازی ARIMA با رگرسیون استفاده کرد؟ | نکاتی برای رد آمار Ljung-Box؟ آیا Minitab مدل ARIMAX می تواند؟ |
35576 | سلام میخواستم بدونم کتابهای خوبی در زمینه متن کاوی و طبقه بندی با مطالعات موردی وجود داره؟ در غیر این صورت برخی از مقالات/مجله های قابل دسترسی برای عموم این کار را انجام می دهند. اگر مثال های خود را با R نشان دهند حتی بهتر است. من به دنبال کتابچه راهنمای گام به گام نیستم، بلکه به دنبال چیزی هستم که مزایا و معایب رویکردهای متن کاوی مختلف را برای کلاس های مختلف مشکلات نشان دهد. | کتاب های خوبی در زمینه متن کاوی؟ |
570 | من کنجکاو هستم که آیا تکنیک های گرافیکی خاص یا کاربردی تر برای مدل سازی معادلات ساختاری وجود دارد یا خیر. من حدس میزنم که این میتواند در دستههایی برای ابزارهای اکتشافی برای تحلیل کوواریانس یا تشخیص گرافیکی برای ارزیابی مدل SEM قرار گیرد. (من واقعاً در اینجا به نمودارهای مسیر/گراف فکر نمی کنم.) | چه تکنیک های گرافیکی در مدل سازی معادلات ساختاری استفاده می شود؟ |
47965 | من بردار دنباله هایی با حضور ('1') و غیاب ('0') دارم، از آنجایی که فرآیند مارکوف مرتبه اول را محاسبه کرده ام. داده ها به این صورت به نظر می رسند: داده=c(NA,NA,0,0,0,0,1,0,1,1,0,1,1,NA,NA,NA,NA,NA,0, 1,1,1,1,1,1,0,NA,1,1,1,1,1,1,0,0,NA,NA,0,1,1, NA,NA,0,NA,0,0,0,1,1,1,0,1,1,1,1,0,1,NA,0,1) برای این بردار محاسبه کردم: * احتمال حضور (`P1`) و غیبت (`P0`) * احتمال وجود پس از حضور (`P11`)، حضور به دنبال غیبت (`P10`)، عدم وجود به دنبال آن وجود (`P01`) و عدم وجود و به دنبال آن عدم وجود (`P00`) احتمالات انتقال با استفاده از یک حلقه بررسی برای دنباله 2 مقدار به دست آمد: برای محاسبه `P_00` از P_00 استفاده می کنم: مجموعه داده[j]==0 & مجموعه داده[j+1]==0 و غیره. اینها نتایج هستند: P_0=0.3913043 P_1=0.6086957 P_0+P_1=1 P_00=0.1538462 P_01=0.2307692 P_11=0.4615385 P_10=0.1538462 P_00+P_01+P_11+P_0 توالی با توجه به مقادیر احتمال به دست آمده برای دنباله. مشکل این است که در حال حاضر نمیتوانم بهترین و مناسبترین فرآیند را برای این مشکل پیدا کنم و تازهکارم با این نوع مشکلات. حتی اگر بستهای وجود داشته باشد که بتواند این کار را برای من انجام دهد، ترجیح میدهم بفهمم چگونه میتوانم این کار را انجام دهم. | فرآیند زنجیره مارکوف - مقادیر از دست رفته |
47969 | من یک سوال اساسی دارم که امیدوارم همه شما بتوانید آن را برای من حل کنید. بهترین راه برای تعیین همبستگی بین 3 یا چند متغیر چیست؟ من یک مجموعه داده دارم که در آن 5 متغیر پیوسته هر کدام (پیرسون، R~= 0.7) با متغیر پیوسته دیگری (که من آن را Z می نامم) همبستگی دارند. من می دانم که می توانم از همبستگی جزئی بین گروه های 2 متغیری و 'Z' استفاده کنم، اما فکر نمی کنم این دقیقاً همان چیزی باشد که من به دنبال آن هستم، اگر آن را به درستی درک کنم. | معیارهای همبستگی برای 3+ متغیر |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.