_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
35393 | من چند نقطه داده اندازه گیری شده دارم. بسته به اینکه اندازه گیری چقدر دقیق انجام شده است، هر یک از نقاط دارای یک خطا است. حالا من از میانگین وزنی مجذور با معکوس خطاها به عنوان وزن استفاده می کنم تا بیشتر روی مقادیر دقیق تر و کمتر روی مقادیری که خطا بزرگ است تأکید کنم. آنچه من تعجب می کنم این است که در مورد دقت میانگین وزنی من چه می توانم بگویم. آیا راهی برای محاسبه محدوده خطای مورد انتظار برای آن وجود دارد؟ | خطا در میانگین وزنی |
91972 | بگذارید بگوییم من دو مجموعه از سری های متغیر زمانی دارم که در زیر نشان داده شده است: a <- c(895,0,0,0,0,832,0,3084,0,434,0,0,0,0,853,0,3727,0,513,0,0,0 0,1248,0,3704,0,646,0,0,0,0,2066,0,5500,0,424,0,0,0,0,0,1069,0) b <- c(234,0,0,0,0,521,0,1683,0,152,0,0,0,0,740,0,3242,0,355,0,0,0 ,0,1117,0,3047,0,443,0,0,0,0,832,0,3213,0,326,0,0,0,0,0,1235,0) در اینجا، هر مقدار نشان دهنده تعداد دفعاتی است که یک فرد به یک آهنگ گوش داده است. همچنین، داده ها روزانه هستند، به این معنی که اگر اولین مقدار (a[1] = 895) برای 10 فوریه باشد، آخرین مقدار برای 25 مارس خواهد بود. من می خواهم بفهمم که آیا a یا b روند بیشتری دارد و با چه حاشیه ای ، بنابراین اگر اجازه داده باشم سری دیگر c را بگویم، می توانم آنها را به ترتیب روند به عنوان مثال c > a > b مرتب کنم. آیا رویکرد آماری برای این کار وجود دارد؟ | چگونه بفهمیم کدام سری های زمانی روند بیشتری دارند؟ |
31143 | من یک مجموعه داده شامل سه متغیر است: طول جغرافیایی، عرض جغرافیایی، جمعیت (در ایالات متحده آمریکا). من باید این داده ها را روی نقشه ترسیم کنم. من از کد R زیر استفاده می کنم (خوب کار می کند): map(state، xlim = range(lon)، ylim = range(lat)) text(lon, lat, community) box() اما چیزی که با آن روبرو هستم این است که نقشه واقعا زشت به نظر می رسد و خواندن آن سخت است زیرا داده های نمایش داده شده روی نقشه با یکدیگر مخلوط شده اند. می خواستم بدانم آیا راه بهتری برای رسم این داده ها روی نقشه وجود دارد؟ با تشکر | نمودار داده ها بر روی نقشه |
97479 | من برای کالیبره کردن مدلهای GARCH بر روی سریهای زمانی نرخ FX و انجام شبیهسازی، مدتها از Rugarch استفاده میکنم. من سعی می کنم روش ugarchroll را درک کنم. با این حال، حتی اگر بتوانم مثالها و نشانههای فراوانی در مورد نحوه استفاده از این روش در مستندات و همچنین در تصویر بیابم، هنوز متوجه نمیشوم که برآورد چرخشی دقیقاً چیست و هدف آن چیست. ممکن است چند توضیح به من بدهید؟ با تشکر | روگارچ و تخمین نورد |
34669 | آیا میتوان مقادیر p بین تستهای جفتی متعدد را بهعنوان اندازهگیری شباهت/فاصله در نظر گرفت و مقیاسگذاری چند بعدی را روی یک ماتریس جفتی از مقادیر p برای کاهش ابعاد اعمال کرد؟ این یک سوال نرم است، اما بزرگترین مشکل در اینجا چه خواهد بود، و چگونه می توان بر آن غلبه کرد؟ (مثلاً: نابرابری مثلثی؟) | p-value به عنوان فاصله؟ |
79420 | من سعی کرده ام راه حلی برای سوالم در گوگل بیابم، اما به نظر نمی رسد اطلاعات زیادی در مورد نوارهای خطا و انحراف مطلق میانه پیدا کنم و در مورد تجزیه و تحلیل خطای آماری اطلاعات زیادی ندارم، بنابراین از هرگونه کمکی بسیار قدردانی می کنم. من در حال ایجاد یک نمودار نیمه لاگ برای تحقیقات نجومی خود هستم که داده ها را به 5 سطل با فاصله مساوی در پایه لگاریتم 10 (محور x) تقسیم می کند و مقدار میانگین را برای هر بن (محور y) ترسیم می کند. بنابراین هر سطل با افزایش محور x حجم نمونه بزرگتری دارد. از آنجایی که این یک مطالعه آماری است، پتانسیل زیادی برای عدم قطعیت وجود دارد و وجود مقادیر پرت (توزیع خطای غیر گاوسی) زیاد است. در نتیجه، من میخواهم از نوارهای خطای انحراف مطلق میانه (MAD) استفاده کنم، زیرا MAD کمتر مستعد ابتلا به موارد پرت است. بنابراین سوال من این است: دقیقاً مانند انحراف استاندارد و خطای استاندارد، که در آن خطای استاندارد فقط stdev/sqrt(N) است و N اندازه نمونه است - آیا یک آنالوگ برای انحراف مطلق میانه وجود دارد؟ نوارهای خطایی که هنگام استفاده از MAD/sqrt(N) دریافت میکنم درست به نظر میرسند، اما در توضیح دلیل خود برای استفاده از این رویکرد مطمئن نیستم. آیا تقسیم MAD بر جذر حجم نمونه وسیله قابل قبولی برای تولید نوارهای خطا است؟ و اگر نه، پیشنهاد دیگری دارید؟ همچنین، از تحقیقاتی که انجام دادهام، به نظر میرسد که انحراف مطلق میانه تخمینگر بهتری نسبت به انحراف میانگین مطلق است… آیا شما با این موافق هستید؟ به روز رسانی: در اینجا نمودار اصلی من با نوارهای خطا از انحراف مطلق میانه/sqrt(N) است (توجه: عنوان باید میانگین خوانده شود، نه معنی!) بن اول شامل 39 نمونه، دوم شامل 146، سوم 454، چهارم 1287 و پنجم است. 2371 نمونه. خوب به نظر می رسد، اما روش تولید نوارهای خطا چندان دقیق به نظر نمی رسد.  من نوارهای خطا را با استفاده از روش بوت استرپ همانطور که توسط @Glen_b پیشنهاد شده است (پیوست زیر) ایجاد کرده ام. به نظر من خوب است، اما مشاور من احساس می کند که نوارهای خطا در این روش بیش از حد برآورد شده است.  | نوارهای خطا با استفاده از انحراف مطلق میانه |
55192 | من از یک شبکه عصبی در ترکیب با یادگیری تقویتی استفاده می کنم. شبکه باید مقادیر سه عمل را در حالت های داده شده یاد بگیرد. پاداش از محیط به [-0.9،0.9] مقیاس شده است. شبکه از یک لایه ورودی با 30 گره تشکیل شده است که بیش از سه گره به طور همزمان فعال نمی شوند. لایه پنهان از 30 گره نیز تشکیل شده است و tanh به عنوان تابع فعال سازی استفاده می شود. لایه خروجی شامل سه گره گفته شده است که با استفاده از tanh نیز فعال می شوند. وقتی شبکه من را آموزش میدهم، اغلب راهحلهایی را برای کار داده شده پیدا میکند، اما اغلب مقادیر بازگردانده شده توسط شبکه به 1- و 1 نزدیکتر و نزدیکتر میشوند، اگرچه پاداش به [-0.9,0.9] نرمال میشود. از طریق اشکال زدایی متوجه شدم که وزن از لایه مخفی به لایه خروجی بزرگتر و بزرگتر می شود. از آنجایی که از اندازه وزن برای پس انتشار استفاده می شود، یک خطای بزرگ از شبکه عبور می کند و باعث وزن های بزرگتر و غیره می شود. آیا راهی برای جلوگیری از گرفتار شدن شبکه به این دور باطل وجود دارد؟ | اندازه وزن در شبکه های عصبی |
61453 | فقط برای روشن شدن چیزی در رابطه با ضرایب بزرگتر از 1 در رگرسیون لگ خطی. اگر این رگرسیون را داشته باشیم، چگونه 1.12 را تفسیر می کنیم؟ D1 متغیر ساختگی برای داشتن ماشین است D2 متغیر ساختگی برای ساکن بودن ما است. = 1.2828 lninv قوی | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] ----------------------------------------------- ------------------------ سن | .1376738 .0221547 6.21 0.000 .0941598 .1811878 1.ماشین | .5398736 .1179852 4.58 0.000 .3081391 .771608 1.ایالات متحده آمریکا | 1.124221 .1959553 5.74 0.000 .7393456 1.509097 car#USA | 1 1 | -.0202977 .2457097 -0.08 0.934 -.5028958 .4623003 _cons | -.0585373 0.1228857 -0.48 0.634 -.2998969 0.1828223 پس داریم lninv = سن + d1(car) + d2(USa) + d1.d2 مشکل تفسیر آمریکاست. (1) آیا این درست است که بگوییم همه چیز برابر با مقیم ایالات متحده سرمایه گذاری را 112٪ افزایش می دهد؟ همچنین ساختگی تعامل معنادار نیست. (2) آیا بررسی تعامل بین دو متغیر باینری خوب است؟ | تفسیر در رگرسیون خطی لاگ با ضرایب بزرگتر از 1 |
79426 | من دو مجموعه داده دارم. یکی با حجم نمونه 82 با 53 «بازدید» و 29 «مسیس». و نمونه دوم 105 عددی با 67 بازدید و 38 غیبت با توجه به اینکه مجموعه داده دوم یک کنترل است، آیا راهی وجود دارد که نشان دهد نتایج مجموعه داده اول از نظر آماری معنی دار هستند یا نیستند؟ پیشاپیش متشکرم، مدتی بود که در دوره آمار شرکت کردم و جستجوی پاسخ در گوگل باعث سردرگمی من شد. | یافتن معناداری آماری بین دو آزمون باینری |
100115 | من سعی میکنم یک مدل ترکیبی را در مجموعه دادهای که از تعداد شمارش تشکیل شده است، قرار دهم (بنابراین هر رکورد یک تعداد چیزی است، مانند تعداد تلاشهای یک آدرس IP برای اتصال به یک وبسایت). من به طور پیشینی می دانم که هر نقطه متعلق به یکی از دو گروه است (به عنوان مثال IP های مخرب و IP های قانونی)، اما نمی دانم کدام یک بدون بررسی دستی رکورد و تعیین گروه بندی. اینها چیزهایی هستند که من می دانم: * با افزایش مقدار شمارش، احتمال اینکه نقطه داده متعلق به گروه 2 باشد، بیشتر و بیشتر می شود. * 80 درصد مقادیر 1 و 85 درصد کمتر از 2 هستند. * بیشتر مقادیر برای گروه 1 1 است، اما مقادیری به اندازه 10000 وجود دارد که از گروه 1 هستند. در حالت ایده آل، من می خواهم بتوانم در جایی خط بکشم و بگویم که آیا تعداد آنها بیشتر است از مقداری $n$، پس من $p$% مطمئن هستم که این رکورد از گروه 2 است. من فکر می کنم یک مدل مخلوط مکان خوبی برای مدل سازی این داده ها است، اما با نگاهی به نمودار هیستوگرام و چگالی هسته، من هیچ توده مشخصی در داده ها مشاهده نمی شود. بر اساس آنچه در بالا ذکر کردم، حدس من این است که ترکیبی از یک لگ لجستیک (برای گروه 2) و پارتو (برای گروه 1) ممکن است یک تقریب خوب برای داده ها باشد. آیا بسته R یا ماژول پایتون وجود دارد که پارامترهای چنین مخلوطی را تخمین بزند؟ | شناسایی مدل مخلوط |
78773 | من دو (و احتمالاً بیشتر) مجموعه داده را با استفاده از رگرسیون حداقل مربعات به یک مدل برازش داده ام. بنابراین من مقادیر پارامتر را همراه با خطاهای آنها و یک مجذور کای کاهش یافته برای هر دو دریافت کردم. داده ها به صورت دو بعدی روشنایی سطح در مقابل شعاع هستند. چگونه می توانم این پارامترها و chi-squared را با هم ترکیب کنم تا یک پاسخ متوسط با خطای خودش به من بدهد؟ | نحوه ترکیب دو متغیر برازش شده |
114952 | من در حال پیاده سازی یک مدل زنجیره ای مارکوف برای توالی های دسترسی به وب سایت هستم. برخی از دنباله ها بسیار طولانی و برخی بسیار کوتاه هستند که شامل یک انتقال واحد هستند. توالی های طولانی احتمال بسیار کم را ایجاد می کنند در حالی که توالی های کوتاه تر احتمال بالایی دارند. آیا می توان طول دنباله ها را عادی کرد؟ لطفا هر ایده، آموزش، مقاله کنفرانس و غیره را به من اطلاع دهید. با تشکر. | طول دنباله را عادی کنید |
50011 | من به دنبال کمکی در تجزیه و تحلیل آماری با R، اما همچنین برخی از توصیه های آماری عمومی هستم. من داده های فنوتیپ قلبی را با مقایسه 2 گروه تجزیه و تحلیل می کنم. 2 گروه افراد بی همتا هستند، اما در هر گروه، آنها در زیر گروه های خانوادگی (بین 1 تا 6 تا) دسته بندی می شوند. من میخواهم تفاوت شیوع یک ظاهر ECG خاص (دودویی - یعنی در هر فرد وجود داشته باشد یا وجود ندارد) را بین دو گروه گزارش کنم. به عنوان مثال: > گروه 1 شامل 157 فرد متشکل از 41 خوشه خانواده است. گروه 2 > شامل 463 فرد متشکل از 163 خوشه خانواده است. شیوع > x در گروه 1 = 22.9% شیوع x در گروه 2 = 24.6%. گروه 1 موارد > و گروه 2 کنترل هستند (یعنی تصادفی نشده و بر اساس فنوتیپ در یک مطالعه مشاهده ای > تعریف نشده اند). چه آزمونی در این شرایط مناسبتر است و کدام بسته در R سادهترین راه را برای توضیح خوشهبندی اقوام در خانوادهها ارائه میکند؟ با نگاهی به اطراف، متوجه شدم: * تخمین نسبت آزمون کای اسکوئر * معادله تخمین تعمیم یافته، اما من هیچ تجربه ای از هیچ یک از این تکنیک ها ندارم، و نمی توانم هیچ نمونه ای از استفاده از آنها را در R پیدا کنم. هیچ توصیه ای در مورد بهترین روش ادامه ? ویرایش: برای به روز رسانی به نظر زیر مراجعه کنید. من معتقدم که اصلاح کای دونر (1989) ممکن است مناسب ترین باشد (ارائه شده توسط دانر تابع R). نظرات دوم و استفاده صحیح از دستور R قابل تقدیر است. با تشکر | آمار R: تست مجذور کای تنظیم شده برای داده های باینری / طبقه بندی شده خوشه ای |
50018 | من یک سوال در مورد تعیین اینکه کدام مدل ها بهتر هستند و نحوه ارزیابی آن اطلاعات دارم. فرض کنید من سه مدل دارم که هر کدام پیشنهاد ما را در پینگ برنده پیش بینی می کنند. پیشنهاد ما یک متغیر پیوسته است و پینگ برنده 0 (نه) یا 1 (بله) است. از مدلهای (logit) و سیستمی که من مدلسازی میکنم، جدول زیر را با تعداد پیشنهادات، نرخ برد ما، نرخ برد پیشبینیشده و میانگین پیشنهاد ساختم. اساساً، ما مدل پیشنهادات خود و اینکه آیا برنده شدهایم را اجرا میکنیم و از آن برای پیشبینی نرخ برد خود در پیشنهادهای آینده استفاده میکنیم. #_از_مناقصه_نرخ_برنده pred.win_rate ag.bid Mod_1 1792 46% 62% $1.54 Mod_2 851 2% 2% $0.98 $ Mod_3 17037 6% 0% $2.83 طبق جدول فوق، یک میزان اختلاف وجود دارد. نرخ برد در نتیجه، مدل را بررسی کردم و به تشخیص زیر رسیدم. Mod_1 - نرخ پینگ برنده = 45.7٪ - مسائل توزیع پیشنهاد = به طور سیاسی منحرف شده است، اما هیچ پیشنهاد واحدی به طور قابل توجهی تکرار نمی شود - مجذور R Nagelkerke = 0.23 -> پیش بینی کننده فقط 23٪ از واریانس یافت شده در متغیر پاسخ (پینگ برنده) را توضیح داد -> ضعیف - اعتبار متقاطع (10 برابر) = 0.693 -> چقدر دقیق بود پیشبینیهای مدل (0 تا 1) - منحنی ROC = 0.746 -> منصفانه (C) -> چقدر مدل با دادهها مطابقت دارد (0 تا 1) با این حال، من در تعجب بودم که آیا اختلاف بین نرخ برد و نرخ برد پیشبینیشده وجود دارد، به علاوه آمار اعتبارسنجی برای این نتیجه گیری کافی بود که فقط آن مدل خاموش است (با نام مستعار عملکرد ضعیفی داشت یا نرخ برد واقعی را به درستی پیش بینی نمی کرد). بنابراین، برای دو مدل دیگر نیز همین روند را طی کردم و به آمار زیر رسیدم. Mod_2 - نرخ پینگ برنده = 2.3٪ - مسائل توزیع پیشنهاد = 53.5٪ از پیشنهادات ما 0.26 دلار یا 0.26 دلار است - مجذور R Nagelkerke = 0.40 -> پیش بینی کننده فقط 23٪ از واریانس یافت شده در متغیر پاسخ (پینگ برنده) را توضیح داد -> میانگین - اعتبار متقاطع (10 برابر) = 0.974 -> پیشبینیهای مدل چقدر دقیق بودند (0 تا 1) - منحنی ROC = 0.914 -> عالی (A) -> چقدر مدل با دادهها مطابقت دارد (0 تا 1) Mod_3 - نرخ پینگ برنده = 5.7٪ - مسائل توزیع پیشنهاد = 12.9 % از پیشنهادات ما 0.25 دلار یا 0.26 دلار بود - مجذور R مجذور Nagelkerke = 0.03 -> فقط پیش بینی توضیح 3% از واریانس یافت شده در متغیر پاسخ (پینگ برد) -> وحشتناک - اعتبار متقاطع (10 برابر) = 0.942 -> پیش بینی های مدل چقدر دقیق بودند (0 تا 1) - منحنی ROC = 0.339 -> وحشتناک -> اینکه مدل چقدر با داده ها مطابقت دارد (0 تا 1) بنابراین در تلاش برای فهمیدن اینکه آیا فقط مدل 1 خاموش است یا خیر، من نگاه کردم در این آمارهای مختلف با این حال، من مطمئن نیستم که مراحل مناسب چیست. ### سؤالات 1. آیا باید فرض کنم که چون نرخ برد و نرخ برد پیشبینیشده در جدول اول آنقدر متفاوت بودند که مدل عملکرد ضعیفی داشت؟ 2. در حالی که آمار اعتبارسنجی برای مدل 1 ضعیف است، اما برای مدل 2 یا 3 خیلی بهتر نیست. چه چیزی این نتیجه را توضیح می دهد؟ 3. چگونه باید در مورد مقایسه دو یا سه مدل مختلف با یکدیگر از نظر عملکرد کلی (با نام مستعار متناسب با داده ها / کیفیت پیش بینی) اقدام کرد؟ | چگونه می توان مدل های پیش بینی کننده یک متغیر باینری را اعتبارسنجی و مقایسه کرد؟ |
35396 | من با آمار بیسبال کار می کنم و لیستی از درصد ضربه زدن بازیکنان را دارم. من فرمولی میخواهم که به من بگوید چند درصد از دادهها از امتیاز یک بازیکن در مقایسه با دیگران به عنوان درصد نشان داده میشود. به عنوان مثال، من PlayerA را دارم، او بالاترین میانگین ضربه زدن را در نمونه دارد، بنابراین او به عنوان 100٪ نشان داده می شود. PlayerB دومین میانگین ضربه زدن را دارد، او با 98٪ نشان داده شده است. این درصد به اندازه جمعیت بستگی ندارد (یعنی اگر کل جمعیت 50 نفر بود و من می خواستم مقدار را مستقیماً از جمعیت اندازه گیری کنم، دو تا به صفر می رسید). اندازه گیری درصدی از محدوده مقادیر است. بنابراین اگر پنج بازیکن میانگین ضربات نزدیک داشتند، درصد آنها تقریباً یکسان بود. راه دیگری برای بیان این خواهد بود، به عنوان مثال، من 6'2 اینچ هستم و قد هر یک از اعضای جمعیت را می دانم. پس از اینکه این فرمول را وصل کردم، می توانم تشخیص دهم که از 72 درصد جمعیت بلندتر هستم. به نظر می رسد که مربوط به نمره Z باشد اما من مثبت نیستم. | چه آزمایشی درصد نرمال شده داده ها را به من می گوید؟ |
50017 | > **سلب مسئولیت بی دلیل ** > > من یک نوبت آماری هستم، پس اگر امکانش هست، لطفاً مرا سنگسار نکنید. همچنین > به آرامی و به زبان ساده بنویسید. من نمی دانم چه رابطه ای بین سازگاری درونی یک مقیاس که معمولاً توسط $\alpha$ کرونباخ اندازه گیری می شود و تک بعدی بودن چیست. دلیل مشخصی که من این سوال اساسی را میپرسم این است که سعی کردم یک مقیاس را به سه عامل تقسیم کنم که به خوبی با استفاده از PCA و چرخش مستقیم از هم جدا میشوند. تقریباً هیچ ارتباط متقابلی بین عوامل و بدترین بارگذاری در هر مقیاس 0.59 دلار است. اکنون در حالی که اولین مقیاس جدید که از این فرآیند خارج شده است، $\alpha$ خوب از $.81$ دارد (مقیاس کل دارای $.5$ بود)، مقیاس دوم دارای $\alpha $ بسیار بد کمتر از منهای است. ترسناک شش نقطه پنج! من سهم خود را از آلفاهای منفی در زندگی کوتاه آماری خود دیده ام، اما این بی سابقه است. اکنون درک سادهلوحانه من این است که سازگاری درونی وجود یک ساختار اساسی را اندازهگیری میکند و تک بعدی بودن یک مقیاس به این معنی است که این ساختار زیربنایی فقط یک بعد دارد. این بدان معناست که سازگاری درونی پیش نیاز تک بعدی بودن است. این مورد سؤالات متداول SSPS حداقل به نظر می رسد به این و این بخش در ویکی پدیا دلالت دارد که من پیدا کردم در حالی که Google ممکن است دلالت بر هر چیزی داشته باشد زیرا واقعاً ضعیف نوشته شده است اما به این مقاله اشاره دارد که متأسفانه در ذهن من وجود دارد. از آنجایی که این پست بسیار طولانی شد، احتمالاً زمان خوبی برای یک استراحت کوتاه برای چشم و مغز شما است.  با عرض پوزش، این یک ایده خنده دار بر روی کاغذ به نظر می رسید. به هر حال، این سوال نیز وجود دارد که پایایی یک پرسشنامه را ارزیابی می کند: ابعاد، موارد مشکل ساز، و اینکه آیا از آلفا، لامبدا6 یا شاخص دیگری استفاده کنیم؟ قبلاً متوجه شدم که احساس میکنم ممکن است حاوی پاسخی باشد که به دنبال آن هستم، اما به طور کامل خودش را برای من آشکار نمیکند. با این حال، بر اساس این درک، من با $\alpha$ شروع کردم و سعی کردم از آنجا به راه خود ادامه دهم. کاری که من انجام دادم تا حدودی غیرمتعارف بود (که احتمالاً به اشتباه ترجمه می شود، اما امیدوارم در پاسخ به این پست بیشتر در مورد آن بشنویم). من یک بهینهسازی جهانی $\alpha$ انجام دادم، به این معنی که تمام پارتیشنهای ممکن از آیتمهای مقیاس خود را مرور کردم و میانگین $\alpha$ را برای هر پارتیشن محاسبه کردم. نکته خنده دار این است که بهترین راه حل برای سه عامل (سه و چهار عامل دارای بهترین میانگین $\alpha $.71$ بودند) در واقع از نظر تفسیرپذیری منطقی است (کل PCA shebang اینطور نبود). من تقریباً مطمئن هستم که این یک تصادف است، درست است؟ * * * **ویرایش:** پس از نظر StasK، تصمیم گرفتم کد خود را برای بهینه سازی $\alpha$ اضافه کنم تا شاید دیگران آن را مفید بدانند. فقط مقیاس خود را در فایلی به نام data.csv با ستون ها به عنوان متغیر و ردیف ها به عنوان موارد قرار دهید. این فیلمنامه زیبا نیست و سریع نیست. آن کاری را که من شخصاً می خواستم انجام داد. بهینه سازی 12 مورد من در Core i3 تقریباً 12 دقیقه طول کشید. میتوان بهینهسازیهایی در کد انجام داد، اما احتمالاً این واقعیت را اساساً تغییر نمیدهند که بهینهسازی یک مقیاس 30 مادهای با این روش 30 دقیقه طول میکشد، آنطور که ممکن است سادهلوحانه فرض شود، بلکه تقریباً 300 برابر عمر جهان است. پارتیشن بندی کورکورانه پرسشنامه 100 سوالی خود احتمالاً با این روش ایده خوبی نیست. تعداد پارتیشنهای تولید شده توسط «partitions()» را میتوانید در اینجا بررسی کنید http://www.wolframalpha.com/input/?i=bell+number+of+12. فقط 12 مورد را با تعداد موارد خود جایگزین کنید. اگر فقط میخواهید پارتیشنهایی با تعداد مشخصی فاکتور ایجاد کنید، «برای p در پارتیشنها(range(len(variance))):» را با «برای p در n_partitions(range(len(variance))، 3) جایگزین کنید. برای 3 عامل می گویند. اگرچه این کار را سریعتر نمیکند (در اینجا احتمالاً اگر عمق جستجو را در وهله اول محدود کنید، سرعت قابل توجهی امکانپذیر خواهد بود). در درازمدت، تنها روشی هوشمندانه تر از آزمایش همه پارتیشن های ممکن برای مقیاس های بزرگتر انجام می شود. #!/usr/bin/env پایتون از numpy import * import sys def variance(data): n = len(data) variance = 0.0 mean = float(sum(data))/n برای x در داده: variance += ( x - mean)**2 بازگشت واریانس/n# از http://stackoverflow.com/q/2037327/1050373 def partitions(set_): اگر set_ نباشد: بازده [] برای i در xrange(2**len(set_)/2): part = [set()، set()] برای آیتم در set_: part[i&1]. add(item) i >>= 1 برای b در پارتیشن ها (parts[1]): بازده [parts[0]]+b def n_partitions(set_, n): برای پارتیشن در پارتیشن (set_): if len(partition) == n: بازده پارتیشن def alpha(داده، واریانس، cols): n = len(cols) cols = array(cols) data_cols = data.transpose()[cols] واریانس = variances[cols] data_rows = data_cols.transpose() row_sums = array([sum(row) for row در ردیف های داده]) n/float(n-1)*(1-sum(واریانس ها)/واریانس را برگرداند | آیا بهینه سازی α برای پارتیشن های یک مقیاس روش معقولی برای تحلیل عاملی است؟ (بود: رابطه بین ثبات و تک بعدی) |
3856 | آیا روشهای استانداردی برای تجزیه و تحلیل و تولید توزیعهای «کلوگی» وجود دارد؟ * تجزیه و تحلیل: یک ابر نقطه داده شده چقدر کلوخه است (در 1d، 2d، nd)، ضرایب کلوخه آن چقدر است؟ * تولید یا سنتز یک ابر شبه تصادفی با ضرایب C (اینها اصول اولیه برای هر خانواده ای از توزیع ها هستند، به عنوان مثال معمولی). با تلاشهای مختلف برای توصیف و پیوندهای مختلف به آمارهای «کلاسیک» تصور میکنم. من به دنبال یک نمای کلی هستم. تصاویر خوب خواهد بود اضافه شده در جمعه 22 اکتبر: من امیدوار بودم که روش هایی برای تجزیه و تحلیل _both_ و ترکیب، انتزاعی <-> واقعی هر دو روش پیدا کنم. مطمئناً یک انتزاع گسترده باید هر دو را انجام دهد. هنوز به دنبال ... (کارشناسان لطفا برچسب اضافه کنید). | تجزیه و تحلیل و تولید توزیع های مشکل؟ |
34663 | چه میشود اگر قبل از شروع جمعآوری دادهها برای آزمایش، مجموعه موضوعی خود را بهطور تصادفی به دو (یا چند) گروه تقسیم کنید. قبل از اجرای دستکاری تجربی متوجه می شوید که گروه ها به وضوح در یک یا چند متغیر واردات بالقوه متفاوت هستند. به عنوان مثال، دو گروه (یا بیشتر) نسبت موضوعات مختلف بر اساس جنسیت یا سن یا سطح تحصیلات، یا سابقه شغلی و غیره دارند. در چنین شرایطی چه اقدامی منطقی است؟ دور انداختن تقسیم تصادفی اصلی مجموعه موضوع و تقسیم مجدد استخر چه خطراتی دارد؟ به عنوان مثال، آیا آمار استنباطی که ممکن است بر اساس گروه دوم محاسبه کنید، به دلیل گروه اول دور ریخته شده، نامناسب است؟ به عنوان مثال، اگر ما مشترکاً اولین تقسیم بندی مجموعه موضوع را به گروه ها کنار بگذاریم، آیا توزیع نمونه گیری که آزمون آماری ما بر اساس آن است را تغییر می دهیم؟ اگر چنین است، آیا یافتن اهمیت آماری را آسانتر یا دشوارتر میکنیم؟ آیا خطرات احتمالی در تکرار تقسیم دروس بیشتر از خطر آشکار گیجی ناشی از تفاوت گروهی در سطح تحصیلات است؟ برای عینیتر شدن این سؤال، برای این بحث، فرض کنید موضوع تحقیق روش تدریس است (و دو روش تدریس داریم) و تفاوتی که بین دو گروه موضوع ذکر شده سطح تحصیلات رسمی است، با یک گروه. به نسبت افراد بیشتری با بالاترین سطح تحصیلات در سطح دبیرستان یا کمتر و گروه دیگر شامل افراد بیشتری با مدرک دانشگاهی یا کالج است. فرض کنید ما در حال آموزش نیروهای نظامی در شغلی هستیم که در دنیای غیرنظامی وجود ندارد، بنابراین هرکسی که وارد آن تخصص می شود باید این شغل را از ابتدا یاد بگیرد. علاوه بر این، فرض کنید که عدم تعادل بین گروه در پیشرفت تحصیلی قبلی از نظر آماری معنادار است. به طور پرانتزی توجه داشته باشید که این سوال شبیه به چه می شود اگر نمونه تصادفی شما به وضوح نماینده نباشد؟ در کامنتی در آنجا، @stask با ادراک متوجه شد که من یک محقق هستم نه نقشهبردار و اظهار داشت که اگر سوالم را متفاوت برچسبگذاری میکردم، از جمله طراحی آزمایش به جای نمونهگیری ممکن بود پاسخهای مرتبطتری دریافت کنم. (به نظر می رسد برچسب نمونه گیری افرادی را که با نظرسنجی کار می کنند به جای آزمایش جذب می کند). بنابراین، موضوع فوق اساساً همان سؤال است، در یک زمینه تجربی. | اگر گروههایی که بهطور تصادفی تشکیل شدهاند به وضوح شبیه هم نباشند چه؟ |
34666 | من در حال حاضر در حال نوشتن یک پروژه حیوان خانگی برای یک بازی مبتنی بر مرورگر هستم که از دو بخش تشکیل شده است، بخش اول یک دیتا ماینر است که معاملات در بازار را مشاهده می کند. و قسمت دوم همانطور که ممکن است آنالیزور حدس بزنید. اما در بین این دو مرحله، من میخواهم برخی از معاملات را فیلتر کنم، زیرا مردم گاهی اوقات از بازار برای انتقال طلا بین یکدیگر استفاده میکنند و زمانی که شخصی 10 برابر قیمت متوسط یک کالا را میپردازد، دادهها را خراب میکند. من هنوز دوره احتمالات و آمار را نگذرانده ام، بنابراین مطمئن نیستم هنگام فیلتر کردن آنها از چه چیزی استفاده کنم. اولین چیزی که به آن فکر کردم این است که قیمتهای متوسط ۲ برابر را فیلتر کنم، اما به نظر درست نیست، چه پیشنهادی دارید؟ در فکر دوم، من به فکر فیلتر کردن میانگین + 1 برنامه توسعه بودم. اما من نمی دانم که این مرز در کلمات به چه معناست، منظورم این است که بینش آن را ندارم. در پایان، من مایلم نمودارها و شاید توابع چیزهایی مانند اینکه میانگین قیمت و میانگین قیمت ها در طول روز چگونه تغییر می کند (چه زمانی به یکدیگر نزدیک می شوند و چه زمانی از هم دور می شوند) یا بازار چقدر متفاوت است ارائه کنم. در روزهای هفته یا آخر هفته رفتار می کند. همه اینها برای من هیجان انگیز به نظر می رسد، اما ابتدا باید مجموعه داده هایم را فیلتر کنم. | فیلتر کردن تراکنش های اقتصاد مجازی |
67850 | روش های مختلفی برای استنباط ساختار شبکه در شبکه های بیزی با داده های داده شده وجود دارد. در مورد من یک مدل شبکه بیزی دارم که از داده های قدیمی ساخته شده است، و منبع جدیدی از داده دارم که می خواهم از آن برای به روز رسانی مدل استفاده کنم، هم از نظر ساختار و هم از نظر پارامتر. این منبع داده جدید دارای تعدادی مشاهدات است که بسیار بالاتر از داده های گذشته است که آن را برای استنتاج ساختار ایده آل می کند. مشکل این است که داده های جدید تنها زیر مجموعه ای از متغیرها را در مدل اصلی پوشش می دهند. آیا کسی در مورد راهی برای به روز رسانی ساختار شبکه مدل BN (و پارامترها) که فقط زیر مجموعه ای از متغیرهای مدل را ارائه می دهد شنیده است؟ | چگونه می توانم یک مدل شبکه بیزی را با داده های جدید فقط در زیر مجموعه ای از متغیرهای مدل اصلی به روز کنم؟ |
114959 | من بردار نسبتهای اندازهگیری شده دارم و میخواهم 1. آزمایش کنم که آیا این نسبتها از یک توزیع دووجهی پیروی میکنند یا خیر. من از betamix از بسته betareg استفاده کرده ام اما مراحل 2 و 3 را متوجه نشده ام. من stackoverflow را برای راه حل جستجو کردم اما پاسخ روشنی پیدا نکردم. کد فعلی من این است: # پارامترهای توزیع #1 آلفا1 <- 10 بتا1 <- 30 # پارامترهای توزیع #2 آلفا2 <- 30 بتا2 <- 10 # ایجاد مجموعه داده دووجهی.seed(0) d <- data.frame( y = c(rbeta(100، آلفا1، بتا1)، rbeta(50، آلفا2، بتا2))) # تصحیح توصیه می شود در cran.r-project.org/web/packages/betareg/vignettes/betareg.pdf، به پاراگراف اول بخش 2، صفحه 3 مراجعه کنید: n <- طول(d$y) d$yc <- (d$) y* (n-1)+0.5)/n # هیستوگرام par(mfrow=c(1,2)) hist(d$yc, 50) # مخلوط برازش توزیعهای بتا uni.modal <- betamix(yc ~ 1 | 1، داده = d، k = 1) bi.modal <- betamix(yc ~ 1 | 1، داده = d، k = 2) # 1) تست دووجهی: lrtest (uni.modal، bi.modal) # 3) برای هر نقطه داده مشخص کنید که به کدام توزیع تعلق دارد d$group <- (پسین (bi.modal)[,1] <= posterior(bi.modal)[,2])+1 نمودار (d$y، col=d$group) # 2) مشخص کردن دو توزیع زیربنایی # بتامیکس از یک پارامترسازی متفاوت از dbeta (رجوع کنید به cran.r-project.org/web/packages/betareg/vignettes/betareg.pdf). # به جای آلفا و بتا، betareg توزیع بتا را با استفاده از mu و ph پارامتریزه می کند، که در آن # mu=alpha/(alpha+beta) # phi= alpha + beta # ERROR: تبدیل mu و phi به آلفا و بتا mu1 <- coef( bi.modal)[1،1] phi1 <- coef(bi.modal)[1،2] (a1 <- mu1*phi1) # خروجی: 4.61028 (b1 <- (1-mu1)*phi1) # خروجی:-0.7240308 # 4) به طور کلی توزیع چگالی در هیستوگرام  | ترکیبی از توزیع های بتا: مثال کامل |
15391 | برای آزمایشی که در حال تجزیه و تحلیل هستم، اندازه گیری های زیادی با مقادیر مختلف انجام دادم. (برای مشخص کردن آن، بیایید وانمود کنیم که قد افراد را از گروه های سنی مختلف اندازه گرفته ام -- من قد ده جوان 20 ساله، ده 21 ساله، ده 22 ساله و غیره را دارم.) من می خواهم نشان دهم که واریانس تمام خوانش های من، در هر متغیر، بسیار کم است. (در مثال من، من می خواهم نشان دهم که افراد در هر سنی تقریباً قد یکسانی دارند. یعنی مثلاً قد افراد 20 ساله نزدیک به 5'4 اینچ با واریانس کم و افراد 21 ساله هستند. همگی نزدیک به 6/5 هستند. قدهای خاص مهم نیستند، فقط این که افراد در هر سنی از نظر قد شبیه به افراد دیگر در آن سن هستند. واضح است که این درست نیست، اما بیایید وانمود کنیم که چنین است.) بهترین کار چیست؟ متریک برای گزارش؟ مثلاً میتوانم میانگین حسابی واریانسها را بگیرم - یا شاید میانگین هارمونیک یا میانگین هندسی بهتر باشد؟ یا شاید من باید میانگین انحرافات استاندارد یا خطاهای استاندارد را بگیرم؟ | چگونه باید واریانس معمولی مجموعه بزرگی از متغیرها را مشخص کنم؟ |
50013 | من از پکیج Matching Mebane و Sekhon برای R استفاده می کنم و هدف من این است که استنباط های معمولی در مورد یک نسبت و یک میانگین داشته باشم. نسبت مستقیم به جلو است، اما میانگین دارای مقادیر گم شده است که «تطابق» آن را نمیپذیرد. رویکرد من تلاش میکند تا از طریق فهرستهای ردیف به رکوردهای همسان دسترسی پیدا کنم، اما نتایج کاملاً درست نیستند. کد مثال: نیاز (تطبیق) نسخه ی نمایشی (DehejiaWahba) # میانگین قبل از مطابقت با (lalonde$u75، lalonde$treat، میانگین) # میانگین پس از تطبیق مطابقت شده <- rbind(lalonde[rr$index.treated,]، lalonde[rr$ index.control،]) توسط (matched$u75، matched$treat، mean) خروجی نسخه نمایشی مطابقت را نشان می دهد میانگین برای u75 0.6 و 0.62072 است: ***** (V14) u75 ***** قبل از تطبیق بعد از تطبیق میانگین درمان......... 0.6 0.6 میانگین کنترل.......... 0.68462 0.62072 با این حال، مجموعه داده های بازسازی شده دارای ابزارهای متفاوتی است: matched$treat: 0 [1] 0.7861272 ------------------------------------------------ ------------------------------- همسان $reat: 1 [1] 0.7543353 | بازسازی مجموعه داده های منطبق از بسته تطبیق R |
50012 | در یک شبکه عصبی تک لایه با یک تابع سیگموئید (برای سهولت درک آن) تابع هزینه $E_j = \frac{1}{2} \sum_{k=1}^{K}(\text{target} است. _{jk} - \text{observed}_{jk})^2 + a\sum_{i=1}^{I}w_{ij}^2.$ بنابراین این یک مشکل دو بخشی است و من می دانم چگونه نیمه اول را در هر دو لایه مخفی و خروجی استخراج کنید. اما برای نیمه دوم مطمئن نیستم. هر راهنمایی یا کمکی عالی خواهد بود. متشکرم. | تابع هزینه NN با مشتق وزن |
61454 | برای یافتن اینکه از کدام رویکرد آماری باید استفاده کنم به کمک نیاز دارم. من دو گروه دارم: G1 (بیماری) و کنترل. برای هر دو گروه، سطح خون آنها را هر 10 دقیقه اندازه گیری کردیم: 0 تا 650 دقیقه. ما در تلاش هستیم تا تفاوت بین G1 (بیماری) و کنترل و اهمیت تفاوت را پیدا کنیم. متغیرهای عوامل عبارتند از: سن، تشخیص (بیماری یا کنترل) و زمان. متغیر وابسته سطح خون است. نمی دانم برای یافتن این اهمیت (تفاوت) باید از کدام رویکرد استفاده کنم. من سعی کردم از تجزیه و تحلیل رگرسیون چندگانه استفاده کنم: P = ثابت + B1 (سن) + B2 (تشخیص) + B3 (زمان) تشخیص 0: ثابت 1: بیمار اگر بخواهم تعامل (تشخیص x زمان) را نیز لحاظ کنم چگونه آن را محاسبه کنم برای تجزیه و تحلیل در اکسل قرار دهید؟ | مقایسه دو مجموعه سری زمانی (معیارهای فیزیولوژیکی) |
78774 | در یک رگرسیون خطی ساده با یک متغیر y تغییر شکل یافته، چگونه آزمایش کنم که آیا دو برابر شدن متغیر x منجر به دو برابر شدن متغیر y می شود؟ | در رگرسیون خطی، چگونه می توان آزمایش کرد که آیا دو برابر شدن x منجر به دو برابر شدن y تبدیل شده به log می شود؟ |
61450 | با توجه به مجموعه آموزشی $\\{(x_1, y_1), \dots, (x_n, y_n)\\}$ موارد زیر را در نظر بگیرید: $$\hat{Y}(x_i) = \frac{1}{k} \sum_{x_i \in N_{k}(x)} y_i$$ فرض کنید $k=3$. آیا این فرمول میگوید که نزدیکترین همسایههای $3$ را برای $x$ انتخاب میکنیم و میانگین را از پاسخهای آنها میگیریم؟ بنابراین اگر $x_i = x_1$ باشد، نزدیکترین مقادیر $3$ را به $x_1$ انتخاب میکنیم (مثلا $x_2,x_3,x_4$) و موارد زیر را محاسبه میکنیم: $$ \hat{Y}(x_1) = \frac{y_2 +y_3+y_4}{3}$$ آیا این ایده برای دیدن اینکه آیا $\hat{Y}(x_1)$ با $y_1$ موافق است؟ اگر نه، آیا قوانین طبقه بندی متفاوتی لازم است؟ | روش های نزدیکترین همسایه |
91975 | در این سوال بحث جالبی در مورد آزمون تناسب پیرسون وجود داشت که به دور از قطعیت بود: آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟ همچنین، هنگامی که در اطراف خود گشت و گذار می کنید، استدلال هایی را برای و مخالف هر نوع بودن آن پیدا می کنید - بدیهی است که به نظر می رسد مرز بین آمار پارامتری و ناپارامتریک نسبتاً مبهم است؟!؟ اما من این سوال را به این دلیل میپرسم که بسیاری از افراد هنوز به این روش تمایز قائل میشوند: آیا آزمون خوب بودن برازش پیرسون پارامتری است یا ناپارامتریک (یا حتی نوعی ترکیب)؟ (نکته: یک سوال مشابه اما کلی تر وجود دارد - که در اینجا پاسخ داده نشد: آیا آزمون های برازش پارامتری هستند یا ناپارامتریک؟) | آیا آزمون حسن تناسب پیرسون پارامتری است یا ناپارامتریک؟ |
100499 | من با یک مشکل چالش برانگیز روبرو هستم: بگویید من پیراهن های سه رنگ مختلف دارم (قیمت یکسان). و بگویید من یک نوع فروشگاه عجیب و غریب دارم که در آن مردم یکی یکی وارد می شوند و من می توانم فقط یک پیراهن را به آنها نشان دهم و آنها قبل از رفتن تصمیم می گیرند آب و هوا بخرند یا نخرند. من می خواهم فروش خود را بهینه کنم. تا این مرحله، این به نظر من یک مشکل راهزن چند مسلح کلاسیک است که به عنوان مشکل یادگیری تقویتی طبقه بندی می شود. اکنون بگویید که من در مورد هر شخصی که وارد فروشگاه من می شود تعدادی ویژگی دارم: سن/جنس و غیره (ترکیبی نسبتاً بزرگ از معیارهای طبقه بندی شده و غیر طبقه بندی). چگونه می توانم از این اطلاعات برای بهینه سازی فروش خود استفاده کنم؟ من فکر می کنم رویکرد زیر را در نظر بگیرم: با فرض اینکه نرخ مورد انتظار خرید برای هر یک از رنگ ها کم است، و اگرچه برابر نیست، اما تقریباً یکسان است (مثلاً حدود 1٪)، می توانم به این مشکل به عنوان یک مشکل طبقه بندی نگاه کنم. (یادگیری تحت نظارت). من افرادی را که پیراهن نخریدهاند فراموش میکنم و از کسانی که پیراهن نخریدهاند میپرسم، این شخص جدید به کدام یک از سه گروه خریداران شباهت دارد؟ من از یک الگوریتم طبقه بندی استفاده خواهم کرد و سعی می کنم پیراهن رنگی را که طبقه بندی کننده آموزش دیده ام پیش بینی کرده بود به او نشان دهم. با وجود اینکه نمیدانم اگر خریداران پیراهن رنگی دیگری را ارائه میکردند، چه وضعیتی دارند، امید من این است که با تعداد زیاد خریداران، و امیدوارم ویژگیهای مرتبط، یک طبقهبندی کننده بتواند شباهتهایی بین گروههای خریداران پیدا کند. من میدانم که این مسئله دور از یک مشکل طبقهبندی کلاسیک است، اما فکر میکنم این میتواند بهتر از نادیده گرفتن ویژگیهایی که من از مردم میشناسم، و فقط استفاده از یک راهزن چندسلاحهای انجام دهد. سوالات من: آیا رویکرد من منطقی است؟ آیا ایده های متفاوتی برای نزدیک شدن به این موضوع وجود دارد؟ هر چند من قدردانی خواهم کرد. با تشکر | بهره برداری از ویژگی ها در یک سناریوی راهزن چند مسلح |
61451 | من میخواهم بتوانم یک ماتریس کوواریانس با ابعاد $D$ x $D$ ایجاد کنم، به طوری که سلولهای مشخص شده این ماتریس حاوی مقادیر از پیش تعیین شده ثابت (حداقل تقریباً) باشد. برای مثال برای ماتریس، $S$ = $$ \begin{matrix} a_{11} & a_{12} & \ldots & a_{1D}\\\ a_{21} & a_{22} & \ldots & a_{2D }\\\ \vdots & \vdots & \ddots & \vdots\\\ a_{D1} & a_{D2} &\ldots & a_{DD} \end{matrix} $$ میخواهم مطمئن شوم که برخی از $a_{i,j}$ دارای مقدار از پیش تعیینشده هستند. (اگر من یک ماتریس کوواریانس بدون این محدودیت ایجاد می کردم، فقط از یک Wishart Random Generator استفاده می کردم. در Matlab، چیزی شبیه به - `W = wishrnd([1 0.5; 0.5 3],30)/30`) یک خواهد بود. راهی که من می توانم به این مشکل فکر کنم این است که سلول های مختلف ماتریس کوواریانس درجات آزادی متفاوتی دارند. به طوری که سلول های با مقادیر ثابت را می توان بی نهایت درجات آزادی و بقیه را مقداری محدود فرض کرد. | ایجاد ماتریس کوواریانس با مقادیر ثابت در سلول های خاص |
24658 | من مجموعه ای از 50000 نقطه داده دارم. یک متغیر وابسته وجود دارد که ماهیت طبقه بندی دارد و حدود 100 متغیر توضیحی ممکن وجود دارد. از بین این 100 متغیر، من باید 10 متغیر را انتخاب کنم که از نظر تعیین / توضیح متغیر وابسته بیشترین اهمیت را دارند. میشه لطفا معرفی کنید بهترین روش برای این کار کدام است؟ | شناسایی متغیرهای معنادار در مواردی که متغیر وابسته طبقه بندی می شود |
66105 | **سوال اصلی**: اگر در مقاله ای بخوانم که بهترین تناسب یک مجموعه داده خاص lognormal با $\mu=7.7$ و $\sigma=1.9$ است، مکان، مقیاس و پارامتر شکل lognormal چیست؟ **سوالات جانبی**: آیا پارامتر مقیاس $e^\mu$ است یا $\sigma$؟ من عبارات مختلفی را در ادبیات مرجع مختلف می بینم. آیا $\mu$ داده شده در مقاله برابر است با میانگین نرمال تبدیل شده یا با مقدار $\mu$ تبدیل شده جدید؟ | پارامترهای مکان، مقیاس و شکل لگ نرمال (با ابهام نماد) |
100110 | من در درک نحوه ترکیب عدم قطعیت پارامتر و تغییرپذیری بین سالانه از سطوح مختلف در یک مدل خطی راهانداز مشکل دارم. به طور خاص، این مدل برای ایجاد تخمین هایی از برخی پدیده $Y$ برای سلول های شبکه 0.5 درجه در یک منطقه فضایی (به عنوان مثال، آمریکای مرکزی) طراحی شده است. به نظر می رسد: $$ \boldsymbol{Y_{m,y}} = \boldsymbol{\beta_{m,y}X_{m,y}} $$ که $\boldsymbol{\beta}$ بردار پارامترهای در حال برآورد (اندازه 1x3)، $\boldsymbol{X}$ ماتریسی از مشاهدات کسرهای پوشش زمین (اندازه 3xN) است. $\boldsymbol{Y}$ بردار مقادیر پیشبینیشده است (اندازه 1xN)، و زیرنویسها نشان میدهند که مدل برای هر ماه $m$ و سال $y$ (به عنوان مثال، می 2006، ژوئن 2006، و مه) پارامتر میشود. 2007 همه می توانند تخمین پارامترهای متفاوتی داشته باشند). (بدون رهگیری، اگرچه فکر نمیکنم برای سوال من مهم باشد.) اگر مدل را به عنوان $Y_{m,y}=\sum\limits_{i=1}^3{\beta_{i,m در نظر بگیریم. ,y}X_{i,m,y}}$، سپس هر عبارت $\beta_iX_i$ را می توان زیرمجموعه ای از $Y$ در نظر گرفت - یعنی $Y_i$، مقدار $Y$ که در خشکی اتفاق می افتد. نوع پوشش $i$ - به معنای واقعی فیزیکی. بنابراین، احتمالاً بین تخمینهای پارامترهای مختلف همبستگی وجود خواهد داشت. این امر با این واقعیت تجسم یا تشدید می شود که برای هر سلول شبکه $g$، $\sum\limits_{i=1}^3{\boldsymbol{X_{g,i,m,y}}} = 1$ — که این است که کسرهای نوع پوشش زمین تا 1 جمع می شوند. برای ایجاد مرزهای عدم قطعیت برای پارامترها، من 10000 اجرا بوت استرپینگ انجام داده ام. فرض کنید 500 سلول شبکه در منطقه وجود دارد. برای اولین اجرای بوت استرپینگ، من به طور تصادفی 500 سلول شبکه را از آن منطقه با جایگزینی انتخاب می کنم. سپس پارامترها را برای هر ماه و سال با استفاده از آن مجموعه نمونه تخمین زدم. سپس این روش نمونه برداری-برازش را 9999 بار دیگر تکرار کردم. هدف من مقایسه مقدار میانگین سالانه _measured/observed_ پدیده $Y$ با مقدار تخمینی/مدل شده است. مایلم نوارهای عدم قطعیت حول مقدار اندازهگیری شده (که فقط تنوع بین سالانه در مقدار اندازهگیری شده را در نظر میگیرد) با نوارهای عدم قطعیت در اطراف مقدار تخمینی همپوشانی داشته باشد (که هم عدم قطعیت در پارامترهای مدل و هم بین سالانه را در نظر میگیرد. تغییر در مقدار تخمینی سالانه). برای مشاهدات، به اندازه کافی آسان است - $Y$ مشاهده شده را برای تمام ماه های هر سال جمع آوری کنید، سپس انحراف معیار را در تمام سال ها پیدا کنید. هر چند وقتی به این فکر می کنم که چگونه این کار را برای تخمین ها انجام دهم، گیج می شوم. اگر بخواهم مشاهده شده را با تخمینی سالانه جهانی $Y$ (یعنی در همه مناطق) مقایسه کنم، مشکل حتی بیشتر می شود. من می دانم که اضافه کردن انحرافات استاندارد در تربیع در اینجا کلید خواهد بود، اما این واقعیت که سطوح بسیار زیادی وجود دارد، من را گیج می کند. من در حال حاضر در Matlab کار می کنم و به R نیز مسلط هستم، اما هر کمکی که می توانید ارائه دهید بسیار قدردانی خواهد شد. | ترکیب منابع عدم قطعیت/تغییر در یک مدل خطی چند لایه |
61452 | من تازه وارد صنعت تحقیقات بازار هستم و در معرض رویه ای به نام MaxDiff قرار گرفته ام. من این را دیده ام که به آن مقیاس بندی بهترین-بدترین نیز گفته می شود. من به دنبال یک مرور کلی ادبیات خوب برای این روش و نحوه تناسب آن با سایر گزینه های سؤال طرح نظرسنجی هستم. من به ویژه به دنبال تحلیل تکنیکال خود روش هستم تا یک برنامه کاربردی. با تشکر | انتخاب مدلسازی و MaxDiff |
3857 | محل کار من کارمندانی از طیف بسیار گسترده ای از رشته ها دارد، بنابراین ما داده ها را به اشکال مختلف تولید می کنیم. در نتیجه، هر تیم سیستم خود را برای ذخیره سازی داده ها توسعه داده است. برخی از پایگاه داده های Access یا SQL استفاده می کنند. برخی از تیم ها (در کمال وحشت) تقریباً به طور کامل به صفحات گسترده اکسل متکی هستند. اغلب، فرمت داده ها از پروژه ای به پروژه دیگر تغییر می کند. در برخی موارد، «سیستم» نامیدن آن بسیار مهربان است. مشکلاتی که به دنبال دارد این است که من باید کد جدیدی بنویسم تا داده های هر پروژه را پاک کنم، که گران است. افرادی که به صورت دستی صفحات گسترده را ویرایش می کنند، تکرارپذیری و ممیزی داده ها را تقریبا غیرممکن می کند. و حتی بدتر، این احتمال وجود دارد که داده ها گم شوند یا نادرست شوند. به من این فرصت داده شده است که این مشکلات را با یکی از اعضای هیئت مدیره شرکت در میان بگذارم و باید بررسی کنم که به او چه بگویم. فکر میکنم قبلاً او را متقاعد کردهام که ما مشکلی داریم و درست کردن این موضوع باعث میشود علم بهتر و صرفهجویی در پول انجام شود. سوال این است: چه چیزی را باید هدف قرار دهیم و چگونه به آنجا برسیم؟ به طور دقیق تر: چگونه باید داده ها را ذخیره کنیم، به گونه ای که به ما امکان می دهد آنها را از ایجاد تا انتشار در یک مقاله ردیابی کنیم؟ (پایگاه های داده روی سرور مرکزی ذخیره می شوند؟) چگونه می خواهید فرمت های پایگاه داده را استاندارد کنید؟ آیا منابع خوبی برای آموزش مردم در مورد نحوه مراقبت از داده ها وجود دارد؟ (به عنوان یک قاعده کلی، متخصصان بهداشت شغلی و مهندسان مواد منفجره اهل داده نیستند؛ بنابراین محتوای غیر فنی ترجیح داده می شود.) | چگونه می توانم مردم را به مراقبت بهتر از داده ها وادار کنم؟ |
15390 | من سعی میکنم یک طبقهبندیکننده ساده بیز برای طبقهبندی اسنادی که اساساً مجموعهای از ویژگیها هستند (برخلاف کیسهها) پیادهسازی کنم، یعنی هر ویژگی شامل مجموعهای از ویژگیهای منحصربهفرد است که هر کدام حداکثر یک بار میتوانند در سند ظاهر شوند. به عنوان مثال، می توانید ویژگی ها را به عنوان کلمات کلیدی منحصر به فرد برای اسناد در نظر بگیرید. من از نزدیک Rennie و et. al. مقاله در http://www.aaai.org/Papers/ICML/2003/ICML03-081.pdf، اما من با مشکلی مواجه هستم که به نظر نمی رسد به آن رسیدگی شود. به عبارت دیگر، طبقه بندی اسناد کوتاه به دلیل داشتن تعداد کمتری از اسناد، احتمالات بعدی بسیار بالاتری را به همراه دارد. برعکس برای اسناد طولانی این به این دلیل است که احتمالات پسین به صورت (با نادیده گرفتن مخرج) تعریف می شوند: $$ P(class|document) = P(class) * P(document|class) $$ که به $$ گسترش می یابد P(کلاس|سند) = P (کلاس) * P(feature_1|کلاس) * ... * P(feature_k|کلاس) $$ از آن، مشخص است که کوتاه است اسنادی با ویژگیهای کمتر، احتمالات بعدی بالاتری خواهند داشت، زیرا عبارتهای کمتری برای ضرب کردن در یکدیگر وجود دارد. برای مثال، فرض کنید ویژگیهای «فو»، «بار» و «باز» همگی در مشاهدات آموزشی مثبت ظاهر شوند. سپس، سندی با ویژگی واحد foo نسبت به سندی با ویژگی های {foo، bar، baz} احتمال بالاتری برای طبقه بندی در کلاس مثبت خواهد داشت. به نظر می رسد این غیر شهودی است، اما من کاملا مطمئن نیستم که چگونه این را حل کنم. آیا نوعی نرمال سازی طول وجود دارد که بتوان انجام داد؟ یک ایده این است که اندازه سند را به عنوان یک ویژگی اضافه کنید، اما به نظر نمی رسد کاملاً درست باشد زیرا نتایج با اندازه اسناد در داده های آموزشی منحرف می شوند. | عادی سازی طول در یک طبقه بندی کننده ساده بیز برای اسناد |
22764 | من باید ماتریس کوواریانس یک توزیع کروی یکنواخت را بفهمم. اما در آنجا حتی نمی توانم یک شکل بسته از توزیع پیدا کنم. این پیوند می گوید $\frac{1}{n}\mathbf{I}$ است، که $\mathbf{I}$ ماتریس هویت $n \times n$ است. اما آیا کسی می تواند به من کمک کند تا آن را استخراج کنم؟ یا حتی به ادبیات در مورد چگونگی؟ با تشکر p.s. از توزیع کروی یکنواخت، بله، منظور من کره واحد در $\mathbb{R}^n$ بود، یعنی $S^{n-1} = \\{ s \in \mathbb{R}^n : |s | = 1 \\}$. | ماتریس کوواریانس توزیع کروی یکنواخت |
66108 | من می دانم که آنتروپی معیار تصادفی بودن یک فرآیند/متغیر است و می توان آن را به صورت زیر تعریف کرد. برای یک متغیر تصادفی $X \in$ مجموعه $A$ :- $H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) $. در کتاب آنتروپی و نظریه اطلاعات نوشته مک کی، او این بیانیه را در Ch2 ارائه می دهد که اگر p یکنواخت باشد، آنتروپی حداکثر می شود. به طور شهودی، من می توانم آن را درک کنم، مثلاً اگر همه نقاط داده در مجموعه $A$ با احتمال مساوی $1/m$ انتخاب شوند ($m$ اصلی بودن مجموعه $A$ است)، آنگاه تصادفی بودن یا آنتروپی افزایش می یابد. اما اگر بدانیم که برخی از نقاط در مجموعه $A$ با احتمال بیشتری نسبت به سایرین رخ خواهند داد (مثلاً در مورد توزیع نرمال، جایی که حداکثر غلظت نقاط داده در اطراف میانگین و ناحیه انحراف استاندارد کوچک در اطراف آن است، پس تصادفی بودن یا آنتروپی باید کاهش یابد، اما آیا هیچ دلیل ریاضی برای این مورد وجود دارد. مانند آن، آیا ارتباطی بین آنتروپی که در نظریه اطلاعات رخ می دهد و محاسبات آنتروپی در شیمی (ترمودینامیک) وجود دارد؟ | چرا وقتی توزیع احتمال یکنواخت است، آنتروپی به حداکثر می رسد؟ |
15392 | من علاقه مند به ارزیابی واگرایی، یا شباهت یا عدم شباهت 2 مجموعه داده که نتایج 2 اندازه گیری مختلف ابزار لیدار هستند، هستم. هر مجموعه داده بیش از 90000 مقدار دارد و آنها یک متغیر پیوسته را اندازه گیری می کنند، مثلاً ارتفاع را. هر مجموعه داده دارای یک توزیع دووجهی با دم بلند در حالت دوم است و در 0.8 (Spearman) همبستگی بالایی دارد. من هم تست کولموگروف-اسمیرنوف و هم کولبک-لایبلر را بررسی می کردم. من بسیار نگران هستم که توزیع های من دووجهی و بسیار بزرگ باشد. من می دانم که تست هایی که مقدار p را ارائه می دهند به انواع توزیع و تعداد اندازه گیری ها بسیار حساس هستند. به همین دلیل فکر می کنم که آزمون KS مناسب نیست. بنابراین من فقط با آزمون KL باقی میمانم. اما ..... من تعجب می کنم که چگونه این آزمون تحت تأثیر تعداد داده ها، توزیع، و نحوه تفسیر نتیجه قرار می گیرد. به عنوان مثال، من جمعآوری میکنم که اگر 2 تست KL داشته باشم، برای هر یک حداقل مقادیر در یک مورد 0.5 و مورد دیگر 0.9 است، سپس در مورد اول 2 مجموعه داده کمتر از حالت دوم واگرا هستند. اما چقدر KL باید کوچک باشد تا زمانی که بتوانم بگویم یک مجموعه داده تقریب خوبی از دیگری است؟ البته، حتی این هم قابل بحث است، زیرا من میتوانم به خود واگرایی نگاه کنم، یا اینکه چگونه یک مجموعه داده با دیگری از نظر آماری متفاوت است (این یک تمرین است) یا به شباهت / عدم تشابه تفسیر دادهها یا دادهها نگاه کنم. بگویید در مورد متغیر اندازه گیری شده. پس…. فقط کافی است که من در این مورد فقط به همبستگی ها نگاه کنم؟ شاید من باید داده های خود را در تعدادی از کلاس های راحت طبقه بندی کنم و یک طبقه بندی را با دیگری از طریق آمار کاپا مقایسه کنم؟ شاید این حداقل به من بگوید که آیا تفسیر یک مجموعه داده به اندازه کافی با تفسیر مجموعه داده دوم مشابه است؟ آیا ایده دیگری دارید؟ مراجع؟ من قدردان هر گونه فکری در مورد این موضوع هستم. ## ویرایش با تشکر از پاسخ شما. اکنون متوجه شدم که باید جزئیات بیشتری را وارد می کردم. هر دو داده خام لیدار از یک مرحله پردازش استاندارد عبور می کنند که منجر به یک شبکه xyz منظم با وضوح از پیش تعیین شده (در مورد من 5 متر در 5 متر) می شود. هر دو مجموعه داده مختصات xy یکسانی دارند و فقط z متفاوت است. من می دانم که یک سنسور معمولاً خطای +/- 15 سانتی متر عمودی دارد و احتمالاً دیگری نیز بسیار شبیه است (در واقع می توانم بفهمم). هر دو حسگر در حال جمع آوری داده ها در یک منطقه بودند. ما هیچ حقیقت زمینی برای ارتفاع در آنجا نداریم. ما می خواهیم این داده های پردازش شده را مقایسه کنیم و نه ابر واقعی xyz lidar (به عبارت دیگر نتیجه DEM .....). امیدوارم اکنون این موضوع کمی واضح تر باشد. با تشکر | شباهت / عدم تشابه دو مجموعه داده دووجهی بزرگ |
24657 | سالها پیش خواندم که پژوهشها وقتی میخواهند دادههای نظرسنجی در مورد سؤالاتی به دست آورند که انتظار نمیرود مردم صادقانه به آنها پاسخ دهند، به ترفند خاصی متوسل میشوند، مانند «آیا فرزندانت را میزنی؟». این ترفند مربوط به تصادفی سازی و اختلاط سؤالات بحث برانگیز با سؤالات بی گناه و سپس انجام نوعی تجزیه و تحلیل بود. متأسفانه نمی توانم به یاد بیاورم که نام این روش چیست و دقیقاً چگونه کار می کند. آیا کسی برای من اشاره گر دارد؟ | ترفند در طراحی نظرسنجی برای سوالات مشکل. |
28102 | اخیراً در مورد بستهای خواندهام که معتقدم نامی مانند «tabstat» یا «tablestats» داشت که نمودار بسیار مفیدی از توزیعهای تک متغیره از متغیرهای متعدد برای مجموعههای داده بزرگ تولید میکرد. من معتقدم این بسته توسط گوگل توسعه داده شده است، اما مطمئن نیستم. به نظر نمی رسد آن را در هیچ کجا پیدا کنم (tabstat در گوگل نتایج زیادی را برمی گرداند). اگر من کاملاً دیوانه هستم و این بسته وجود ندارد، چند بسته خوب برای کاوش مجموعه داده های واقعاً عظیم چیست؟ میدانم که plyr روشهایی برای جمعبندی پراکندههای دوبعدی برای کاهش اضافهنقاط دارد، اما هیچ بسته خوب دیگری برای خلاصهسازی بصری مجموعههای داده عظیم نمیشناسم. | بسته R برای تجسم و کاوش مجموعه داده های بزرگ |
28101 | من علاقه مند به یافتن رابطه بین دو سری زمانی (احتمالاً چند بعدی) $x_{1:T}$ و $y_{1:T}$ هستم. من تعجب می کنم که چگونه می توانم این کار را با یک سیستم دینامیکی خطی/فیلتر کالمن انجام دهم. روش من مانند تخمین پارامترهای $\theta$ با EM برای احتمال مشترک $p(x_{1:T}، y_{1:T}، h_{1:T})$ است که در آن $h_{1: T}$ حالت پنهان من است. سپس بگویید که من یک دنباله $x'_{1:T}$ را مشاهده کرده ام، می خواهم با پیدا کردن $p(y'_{1:T}، محتمل ترین دنباله $y'_{1:T}$ را تعیین کنم. |x'_{1:T})$. آیا کسی می داند که آیا این روش استاندارد برای این مشکل است؟ اگر نه، رویکرد استاندارد چیست؟ کسی منبعی میدونه که در این مورد توضیح داده شده باشه؟ | آموزش نقشه برداری از یک سری زمانی به سری دیگر با فیلتر کالمن |
22765 | من سعی می کنم نحوه انتشار انحرافات استاندارد را در یک آزمایش بیولوژیکی بیابم، اما مشکلاتی دارم. من داده های (نیمه) ساختگی زیر را دارم که از تجزیه و تحلیل تصویر منتج به اندازه گیری های چگالی نوری (OD) می شود: ds <- data.frame( Sample = c(rep(seq(1,6,2)), Control.OD = c(7000، 7100، 5600، 5200، 5900، 7000، 8100، 7700، 6100، 5500، 6600، 7500)، هدف. OD = c(1000، 330، 35، 9300، 5570، 8700، 1300، 400، 62، 9100، 5817، 900) c(1,1,1,2,2,2,1,1,1,2,2,2) print(ds) Sample Control.OD Target.OD Group 1 1 7000 1000 1 2 2 7100 330 1 3 3 5600 35 1 4 4 5200 9300 2 5 5 5900 5570 2 6 6 7000 8700 2 7 1 8100 1300 1 8 2 7700 400 1 9 3 6100 62 1 10 4 5500 9100 2 11 5 6600 51020 51072 داده ها را نشان می دهد اندازه گیری های تکراری از یک آزمایش با 6 نمونه بیولوژیکی از دو گروه مختلف. من کارهای زیر را انجام میدهم: # جمعآوری تکثیرهای فنی ds.Agg <- aggregate(cbind(Control.OD، Target.OD) ~ Sample + Group، data = ds، mean) # تغییر نام ستونها برای خواندن آسانتر نامها (ds.Agg)[ names(ds.Agg)==Control.OD] <- Control.mean names(ds.Agg)[names(ds.Agg)==Target.OD] <- Target.mean # محاسبه نسبت اولیه بین هدف و کنترل # این مقداری است که هر ds نمونه بیولوژیکی را نشان می دهد. Agg$Ratio <- ds.Agg$Target.mean / ds.Agg$Control.mean # محاسبه میانگین گروه و sd معمولی (بدون انتشار) ds.group <- aggregate(Ratio ~ Group, data = ds.Agg, mean) ds.group$sd <- aggregate(Ratio ~ Group, data = ds.Agg, sd)$Ratio ds.group$sd.rel < - ds.group$sd / ds.group$ratio * 100 # نتایج چاپ برای روش کلاسیک انجام این کار (نه انتشار) قالب (ds.group، اعداد=3) نسبت گروهی sd sd.rel 1 1 0.07 0.0742 106.0 2 2 1.28 0.4080 31.8 خواندن نهایی این خواهد بود: کتابخانه (ggplot2) # نسخه 0.9.0 png(type = ویندوز، فایل = c:/temp/propagation1.png,width=140,height=200) ggplot(ds.group, mapping = aes(x = factor(Group), y = Ratio)) + geom_bar(width = 0.8, position= dodge) + geom_errorbar(نقشه برداری = aes(ymin = نسبت - sd، ymax = نسبت + sd)، عرض = 0.40، position=position_dodge(عرض = 0.8)) + scale_x_discrete (گروه) + scale_y_continuous(Limits = c(-0.1، 1.7)) + theme_bw() message(dev.off()) ! [خیر انتشار](http://i.stack.imgur.com/RLQzm.png) سپس تلاشی برای انتشار: # محاسبه sd برای موارد تکراری فنی که منتشر خواهند شد sdTmp <- aggregate(cbind(Control.OD, Target.OD) ~ نمونه + گروه، داده=ds، sd) ds.Agg$Control.sd <- sdTmp$Control.OD ds.Agg$Target.sd <- sdTmp$Target.OD # محاسبه sd نسبی منتشر شده مرتبط با نسبت محاسبه شده fltRelativeSd <- with(ds.Agg, sqrt( (Control.sd / Control.mean)^2 + (Target .sd / Target.mean)^2 ) ) ds.Agg$Ratio.sd <- ds.Agg$Ratio * fltRelativeSd ds.Agg$Ratio.sd.rel <- ds.Agg$Ratio.sd / ds.Agg$Ratio * 100 **کد دنبال کردن بزرگترین نگرانی من در محاسبه میزان انتشار است انحراف استاندارد:** # محاسبه sd منتشر شده برای گروه های ds.group$sd.prop <- aggregate(Ratio.sd ~ Group, data = ds.Agg, function(x) {sqrt( sum((x)^2) ) / length(x); })$Ratio **به اینجا.** ds.group$sd.prop.rel <- ds.group$sd.prop / ds.group$Ratio * 100 چاپ مجدد نتایج با انحرافات استاندارد منتشر شده: format( ds.group, digits=3) Group Ratio sd sd.rel sd.prop sd.prop.rel 1 1 0.07 0.0742 106.0 0.0111 15.79 2 2 1.28 0.4080 31.8 0.0418 3.26 و یک گراف: png(type = windows, file = c:/temp/propagation2.png,20gg14,width= mapping = aes(x = ضریب (گروه)، y = نسبت)) + geom_bar (width = 0.8، position=dodge) + geom_errorbar(mapping = aes(ymin = Ratio - sd.prop، ymax = Ratio + sd. پایه)، عرض = 0.40، موقعیت = موقعیت_دوج (عرض = 0.8)) + scale_x_discrete(گروه) + scale_y_continuous(limits = c(-0.1, 1.7)) + theme_bw() message(dev.off()) بنابراین یک خواندن برای انتشار:  انتظار داشتم انحراف معیار در همان محله ای که در نمودار اول، با این حال به نظر می رسد آنها یک عامل 10 پایین تر است. بنابراین افکار/سوالات من در این مرحله: 1. آیا من محاسبه را انجام می دهم؟ | انتشار عدم قطعیت / انحرافات استاندارد در آزمایشات بیولوژیکی |
22768 | من به بحث پیرامون این سوال و به ویژه نظر فرانک هارل فکر میکنم که تخمین واریانس در یک مدل کاهشیافته (یعنی مدلی که تعدادی از متغیرهای توضیحی آزمایش شده و رد شدهاند) باید از درجات آزادی تعمیم یافته Ye's استفاده کند. پروفسور هارل خاطرنشان می کند که این نسبت به درجات آزادی باقیمانده مدل کامل اصلی (با همه متغیرها) بسیار نزدیکتر از مدل نهایی (که تعدادی از متغیرها رد شده اند) است. سوال 1. اگر من بخواهم از یک رویکرد مناسب برای تمام خلاصه ها و آمارهای استاندارد از یک مدل کاهش یافته استفاده کنم (اما در اجرای کامل درجات آزادی تعمیم یافته)، آیا یک رویکرد معقول این است که فقط از درجات آزادی باقیمانده استفاده کنم. مدل کامل در برآورد من از واریانس باقیمانده و غیره؟ سوال 2. اگر موارد بالا درست است و من میخواهم آن را در «R» انجام دهم، ممکن است به سادگی تنظیم finalModel$df.residual <- fullModel$df.residual در نقطهای از تمرین برازش مدل باشد، جایی که finalModel و fullModel با lm() یا یک تابع مشابه ایجاد شد. پس از آن به نظر میرسد توابعی مانند summary() و confint() با df.residual مورد نظر کار میکنند، البته یک پیغام خطایی برمیگردانند که نشان میدهد شخصی به وضوح با شی finalModel آن را مخفی کرده است. با تشکر | درجات آزادی باقیمانده مناسب پس از حذف عبارت از یک مدل |
20040 | > **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ نمی دانم آیا کتاب درسی خودآموز خوبی برای یادگیری ماشین وجود دارد؟ من به ویژه به دنبال کسانی هستم که در سطح کاربردی هستند، نه چندان تئوری. من از یک کتاب سنگین ریاضی بدم نمی آید، تا زمانی که شما بچه ها فکر می کنید برای خودآموزی مناسب است. با تشکر | کتاب خودآموز یادگیری ماشینی؟ |
35704 | > **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ رویکردهای یادگیری ماشینی متعددی وجود دارد. همچنین راههای متعددی برای بهینهسازی پارامترهای آنها و راههای متعددی برای پیشپردازش دادههای شما از قبل وجود دارد. به نظر می رسد که در ابتدا پیاده سازی برخی از رویکردهای خارج از قفسه (SVM، جنگل تصادفی) و سپس تلاش برای شکست دادن دقت با رویکردهای پیچیده تر، یک روش معمول است. میخواهم بدانم که آیا دستورالعملها، توصیهها یا قوانین سرانگشتی وجود دارد که در کدام زمینه از کدام رویکرد استفاده کنم؟ آیا توصیهها مختص داده هستند یا دامنه خاص (مانند ژنتیک، اقتصاد سنجی)؟ همچنین میخواهم بدانم هنگام نوشتن نتایج چگونه باید این تعداد زیادی را در نظر گرفت. آزمودن چند رویکرد و تنها گزارش بهترین روش در نشریه شما نمی تواند معتبر باشد، درست است؟ | قوانین کلی برای انتخاب الگوریتم یادگیری ماشینی؟ |
61457 | من از Matlab برای کشف چند خوشه در یک مجموعه داده استفاده می کنم که دارای متغیرهای عددی (مانند $) و دسته بندی (مثلاً کد پستی) است. من می دانم که برخی از ابزارها می توانند متغیرهای طبقه بندی شده را به عنوان فاکتور کنترل کنند، اما مطمئن نیستم که آیا این مورد برای Matlab است یا خیر. من به دنبال راهی خوب برای نشان دادن متغیرهای طبقهبندی خود هستم و مطمئن نیستم که استفاده از متغیرهای ساختگی بهترین راه باشد. یک ایده این است که هر رقم را از کد پستی من، به عنوان مثال، به عنوان یک متغیر باینری 10 رقمی نشان دهم. با انجام این کار، من 50 متغیر باینری جدید خواهم داشت. سؤالات: * آیا این روش قابل قبولی برای برخورد با این مشکل است؟ * چه راههای دیگر و/یا کارآمدتری برای نمایش متغیرهای طبقهبندی در یک مجموعه داده ترکیبی وجود دارد؟ * آیا من واقعاً نیاز به نمایش عددی متغیرهای طبقه بندی خود دارم یا Matlab واقعاً می تواند مجموعه داده های مختلط را مدیریت کند؟ | نمایش داده های طبقه بندی شده در یک مجموعه داده ترکیبی |
38955 | من به دنبال ایجاد یک مدل حداکثر آنتروپی با استفاده از مقیاس بندی تکراری عمومی هستم. در این فرآیند، من با پروژه SharpEntropy برای دات نت مواجه شدم و از آن به عنوان مرجعی برای پیاده سازی که در حال ساختم هستم استفاده می کنم. همانطور که گفته شد، مثال ساده از مشاهدات زیر استفاده می کند (همه مقادیر اسمی): دمای روز. زمان رطوبت در روز چتر بگیرید (نتیجه) --- ----- -------- ----------- -------------- --------- 1 چتر گرم خشک بدون_چتر 2 چتر سرد خشک بدون_چتر 3 چتر سرد بارانی 4 چتر سرد خشک 5 چتر گرم خشک No_Umbrella 6 Cold Dry Early Umbrella 7 Cold Rainy Early Umbrella 8 Cold Dry Late No_Umbrella 9 Warm Rainy Late No_Umbrella 10 Warm Dry Late No_Umbrella با نگاه کردن به کد، به نظر می رسد که به منظور تولید مدل دودویی ماکزیمم (enpredica) مدل باینری enpredica برچسب ها را می برد _همه ویژگی ها_، مهم نیست که در کجا مقدار پیدا می شود. به این معنی که اگر «گرم» در ستون «رطوبت» بود، آنگاه هنگام تعیین آنتروپی مربوط به تابع باینری «مشاهده گرما» محاسبه میشود. این به نظر من بسیار نادرست است. مسلماً، برای دادههای بالا، به نظر میرسد که کار میکند زیرا همه برچسبها در همه ویژگیها منحصربهفرد هستند. بیایید ویژگی دیگری را به مجموعه بالا اضافه کنیم، دمای روز قبل: دمای روز قبل. دما زمان رطوبت در روز چتر بگیرید (نتیجه) --- ----------- ----- -------- ----------- --- -------------------- 1 چتر گرم گرم خشک بدون_چتر 2 سرد سرد خشک بدون_چتر 3 چتر سرد سرد بارانی 4 چتر گرم چتر سرد سرد 5 چتر گرم گرم خشک بدون_چتر 6 چتر سرد سرد خشک زودرس 7 چتر سرد سرد بارانی زودرس 8 گرم سرد خشک دیر نه_چتر 9 سرد سرد گرم بارانی دیر نه_چتر 10 گرم گرم نه_پخش خشک تابع باینری: // می خواستم این کار را در LaTeX انجام دهم، اما LaTeX-fu من نتوانستم. // برای مثال، f0 خواهد بود. بازگشت (priorTemp == گرم || priorTemp == گرم); این به نظر من اشتباه است، و اینکه شما واقعاً می خواهید _دو_ تابع باینری، یکی برای دمای روز قبل: // f0 return priorTemp == Warm; و سپس یکی برای روز جاری: // f1 return temp == Warm; با این اوصاف، آیا این روش مناسبی برای تولید توابع دودویی است، که هر ویژگی در یک مشاهده، جهان ارزشهای خاص خود را دارد، حتی اگر از نظر معنایی در هنگام در نظر گرفتن جهان بزرگتری از مقادیر (مثلاً دما به طور کلی، معنای مشابهی داشته باشند). در مقابل درجه حرارت در یک روز معین)؟ | چه چیزی باعث می شود که مقادیر دو ویژگی برای اهداف ساخت یک مدل آنتروپی حداکثر برابر باشند؟ |
22762 | من یک 2000 SKU دارم، می خواهم فرآیند ARIMA را برای آنها شناسایی کنم، بهترین راه برای انجام آن چیست؟، از چه ابزارهایی باید استفاده کنم؟ خیلی ممنون روجی | فرآیند شناسایی ARIMA |
3853 | من کد _R_ زیر را برای ایجاد _barplot_ دارم: # ... در اینجا فایل cvs mx <- rbind(results$AVG.P10.) colnames(mx) <- results$RUN rownames(mx) <- AVG P postscript(file=avg_p_result.ps) barplot(mx, beside=T, col=c(خاکستری)، names.arg= results$RUN، cex.axis = 1.5، cex.lab=1.5) من cex.lab=1.5 را امتحان کردم اما اصلا کار نمی کند. | نحوه افزایش اندازه فونت برچسب در بارپلات |
108534 | چگونه می خواهید مشکل زیر را حل کنید؟ شما یک شرکت بیمه هستید که سیاست های جبران خسارت کارگران را می نویسید. شما می خواهید یک توزیع احتمال برای تعداد ادعاهای سالانه یک حساب براساس ویژگی های خاصی بسازید. شما تعیین می کنید که سه متغیر مهم پیش بینی کننده عبارتند از تعداد کارکنان، سطح ریسک اختصاص داده شده (بالا، متوسط، کم) و حالت اولیه که کسب و کار در آن واقع شده است (AL، AK ، ...). شما فکر می کنید توزیع پواسون مدل خوبی خواهد بود، اما اگر سعی کنید یک مدل جداگانه با استفاده از داده های هر ترکیب منحصر به فرد کلاس های متغیر بسازید، داده های کافی برای معتبر بودن ندارید. برای مثال، اگر بخواهید توزیعی را با حسابهای پرخطر AL با 10 کارمند تطبیق دهید، فقط 1 یا 2 مشاهده برای استفاده دارید. چگونه مردم معمولاً این نوع مشکل را حل می کنند. مطمئنم قبلا هزار بار انجام شده است، اما تجربه زیادی در مورد آن ندارم. شاید نوعی GLM؟ چیزی که برای من گیجکنندهتر میشود این است که چگونه میتوانید سه نوع بسیار متفاوت پیشبینیکننده را ترکیب کنید - یک پیشبینیکننده عددی، و یک عامل ترتیبی، و یک عامل غیر مرتب. | تخمین توزیع از یک مجموعه داده با پارامترهای متعدد |
61456 | فرض کنید من دو مجموعه از ضرایب همبستگی پیرسون دارم -- آنها را مجموعه A و مجموعه B می نامیم و اندازه آنها یکسان است. چگونه می توانم به طور سیستماتیک همبستگی های A را با B مقایسه کنم؟ به عنوان مثال، من میخواهم این فرضیه را آزمایش کنم که A کمتر از B است -- چیزی شبیه به آزمون t دو نمونهای، اما مشکل اینجاست که دو نمونه دو نمونه از ضرایب همبستگی هستند. من تحقیقاتی انجام دادم و متوجه شدم که تبدیل z فیشر برای این منظور وجود دارد. اما فقط تفاوت بین یک همبستگی $\rho_1$ را در برابر $\rho_2$ دیگر آزمایش می کند. من نتوانستم راهی برای آزمایش سیستماتیک تفاوت بین مجموعهای از همبستگیها پیدا کنم. آیا چنین راهی وجود دارد؟ یا من فقط می توانم هر جفت همبستگی را با استفاده از روش فیشر مقایسه کنم و به نحوی تفاوت را بدست بیاورم، در صورت وجود؟ | آزمون تفاوت بین 2 مجموعه همبستگی پیرسون |
24659 | من باید 4 متغیر زیر را برای 29 واحد زمان پیش بینی کنم. من تقریباً 2 سال داده تاریخی دارم که 1 و 14 و 27 همه یک دوره (یا زمان سال) هستند. در پایان، من در حال تجزیه به سبک Oaxaca-Blinder در $W$، $wd$، $wc$، و $p$ هستم. زمان W wd wc p 1 4.920725 4.684342 4.065288 .5962985 2 4.956172 4.73998 4.092179 .6151785 3 4.855509 4.724 6028712 . ۵۹۰۳۱۴ ۷ ۴.۶۱۲۵۹۴ ۴.۶۵۶۲۵۳ ۴.۱۳۶۲۷۱ 0.5832723 10 4.736177 4.679152 3.974465 .5843731 11 4.738954 4.759482 4.037036 .5868722 12 4.54611. .556147 13 4.883891 4.750031 4.168203 .602057 14 4.652408 4.703114 4.042872 .6059471 15 4.642408. .5672519 16 4.695732 4.614248 3.998735 .5838578 17 4.633575 4.6025 3.943488 .5914644 18 4.61076 4.61076 .548952 19 4.678374 4.741046 4.060458 .5416393 20 4.48309 4.609238 4.000201 .5372143 21 4.4758.4758. 0.5515663 22 4.555191 4.627404 3.93675 .5542806 23 4.508585 4.595927 3.881685 .5572687 24 4.46717 0.5645944 25 4.326283 4.544351 3.877583 .5738906 26 4.672741 4.599463 3.953772 .5769604 27 4.4738906 0.5831352 28 4.528004 4.622972 3.90481 0.5968299 من معتقدم که $W$ را می توان با $p\cdot wd + (1 - p)\cdot wc$ به اضافه خطای اندازه گیری تقریب زد، اما شما می توانید به طور قابل توجهی ببینید که مقدار $W$ همیشه بیشتر است. به دلیل ضایعات، خطای تقریب یا سرقت این 2 سوال من است. 1. اولین فکر من این بود که رگرسیون خودکار برداری را روی این متغیرها با 1 تاخیر و یک متغیر زمان و دوره برون زا امتحان کنم، اما با توجه به اطلاعات کمی که دارم، ایده بدی به نظر می رسد. آیا روشهای سری زمانی وجود دارد که (1) در مواجهه با «تعداد خرد» عملکرد بهتری داشته باشد و (2) بتواند از پیوند بین متغیرها بهرهبرداری کند؟ 2. از طرف دیگر، مدول های مقادیر ویژه برای VAR همگی کمتر از 1 هستند، بنابراین فکر نمی کنم نیازی به نگرانی در مورد ثابت نبودن داشته باشم (اگرچه تست دیکی-فولر خلاف این را نشان می دهد). به نظر میرسد که پیشبینیها عمدتاً مطابق با پیشبینیهای یک مدل تک متغیره انعطافپذیر با روند زمانی هستند، به جز $W$ و $p$ که کمتر هستند. ضرایب مربوط به تأخیرها عمدتاً معقول به نظر می رسند، اگرچه در بیشتر موارد ناچیز هستند. ضریب روند خطی، مانند برخی از ساختگی های دوره، قابل توجه است. با این حال، آیا دلایل نظری برای ترجیح دادن این رویکرد ساده تر به مدل VAR وجود دارد؟ افشای کامل: من یک سوال مشابه را در Statalist بدون پاسخ پرسیدم. | احمقانه ترین راه برای پیش بینی یک سری زمانی چند متغیره کوتاه |
28109 | چندین سال پیش در مورد مسابقه ای برای ایجاد الگوریتمی برای پیش بینی نتیجه یک بازی فوتبال دانشگاهی خواندم. این مسابقه مجموعه دادههای جامعی از بازیهای سالهای گذشته ارائه کرد. من در آن زمان مجموعه دادهها را دریافت نکردم و به عنوان یک هوادار فوتبال دانشگاهی و آماردان آماتور، آرزو داشتم که داشتم. آیا کسی از مجموعه داده یا منبعی مانند این مطلع است؟ | مجموعه داده فوتبال کالج |
38957 | من اخیراً شروع به بررسی تجزیه و تحلیل بیزی کردهام، و اگرچه شروع به درک چارچوب کلی کردم (یعنی $\text{posterior} \propto \text{likelihood} \times \text{prior}$) من هنوز در بازی کردن با توزیع ها با مشکلاتی روبرو هستم. امیدوارم بتوانم درک دقیق تری از این فرآیندها از طریق مثال های کار شده به دست بیاورم. آنچه در ادامه میآید، ارائهای شبیه الگو از انواع مشکلاتی است که در کتابها و منابع آنلاین مختلف دیدهام - امیدوارم منطقی باشد. فرض کنید میخواهم یک تحلیل بیزی روی برخی از فرآیندها انجام دهم. دادههای جمعآوریشده در این فرآیند در یک دوره زمانی مشخص نشان میدهد که فرآیند معمولاً با واریانس $\sigma$ (معروف) توزیع میشود. با این حال، هدف تحقیق کشف مقدار میانگین ($\mu$) (نامعلوم) است. از محقق دیگری نظر او درباره همین فرآیند پرسیده میشود و مقدار میانگین $\mu_{0}$ با انحراف معیار $\sigma_{0}$ را پیشنهاد میکند. * حال، فرض کنید من میخواستم توزیع قبلی _گاما را از نظر محقق همکار مشخص کنم. پی دی اف در این مورد چگونه خواهد بود؟ (یعنی چگونه میانگین و واریانس را در توزیع گاما تجسم کنم؟) * علاوه بر این، برای کامل بودن، احتمال و pdf های بعدی $\mu$ چگونه به نظر می رسد؟ همانطور که می بینید، بیشتر دستکاری توزیع ها است که باعث مشکلات من می شود. | تعیین شکل توزیع های قبلی، احتمال و پسین برای تحلیل بیزی |
22760 | ما مجموعهای از 40 جعبه داریم که هر کدام یکی از چهار اندازه است (10 عدد از هر کدام به طور مساوی توزیع شده است): sizeA، sizeB، sizeC، sizeD. به شخص ما 1 جعبه از هر اندازه ارائه می شود، باید یک جعبه را از اندازه های مختلف انتخاب کند، سپس سه جعبه باقی مانده برداشته می شود و چهار جعبه جدید از هر اندازه ارائه می شود. من می دانم که این به من $4^{10}$ امکانات می دهد. اما اکنون این را در نظر بگیرید. از 10 جعبه، فرد باید با این اندازه ها تمام شود: 1 سایزA، 2 سایزB، 3 سایزC، 1 سایزD، 3 با هر اندازه. من سعی می کنم بر این اساس بفهمم که الان چند احتمال دارم؟ من فقط یک توسعه دهنده وب هستم که یک پروژه جانبی را امتحان می کنم و با این کار خیلی تازه هستم. | چند امکان برای انتخاب 10 جعبه با اندازه مشخص وجود دارد؟ |
24650 | من مجموعه داده ای از 500 مشاهده دارم و باید بهترین توزیع مناسب را پیدا کنم. اگر به هیستوگرام داده ها و نمودار QQ نگاه کنم، به نظر می رسد که داده های من از توزیع یکنواختی پیروی می کنند. اما آزمون کای دو فرضیه صفر مربوطه را رد می کند و من نمی توانم از آزمون کولموگروف-اسمیرنوف (که فرضیه صفر را رد نمی کند) استفاده کنم زیرا پارامترها از داده ها تخمین زده می شوند. چه توزیعهای دیگری را میتوانم انجام دهم؟ | هنگام تلاش برای تناسب توزیع داده های مشاهده شده، جایگزین های توزیع یکنواخت چیست؟ |
77682 | من دیده ام که در رابطه با انتخاب مدل به آن اشاره شده است، اما به توضیح قطعی آن برخورد نکرده ام. حداکثر اثر مسطح چیست؟ | حداکثر اثر مسطح؟ |
22767 | من تقریباً 15000 ویژگی غیرمستقل برای **هر** دارم که حجم نمونه 100 عددی دارم. به طوری که برای هر ویژگی، 100 مقدار TRUE یا FALSE دارم. چگونه می توانم صحت هر ویژگی را آزمایش کنم و از این طریق درصد ویژگی های با مقدار TRUE قابل توجه را تعیین کنم؟ یک فرضیه صفر مناسب ممکن است این باشد که ویژگی وضعیت TRUE ندارد. مشکل من این است که $\alpha $ 0.05 مربوط به رد فرضیه صفر اگر بیش از 95 TRUES برای یک ویژگی وجود داشته باشد، بسیار زیاد به نظر می رسد. من هیچ مجموعه داده مرجعی برای مقایسه ندارم.  * * * به روز رسانی: پاسخ: استفاده از تست دقیق فیشر. من مطمئن نیستم که از چه پارامترهایی برای جدول احتمالی 2×2 با استفاده از آزمون دقیق فیشر یا آزمون کای دو استفاده کنم. کلاس 1، کلاس 2، نمونه 1 و نمونه 2 چه خواهد بود؟ شمارش واقعی و غیره؟ در اینجا چند ردیف و ستون اول داده ها آمده است: Sample1 Sample2 Sample3 Sample4 Sample5 Sample6 Sample7 Sample8 Sample9 Sample10 Feature1 TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE FALSE Feature2 TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE FALSE Feature4 TRUE FALSE TRUE FALSE TRUE TRUE FALSE TRUE FALSE FALSE Feature5 TRUE FALSE TRUE FALSE TRUE FALSE FALSE FALSE TRUE FALSE FALSE Feature7 TRUE FALSE TRUE FALSE TRUE TRUE FALSE TRUE FALSE FALSE Feature8 FALSE FALSE TRUE FALSE TRUE TRUE FALSE FALSE TRUE FALSE FALSE Feature9 FALSE FALSE FALSE FALSE FALSE FALSE FALSE TRUE FALSE TRUE TRUE FALSE TRUE TRUE FALSE FALSE Feature11 FALSE FALSE TRUE FALSE TRUE TRUE TRUE TRUE TRUE FALSE TRUE Feature12 FALSE FALSE TRUE FALSE FALSE TRUE TRUE FALSE FALSE TRUE TRUE FALSE TRUE Feature14 FALSE TRUE TRUE FALSE FALSE TRUE TRUE TRUE FALSE TRUE Feature15 FALSE TRUE FALSE FALSE FALSE TRUE | آزمون معنی دار بودن بدون مقایسه |
73304 | داده ها: سری زمانی چند متغیره، سری 1) تقاضای یک محصول 2) داده های بارندگی هر دو در سطح ماهانه از 2010-2013 در دسترس هستند. رویکرد: من سعی دارم با استفاده از مدل VAR (خودرگرسیون برداری) اثر بارندگی بر تقاضای محصول را تخمین بزنم. داده های تقاضا دارای مقادیر پرت هستند، مانند یک ماه تقاضای ناگهانی بالا و به دنبال آن مقادیر صفر. **سوال:** چگونه با این موارد پرت رفتار کنم (من در R کار می کنم)، زیرا قبلاً داده های کمی دارم و حذف آنها برای من گزینه ای نیست. | درمان پرت در مدل خودرگرسیون برداری (VAR). |
35539 | نتایج رگرسیون (جزئی) زیر را در نظر بگیرید که در آن مقدار توضیحی 5 متغیر مستقل برای 3 متغیر وابسته اندازه گیری می شود. در این پست به مدل های `(1d)`, `(2d)` و `(3d)` اشاره می کنم. برای هر مدل، ستون اول ضریب، ستون دوم p-value است:  در پایان نامه خود چندین فرضیه را تعریف کردم. ، a.o. 1. اگر «hvVol0LN» افزایش یابد، «حجم معاملات» افزایش مییابد. 2. اگر «hbVol0LN» افزایش مییابد، «بازده» افزایش مییابد. 3. اگر «hbAgreeQ0» کاهش مییابد، «بازده» افزایش مییابد. اکنون زمان بررسی این است که آیا این فرضیات درست بوده اند یا خیر. من فقط میخواهم دوبار بررسی کنم که آیا این نتایج را درست تفسیر میکنم: 1. فرضیه پذیرفته شده: یک رابطه نسبتاً قوی ('r=.146') و از نظر آماری معنادار ('p=.000') وجود دارد. 2. فرضیه رد شده است. این رابطه برای شروع بسیار کوچک است، اما بیشتر از آن از نظر آماری ناچیز است ('p=.142'). این تنها در سطح معنیداری 14.2 درصد معنیدار خواهد بود. فرضیه در سطح 5 درصد پذیرفته شد: رابطه بین «hbAgreeQ0» و «بازده» در واقع منفی و نسبتاً قوی است (r=-.100)، و از نظر آماری در سطح 5 درصد معنی دار بود (005/0=p). اگر «p» بزرگتر از «005.» بود، این رابطه از نظر آماری معنیدار نخواهد بود، زیرا در عمل سطوح معنیداری 1 تا 5 درصد پذیرفته میشود (البته بسته به نوع تحقیق) 4. فرضیه پذیرفته میشود. : رابطه معنی دار است (`000/0=p) اما خیلی قوی نیست (052/0=r) آیا این روش درستی برای توصیف نتیجه hpyothes؟ به عبارت دیگر: * آیا می توانید پذیرش / رد را مستقیماً از خروجی رگرسیون استخراج کنید، و * آیا من مقادیر `r` و `p` را به درستی تفسیر می کنم؟ کمک شما در پایان پایان نامه من بسیار قابل قدردانی است :-) **ویرایش: مقداری خروجی رگرسیون SPSS برای واضح تر شدن منظورم از`r`** | آزمون فرضیه: آیا من نتایج رگرسیون OLS را به درستی تفسیر می کنم؟ |
35530 | گاهی اوقات من تعداد زیادی متغیر پنهان در یک مدل سلسله مراتبی بیزی دارم، اما من فقط به تخمین تبدیل های پیش بینی شده آن متغیرهای پنهان علاقه مند هستم (به عنوان مثال، من یک پارامتر دو جمله ای را به عنوان یک منطق معکوس از مجموعه ای از احتمالا- پارامتر می کنم. متغیرهای کمکی غیرقابل شناسایی، حتی اگر نتیجه مورد علاقه من تخمین پارامتر دو جمله ای است). دگرگونیهای پیشبینیشده اغلب خیلی سریع (بر اساس تشخیصهای همگرایی مانند گلمن/روبین یا با چشم در نمونههای خلفی) همگرا میشوند، حتی اگر متغیرهای پنهان هنوز همگرا نشده باشند. به طور شهودی این منطقی است، مدل ممکن است یک فراپارامترسازی باشد که در آن پارامترهای نهفته قابل شناسایی نیستند - کمیت های مشتق شده در یک منطقه باریک با احتمال بالا از فضای پارامتر متغیرهای تبدیل شده محدود می شوند که به یک فضای بسیار بزرگتر تا حد زیادی مسطح نگاشت می شود. منطقه احتمال (اما محدود) فضای پارامتر متغیر پنهان. بنابراین آیا این شهود درست است که من نگران نباشم که متغیرهای پنهان بیش از حد پارامتر قابل شناسایی نیستند و به طور کامل همگرا نیستند وقتی نمونههای بعدی خود را میگیرم؟ آیا منابع خوبی وجود دارد که در مورد استفاده از متغیرهای پنهان ناشناخته به این روش بحث می کند؟ من برخی از بحثها را در مورد پارامتر بیش از حد برای سرعت بخشیدن به همگرایی mcmc شنیدهام، اما در مورد چگونگی فکر کردن به این موضوع کاملاً روشن نیستم، زیرا به نظر میرسد رویکردها و نگرشها نسبت به پارامتر بیش از حد و غیرقابل شناسایی بودن در روشهای بیزی کمی متفاوت از روشهای بیزی است. سایر زمینه های مدل سازی | متغیرهای پنهان، فراپارامتری و همگرایی MCMC در مدل های بیزی |
37638 | > **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ > کتاب خودآموز یادگیری ماشینی؟ چند کتاب خوب برای الگوریتم های یادگیری ماشین نظری و عملی چیست؟ من به ویژه به دنبال کتابی هستم که مهمترین و برجسته ترین الگوریتم های یادگیری ماشینی را که امروزه استفاده می شود توضیح دهد. همچنین آیا کتاب خوبی برای یادگیری شبکه های عصبی پایه وجود دارد؟ من هم به دنبال تئوری و هم برای کاربرد هستم، بنابراین پیشنهادات در مورد هر کدام خوب است. من فقط یک مبتدی در این زمینه هستم، بنابراین هرچه درک کتاب راحت تر باشد بهتر است! | کتاب الگوریتم های یادگیری/شبکه های عصبی؟ |
35532 | من این مشکل را دارم که در مدل دوجملهای-glmm من با ساختار جلوههای تصادفی تو در تو (30000 ردیف واقع در 30 گروه تو در تو در 25 گروه) نمودارهای تشخیصی خوب به نظر میرسند (تا آنجا که من میتوانم بگویم)، باقیماندهها الگوهای سنگین را نشان نمیدهند و برخی پیش بینی ها حتی قابل توجه هستند. با این حال، $R^2$ 0.055 است. هدف من پیش بینی مقادیر جدید نیست، بلکه فقط درک روابط موجود در مجموعه داده حاضر است. آیا $R^2$ هنوز مهم است؟ یا ممکن است ساختار من مزخرف باشد و در نتیجه منجر به پایین بودن R^2$ شود؟ اطلاعات اضافی: 25 ایستگاه انرژی بادی (WEA) در حال ساخت هستند. در طول ساخت اینها، تصور می شود سطوح سر و صدا بر گرازهای دریایی (گونه های دلفین مانند) تأثیر می گذارد. 30 ایستگاه صوتی وجود دارد که صداهای گراز دریایی (آنها می توانند بین کشتی ها و ماهی ها تفاوت قائل شوند)، مقدار دما و سطوح نویز (SEL) وجود دارد. WEA گاهی اوقات از یک دستگاه نادیده گرفته می شود. هدف این است که بفهمیم آیا این دستگاه در یک بازه زمانی معین منجر به کلیک بیشتر از خوکماهی میشود یا خیر. اندازه گیری ایستگاه ها در طول یک سال و هر دقیقه انجام شد. با این حال، مورد علاقه تنها فاصله 100 ساعت پس از پایان ساخت WEA است. این مرحله HRW (کار مرتبط با ساعت) نامیده می شود. همیشه یک ساخت WEA در هر زمان وجود دارد، نه همه با هم. بنابراین WEA را می توان به عنوان یک رویداد در نظر گرفت. متغیر وابسته: * ppm (شمارش کلیک گراز دریایی در هر دقیقه در طول یک ساعت) بنابراین مقادیر ساعتی * داده های شمارش صفر متورم متغیر مستقل: * SEL اندازه گیری نویز، میانگین در روز (پیوسته) * میانگین دمای روزانه (پیوسته) * کل ساختمان زمان (پیوسته = دقیقه) * مکان x/y ایستگاه ها (هنوز در سیستم جغرافیایی، یعنی 54333) 9,3333) * hrw (فاز زمانی بعد از کار، از 0،1،2،...،100. ایستگاه ها همیشه طول کامل را اندازه گیری نمی کنند، گاهی فقط 17 ساعت) * دستگاه قطع صدا (ضریب باینری) * ماه به عنوان یک فاکتور با 7 سطح (گربه) * WEA ID (گربه، جلوه تصادفی) * ایستگاه صوتی (گربه، اثر تصادفی) * پود در یک ایستگاه، گاهی اوقات سیستمهای اندازهگیری pod-acoutstic در هر ایستگاه رد و بدل شدند (گربه) * به طور بالقوه همچنین 4 کلاس فاصله من افکتهای تصادفی را با (hrw|WEA/station) میسازم، اگرچه هنوز مطمئن نیستم که آیا این طراحی درست است یا خیر. نکته این است که WEA یک رویداد است (25 عدد) در طول یک رویداد 30 ایستگاه ppm را اندازه میگیرند. آیا این متقاطع است یا تودرتو؟ من مطمئن نیستم اگرچه من انتظار همبستگی خودهمبستگی زمانی و مکانی را داشتم، اما هیچ اشاره ای در این مورد نیافتم. امیدوارم این موضوع کمی بیشتر ماجرا را روشن کند. | زمانی که پیشبینی هدف تحقیق نیست، R^2$ چقدر مهم است؟ |
64114 | من چندین طبقه بندی کننده را در یادگیری ماشین یاد گرفته ام - درخت تصمیم، شبکه عصبی، SVM، طبقه بندی کننده بیزی، K-NN، فرآیند مارکوف و غیره. آیا کسی می تواند کمک کند تا بفهمم چه زمانی باید یکی از طبقه بندی کننده ها را بر دیگری ترجیح دهم - برای مثال - در کدام موقعیت (ماهیت مجموعه داده ها و غیره) باید درخت تصمیم را به شبکه عصبی ترجیح دهم یا اینکه SVM در کدام وضعیت ممکن است بهتر از بیزی عمل کند. انواع مشکلات برای اعمال درخت تصمیم، شبکه عصبی، k-nn، فرآیندهای مارکوف یا SVM یا بیزی مناسب هستند. با تشکر | مشکلات مناسب برای انواع مختلف طبقه بندی کننده های ML |
38952 | اجازه دهید $X_1$ و $X_2$ نرمال دو متغیره با میانگین $\mu=(0,\mu_2)$، برای هر $\mu_2$، و همبستگی $\rho$ باشد. نابرابری زیر را در نظر بگیرید: \begin{align*} Pr\left\\{|X_1| \ge \Phi^{-1}(1-\alpha/2)، |X_2| \ge \Phi^{-1}(1-\alpha/2)\right\\} \le 2Pr\left\\{|X_1| \ge \Phi^{-1}(1-\alpha/4)، |X_2| \ge \Phi^{-1}(1-\alpha/2)\right\\} \end{align*} آیا نابرابری برای همبستگی $|\rho| \le 1 دلار؟ آیا نتایج مرتبطی در مورد توزیع نرمال دو متغیره عمومی وجود دارد؟ | نابرابری برای توزیع نرمال دو متغیره |
31855 | برنامه من این است: * یافتن منبع داده در مورد زمان و مکان تصادفات در ایالات متحده 101 * یافتن منبع داده در مورد حجم ترافیک در همان جاده * داده ها را زیر مجموعه ای قرار دهید تا فقط تصادفاتی را که در US101 بین سانفرانسیسکو و پالو آلتو. * تصادفات را بر حجم ترافیک برای بازه های زمانی کوچکی که بتوانم داده های حجم ترافیک را دریافت کنم، تقسیم کنم. به عنوان مثال، اگر بتوانم حجم ترافیک در ساعت را بدست بیاورم، عالی خواهد بود، زیرا در این صورت می توانم میانگین # تصادف در آن ساعت در یک روز معین را بر حجم ترافیک در آن پنجره تقسیم کنم و سپس فرض کنم، به دلیل عدم وجود یک ایده بهتر این است که هر خودرو شانس مساوی برای درگیر شدن دارد. شاید بتوانم اطلاعاتی در مورد سطوح مختلف خطر براساس سن راننده یا نوع خودرو دریافت کنم، اما تصور میکنم شرکتهای بیمه این دادهها را در اختیار دارند و به احتمال زیاد به اشتراک نمیگذارند. پیشنهادات برای منابع داده بسیار مورد استقبال قرار می گیرد. حتی اگر مجبور باشم کار بدی مانند ضرب کردن ریسک ملی در حجم ترافیک انجام دهم، فعلاً به اندازه کافی خوب است، مشکل اصلی من دریافت داده است. هر گونه پیشنهاد هوشمندانه قدردانی می شود. (FYI: این فقط برای منافع شخصی است) | چگونه می توانم احتمال تصادف رانندگی در US101 را بر اساس روز هفته و ساعت روز تخمین بزنم؟ |
77686 | من در یک پروژه سرگرمی کار می کنم، و برای مشکل زیر کمک می خواهم: من اطلاعات قیمت را از یک بازار اینترنتی می گیرم، بنابراین اگر یک کلمه کلیدی (مثلاً قاب آیفون) ارائه کنم، می خواهم آن را دریافت کنم. 500 مورد اول که در آن بازار نمایش داده می شود، همراه با قیمت آنها. سوال من این است که چگونه می توانم توزیع قیمت را به درستی تجسم کنم تا بتوانم اطلاعات معناداری به دست بیاورم؟ من نمودارهای پراکنده را امتحان کرده ام، اما فکر نمی کنم نمودار چیز زیادی در مورد قیمت ها در آن بازار به من بگوید:  من همچنین سعی کردم میانگین و انحراف معیار را در نمودار پراکنده ترسیم کنم، اما مطمئن نیستم که آیا گلابی و سیب را با هم مخلوط میکنم، وقتی آن مقادیر را به صورت پراکنده ترسیم میکنم. نمودار من نه یک داده کاوی هستم و نه یک فرد آماری. من این کار را فقط به عنوان یک سرگرمی انجام می دهم و از این پروژه کوچک به عنوان یک تجربه یادگیری شخصی استفاده می کنم. هر گونه کمکی بسیار قدردانی خواهد شد. | چگونه توزیع قیمت در بازار را تجسم کنیم؟ |
31851 | در آمار از دو عبارت توزیع نرمال و توزیع نرمال استاندارد استفاده می شود. آیا عبارت استاندارد به توزیع نرمال کمک می کند؟ لطفاً در پشت این عبارات، یک دلیل ساده اما منطقی ارائه دهید. | تفاوت بین توزیع نرمال و توزیع نرمال استاندارد چیست؟ |
77687 | من داشتم مقاله ام. کالینز را می خواندم که پرسپترون ساخت یافته را معرفی می کرد (این یک پیوند است). من نمی فهمم منظور از آموزش تبعیض آمیز HMM چیست. چگونه می توان یک مدل مولد را به شیوه ای تبعیض آمیز آموزش داد؟ (و دقیقاً به چه معناست) | آموزش تبعیض آمیز چیست؟ |
55229 | از نظر قاعدهبندی $\ell_1$، یک راه طبیعی برای گنجاندن پراکندگی در یک مدل بیزی، اضافه کردن یک پیشین لاپلاسی به نظر من است. اما به جای این، یک روش معمول برای رسیدگی به پراکندگی در مدل بیزی، روشی است که در مقاله یادگیری پراکنده بیزی و ماشین بردار ارتباط پیشنهاد شده است. تفاوت این دو در عمل چیست؟ آیا مطالعات تطبیقی در مورد آنها وجود دارد؟ متشکرم. | چرا روشهای بیزی از طریق احتمال نرمال و گاماهایپرپیور به پراکندگی میرسند؟ |
12386 | به نظر من منابعی مانند کتاب آشپزی احتمالات و آمار و کارت مرجع R برای داده کاوی بسیار مفید هستند. بدیهی است که آنها به خوبی به عنوان مرجع عمل می کنند، اما همچنین به من کمک می کنند تا افکارم را در مورد یک موضوع سازماندهی کنم و به نظرم اهمیت بدهم. س: آیا چیزی مانند این منابع برای روش های یادگیری ماشین وجود دارد؟ من یک کارت مرجع را تصور می کنم که برای هر روش ML شامل موارد زیر می شود: * ویژگی های عمومی * زمانی که روش به خوبی کار می کند * زمانی که روش ضعیف عمل می کند * روش از کدام یا به کدام روش دیگر تعمیم می یابد. آیا عمدتاً جایگزین شده است؟ * مقالات اساسی در مورد روش * مسائل باز مرتبط با روش * شدت محاسباتی همه این موارد را می توان با کمی حفاری در کتاب های درسی پیدا کرد. داشتن آنها در چند صفحه واقعاً راحت خواهد بود. | کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ |
32627 | اگر بخواهم عملکرد PCA و PLS را با داده های غیرخطی مقایسه کنم، چه چیزی را باید اندازه گیری کنم؟ من می دانم که می توانم از MSE استفاده کنم (اما اگر از نمایه خطی استفاده نکنم، نمی توانم پارامترهای رگرسیون خطی را تخمین بزنم، پس چگونه آن را محاسبه کنم؟ برای PLS، داده ها باید از توزیع نرمال پیروی کنند یا این یک روش بدون نظارت است که برای تکنیک های کاهش ابعاد به من پیشنهاد می کنید؟ | مقایسه عملکرد بین تکنیک های کاهش |
51763 | من در استفاده از SPSS تازه کار هستم و با رویه General Linear Model [که فقط مدل خطی است] گیر کردم. من 8 متغیر شناختی مانند تأخیر، thigmotaxis، فضایی، ربع، ربع nt، مجاورت، نزدیکی nt و سرعت فعال دارم. همه اینها در روزهای 1،2،3،4 و 5 مورد تجزیه و تحلیل قرار گرفتند و برای چهار گروه رژیم غذایی مختلف و تنها یک جنسیت (مونث) مورد آزمایش قرار گرفتند. رئیس من می خواهد تفاوت معنی داری را در میانگین بین روزها و رژیم های غذایی پیدا کند و آن را به عنوان جدول با استفاده از GLM نشان دهد. من فقط با یک متغیر با استفاده از اندازهگیریهای مکرر GLM امتحان کردم، اما نمیدانم کدام مقدار p باید گزارش شود. من تا اینجا می دانم که باید برویم به تحلیل> مدل خطی عمومی> اندازه گیری های مکرر> درون موضوع (وارد شده به عنوان زمان)> سطوح (وارد شده به عنوان 5)> تعریف> متغیرهای درون موضوعی (انتخاب شده برای همه روزها)> بین موضوع ها (رژیم غذایی وارد شده)> کنتراست (تکرار شده)> گزینه ها (emmeans)> خوب. **من هنوز متوجه نشده ام که چگونه مقادیر p همانطور که در تصویر زیر نشان داده شده است به دست آمده است**. من جدولی ندیدم که اینطور یا چیزی شبیه به این را نشان دهد. نمی دانم اینجا چه چیزی را از دست داده ام. داده های من در Means +/- SEM و N است.  | برای یافتن تفاوت معنادار بین میانگین ها با استفاده از اندازه گیری های مکرر GLM |
101240 | من میدانم چگونه EIGN را با دست محاسبه کنم، اما وقتی میخواهم کد بدون تابع EIGN() بنویسم، سرنخی نداشتم. برای محاسبه مقدار ویژه، شمارش تمام c های ممکن در det(A-c*I)=0 است. A ماتریس و c یک عدد است. | چگونه بدون استفاده از تابع ()eign با R محاسبه کنیم؟ |
51764 | صبح بخیر، برای یک تکلیف از ماشینهای بردار پشتیبان (طبقهبندی) با هسته RBF، اعتبارسنجی متقاطع k-fold=10، هزینه نقض محدودیتها=100 و گاما=0.001 استفاده کردم. عالی کار می کند و پیش بینی های من بسیار خوب است. با این حال، ما ندیدیم که چگونه مدل را در شرایط ریاضی فرمول بندی کنیم (خب ما اصلاً قرار نیست svm را در دوره پوشش دهیم)، و معتقدم مهم است. من کتاب های هستی و دیگر کتاب ها را مرور کردم، اما هنوز نمی دانم چگونه این مدل را فرموله کنم. آیا کسی می تواند مرا در مسیر درست راهنمایی کند؟ ممنون، دیگو | فرمول بندی ریاضی مدل SVM |
35531 | می دانم که چند سوال می پرسم و از این بابت عذرخواهی می کنم. با این حال من سعی خواهم کرد راه حل ها را بخوانم و نقاط ضعف نظریه خود را بشناسم. اینجاست: اگر $u=x\cos \theta+y\sin\theta$ و $v=y \cos \theta-x\sin\theta$. متغیرهای $u$ و $v$ همبستگی ندارند، پس چگونه می توانم ثابت کنم که $$\tan 2\theta=\frac{2r_{xy}s_xs_y}{s_x^2-s_y^2}$$ جایی که $r_{ xy}$ ضریب همبستگی بین $x$ و $y$ است و $s_i$ انحراف استاندارد یک متغیر $i$ است. ببخشید که بدون زحمت زیاد سوال میپرسم، اما الان اواخر شب است و باید به زودی عیوبم را شناسایی کنم. | محاسبه $\tan 2\theta$ بر حسب ضرایب همبستگی و واریانس |
35537 | من سعی میکنم در یک مطالعه منتشر شده، نرخ طبقهبندی اشتباه را تعیین کنم، جایی که نتایج شامل این مقدار نمیشود. با این حال، من نتایج «حساسیت»، «ویژگی»، «مقدار پیشبینی مثبت» و «ارزش پیشبینی منفی» را دارم. نتایج عبارتند از: حساسیت ویژه PPV NPV 69.9 99.3 95.6 93.7 حجم نمونه 860 است. به نظر من این را می توان با استفاده از مجموعه ای از 4 معادله همزمان حل کرد، اما جبر من در حد کار نیست. اگر از حروف زیر برای جایگزینی در معادلات استفاده کنیم: * a = مثبت واقعی * b = مثبت کاذب * c = منفی کاذب * d = منفی واقعی، مجموعه معادلات همزمان به نظر می رسد: a/(a+c)= 0.699 (یعنی حساسیت) b/(b+d)=.993 (یعنی ویژگی) a/(a+b)=.956 (یعنی PPV) d/(c+d)=.937 (یعنی NPV) عبارات کسری موجود در معادلات مرا دیوانه کرده است. مطمئناً شخص دیگری باید در گذشته همین مشکل را داشته باشد و آن را حل کرده باشد، اما من نتوانستم یک حسابگر آماده برای حل این مشکل پیدا کنم. وقتی بدانم چهار مقدار چیست، می توانم به راحتی نرخ طبقه بندی اشتباه را محاسبه کنم. من از هرگونه کمکی در مورد این مشکل محاسبه برگشتی قدردانی می کنم. من در اینجا پست گذاشتهام زیرا فکر میکنم یک اپیدمیولوژیست یا آمارشناس زیستی محتملترین نوع فردی است که میتواند پاسخ دهد و ممکن است سؤالات ریاضی را نخواند. | تخمین نرخ طبقه بندی اشتباه از مقادیر طبقه بندی خلاصه |
56756 | من در حال طراحی مطالعه ای هستم تا مقایسه کنم که آیا یک درمان خاص کیفیت زندگی را بهبود می بخشد یا خیر. من از یک نمونه راحت ($N=20$) استفاده می کنم. امیدوارم بتوانم سه پرسشنامه مختلف را برای هر آزمودنی قبل و بعد از مداخله (همه تایید شده و استاندارد شده) اجرا کنم تا معیارهای قبل و بعد از کیفیت زندگی را با هم مقایسه کنیم. یکی از پرسشنامه ها به شدت و فراوانی علائم قبل و بعد از درمان می پردازد. من امیدوارم که نتایج را تجزیه و تحلیل کنم تا نشان دهم که آیا علائم بهبود یافته اند و اگر وجود داشته باشد چه تأثیری بر کیفیت زندگی هر یک از افراد دارد. آیا باید از آزمون های t زوجی استفاده کنم؟ | چگونه می توان تفاوت در 3 معیار مرتبط ارزیابی شده قبل و بعد از درمان را در یک نمونه آزمایش کرد؟ |
10519 | اگر سری های زمانی زیادی داشته باشم که می خواهم آنها را با هم مقایسه کنم تا ببینم آیا روابطی بین متغیرها وجود دارد، (من چندین متغیر وابسته و متغیرهای مستقل بیشتری دارم) چگونه می توانم این کار را انجام دهم (من در R کار می کنم، فقط فیی)؟ من واقعاً مثالهای زیادی برای مقایسه و کشف روابط بین بسیاری از متغیرها پیدا نکردهام. به طور خاص، میخواهم ببینم آیا تغییر در سریهای زمانی مستقل من باعث ایجاد تغییرات در سریهای زمانی وابسته میشود یا خیر، و من آنقدر با آمار (و R) تازه کار هستم که واقعاً مطمئن نیستم چگونه به این مشکل نزدیک شوم. در اینجا برخی از داده های نمونه وجود دارد (من می دانم که 2 مقدار گم شده وجود دارد، و ممکن است Y2 را به عنوان یک متغیر مستقل در نظر بگیرم زیرا فکر می کنم Y2 و Y1 ممکن است همبستگی داشته باشند. ستون با عنوان متغیر کمکی سال ها از آخرین سیل است، زیرا فکر می کنم این نیز ممکن است مهم باشد): سال Y1 Y2 X1 X2 X3 X4 X5 متغیر کمکی 1 40 92 0 0 20.6 91 503 3 2 54 65 0 0 21.7 33 175 4 3 59 75 1 1 22.2 34 94 5 4 68 53 8 9 22.2 24 86 6 5 5 20 20.6 5 185 223 7. 119 8 7 76 55 16 18 23.3 0 153 9 8 82 58 18 2 24.4 19 0 1 9 60 57 28 24 23.33 0 223 2 10 58 421 421. 49 48 2 1 23.33 0 110 4 12 28 76 0 3 22.78 0 213 5 13 56 61 0 1 22.78 12 123 6 14 105 53 53 239 2423 28 13 24.44 0 154 8 16 119 47 46 35 23.33 0 182 9 هر گونه راهنمایی بسیار قدردانی خواهد شد زیرا من واقعاً مطمئن نیستم که چگونه در اینجا ادامه دهم. | مقایسه چند سری زمانی در R |
29757 | > **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ هر طبقه بندی کننده مزایا و معایب خاص خود را دارد. به عنوان مثال سرعت قطار/آزمایش، طبقهبندی/رگرسیون (و تعداد کلاسهایی که میتوان آنها را مدیریت کرد)، چند درجه آزادی، مناسب/نامناسب برای انواع مجموعه دادههای انتزاعی (که ممکن است بگوییم)، مدل حاصل چقدر قابل تفسیر است (مانند حداکثر -ent: اهمیت ویژگی های منفرد)، و غیره و غیره آیا یک نمای کلی خوب می شناسید؟ اگر نه، آیا می خواهید یکی را ایجاد کنید؟ | مروری بر طبقه بندی کننده های (متداول) و ویژگی های آنها |
93532 | آیا درست است که بگوییم هدف طبقهبندیکننده (به عنوان مثال K-NN، رگرسیون لجستیک، LDA) تقریبکردن مرز تصمیم بیز است؟ | مرز تصمیم بیز و طبقه بندی کننده |
31858 | به نظر می رسد که اگر من یک مدل رگرسیونی مانند $y_i \sim \beta_0 + \beta_1 x_i+\beta_2 x_i^2 +\beta_3 x_i^3$ داشته باشم، میتوانم یک چند جملهای خام را جا بزنم و نتایج غیرقابل اعتمادی به دست بیاورم یا چند جملهای متعامد و ضرایبی را دریافت کنید که تفسیر فیزیکی مستقیم ندارند (مثلاً نمی توانم از آنها برای پیدا کردن مکان های اکسترم روی مقیاس اصلی). به نظر می رسد که من باید بتوانم بهترین های هر دو جهان را داشته باشم و بتوانم ضرایب متعامد برازش شده و واریانس آنها را به مقیاس خام تبدیل کنم. من یک دوره تحصیلات تکمیلی را در رگرسیون خطی کاربردی (با استفاده از Kutner، 5ed) گذراندهام و فصل رگرسیون چند جملهای را در Draper نگاه کردم (3ed، که توسط Kutner به آن اشاره شده است) اما هیچ بحثی در مورد چگونگی انجام این کار پیدا نکردم. متن راهنما برای تابع «poly()» در R وجود ندارد. همچنین در جستجوی وب خود، از جمله اینجا، چیزی پیدا نکردم. آیا بازسازی ضرایب خام (و به دست آوردن واریانس آنها) از ضرایب برازش شده به یک چند جمله ای متعامد... 1. غیر ممکن است و من وقتم را تلف می کنم. 2. ممکن است اما در حالت کلی معلوم نیست. 3. ممکن است اما مورد بحث قرار نگرفت زیرا چه کسی می خواهد؟ 4. ممکن است اما مورد بحث قرار نگرفت زیرا این واضح است. اگر پاسخ 3 یا 4 است، اگر کسی حوصله داشته باشد توضیح دهد که چگونه این کار را انجام دهد یا به منبعی که این کار را انجام می دهد اشاره کند، بسیار سپاسگزار خواهم بود. اگر 1 یا 2 باشد، باز هم کنجکاو هستم که بدانم مانع چیست. از اینکه این مطلب را خواندید بسیار متشکرم و اگر نکته بدیهی را نادیده گرفتم پیشاپیش عذرخواهی می کنم. | بازیابی ضرایب خام و واریانس از رگرسیون چند جمله ای متعامد |
73301 | من یک نمونه از 197 پاسخ دارم. 8.6٪ (17) از گروه A، بقیه از گروه B هستند. (گروه ها متقابلاً منحصر به فرد هستند و مستقل نیستند). (اگر به تجسم مسئله کمک کند، گروه A زیر 10 سال است، گروه B پاسخ دهندگان بالای 11 سال.) سپس پاسخ ها بر اساس نوع به گروه ها طبقه بندی می شوند. نوع 1 آسیب سر است و 3 نفر از این گروه هستند. 2 نفر از گروه B، 1 از گروه A است. من انتظار دارم که نتایج برای آسیب سر کمتر از 10 (گروه A) و آسیب سر: 0.3 زیر 10 و بدون آسیب سر: 16.7 بیش از 10 (گروه B) و آسیب سر باشد. : 2.7 بیش از 10 و بدون آسیب به سر: 179.3 از چند دوست پرسیده ام که چگونه می توان آزمایش کرد که آیا مقدار مورد انتظار بسیار کمتر از مقدار مشاهده شده قابل توجه است یا خیر. به نظر می رسد که تاکنون پاسخ ها به نفع آزمون Z یا آزمون مجذور کای با تصحیح برای اعداد بسیار کوچک هستند. تعداد من بسیار زیاد است، اما می توانم به اندازه کافی خوب مدیریت کنم -- فقط مطمئن نیستم که آزمون مناسب در اینجا چیست؟ | چگونه می توان در جداول اقتضایی با اعداد و نسبت های بسیار کم ارتباط را آزمایش کرد؟ |
56757 | من دو سوال کلی در مورد توابع پاسخ ضربه ای در R با استفاده از بسته **vars** دارم. به این کد نگاهی بیندازید: library(vars) data(Canada) var.2c <- VAR(کانادا، p = 2، نوع = const) plot(irf(var.2c، impulse = e، پاسخ = c(prod، rw، U)، boot = T)) پاسخهای ضربهای به شوک در متغیر e را ایجاد میکند. سوالات من: 1. آیا این یک شوک مثبت یا منفی در e؟ 2. با فرض یک شوک مثبت، چگونه می توانم آن را به شوک منفی تبدیل کنم؟ فکر می کنم شوک ها در یک مدل VAR متقارن هستند، بنابراین برای به دست آوردن شوک منفی باید علامت تابع پاسخ ضربه را تغییر دهم؟ تا اینجا درست میگم؟ با تشکر برای هر گونه کمک! | شوک های مثبت و منفی در مدل VAR و تابع پاسخ ضربه در R |
38488 | من به دنبال توضیح مبتنی بر مثال برای HMM هستم. چگونه است که HMM مدل P(O|HMM) دارد 2T* N^T (T طول مشاهده است، N تعداد حالت های پنهان است.) و چگونه این با الگوریتم رو به جلو و عقب حل می شود. من به چند مثال نیاز دارم \- پیشاپیش متشکرم | الگوریتم رو به جلو و عقب برای HMM |
51769 | من اطلاعات کمی در مورد قوانین مسابقات فوتبال دارم، یک سوال وجود دارد که نمی توانم درک کنم. نمودار نقطه زیر تعداد گل های زده شده توسط 20 تیم را نشان می دهد که در بازی های فوتبال دبیرستان یک شهر در یک روز خاص بازی می کنند. لطفا از کد زیر برای ایجاد نقطه نقطه استفاده کنید. یک <- c(0,1,1,1,1,2,2,2,2,2,2,3,3,3,4,4,5,5,7,10) (A, روش = stack, offset = 0.5, at = .15, pch = 19,xaxt=n) axis(1, at = 0:9, labels = 0:9) 1. یک سوپراستار شش گل زد، اما تیمش باز هم شکست خورد، همه امتیازهای نهایی ممکن برای آن بازی چیست؟ توضیح دهید. 2. آیا ممکن است تمام تیم هایی که دقیقا دو گل به ثمر رسانده اند بازی های خود را ببرند؟ توضیح دهید. پاسخ ها: 1. اگر بازیکن 6 گل زده باشد، تیم او باید 7 یا 10 گل زده باشد، اما شکست خورده است، بنابراین 7 گل زده است و تنها امتیاز نهایی ممکن این است که با نتیجه 10 بر 7 شکست خورده باشد. 2. نه، شش تیم بودند که دقیقا دو گل زدند، اما فقط پنج تیم بودند که کمتر از دو گل زدند، بنابراین همه تیم های دو گل نمی توانستند برنده شوند. من بارها و بارها پاسخ را خواندم، اما هنوز نفهمیدم. | قانون مسابقه فوتبال من را متحیر کرد |
19516 | من میخواهم رگرسیون بتا چند سطحی را با دو سطح اجرا کنم (سالهای تو در تو در پیکسلهای جغرافیایی). من در مورد betareg می دانم، اما تا آنجا که می دانم گزینه چند سطحی ندارد. با تشکر | بسته رگرسیون بتا چند سطحی برای R؟ |
112668 | من سعی می کنم داده ها را با تابع Holt-Winters در R مطابقت دهم. با این وجود، پیام زیر را دریافت می کنم: ts1<-ts(data$nb_decl,frequency=53) hw1<-HoltWinters(ts1) پیام هشدار: در HoltWinters(ts1) : مشکلات بهینه سازی: خطا: ABNORMAL_TERMINATION_IN_LNSRCH تعداد «داده» 313 خط و اگر فقط آخرین مقدار را حذف یا تغییر دهم (یا مقدار 314 را اضافه کنم)، کد کار می کند ... آیا من کار اشتباهی انجام می دهم؟ یا مشکل اطلاعات من چیست؟ داده های مورد استفاده را در زیر ببینید: هفته داده سال nb_decl 1 00 2006 0 2 01 2006 0 3 02 2006 0 4 03 2006 1 5 04 2006 0 6 05 2006 1 7 06 06 2006 1 7 06 06 2006 2006 0 10 09 2006 0 11 10 2006 1 12 11 2006 0 13 12 2006 2 14 13 2006 1 15 14 2006 1 16 15 2006 1 16 15 2006 1 16 15 2006 2006 0 19 18 2006 1 20 19 2006 0 21 20 2006 0 22 21 2006 0 23 22 2006 0 24 23 2006 1 25 24 2006 1 25 24 2006 2006 2006 1 28 27 2006 0 29 28 2006 1 30 29 2006 0 31 30 2006 0 32 31 2006 0 33 32 2006 0 34 33 2006 0 34 33 2006 2006 0 34 33 2006 2006 0 37 36 2006 1 38 37 2006 0 39 38 2006 0 40 39 2006 0 41 40 2006 1 42 41 2006 1 43 42 2404 2004 1 43 42 2404 2006 0 46 45 2006 1 47 46 2006 3 48 47 2006 2 49 48 2006 4 50 49 2006 2 51 50 2006 1 52 51 2006 1 52 51 2006 1 52 51 2006 2007 0 55 02 2007 1 56 03 2007 1 57 04 2007 1 58 05 2007 0 59 06 2007 2 60 07 2007 0 61 08 2007 2007 0 61 08 2007 2007 1 64 11 2007 1 65 12 2007 1 66 13 2007 1 67 14 2007 1 68 15 2007 1 69 16 2007 1 70 17 2007 2007 1 70 17 2007 2007 1 73 20 2007 0 74 21 2007 0 75 22 2007 3 76 23 2007 0 77 24 2007 0 78 25 2007 1 79 26 2807 2007 1 79 26 2007 2007 0 82 29 2007 1 83 30 2007 0 84 31 2007 0 85 32 2007 1 86 33 2007 0 87 34 2007 2 88 35 2007 288 31 2007 288 35 2007 2007 1 91 38 2007 1 92 39 2007 2 93 40 2007 0 94 41 2007 3 95 42 2007 0 96 43 2007 0 97 44 2004 2007 0 97 44 2007 2007 0 100 47 2007 0 101 48 2007 0 102 49 2007 0 103 50 2007 1 104 51 2007 1 105 52 2007 0 10107 0 10207 1 108 01 2008 9 109 02 2008 0 110 03 2008 0 111 04 2008 1 112 05 2008 0 113 06 2008 0 114 07 2008 0 114 07 2008 0 114 07 2008 09 2008 2 117 10 2008 2 118 11 2008 1 119 12 2008 0 120 13 2008 0 121 14 2008 3 122 15 2003 2003 1621 1621 2008 1 125 18 2008 2 126 19 2008 1 127 20 2008 1 128 21 2008 1 129 22 2008 1 130 23 2008 2 121208 2 121212 1 133 26 2008 0 134 27 2008 0 135 28 2008 3 136 29 2008 0 137 30 2008 4 138 31 2008 1 139 3208 2008 1 139 32 2008 34 2008 1 142 35 2008 2 143 36 2008 0 144 37 2008 1 145 38 2008 0 146 39 2008 0 147 40 2008 4124 2008 2 150 43 2008 1 151 44 2008 0 152 45 2008 1 153 46 2008 2 154 47 2008 0 155 48 2008 3 121508 3 121507 2 158 51 2008 0 159 52 2008 0 160 00 2009 2 161 01 2009 3 162 02 2009 3 163 03 2009 2 164 04 2009 2 164 04 2009 06 2009 1 167 07 2009 1 168 08 2009 1 169 09 2009 2 170 10 2009 3 171 11 2009 1 | Holt-Winters و ختم غیرعادی در LNSRCH |
16323 | من یک مدل خطی را تخمین می زنم و سپس یک ماتریس کوواریانس واریانس مقاوم ناهمگونی (سفید) را محاسبه می کنم. این به من اجازه می دهد تا موارد زیر را انجام دهم (که در آن «hr.cov» ماتریس کوواریانس قوی است): > coeftest(model, hr.cov) t آزمون ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 157.146959 14.760426 10.6465 8.99e-15 *** x 0.134499 0.033050 4.0696 0.0001525 0.0001520 *** 320.320 *** 1.3041 0.1978438 x:d 0.068120 0.047416 1.4366 0.1566992 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 من می خواهم یک آزمایش یک طرفه انجام دهم که آیا d<0 (بر خلاف 0 در هر دو جهت که در بالا نشان داده شده است). من می خواهم بتوانم چیزی مانند test(model,d<0,hr.cov) را تایپ کنم. چگونه باید در این مورد اقدام کنم؟ | چگونه می توان آزمون ضریب را در مدل خطی با ماتریس کوواریانس قوی انجام داد؟ |
93535 | من بردار داده زیر را دارم (در واقع طول نقاط داده «2392» آن است): > (dput(head(data, 35))) c(0.009917216، 0.158975732، -0.008065753، -0.018648987، 0.018648987، 0، 0، 03، 0196-0. -0.108234184، 0، -0.151124958، -0.049062385، -0.12970766، 0، -0.281741056، -0.04834985، -0.0259231957، 0.0259231957، 0.025923957، 0. 0.080834965، 0.457401398، -0.007328027، -0.026647639، 0، 0.146048389، 0.059651004، -0.115781325، -0.115781325، -70. -0.025330951، -0.011990763، 0، -0.051658383، -0.054335988، -0.190313988، -0.031937749، -0.000498226، -0.000498226، -0. 0.108053675) اکنون میخواهم یک آزمون رتبهبندی علامتدار wilcoxon غیر پارامتری برای این قاب داده انجام دهم: > (Wilcox.test(data)) آزمون رتبه علامتدار Wilcoxon با دادههای تصحیح پیوستگی: داده V = 1100747، p-value = 8.992e-12 فرضیه جایگزین: مکان واقعی برابر با 0 نیست همانطور که می بینید V بسیار زیاد است و I فکر کنید بنابراین احتمالا اشتباه است. توصیه ای دارید که من چه کار اشتباهی انجام می دهم؟ چیزی که من شخصا فکر می کنم این است که ورودی R من ممکن است اشتباه باشد. هر گونه توصیه ای که چگونه می توان آن را بسیار بیشتر برای آزمون رتبه بندی امضا شده غیر پارامتریک Wilcoxon مشخص کرد. من واقعا از پاسخ شما قدردانی می کنم! | آزمون رتبه امضا شده غیر پارامتریک Wilcoxon |
114184 | به طور خاص، آیا مدلهای رگرسیون دو جملهای وجود دارد که از هستهای با دنبالههای سنگینتر و کشش بالاتر نسبت به هستههای استاندارد (لجستیک/پروبیت/کلاگ) استفاده میکند؟ به عنوان تابعی از پیشبینیکننده خطی $\textbf{x}'\mathbf{\hat{\beta}}$، توزیع لجستیک * احتمال قرار گرفتن دادههای من در انتهای توزیع را دستکم میگیرد * کشش یا خوشهبندی از داده ها، در وسط توزیع: این را می توان از نمودار تشخیصی مناسب من مشاهده کرد:  * خط قرمز CDF لجستیکی است که نشان دهنده تناسب کامل است * خط سیاه نشان دهنده احتمالات برازش شده از مجموعه داده من است (محاسبه شده با ترکیب مشاهدات به 0.1 فواصل $\textbf{x}'\mathbf{\hat{\beta}}$، جایی که $\mathbf{\hat{\beta}}$ بدست میآید از تناسب من) * نوارهای خاکستری در پس زمینه تعداد مشاهداتی را نشان می دهد که احتمالات واقعی بر اساس آن ها است. در حالت ایده آل، هر راه حلی از R استفاده می کند. ## ویرایش چرا من در مورد CDF ها صحبت می کنم؟ معادله GLM ما این است: $$\mathbb{P}(Y = 1) = \mathbb{E}[Y] = g^{-1}(\textbf{x}'\mathbf{\beta})$$ کجا $g$ تابع پیوند است. بعلاوه، اگر $g^{-1}$ یک توزیع احتمال معتبر است (یعنی به طور یکنواخت از 0 به 1 افزایش مییابد، در واقع در مورد probit، logit، cloglog است)، سپس یک متغیر تصادفی پیوسته پنهان (که مستقیماً مشاهده نشده است) $Y را در نظر بگیرید. ^{*}$ که توزیع آن (CDF) با $g^{-1}$ داده شده است. سپس طبق تعریف $$\mathbb{P}(Y^{*} \leq \textbf{x}'\mathbf{\beta}) = g^{-1}(\textbf{x}'\mathbf{\beta })$$ با معادل کردن دو معادله بالا، می بینیم که احتمال $Y=1$ دقیقا برابر است با CDF $Y^{*}$$$\mathbb{P}(Y = 1) = \mathbb{P}(Y^{*} \leq \textbf{x}'\mathbf{\beta})$$ بنابراین من به جای هم در مورد پاسخ مورد انتظار $\mathbb{E}[Y]$ صحبت میکنم و CDF $Y^{*}$ روی فضای پیشبینی خطی ($\textbf{x}'\mathbf{\hat{\beta}}$). | آیا یک مدل رگرسیون دو جمله ای وجود دارد که داده ها را با دم های چربی جمع آوری کند؟ |
101242 | آیا می توانم $\Phi(ax)$ را به عنوان $b\Phi(x)$ برای مقداری $b$ ثابت بنویسم، لطفا؟ FYI، $\Phi(\cdot)$ cdf برای متغیر تصادفی معمولی استاندارد است. آیا چنین رابطه ای وجود دارد؟ | تبدیل توزیع نرمال استاندارد $\Phi(x)$ |
101245 | آیا کسی میداند کجا میتوانم الگوریتمی (و همچنین پیادهسازی «R» آن) برای انجام تحلیل مولفههای اصلی پراکنده پیدا کنم؟ | تجزیه و تحلیل اجزای اصلی پراکنده |
95184 | 1. سهام | 2. (بازگشت سهام i - Rf) / بتا(i) | 3. SUM [(بازگشت سهام i - Rf) * بتا(i) / Var(خطای i)] | 4. Beta(i)^2 / Var(error i)^2 | 5. SUM [بتا(i)^2 / Var(خطای i)^2] * y 0.0395 13.7170 13.7170 342.2115 347.2115 C1 * x 0.0080 4.3307 18.0485 18.0474 526 526 526 18.0474 z. 0.0067 1.9733 20.0210 294.4627 1180.1694 C3 فرض کنید Rf = 0.02 و واریانس بازدهی بازار 0.0023 است. **اگر فروش کوتاه مجاز نباشد، ترکیب پرتفوی بهینه چگونه است؟** من C1 = 0.017541، C2 = 0.013667، C3 = 0.012397 محاسبه کردم، بنابراین محاسبه می کنم که تنها سهم اول دارای نسبت بازدهی مازاد به بتا بیشتر از C، که به معنای Z/Sum(Z) = 1 است؟ بازده پرتفولیو و انحراف معیار آن وقت چقدر است؟ این هیچ معنایی ندارد چگونه سبد بهینه فقط حاوی سهام Y است؟ اصلاً اطلاعات دیگری ارائه نشده است. | انتخاب نمونه کارها بهینه با استفاده از یک مدل شاخص واحد |
104141 | در حالی که تئوری و احتمال زیادی در پسزمینه برای فهمیدن وجود دارد، میخواستم بدانم آیا منابع/نشاندهندههای سریعی وجود دارد که در هنگام مدلسازی یک مشکل با استفاده از شبکههای بیزی چه چیزهایی را در نظر بگیریم. به طور خاص، من سوالات زیر را داشتم: \- از چه نوع پیشین هایی استفاده کنم؟ \- از داده ها چه می آموزیم؟ و چگونه می توان پیش بینی کرد؟ آیا وبلاگ/سندی وجود دارد که این موارد را از ابتدا با موارد استفاده ساده توضیح دهد؟ (به عنوان مثال: مدل سازی رفتار کلیک کاربر، پیش بینی آب و هوا، تشخیص و غیره). من به دنبال نمونههایی هستم که کمی فراتر از نمونههای اسباببازی (کمی نزدیک به موقعیتهای واقعی زندگی) مورد استفاده در دورهها باشد. هر کمکی قابل تقدیر است. | استراتژی های کلی در ایجاد یک مدل گرافیکی احتمالی چیست؟ |
32620 | من دو متغیر تصادفی $s\sim \mathcal{N}(\nu,\sigma)$ و $a\sim \mathcal{U}(0,A)$, $0<A<1$ دارم، یک r.v سوم را محاسبه کنید. $t=(1-a)/s$ و می خواهید توزیع آن $p(t|\nu,\sigma,A)$ را پیدا کنید. استدلال من این است که برای هر مقدار $a$، دقیقاً یک $s=(1-a)/t$ وجود دارد، به طوری که جفت $(a,s)$ $t$ تولید می کند و من باید ادغام بر روی احتمالات برای این مقادیر: $$p(t|\nu,\sigma,A) = \int_0^A p_a(x)p_s((1-x)/t)\,\mathrm dx\\\$$ که می تواند به صورت مجموع دو تابع خطا بیان شود. اما قبلاً هنگام بررسی عددی این مرحله، بین توزیع تخمینی (نمونهبرداری) و توزیع محاسبه شده اختلاف پیدا میکنم: مطابقت دارد؟_ این کدی است که من استفاده کردم: n=10000000 A=0.7 nu=.7 سیگما=.1 # نمونه برداری از توزیع هدف s=rnorm(n، mean=nu، sd=sigma) a=runif(n، min=0، max=A) t=(1-a)/s hist(t,200، freq=F، xlim=c (0,5), ylim=c(0,2.5)) # رسم نتیجه تحلیلی تحلیلی <- تابع (t, A, nu, sigma ){ tmp <- تابع(x, A, t, nu, sigma){ return (1/A*dnorm( (1-x)/t, mean=nu, sd=sigma) } return( integrate( tmp, 0, A , A=A, t=t, nu=nu, sigma=sigma)$value) } x=seq(0,5,by=.01) y=rep(0,length(x)) for(i in seq(1,length(x)) ){ y[i]=analytic(x[i], A, nu, sigma) }خطوط(x,y , col=red, type=l) | تقسیم یکنواخت بر یک متغیر تصادفی معمولی: توزیع چیست؟ |
54693 | محاسبه توان برای آزمونهای t زوجی و ANOVA آسان است، اما چگونه میتوان قدرت را برای طرحهای پیچیدهتر مانند طرحهای اسپلیت پلات یا طرحهای فاکتوریل محاسبه کرد؟ | قدرت برای طراحی آزمایشی |
74086 | من یک مجموعه داده میکروبلاگ با حدود 100 هزار توییت دارم و میخواهم آنها را با استفاده از برخی الگوریتمهای کمتر پیشرفته خوشهبندی کنم. آیا جایی وجود دارد که بتوانم مانند یک K-Means تک پاس یا الگوریتم های مشابه پیدا کنم. با تشکر من استفاده از K-Means را امتحان کردهام و حدود 5 دقیقه طول میکشد تا 100 هزار توییت را با استفاده از پیش پردازش استاندارد (توکنسازی، ریشهیابی) دستهبندی کنیم. من از LDA آنلاین نیز استفاده کرده ام، اما نمی توانم توییت ها را از موضوعات بازیابی کنم. | خوشه بندی میکروبلاگ ها |
27308 | من سعی میکنم یک مدل چند سطحی را که در آن افراد در گروهها تودرتو هستند، قرار دهم. V1 متغیر نتیجه من است. G2 گروه بالاترین سطح من است و G1 گروهی است که درون G2 m1 <- clmm(V1 ~ 1 + (1 | G2)، داده = df، Hess = T) m2 <- clmm(V1 ~ 1 + (1 | G1) ) + (1 | G2)، داده = df، Hess = T) بر اساس مقادیر AIC، m1 بهترین تناسب است، بنابراین از آنجا میروم. m3 <- clmm(V1 ~ 1 + (1 | G1:G2)، داده = df، Hess = T) m4 <- clmm(V1 ~ 1 + (1 | G2/G1)، داده = df، Hess = T) آیا نحو m3 تودرتوی G2 در G1 یا G1 در G2 است؟ برای m4 چطور؟ در نهایت، آیا واریانس تولید شده توسط خلاصه (m1)، خلاصه (m2) و غیره واریانسی است که در مدل باقی میماند؟ اگر من یک تعامل متقاطع بین G1:G2 انجام دهم، چگونه باید واریانس در بخش اثرات RE نتایج را تفسیر کنم؟ Var Std.Dev G1:G2 9.017e-11 9.496e-06 G1 1.683e-01 4.103e-01 برای اساسی بودن این سوال و کمبود داده متاسفم. | واریانس و سطوح چندگانه در clmm |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.