_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
35393
من چند نقطه داده اندازه گیری شده دارم. بسته به اینکه اندازه گیری چقدر دقیق انجام شده است، هر یک از نقاط دارای یک خطا است. حالا من از میانگین وزنی مجذور با معکوس خطاها به عنوان وزن استفاده می کنم تا بیشتر روی مقادیر دقیق تر و کمتر روی مقادیری که خطا بزرگ است تأکید کنم. آنچه من تعجب می کنم این است که در مورد دقت میانگین وزنی من چه می توانم بگویم. آیا راهی برای محاسبه محدوده خطای مورد انتظار برای آن وجود دارد؟
خطا در میانگین وزنی
91972
بگذارید بگوییم من دو مجموعه از سری های متغیر زمانی دارم که در زیر نشان داده شده است: a <- c(895,0,0,0,0,832,0,3084,0,434,0,0,0,0,853,0,3727,0,513,0,0,0 0,1248,0,3704,0,646,0,0,0,0,2066,0,5500,0,424,0,0,0,0,0,1069,0) b <- c(234,0,0,0,0,521,0,1683,0,152,0,0,0,0,740,0,3242,0,355,0,0,0 ,0,1117,0,3047,0,443,0,0,0,0,832,0,3213,0,326,0,0,0,0,0,1235,0) در اینجا، هر مقدار نشان دهنده تعداد دفعاتی است که یک فرد به یک آهنگ گوش داده است. همچنین، داده ها روزانه هستند، به این معنی که اگر اولین مقدار (a[1] = 895) برای 10 فوریه باشد، آخرین مقدار برای 25 مارس خواهد بود. من می خواهم بفهمم که آیا a یا b روند بیشتری دارد و با چه حاشیه ای ، بنابراین اگر اجازه داده باشم سری دیگر c را بگویم، می توانم آنها را به ترتیب روند به عنوان مثال c > a > b مرتب کنم. آیا رویکرد آماری برای این کار وجود دارد؟
چگونه بفهمیم کدام سری های زمانی روند بیشتری دارند؟
31143
من یک مجموعه داده شامل سه متغیر است: طول جغرافیایی، عرض جغرافیایی، جمعیت (در ایالات متحده آمریکا). من باید این داده ها را روی نقشه ترسیم کنم. من از کد R زیر استفاده می کنم (خوب کار می کند): map(state، xlim = range(lon)، ylim = range(lat)) text(lon, lat, community) box() اما چیزی که با آن روبرو هستم این است که نقشه واقعا زشت به نظر می رسد و خواندن آن سخت است زیرا داده های نمایش داده شده روی نقشه با یکدیگر مخلوط شده اند. می خواستم بدانم آیا راه بهتری برای رسم این داده ها روی نقشه وجود دارد؟ با تشکر
نمودار داده ها بر روی نقشه
97479
من برای کالیبره کردن مدل‌های GARCH بر روی سری‌های زمانی نرخ FX و انجام شبیه‌سازی، مدت‌ها از Rugarch استفاده می‌کنم. من سعی می کنم روش ugarchroll را درک کنم. با این حال، حتی اگر بتوانم مثال‌ها و نشانه‌های فراوانی در مورد نحوه استفاده از این روش در مستندات و همچنین در تصویر بیابم، هنوز متوجه نمی‌شوم که برآورد چرخشی دقیقاً چیست و هدف آن چیست. ممکن است چند توضیح به من بدهید؟ با تشکر
روگارچ و تخمین نورد
34669
آیا می‌توان مقادیر p بین تست‌های جفتی متعدد را به‌عنوان اندازه‌گیری شباهت/فاصله در نظر گرفت و مقیاس‌گذاری چند بعدی را روی یک ماتریس جفتی از مقادیر p برای کاهش ابعاد اعمال کرد؟ این یک سوال نرم است، اما بزرگترین مشکل در اینجا چه خواهد بود، و چگونه می توان بر آن غلبه کرد؟ (مثلاً: نابرابری مثلثی؟)
p-value به عنوان فاصله؟
79420
من سعی کرده ام راه حلی برای سوالم در گوگل بیابم، اما به نظر نمی رسد اطلاعات زیادی در مورد نوارهای خطا و انحراف مطلق میانه پیدا کنم و در مورد تجزیه و تحلیل خطای آماری اطلاعات زیادی ندارم، بنابراین از هرگونه کمکی بسیار قدردانی می کنم. من در حال ایجاد یک نمودار نیمه لاگ برای تحقیقات نجومی خود هستم که داده ها را به 5 سطل با فاصله مساوی در پایه لگاریتم 10 (محور x) تقسیم می کند و مقدار میانگین را برای هر بن (محور y) ترسیم می کند. بنابراین هر سطل با افزایش محور x حجم نمونه بزرگتری دارد. از آنجایی که این یک مطالعه آماری است، پتانسیل زیادی برای عدم قطعیت وجود دارد و وجود مقادیر پرت (توزیع خطای غیر گاوسی) زیاد است. در نتیجه، من می‌خواهم از نوارهای خطای انحراف مطلق میانه (MAD) استفاده کنم، زیرا MAD کمتر مستعد ابتلا به موارد پرت است. بنابراین سوال من این است: دقیقاً مانند انحراف استاندارد و خطای استاندارد، که در آن خطای استاندارد فقط stdev/sqrt(N) است و N اندازه نمونه است - آیا یک آنالوگ برای انحراف مطلق میانه وجود دارد؟ نوارهای خطایی که هنگام استفاده از MAD/sqrt(N) دریافت می‌کنم درست به نظر می‌رسند، اما در توضیح دلیل خود برای استفاده از این رویکرد مطمئن نیستم. آیا تقسیم MAD بر جذر حجم نمونه وسیله قابل قبولی برای تولید نوارهای خطا است؟ و اگر نه، پیشنهاد دیگری دارید؟ همچنین، از تحقیقاتی که انجام داده‌ام، به نظر می‌رسد که انحراف مطلق میانه تخمین‌گر بهتری نسبت به انحراف میانگین مطلق است… آیا شما با این موافق هستید؟ به روز رسانی: در اینجا نمودار اصلی من با نوارهای خطا از انحراف مطلق میانه/sqrt(N) است (توجه: عنوان باید میانگین خوانده شود، نه معنی!) بن اول شامل 39 نمونه، دوم شامل 146، سوم 454، چهارم 1287 و پنجم است. 2371 نمونه. خوب به نظر می رسد، اما روش تولید نوارهای خطا چندان دقیق به نظر نمی رسد. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/mg7fx.png) من نوارهای خطا را با استفاده از روش بوت استرپ همانطور که توسط @Glen_b پیشنهاد شده است (پیوست زیر) ایجاد کرده ام. به نظر من خوب است، اما مشاور من احساس می کند که نوارهای خطا در این روش بیش از حد برآورد شده است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bmW6F.png)
نوارهای خطا با استفاده از انحراف مطلق میانه
55192
من از یک شبکه عصبی در ترکیب با یادگیری تقویتی استفاده می کنم. شبکه باید مقادیر سه عمل را در حالت های داده شده یاد بگیرد. پاداش از محیط به [-0.9،0.9] مقیاس شده است. شبکه از یک لایه ورودی با 30 گره تشکیل شده است که بیش از سه گره به طور همزمان فعال نمی شوند. لایه پنهان از 30 گره نیز تشکیل شده است و tanh به عنوان تابع فعال سازی استفاده می شود. لایه خروجی شامل سه گره گفته شده است که با استفاده از tanh نیز فعال می شوند. وقتی شبکه من را آموزش می‌دهم، اغلب راه‌حل‌هایی را برای کار داده شده پیدا می‌کند، اما اغلب مقادیر بازگردانده شده توسط شبکه به 1- و 1 نزدیک‌تر و نزدیک‌تر می‌شوند، اگرچه پاداش به [-0.9,0.9] نرمال می‌شود. از طریق اشکال زدایی متوجه شدم که وزن از لایه مخفی به لایه خروجی بزرگتر و بزرگتر می شود. از آنجایی که از اندازه وزن برای پس انتشار استفاده می شود، یک خطای بزرگ از شبکه عبور می کند و باعث وزن های بزرگتر و غیره می شود. آیا راهی برای جلوگیری از گرفتار شدن شبکه به این دور باطل وجود دارد؟
اندازه وزن در شبکه های عصبی
61453
فقط برای روشن شدن چیزی در رابطه با ضرایب بزرگتر از 1 در رگرسیون لگ خطی. اگر این رگرسیون را داشته باشیم، چگونه 1.12 را تفسیر می کنیم؟ D1 متغیر ساختگی برای داشتن ماشین است D2 متغیر ساختگی برای ساکن بودن ما است. = 1.2828 lninv قوی | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] ----------------------------------------------- ------------------------ سن | .1376738 .0221547 6.21 0.000 .0941598 .1811878 1.ماشین | .5398736 .1179852 4.58 0.000 .3081391 .771608 1.ایالات متحده آمریکا | 1.124221 .1959553 5.74 0.000 .7393456 1.509097 car#USA | 1 1 | -.0202977 .2457097 -0.08 0.934 -.5028958 .4623003 _cons | -.0585373 0.1228857 -0.48 0.634 -.2998969 0.1828223 پس داریم lninv = سن + d1(car) + d2(USa) + d1.d2 مشکل تفسیر آمریکاست. (1) آیا این درست است که بگوییم همه چیز برابر با مقیم ایالات متحده سرمایه گذاری را 112٪ افزایش می دهد؟ همچنین ساختگی تعامل معنادار نیست. (2) آیا بررسی تعامل بین دو متغیر باینری خوب است؟
تفسیر در رگرسیون خطی لاگ با ضرایب بزرگتر از 1
79426
من دو مجموعه داده دارم. یکی با حجم نمونه 82 با 53 «بازدید» و 29 «مسیس». و نمونه دوم 105 عددی با 67 بازدید و 38 غیبت با توجه به اینکه مجموعه داده دوم یک کنترل است، آیا راهی وجود دارد که نشان دهد نتایج مجموعه داده اول از نظر آماری معنی دار هستند یا نیستند؟ پیشاپیش متشکرم، مدتی بود که در دوره آمار شرکت کردم و جستجوی پاسخ در گوگل باعث سردرگمی من شد.
یافتن معناداری آماری بین دو آزمون باینری
100115
من سعی می‌کنم یک مدل ترکیبی را در مجموعه داده‌ای که از تعداد شمارش تشکیل شده است، قرار دهم (بنابراین هر رکورد یک تعداد چیزی است، مانند تعداد تلاش‌های یک آدرس IP برای اتصال به یک وب‌سایت). من به طور پیشینی می دانم که هر نقطه متعلق به یکی از دو گروه است (به عنوان مثال IP های مخرب و IP های قانونی)، اما نمی دانم کدام یک بدون بررسی دستی رکورد و تعیین گروه بندی. اینها چیزهایی هستند که من می دانم: * با افزایش مقدار شمارش، احتمال اینکه نقطه داده متعلق به گروه 2 باشد، بیشتر و بیشتر می شود. * 80 درصد مقادیر 1 و 85 درصد کمتر از 2 هستند. * بیشتر مقادیر برای گروه 1 1 است، اما مقادیری به اندازه 10000 وجود دارد که از گروه 1 هستند. در حالت ایده آل، من می خواهم بتوانم در جایی خط بکشم و بگویم که آیا تعداد آنها بیشتر است از مقداری $n$، پس من $p$% مطمئن هستم که این رکورد از گروه 2 است. من فکر می کنم یک مدل مخلوط مکان خوبی برای مدل سازی این داده ها است، اما با نگاهی به نمودار هیستوگرام و چگالی هسته، من هیچ توده مشخصی در داده ها مشاهده نمی شود. بر اساس آنچه در بالا ذکر کردم، حدس من این است که ترکیبی از یک لگ لجستیک (برای گروه 2) و پارتو (برای گروه 1) ممکن است یک تقریب خوب برای داده ها باشد. آیا بسته R یا ماژول پایتون وجود دارد که پارامترهای چنین مخلوطی را تخمین بزند؟
شناسایی مدل مخلوط
78773
من دو (و احتمالاً بیشتر) مجموعه داده را با استفاده از رگرسیون حداقل مربعات به یک مدل برازش داده ام. بنابراین من مقادیر پارامتر را همراه با خطاهای آنها و یک مجذور کای کاهش یافته برای هر دو دریافت کردم. داده ها به صورت دو بعدی روشنایی سطح در مقابل شعاع هستند. چگونه می توانم این پارامترها و chi-squared را با هم ترکیب کنم تا یک پاسخ متوسط ​​با خطای خودش به من بدهد؟
نحوه ترکیب دو متغیر برازش شده
114952
من در حال پیاده سازی یک مدل زنجیره ای مارکوف برای توالی های دسترسی به وب سایت هستم. برخی از دنباله ها بسیار طولانی و برخی بسیار کوتاه هستند که شامل یک انتقال واحد هستند. توالی های طولانی احتمال بسیار کم را ایجاد می کنند در حالی که توالی های کوتاه تر احتمال بالایی دارند. آیا می توان طول دنباله ها را عادی کرد؟ لطفا هر ایده، آموزش، مقاله کنفرانس و غیره را به من اطلاع دهید. با تشکر.
طول دنباله را عادی کنید
50011
من به دنبال کمکی در تجزیه و تحلیل آماری با R، اما همچنین برخی از توصیه های آماری عمومی هستم. من داده های فنوتیپ قلبی را با مقایسه 2 گروه تجزیه و تحلیل می کنم. 2 گروه افراد بی همتا هستند، اما در هر گروه، آنها در زیر گروه های خانوادگی (بین 1 تا 6 تا) دسته بندی می شوند. من می‌خواهم تفاوت شیوع یک ظاهر ECG خاص (دودویی - یعنی در هر فرد وجود داشته باشد یا وجود ندارد) را بین دو گروه گزارش کنم. به عنوان مثال: > گروه 1 شامل 157 فرد متشکل از 41 خوشه خانواده است. گروه 2 > شامل 463 فرد متشکل از 163 خوشه خانواده است. شیوع > x در گروه 1 = 22.9% شیوع x در گروه 2 = 24.6%. گروه 1 موارد > و گروه 2 کنترل هستند (یعنی تصادفی نشده و بر اساس فنوتیپ در یک مطالعه مشاهده ای > تعریف نشده اند). چه آزمونی در این شرایط مناسب‌تر است و کدام بسته در R ساده‌ترین راه را برای توضیح خوشه‌بندی اقوام در خانواده‌ها ارائه می‌کند؟ با نگاهی به اطراف، متوجه شدم: * تخمین نسبت آزمون کای اسکوئر * معادله تخمین تعمیم یافته، اما من هیچ تجربه ای از هیچ یک از این تکنیک ها ندارم، و نمی توانم هیچ نمونه ای از استفاده از آنها را در R پیدا کنم. هیچ توصیه ای در مورد بهترین روش ادامه ? ویرایش: برای به روز رسانی به نظر زیر مراجعه کنید. من معتقدم که اصلاح کای دونر (1989) ممکن است مناسب ترین باشد (ارائه شده توسط دانر تابع R). نظرات دوم و استفاده صحیح از دستور R قابل تقدیر است. با تشکر
آمار R: تست مجذور کای تنظیم شده برای داده های باینری / طبقه بندی شده خوشه ای
50018
من یک سوال در مورد تعیین اینکه کدام مدل ها بهتر هستند و نحوه ارزیابی آن اطلاعات دارم. فرض کنید من سه مدل دارم که هر کدام پیشنهاد ما را در پینگ برنده پیش بینی می کنند. پیشنهاد ما یک متغیر پیوسته است و پینگ برنده 0 (نه) یا 1 (بله) است. از مدل‌های (logit) و سیستمی که من مدل‌سازی می‌کنم، جدول زیر را با تعداد پیشنهادات، نرخ برد ما، نرخ برد پیش‌بینی‌شده و میانگین پیشنهاد ساختم. اساساً، ما مدل پیشنهادات خود و اینکه آیا برنده شده‌ایم را اجرا می‌کنیم و از آن برای پیش‌بینی نرخ برد خود در پیشنهادهای آینده استفاده می‌کنیم. #_از_مناقصه_نرخ_برنده pred.win_rate ag.bid Mod_1 1792 46% 62% $1.54 Mod_2 851 2% 2% $0.98 $ Mod_3 17037 6% 0% $2.83 طبق جدول فوق، یک میزان اختلاف وجود دارد. نرخ برد در نتیجه، مدل را بررسی کردم و به تشخیص زیر رسیدم. Mod_1 - نرخ پینگ برنده = 45.7٪ - مسائل توزیع پیشنهاد = به طور سیاسی منحرف شده است، اما هیچ پیشنهاد واحدی به طور قابل توجهی تکرار نمی شود - مجذور R Nagelkerke = 0.23 -> پیش بینی کننده فقط 23٪ از واریانس یافت شده در متغیر پاسخ (پینگ برنده) را توضیح داد -> ضعیف - اعتبار متقاطع (10 برابر) = 0.693 -> چقدر دقیق بود پیش‌بینی‌های مدل (0 تا 1) - منحنی ROC = 0.746 -> منصفانه (C) -> چقدر مدل با داده‌ها مطابقت دارد (0 تا 1) با این حال، من در تعجب بودم که آیا اختلاف بین نرخ برد و نرخ برد پیش‌بینی‌شده وجود دارد، به علاوه آمار اعتبارسنجی برای این نتیجه گیری کافی بود که فقط آن مدل خاموش است (با نام مستعار عملکرد ضعیفی داشت یا نرخ برد واقعی را به درستی پیش بینی نمی کرد). بنابراین، برای دو مدل دیگر نیز همین روند را طی کردم و به آمار زیر رسیدم. Mod_2 - نرخ پینگ برنده = 2.3٪ - مسائل توزیع پیشنهاد = 53.5٪ از پیشنهادات ما 0.26 دلار یا 0.26 دلار است - مجذور R Nagelkerke = 0.40 -> پیش بینی کننده فقط 23٪ از واریانس یافت شده در متغیر پاسخ (پینگ برنده) را توضیح داد -> میانگین - اعتبار متقاطع (10 برابر) = 0.974 -> پیش‌بینی‌های مدل چقدر دقیق بودند (0 تا 1) - منحنی ROC = 0.914 -> عالی (A) -> چقدر مدل با داده‌ها مطابقت دارد (0 تا 1) Mod_3 - نرخ پینگ برنده = 5.7٪ - مسائل توزیع پیشنهاد = 12.9 % از پیشنهادات ما 0.25 دلار یا 0.26 دلار بود - مجذور R مجذور Nagelkerke = 0.03 -> فقط پیش بینی توضیح 3% از واریانس یافت شده در متغیر پاسخ (پینگ برد) -> وحشتناک - اعتبار متقاطع (10 برابر) = 0.942 -> پیش بینی های مدل چقدر دقیق بودند (0 تا 1) - منحنی ROC = 0.339 -> وحشتناک -> اینکه مدل چقدر با داده ها مطابقت دارد (0 تا 1) بنابراین در تلاش برای فهمیدن اینکه آیا فقط مدل 1 خاموش است یا خیر، من نگاه کردم در این آمارهای مختلف با این حال، من مطمئن نیستم که مراحل مناسب چیست. ### سؤالات 1. آیا باید فرض کنم که چون نرخ برد و نرخ برد پیش‌بینی‌شده در جدول اول آنقدر متفاوت بودند که مدل عملکرد ضعیفی داشت؟ 2. در حالی که آمار اعتبارسنجی برای مدل 1 ضعیف است، اما برای مدل 2 یا 3 خیلی بهتر نیست. چه چیزی این نتیجه را توضیح می دهد؟ 3. چگونه باید در مورد مقایسه دو یا سه مدل مختلف با یکدیگر از نظر عملکرد کلی (با نام مستعار متناسب با داده ها / کیفیت پیش بینی) اقدام کرد؟
چگونه می توان مدل های پیش بینی کننده یک متغیر باینری را اعتبارسنجی و مقایسه کرد؟
35396
من با آمار بیسبال کار می کنم و لیستی از درصد ضربه زدن بازیکنان را دارم. من فرمولی می‌خواهم که به من بگوید چند درصد از داده‌ها از امتیاز یک بازیکن در مقایسه با دیگران به عنوان درصد نشان داده می‌شود. به عنوان مثال، من PlayerA را دارم، او بالاترین میانگین ضربه زدن را در نمونه دارد، بنابراین او به عنوان 100٪ نشان داده می شود. PlayerB دومین میانگین ضربه زدن را دارد، او با 98٪ نشان داده شده است. این درصد به اندازه جمعیت بستگی ندارد (یعنی اگر کل جمعیت 50 نفر بود و من می خواستم مقدار را مستقیماً از جمعیت اندازه گیری کنم، دو تا به صفر می رسید). اندازه گیری درصدی از محدوده مقادیر است. بنابراین اگر پنج بازیکن میانگین ضربات نزدیک داشتند، درصد آنها تقریباً یکسان بود. راه دیگری برای بیان این خواهد بود، به عنوان مثال، من 6'2 اینچ هستم و قد هر یک از اعضای جمعیت را می دانم. پس از اینکه این فرمول را وصل کردم، می توانم تشخیص دهم که از 72 درصد جمعیت بلندتر هستم. به نظر می رسد که مربوط به نمره Z باشد اما من مثبت نیستم.
چه آزمایشی درصد نرمال شده داده ها را به من می گوید؟
50017
> **سلب مسئولیت بی دلیل ** > > من یک نوبت آماری هستم، پس اگر امکانش هست، لطفاً مرا سنگسار نکنید. همچنین > به آرامی و به زبان ساده بنویسید. من نمی دانم چه رابطه ای بین سازگاری درونی یک مقیاس که معمولاً توسط $\alpha$ کرونباخ اندازه گیری می شود و تک بعدی بودن چیست. دلیل مشخصی که من این سوال اساسی را می‌پرسم این است که سعی کردم یک مقیاس را به سه عامل تقسیم کنم که به خوبی با استفاده از PCA و چرخش مستقیم از هم جدا می‌شوند. تقریباً هیچ ارتباط متقابلی بین عوامل و بدترین بارگذاری در هر مقیاس 0.59 دلار است. اکنون در حالی که اولین مقیاس جدید که از این فرآیند خارج شده است، $\alpha$ خوب از $.81$ دارد (مقیاس کل دارای $.5$ بود)، مقیاس دوم دارای $\alpha $ بسیار بد کمتر از منهای است. ترسناک شش نقطه پنج! من سهم خود را از آلفاهای منفی در زندگی کوتاه آماری خود دیده ام، اما این بی سابقه است. اکنون درک ساده‌لوحانه من این است که سازگاری درونی وجود یک ساختار اساسی را اندازه‌گیری می‌کند و تک بعدی بودن یک مقیاس به این معنی است که این ساختار زیربنایی فقط یک بعد دارد. این بدان معناست که سازگاری درونی پیش نیاز تک بعدی بودن است. این مورد سؤالات متداول SSPS حداقل به نظر می رسد به این و این بخش در ویکی پدیا دلالت دارد که من پیدا کردم در حالی که Google ممکن است دلالت بر هر چیزی داشته باشد زیرا واقعاً ضعیف نوشته شده است اما به این مقاله اشاره دارد که متأسفانه در ذهن من وجود دارد. از آنجایی که این پست بسیار طولانی شد، احتمالاً زمان خوبی برای یک استراحت کوتاه برای چشم و مغز شما است. ![lolcat](http://i.stack.imgur.com/msr29.jpg) با عرض پوزش، این یک ایده خنده دار بر روی کاغذ به نظر می رسید. به هر حال، این سوال نیز وجود دارد که پایایی یک پرسشنامه را ارزیابی می کند: ابعاد، موارد مشکل ساز، و اینکه آیا از آلفا، لامبدا6 یا شاخص دیگری استفاده کنیم؟ قبلاً متوجه شدم که احساس می‌کنم ممکن است حاوی پاسخی باشد که به دنبال آن هستم، اما به طور کامل خودش را برای من آشکار نمی‌کند. با این حال، بر اساس این درک، من با $\alpha$ شروع کردم و سعی کردم از آنجا به راه خود ادامه دهم. کاری که من انجام دادم تا حدودی غیرمتعارف بود (که احتمالاً به اشتباه ترجمه می شود، اما امیدوارم در پاسخ به این پست بیشتر در مورد آن بشنویم). من یک بهینه‌سازی جهانی $\alpha$ انجام دادم، به این معنی که تمام پارتیشن‌های ممکن از آیتم‌های مقیاس خود را مرور کردم و میانگین $\alpha$ را برای هر پارتیشن محاسبه کردم. نکته خنده دار این است که بهترین راه حل برای سه عامل (سه و چهار عامل دارای بهترین میانگین $\alpha $.71$ بودند) در واقع از نظر تفسیرپذیری منطقی است (کل PCA shebang اینطور نبود). من تقریباً مطمئن هستم که این یک تصادف است، درست است؟ * * * **ویرایش:** پس از نظر StasK، تصمیم گرفتم کد خود را برای بهینه سازی $\alpha$ اضافه کنم تا شاید دیگران آن را مفید بدانند. فقط مقیاس خود را در فایلی به نام data.csv با ستون ها به عنوان متغیر و ردیف ها به عنوان موارد قرار دهید. این فیلمنامه زیبا نیست و سریع نیست. آن کاری را که من شخصاً می خواستم انجام داد. بهینه سازی 12 مورد من در Core i3 تقریباً 12 دقیقه طول کشید. می‌توان بهینه‌سازی‌هایی در کد انجام داد، اما احتمالاً این واقعیت را اساساً تغییر نمی‌دهند که بهینه‌سازی یک مقیاس 30 ماده‌ای با این روش 30 دقیقه طول می‌کشد، آن‌طور که ممکن است ساده‌لوحانه فرض شود، بلکه تقریباً 300 برابر عمر جهان است. پارتیشن بندی کورکورانه پرسشنامه 100 سوالی خود احتمالاً با این روش ایده خوبی نیست. تعداد پارتیشن‌های تولید شده توسط «partitions()» را می‌توانید در اینجا بررسی کنید http://www.wolframalpha.com/input/?i=bell+number+of+12. فقط 12 مورد را با تعداد موارد خود جایگزین کنید. اگر فقط می‌خواهید پارتیشن‌هایی با تعداد مشخصی فاکتور ایجاد کنید، «برای p در پارتیشن‌ها(range(len(variance))):» را با «برای p در n_partitions(range(len(variance))، 3) جایگزین کنید. برای 3 عامل می گویند. اگرچه این کار را سریع‌تر نمی‌کند (در اینجا احتمالاً اگر عمق جستجو را در وهله اول محدود کنید، سرعت قابل توجهی امکان‌پذیر خواهد بود). در درازمدت، تنها روشی هوشمندانه تر از آزمایش همه پارتیشن های ممکن برای مقیاس های بزرگتر انجام می شود. #!/usr/bin/env پایتون از numpy import * import sys def variance(data): n = len(data) variance = 0.0 mean = float(sum(data))/n برای x در داده: variance += ( x - mean)**2 بازگشت واریانس/n# از http://stackoverflow.com/q/2037327/1050373 def partitions(set_): اگر set_ نباشد: بازده [] برای i در xrange(2**len(set_)/2): part = [set()، set()] برای آیتم در set_: part[i&1]. add(item) i >>= 1 برای b در پارتیشن ها (parts[1]): بازده [parts[0]]+b def n_partitions(set_, n): برای پارتیشن در پارتیشن (set_): if len(partition) == n: بازده پارتیشن def alpha(داده، واریانس، cols): n = len(cols) cols = array(cols) data_cols = data.transpose()[cols] واریانس = variances[cols] data_rows = data_cols.transpose() row_sums = array([sum(row) for row در ردیف های داده]) n/float(n-1)*(1-sum(واریانس ها)/واریانس را برگرداند
آیا بهینه سازی α برای پارتیشن های یک مقیاس روش معقولی برای تحلیل عاملی است؟ (بود: رابطه بین ثبات و تک بعدی)
3856
آیا روش‌های استانداردی برای تجزیه و تحلیل و تولید توزیع‌های «کلوگی» وجود دارد؟ * تجزیه و تحلیل: یک ابر نقطه داده شده چقدر کلوخه است (در 1d، 2d، nd)، ضرایب کلوخه آن چقدر است؟ * تولید یا سنتز یک ابر شبه تصادفی با ضرایب C (اینها اصول اولیه برای هر خانواده ای از توزیع ها هستند، به عنوان مثال معمولی). با تلاش‌های مختلف برای توصیف و پیوندهای مختلف به آمارهای «کلاسیک» تصور می‌کنم. من به دنبال یک نمای کلی هستم. تصاویر خوب خواهد بود اضافه شده در جمعه 22 اکتبر: من امیدوار بودم که روش هایی برای تجزیه و تحلیل _both_ و ترکیب، انتزاعی <-> واقعی هر دو روش پیدا کنم. مطمئناً یک انتزاع گسترده باید هر دو را انجام دهد. هنوز به دنبال ... (کارشناسان لطفا برچسب اضافه کنید).
تجزیه و تحلیل و تولید توزیع های مشکل؟
34663
چه می‌شود اگر قبل از شروع جمع‌آوری داده‌ها برای آزمایش، مجموعه موضوعی خود را به‌طور تصادفی به دو (یا چند) گروه تقسیم کنید. قبل از اجرای دستکاری تجربی متوجه می شوید که گروه ها به وضوح در یک یا چند متغیر واردات بالقوه متفاوت هستند. به عنوان مثال، دو گروه (یا بیشتر) نسبت موضوعات مختلف بر اساس جنسیت یا سن یا سطح تحصیلات، یا سابقه شغلی و غیره دارند. در چنین شرایطی چه اقدامی منطقی است؟ دور انداختن تقسیم تصادفی اصلی مجموعه موضوع و تقسیم مجدد استخر چه خطراتی دارد؟ به عنوان مثال، آیا آمار استنباطی که ممکن است بر اساس گروه دوم محاسبه کنید، به دلیل گروه اول دور ریخته شده، نامناسب است؟ به عنوان مثال، اگر ما مشترکاً اولین تقسیم بندی مجموعه موضوع را به گروه ها کنار بگذاریم، آیا توزیع نمونه گیری که آزمون آماری ما بر اساس آن است را تغییر می دهیم؟ اگر چنین است، آیا یافتن اهمیت آماری را آسان‌تر یا دشوارتر می‌کنیم؟ آیا خطرات احتمالی در تکرار تقسیم دروس بیشتر از خطر آشکار گیجی ناشی از تفاوت گروهی در سطح تحصیلات است؟ برای عینی‌تر شدن این سؤال، برای این بحث، فرض کنید موضوع تحقیق روش تدریس است (و دو روش تدریس داریم) و تفاوتی که بین دو گروه موضوع ذکر شده سطح تحصیلات رسمی است، با یک گروه. به نسبت افراد بیشتری با بالاترین سطح تحصیلات در سطح دبیرستان یا کمتر و گروه دیگر شامل افراد بیشتری با مدرک دانشگاهی یا کالج است. فرض کنید ما در حال آموزش نیروهای نظامی در شغلی هستیم که در دنیای غیرنظامی وجود ندارد، بنابراین هرکسی که وارد آن تخصص می شود باید این شغل را از ابتدا یاد بگیرد. علاوه بر این، فرض کنید که عدم تعادل بین گروه در پیشرفت تحصیلی قبلی از نظر آماری معنادار است. به طور پرانتزی توجه داشته باشید که این سوال شبیه به چه می شود اگر نمونه تصادفی شما به وضوح نماینده نباشد؟ در کامنتی در آنجا، @stask با ادراک متوجه شد که من یک محقق هستم نه نقشه‌بردار و اظهار داشت که اگر سوالم را متفاوت برچسب‌گذاری می‌کردم، از جمله طراحی آزمایش به جای نمونه‌گیری ممکن بود پاسخ‌های مرتبط‌تری دریافت کنم. (به نظر می رسد برچسب نمونه گیری افرادی را که با نظرسنجی کار می کنند به جای آزمایش جذب می کند). بنابراین، موضوع فوق اساساً همان سؤال است، در یک زمینه تجربی.
اگر گروه‌هایی که به‌طور تصادفی تشکیل شده‌اند به وضوح شبیه هم نباشند چه؟
34666
من در حال حاضر در حال نوشتن یک پروژه حیوان خانگی برای یک بازی مبتنی بر مرورگر هستم که از دو بخش تشکیل شده است، بخش اول یک دیتا ماینر است که معاملات در بازار را مشاهده می کند. و قسمت دوم همانطور که ممکن است آنالیزور حدس بزنید. اما در بین این دو مرحله، من می‌خواهم برخی از معاملات را فیلتر کنم، زیرا مردم گاهی اوقات از بازار برای انتقال طلا بین یکدیگر استفاده می‌کنند و زمانی که شخصی 10 برابر قیمت متوسط ​​یک کالا را می‌پردازد، داده‌ها را خراب می‌کند. من هنوز دوره احتمالات و آمار را نگذرانده ام، بنابراین مطمئن نیستم هنگام فیلتر کردن آنها از چه چیزی استفاده کنم. اولین چیزی که به آن فکر کردم این است که قیمت‌های متوسط ​​۲ برابر را فیلتر کنم، اما به نظر درست نیست، چه پیشنهادی دارید؟ در فکر دوم، من به فکر فیلتر کردن میانگین + 1 برنامه توسعه بودم. اما من نمی دانم که این مرز در کلمات به چه معناست، منظورم این است که بینش آن را ندارم. در پایان، من مایلم نمودارها و شاید توابع چیزهایی مانند اینکه میانگین قیمت و میانگین قیمت ها در طول روز چگونه تغییر می کند (چه زمانی به یکدیگر نزدیک می شوند و چه زمانی از هم دور می شوند) یا بازار چقدر متفاوت است ارائه کنم. در روزهای هفته یا آخر هفته رفتار می کند. همه اینها برای من هیجان انگیز به نظر می رسد، اما ابتدا باید مجموعه داده هایم را فیلتر کنم.
فیلتر کردن تراکنش های اقتصاد مجازی
67850
روش های مختلفی برای استنباط ساختار شبکه در شبکه های بیزی با داده های داده شده وجود دارد. در مورد من یک مدل شبکه بیزی دارم که از داده های قدیمی ساخته شده است، و منبع جدیدی از داده دارم که می خواهم از آن برای به روز رسانی مدل استفاده کنم، هم از نظر ساختار و هم از نظر پارامتر. این منبع داده جدید دارای تعدادی مشاهدات است که بسیار بالاتر از داده های گذشته است که آن را برای استنتاج ساختار ایده آل می کند. مشکل این است که داده های جدید تنها زیر مجموعه ای از متغیرها را در مدل اصلی پوشش می دهند. آیا کسی در مورد راهی برای به روز رسانی ساختار شبکه مدل BN (و پارامترها) که فقط زیر مجموعه ای از متغیرهای مدل را ارائه می دهد شنیده است؟
چگونه می توانم یک مدل شبکه بیزی را با داده های جدید فقط در زیر مجموعه ای از متغیرهای مدل اصلی به روز کنم؟
114959
من بردار نسبت‌های اندازه‌گیری شده دارم و می‌خواهم 1. آزمایش کنم که آیا این نسبت‌ها از یک توزیع دووجهی پیروی می‌کنند یا خیر. من از betamix از بسته betareg استفاده کرده ام اما مراحل 2 و 3 را متوجه نشده ام. من stackoverflow را برای راه حل جستجو کردم اما پاسخ روشنی پیدا نکردم. کد فعلی من این است: # پارامترهای توزیع #1 آلفا1 <- 10 بتا1 <- 30 # پارامترهای توزیع #2 آلفا2 <- 30 بتا2 <- 10 # ایجاد مجموعه داده دووجهی.seed(0) d <- data.frame( y = c(rbeta(100، آلفا1، بتا1)، rbeta(50، آلفا2، بتا2))) # تصحیح توصیه می شود در cran.r-project.org/web/packages/betareg/vignettes/betareg.pdf، به پاراگراف اول بخش 2، صفحه 3 مراجعه کنید: n <- طول(d$y) d$yc <- (d$) y* (n-1)+0.5)/n # هیستوگرام par(mfrow=c(1,2)) hist(d$yc, 50) # مخلوط برازش توزیع‌های بتا uni.modal <- betamix(yc ~ 1 | 1، داده = d، k = 1) bi.modal <- betamix(yc ~ 1 | 1، داده = d، k = 2) # 1) تست دووجهی: lrtest (uni.modal، bi.modal) # 3) برای هر نقطه داده مشخص کنید که به کدام توزیع تعلق دارد d$group <- (پسین (bi.modal)[,1] <= posterior(bi.modal)[,2])+1 نمودار (d$y، col=d$group) # 2) مشخص کردن دو توزیع زیربنایی # بتامیکس از یک پارامترسازی متفاوت از dbeta (رجوع کنید به cran.r-project.org/web/packages/betareg/vignettes/betareg.pdf). # به جای آلفا و بتا، betareg توزیع بتا را با استفاده از mu و ph پارامتریزه می کند، که در آن # mu=alpha/(alpha+beta) # phi= alpha + beta # ERROR: تبدیل mu و phi به آلفا و بتا mu1 <- coef( bi.modal)[1،1] phi1 <- coef(bi.modal)[1،2] (a1 <- mu1*phi1) # خروجی: 4.61028 (b1 <- (1-mu1)*phi1) # خروجی:-0.7240308 # 4) به طور کلی توزیع چگالی در هیستوگرام ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KbAQM. png)
ترکیبی از توزیع های بتا: مثال کامل
15391
برای آزمایشی که در حال تجزیه و تحلیل هستم، اندازه گیری های زیادی با مقادیر مختلف انجام دادم. (برای مشخص کردن آن، بیایید وانمود کنیم که قد افراد را از گروه های سنی مختلف اندازه گرفته ام -- من قد ده جوان 20 ساله، ده 21 ساله، ده 22 ساله و غیره را دارم.) من می خواهم نشان دهم که واریانس تمام خوانش های من، در هر متغیر، بسیار کم است. (در مثال من، من می خواهم نشان دهم که افراد در هر سنی تقریباً قد یکسانی دارند. یعنی مثلاً قد افراد 20 ساله نزدیک به 5'4 اینچ با واریانس کم و افراد 21 ساله هستند. همگی نزدیک به 6/5 هستند. قدهای خاص مهم نیستند، فقط این که افراد در هر سنی از نظر قد شبیه به افراد دیگر در آن سن هستند. واضح است که این درست نیست، اما بیایید وانمود کنیم که چنین است.) بهترین کار چیست؟ متریک برای گزارش؟ مثلاً می‌توانم میانگین حسابی واریانس‌ها را بگیرم - یا شاید میانگین هارمونیک یا میانگین هندسی بهتر باشد؟ یا شاید من باید میانگین انحرافات استاندارد یا خطاهای استاندارد را بگیرم؟
چگونه باید واریانس معمولی مجموعه بزرگی از متغیرها را مشخص کنم؟
50013
من از پکیج Matching Mebane و Sekhon برای R استفاده می کنم و هدف من این است که استنباط های معمولی در مورد یک نسبت و یک میانگین داشته باشم. نسبت مستقیم به جلو است، اما میانگین دارای مقادیر گم شده است که «تطابق» آن را نمی‌پذیرد. رویکرد من تلاش می‌کند تا از طریق فهرست‌های ردیف به رکوردهای همسان دسترسی پیدا کنم، اما نتایج کاملاً درست نیستند. کد مثال: نیاز (تطبیق) نسخه ی نمایشی (DehejiaWahba) # میانگین قبل از مطابقت با (lalonde$u75، lalonde$treat، میانگین) # میانگین پس از تطبیق مطابقت شده <- rbind(lalonde[rr$index.treated,]، lalonde[rr$ index.control،]) توسط (matched$u75، matched$treat، mean) خروجی نسخه نمایشی مطابقت را نشان می دهد میانگین برای u75 0.6 و 0.62072 است: ***** (V14) u75 ***** قبل از تطبیق بعد از تطبیق میانگین درمان......... 0.6 0.6 میانگین کنترل.......... 0.68462 0.62072 با این حال، مجموعه داده های بازسازی شده دارای ابزارهای متفاوتی است: matched$treat: 0 [1] 0.7861272 ------------------------------------------------ ------------------------------- همسان $reat: 1 [1] 0.7543353
بازسازی مجموعه داده های منطبق از بسته تطبیق R
50012
در یک شبکه عصبی تک لایه با یک تابع سیگموئید (برای سهولت درک آن) تابع هزینه $E_j = \frac{1}{2} \sum_{k=1}^{K}(\text{target} است. _{jk} - \text{observed}_{jk})^2 + a\sum_{i=1}^{I}w_{ij}^2.$ بنابراین این یک مشکل دو بخشی است و من می دانم چگونه نیمه اول را در هر دو لایه مخفی و خروجی استخراج کنید. اما برای نیمه دوم مطمئن نیستم. هر راهنمایی یا کمکی عالی خواهد بود. متشکرم.
تابع هزینه NN با مشتق وزن
61454
برای یافتن اینکه از کدام رویکرد آماری باید استفاده کنم به کمک نیاز دارم. من دو گروه دارم: G1 (بیماری) و کنترل. برای هر دو گروه، سطح خون آنها را هر 10 دقیقه اندازه گیری کردیم: 0 تا 650 دقیقه. ما در تلاش هستیم تا تفاوت بین G1 (بیماری) و کنترل و اهمیت تفاوت را پیدا کنیم. متغیرهای عوامل عبارتند از: سن، تشخیص (بیماری یا کنترل) و زمان. متغیر وابسته سطح خون است. نمی دانم برای یافتن این اهمیت (تفاوت) باید از کدام رویکرد استفاده کنم. من سعی کردم از تجزیه و تحلیل رگرسیون چندگانه استفاده کنم: P = ثابت + B1 (سن) + B2 (تشخیص) + B3 (زمان) تشخیص 0: ثابت 1: بیمار اگر بخواهم تعامل (تشخیص x زمان) را نیز لحاظ کنم چگونه آن را محاسبه کنم برای تجزیه و تحلیل در اکسل قرار دهید؟
مقایسه دو مجموعه سری زمانی (معیارهای فیزیولوژیکی)
78774
در یک رگرسیون خطی ساده با یک متغیر y تغییر شکل یافته، چگونه آزمایش کنم که آیا دو برابر شدن متغیر x منجر به دو برابر شدن متغیر y می شود؟
در رگرسیون خطی، چگونه می توان آزمایش کرد که آیا دو برابر شدن x منجر به دو برابر شدن y تبدیل شده به log می شود؟
61450
با توجه به مجموعه آموزشی $\\{(x_1, y_1), \dots, (x_n, y_n)\\}$ موارد زیر را در نظر بگیرید: $$\hat{Y}(x_i) = \frac{1}{k} \sum_{x_i \in N_{k}(x)} y_i$$ فرض کنید $k=3$. آیا این فرمول می‌گوید که نزدیک‌ترین همسایه‌های $3$ را برای $x$ انتخاب می‌کنیم و میانگین را از پاسخ‌های آنها می‌گیریم؟ بنابراین اگر $x_i = x_1$ باشد، نزدیک‌ترین مقادیر $3$ را به $x_1$ انتخاب می‌کنیم (مثلا $x_2,x_3,x_4$) و موارد زیر را محاسبه می‌کنیم: $$ \hat{Y}(x_1) = \frac{y_2 +y_3+y_4}{3}$$ آیا این ایده برای دیدن اینکه آیا $\hat{Y}(x_1)$ با $y_1$ موافق است؟ اگر نه، آیا قوانین طبقه بندی متفاوتی لازم است؟
روش های نزدیکترین همسایه
91975
در این سوال بحث جالبی در مورد آزمون تناسب پیرسون وجود داشت که به دور از قطعیت بود: آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟ همچنین، هنگامی که در اطراف خود گشت و گذار می کنید، استدلال هایی را برای و مخالف هر نوع بودن آن پیدا می کنید - بدیهی است که به نظر می رسد مرز بین آمار پارامتری و ناپارامتریک نسبتاً مبهم است؟!؟ اما من این سوال را به این دلیل می‌پرسم که بسیاری از افراد هنوز به این روش تمایز قائل می‌شوند: آیا آزمون خوب بودن برازش پیرسون پارامتری است یا ناپارامتریک (یا حتی نوعی ترکیب)؟ (نکته: یک سوال مشابه اما کلی تر وجود دارد - که در اینجا پاسخ داده نشد: آیا آزمون های برازش پارامتری هستند یا ناپارامتریک؟)
آیا آزمون حسن تناسب پیرسون پارامتری است یا ناپارامتریک؟
100499
من با یک مشکل چالش برانگیز روبرو هستم: بگویید من پیراهن های سه رنگ مختلف دارم (قیمت یکسان). و بگویید من یک نوع فروشگاه عجیب و غریب دارم که در آن مردم یکی یکی وارد می شوند و من می توانم فقط یک پیراهن را به آنها نشان دهم و آنها قبل از رفتن تصمیم می گیرند آب و هوا بخرند یا نخرند. من می خواهم فروش خود را بهینه کنم. تا این مرحله، این به نظر من یک مشکل راهزن چند مسلح کلاسیک است که به عنوان مشکل یادگیری تقویتی طبقه بندی می شود. اکنون بگویید که من در مورد هر شخصی که وارد فروشگاه من می شود تعدادی ویژگی دارم: سن/جنس و غیره (ترکیبی نسبتاً بزرگ از معیارهای طبقه بندی شده و غیر طبقه بندی). چگونه می توانم از این اطلاعات برای بهینه سازی فروش خود استفاده کنم؟ من فکر می کنم رویکرد زیر را در نظر بگیرم: با فرض اینکه نرخ مورد انتظار خرید برای هر یک از رنگ ها کم است، و اگرچه برابر نیست، اما تقریباً یکسان است (مثلاً حدود 1٪)، می توانم به این مشکل به عنوان یک مشکل طبقه بندی نگاه کنم. (یادگیری تحت نظارت). من افرادی را که پیراهن نخریده‌اند فراموش می‌کنم و از کسانی که پیراهن نخریده‌اند می‌پرسم، این شخص جدید به کدام یک از سه گروه خریداران شباهت دارد؟ من از یک الگوریتم طبقه بندی استفاده خواهم کرد و سعی می کنم پیراهن رنگی را که طبقه بندی کننده آموزش دیده ام پیش بینی کرده بود به او نشان دهم. با وجود اینکه نمی‌دانم اگر خریداران پیراهن رنگی دیگری را ارائه می‌کردند، چه وضعیتی دارند، امید من این است که با تعداد زیاد خریداران، و امیدوارم ویژگی‌های مرتبط، یک طبقه‌بندی کننده بتواند شباهت‌هایی بین گروه‌های خریداران پیدا کند. من می‌دانم که این مسئله دور از یک مشکل طبقه‌بندی کلاسیک است، اما فکر می‌کنم این می‌تواند بهتر از نادیده گرفتن ویژگی‌هایی که من از مردم می‌شناسم، و فقط استفاده از یک راهزن چندسلاحه‌ای انجام دهد. سوالات من: آیا رویکرد من منطقی است؟ آیا ایده های متفاوتی برای نزدیک شدن به این موضوع وجود دارد؟ هر چند من قدردانی خواهم کرد. با تشکر
بهره برداری از ویژگی ها در یک سناریوی راهزن چند مسلح
61451
من می‌خواهم بتوانم یک ماتریس کوواریانس با ابعاد $D$ x $D$ ایجاد کنم، به طوری که سلول‌های مشخص شده این ماتریس حاوی مقادیر از پیش تعیین شده ثابت (حداقل تقریباً) باشد. برای مثال برای ماتریس، $S$ = $$ \begin{matrix} a_{11} & a_{12} & \ldots & a_{1D}\\\ a_{21} & a_{22} & \ldots & a_{2D }\\\ \vdots & \vdots & \ddots & \vdots\\\ a_{D1} & a_{D2} &\ldots & a_{DD} \end{matrix} $$ می‌خواهم مطمئن شوم که برخی از $a_{i,j}$ دارای مقدار از پیش تعیین‌شده هستند. (اگر من یک ماتریس کوواریانس بدون این محدودیت ایجاد می کردم، فقط از یک Wishart Random Generator استفاده می کردم. در Matlab، چیزی شبیه به - `W = wishrnd([1 0.5; 0.5 3],30)/30`) یک خواهد بود. راهی که من می توانم به این مشکل فکر کنم این است که سلول های مختلف ماتریس کوواریانس درجات آزادی متفاوتی دارند. به طوری که سلول های با مقادیر ثابت را می توان بی نهایت درجات آزادی و بقیه را مقداری محدود فرض کرد.
ایجاد ماتریس کوواریانس با مقادیر ثابت در سلول های خاص
24658
من مجموعه ای از 50000 نقطه داده دارم. یک متغیر وابسته وجود دارد که ماهیت طبقه بندی دارد و حدود 100 متغیر توضیحی ممکن وجود دارد. از بین این 100 متغیر، من باید 10 متغیر را انتخاب کنم که از نظر تعیین / توضیح متغیر وابسته بیشترین اهمیت را دارند. میشه لطفا معرفی کنید بهترین روش برای این کار کدام است؟
شناسایی متغیرهای معنادار در مواردی که متغیر وابسته طبقه بندی می شود
66105
**سوال اصلی**: اگر در مقاله ای بخوانم که بهترین تناسب یک مجموعه داده خاص lognormal با $\mu=7.7$ و $\sigma=1.9$ است، مکان، مقیاس و پارامتر شکل lognormal چیست؟ **سوالات جانبی**: آیا پارامتر مقیاس $e^\mu$ است یا $\sigma$؟ من عبارات مختلفی را در ادبیات مرجع مختلف می بینم. آیا $\mu$ داده شده در مقاله برابر است با میانگین نرمال تبدیل شده یا با مقدار $\mu$ تبدیل شده جدید؟
پارامترهای مکان، مقیاس و شکل لگ نرمال (با ابهام نماد)
100110
من در درک نحوه ترکیب عدم قطعیت پارامتر و تغییرپذیری بین سالانه از سطوح مختلف در یک مدل خطی راه‌انداز مشکل دارم. به طور خاص، این مدل برای ایجاد تخمین هایی از برخی پدیده $Y$ برای سلول های شبکه 0.5 درجه در یک منطقه فضایی (به عنوان مثال، آمریکای مرکزی) طراحی شده است. به نظر می رسد: $$ \boldsymbol{Y_{m,y}} = \boldsymbol{\beta_{m,y}X_{m,y}} $$ که $\boldsymbol{\beta}$ بردار پارامترهای در حال برآورد (اندازه 1x3)، $\boldsymbol{X}$ ماتریسی از مشاهدات کسرهای پوشش زمین (اندازه 3xN) است. $\boldsymbol{Y}$ بردار مقادیر پیش‌بینی‌شده است (اندازه 1xN)، و زیرنویس‌ها نشان می‌دهند که مدل برای هر ماه $m$ و سال $y$ (به عنوان مثال، می 2006، ژوئن 2006، و مه) پارامتر می‌شود. 2007 همه می توانند تخمین پارامترهای متفاوتی داشته باشند). (بدون رهگیری، اگرچه فکر نمی‌کنم برای سوال من مهم باشد.) اگر مدل را به عنوان $Y_{m,y}=\sum\limits_{i=1}^3{\beta_{i,m در نظر بگیریم. ,y}X_{i,m,y}}$، سپس هر عبارت $\beta_iX_i$ را می توان زیرمجموعه ای از $Y$ در نظر گرفت - یعنی $Y_i$، مقدار $Y$ که در خشکی اتفاق می افتد. نوع پوشش $i$ - به معنای واقعی فیزیکی. بنابراین، احتمالاً بین تخمین‌های پارامترهای مختلف همبستگی وجود خواهد داشت. این امر با این واقعیت تجسم یا تشدید می شود که برای هر سلول شبکه $g$، $\sum\limits_{i=1}^3{\boldsymbol{X_{g,i,m,y}}} = 1$ — که این است که کسرهای نوع پوشش زمین تا 1 جمع می شوند. برای ایجاد مرزهای عدم قطعیت برای پارامترها، من 10000 اجرا بوت استرپینگ انجام داده ام. فرض کنید 500 سلول شبکه در منطقه وجود دارد. برای اولین اجرای بوت استرپینگ، من به طور تصادفی 500 سلول شبکه را از آن منطقه با جایگزینی انتخاب می کنم. سپس پارامترها را برای هر ماه و سال با استفاده از آن مجموعه نمونه تخمین زدم. سپس این روش نمونه برداری-برازش را 9999 بار دیگر تکرار کردم. هدف من مقایسه مقدار میانگین سالانه _measured/observed_ پدیده $Y$ با مقدار تخمینی/مدل شده است. مایلم نوارهای عدم قطعیت حول مقدار اندازه‌گیری شده (که فقط تنوع بین سالانه در مقدار اندازه‌گیری شده را در نظر می‌گیرد) با نوارهای عدم قطعیت در اطراف مقدار تخمینی همپوشانی داشته باشد (که هم عدم قطعیت در پارامترهای مدل و هم بین سالانه را در نظر می‌گیرد. تغییر در مقدار تخمینی سالانه). برای مشاهدات، به اندازه کافی آسان است - $Y$ مشاهده شده را برای تمام ماه های هر سال جمع آوری کنید، سپس انحراف معیار را در تمام سال ها پیدا کنید. هر چند وقتی به این فکر می کنم که چگونه این کار را برای تخمین ها انجام دهم، گیج می شوم. اگر بخواهم مشاهده شده را با تخمینی سالانه جهانی $Y$ (یعنی در همه مناطق) مقایسه کنم، مشکل حتی بیشتر می شود. من می دانم که اضافه کردن انحرافات استاندارد در تربیع در اینجا کلید خواهد بود، اما این واقعیت که سطوح بسیار زیادی وجود دارد، من را گیج می کند. من در حال حاضر در Matlab کار می کنم و به R نیز مسلط هستم، اما هر کمکی که می توانید ارائه دهید بسیار قدردانی خواهد شد.
ترکیب منابع عدم قطعیت/تغییر در یک مدل خطی چند لایه
61452
من تازه وارد صنعت تحقیقات بازار هستم و در معرض رویه ای به نام MaxDiff قرار گرفته ام. من این را دیده ام که به آن مقیاس بندی بهترین-بدترین نیز گفته می شود. من به دنبال یک مرور کلی ادبیات خوب برای این روش و نحوه تناسب آن با سایر گزینه های سؤال طرح نظرسنجی هستم. من به ویژه به دنبال تحلیل تکنیکال خود روش هستم تا یک برنامه کاربردی. با تشکر
انتخاب مدلسازی و MaxDiff
3857
محل کار من کارمندانی از طیف بسیار گسترده ای از رشته ها دارد، بنابراین ما داده ها را به اشکال مختلف تولید می کنیم. در نتیجه، هر تیم سیستم خود را برای ذخیره سازی داده ها توسعه داده است. برخی از پایگاه داده های Access یا SQL استفاده می کنند. برخی از تیم ها (در کمال وحشت) تقریباً به طور کامل به صفحات گسترده اکسل متکی هستند. اغلب، فرمت داده ها از پروژه ای به پروژه دیگر تغییر می کند. در برخی موارد، «سیستم» نامیدن آن بسیار مهربان است. مشکلاتی که به دنبال دارد این است که من باید کد جدیدی بنویسم تا داده های هر پروژه را پاک کنم، که گران است. افرادی که به صورت دستی صفحات گسترده را ویرایش می کنند، تکرارپذیری و ممیزی داده ها را تقریبا غیرممکن می کند. و حتی بدتر، این احتمال وجود دارد که داده ها گم شوند یا نادرست شوند. به من این فرصت داده شده است که این مشکلات را با یکی از اعضای هیئت مدیره شرکت در میان بگذارم و باید بررسی کنم که به او چه بگویم. فکر می‌کنم قبلاً او را متقاعد کرده‌ام که ما مشکلی داریم و درست کردن این موضوع باعث می‌شود علم بهتر و صرفه‌جویی در پول انجام شود. سوال این است: چه چیزی را باید هدف قرار دهیم و چگونه به آنجا برسیم؟ به طور دقیق تر: چگونه باید داده ها را ذخیره کنیم، به گونه ای که به ما امکان می دهد آنها را از ایجاد تا انتشار در یک مقاله ردیابی کنیم؟ (پایگاه های داده روی سرور مرکزی ذخیره می شوند؟) چگونه می خواهید فرمت های پایگاه داده را استاندارد کنید؟ آیا منابع خوبی برای آموزش مردم در مورد نحوه مراقبت از داده ها وجود دارد؟ (به عنوان یک قاعده کلی، متخصصان بهداشت شغلی و مهندسان مواد منفجره اهل داده نیستند؛ بنابراین محتوای غیر فنی ترجیح داده می شود.)
چگونه می توانم مردم را به مراقبت بهتر از داده ها وادار کنم؟
15390
من سعی می‌کنم یک طبقه‌بندی‌کننده ساده بیز برای طبقه‌بندی اسنادی که اساساً مجموعه‌ای از ویژگی‌ها هستند (برخلاف کیسه‌ها) پیاده‌سازی کنم، یعنی هر ویژگی شامل مجموعه‌ای از ویژگی‌های منحصربه‌فرد است که هر کدام حداکثر یک بار می‌توانند در سند ظاهر شوند. به عنوان مثال، می توانید ویژگی ها را به عنوان کلمات کلیدی منحصر به فرد برای اسناد در نظر بگیرید. من از نزدیک Rennie و et. al. مقاله در http://www.aaai.org/Papers/ICML/2003/ICML03-081.pdf، اما من با مشکلی مواجه هستم که به نظر نمی رسد به آن رسیدگی شود. به عبارت دیگر، طبقه بندی اسناد کوتاه به دلیل داشتن تعداد کمتری از اسناد، احتمالات بعدی بسیار بالاتری را به همراه دارد. برعکس برای اسناد طولانی این به این دلیل است که احتمالات پسین به صورت (با نادیده گرفتن مخرج) تعریف می شوند: $$ P(class|document) = P(class) * P(document|class) $$ که به $$ گسترش می یابد P(کلاس|سند) = P (کلاس) * P(feature_1|کلاس) * ... * P(feature_k|کلاس) $$ از آن، مشخص است که کوتاه است اسنادی با ویژگی‌های کمتر، احتمالات بعدی بالاتری خواهند داشت، زیرا عبارت‌های کمتری برای ضرب کردن در یکدیگر وجود دارد. برای مثال، فرض کنید ویژگی‌های «فو»، «بار» و «باز» همگی در مشاهدات آموزشی مثبت ظاهر شوند. سپس، سندی با ویژگی واحد foo نسبت به سندی با ویژگی های {foo، bar، baz} احتمال بالاتری برای طبقه بندی در کلاس مثبت خواهد داشت. به نظر می رسد این غیر شهودی است، اما من کاملا مطمئن نیستم که چگونه این را حل کنم. آیا نوعی نرمال سازی طول وجود دارد که بتوان انجام داد؟ یک ایده این است که اندازه سند را به عنوان یک ویژگی اضافه کنید، اما به نظر نمی رسد کاملاً درست باشد زیرا نتایج با اندازه اسناد در داده های آموزشی منحرف می شوند.
عادی سازی طول در یک طبقه بندی کننده ساده بیز برای اسناد
22764
من باید ماتریس کوواریانس یک توزیع کروی یکنواخت را بفهمم. اما در آنجا حتی نمی توانم یک شکل بسته از توزیع پیدا کنم. این پیوند می گوید $\frac{1}{n}\mathbf{I}$ است، که $\mathbf{I}$ ماتریس هویت $n \times n$ است. اما آیا کسی می تواند به من کمک کند تا آن را استخراج کنم؟ یا حتی به ادبیات در مورد چگونگی؟ با تشکر p.s. از توزیع کروی یکنواخت، بله، منظور من کره واحد در $\mathbb{R}^n$ بود، یعنی $S^{n-1} = \\{ s \in \mathbb{R}^n : |s | = 1 \\}$.
ماتریس کوواریانس توزیع کروی یکنواخت
66108
من می دانم که آنتروپی معیار تصادفی بودن یک فرآیند/متغیر است و می توان آن را به صورت زیر تعریف کرد. برای یک متغیر تصادفی $X \in$ مجموعه $A$ :- $H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) $. در کتاب آنتروپی و نظریه اطلاعات نوشته مک کی، او این بیانیه را در Ch2 ارائه می دهد که اگر p یکنواخت باشد، آنتروپی حداکثر می شود. به طور شهودی، من می توانم آن را درک کنم، مثلاً اگر همه نقاط داده در مجموعه $A$ با احتمال مساوی $1/m$ انتخاب شوند ($m$ اصلی بودن مجموعه $A$ است)، آنگاه تصادفی بودن یا آنتروپی افزایش می یابد. اما اگر بدانیم که برخی از نقاط در مجموعه $A$ با احتمال بیشتری نسبت به سایرین رخ خواهند داد (مثلاً در مورد توزیع نرمال، جایی که حداکثر غلظت نقاط داده در اطراف میانگین و ناحیه انحراف استاندارد کوچک در اطراف آن است، پس تصادفی بودن یا آنتروپی باید کاهش یابد، اما آیا هیچ دلیل ریاضی برای این مورد وجود دارد. مانند آن، آیا ارتباطی بین آنتروپی که در نظریه اطلاعات رخ می دهد و محاسبات آنتروپی در شیمی (ترمودینامیک) وجود دارد؟
چرا وقتی توزیع احتمال یکنواخت است، آنتروپی به حداکثر می رسد؟
15392
من علاقه مند به ارزیابی واگرایی، یا شباهت یا عدم شباهت 2 مجموعه داده که نتایج 2 اندازه گیری مختلف ابزار لیدار هستند، هستم. هر مجموعه داده بیش از 90000 مقدار دارد و آنها یک متغیر پیوسته را اندازه گیری می کنند، مثلاً ارتفاع را. هر مجموعه داده دارای یک توزیع دووجهی با دم بلند در حالت دوم است و در 0.8 (Spearman) همبستگی بالایی دارد. من هم تست کولموگروف-اسمیرنوف و هم کولبک-لایبلر را بررسی می کردم. من بسیار نگران هستم که توزیع های من دووجهی و بسیار بزرگ باشد. من می دانم که تست هایی که مقدار p را ارائه می دهند به انواع توزیع و تعداد اندازه گیری ها بسیار حساس هستند. به همین دلیل فکر می کنم که آزمون KS مناسب نیست. بنابراین من فقط با آزمون KL باقی می‌مانم. اما ..... من تعجب می کنم که چگونه این آزمون تحت تأثیر تعداد داده ها، توزیع، و نحوه تفسیر نتیجه قرار می گیرد. به عنوان مثال، من جمع‌آوری می‌کنم که اگر 2 تست KL داشته باشم، برای هر یک حداقل مقادیر در یک مورد 0.5 و مورد دیگر 0.9 است، سپس در مورد اول 2 مجموعه داده کمتر از حالت دوم واگرا هستند. اما چقدر KL باید کوچک باشد تا زمانی که بتوانم بگویم یک مجموعه داده تقریب خوبی از دیگری است؟ البته، حتی این هم قابل بحث است، زیرا من می‌توانم به خود واگرایی نگاه کنم، یا اینکه چگونه یک مجموعه داده با دیگری از نظر آماری متفاوت است (این یک تمرین است) یا به شباهت / عدم تشابه تفسیر داده‌ها یا داده‌ها نگاه کنم. بگویید در مورد متغیر اندازه گیری شده. پس…. فقط کافی است که من در این مورد فقط به همبستگی ها نگاه کنم؟ شاید من باید داده های خود را در تعدادی از کلاس های راحت طبقه بندی کنم و یک طبقه بندی را با دیگری از طریق آمار کاپا مقایسه کنم؟ شاید این حداقل به من بگوید که آیا تفسیر یک مجموعه داده به اندازه کافی با تفسیر مجموعه داده دوم مشابه است؟ آیا ایده دیگری دارید؟ مراجع؟ من قدردان هر گونه فکری در مورد این موضوع هستم. ## ویرایش با تشکر از پاسخ شما. اکنون متوجه شدم که باید جزئیات بیشتری را وارد می کردم. هر دو داده خام لیدار از یک مرحله پردازش استاندارد عبور می کنند که منجر به یک شبکه xyz منظم با وضوح از پیش تعیین شده (در مورد من 5 متر در 5 متر) می شود. هر دو مجموعه داده مختصات xy یکسانی دارند و فقط z متفاوت است. من می دانم که یک سنسور معمولاً خطای +/- 15 سانتی متر عمودی دارد و احتمالاً دیگری نیز بسیار شبیه است (در واقع می توانم بفهمم). هر دو حسگر در حال جمع آوری داده ها در یک منطقه بودند. ما هیچ حقیقت زمینی برای ارتفاع در آنجا نداریم. ما می خواهیم این داده های پردازش شده را مقایسه کنیم و نه ابر واقعی xyz lidar (به عبارت دیگر نتیجه DEM .....). امیدوارم اکنون این موضوع کمی واضح تر باشد. با تشکر
شباهت / عدم تشابه دو مجموعه داده دووجهی بزرگ
24657
سال‌ها پیش خواندم که پژوهش‌ها وقتی می‌خواهند داده‌های نظرسنجی در مورد سؤالاتی به دست آورند که انتظار نمی‌رود مردم صادقانه به آن‌ها پاسخ دهند، به ترفند خاصی متوسل می‌شوند، مانند «آیا فرزندانت را می‌زنی؟». این ترفند مربوط به تصادفی سازی و اختلاط سؤالات بحث برانگیز با سؤالات بی گناه و سپس انجام نوعی تجزیه و تحلیل بود. متأسفانه نمی توانم به یاد بیاورم که نام این روش چیست و دقیقاً چگونه کار می کند. آیا کسی برای من اشاره گر دارد؟
ترفند در طراحی نظرسنجی برای سوالات مشکل.
28102
اخیراً در مورد بسته‌ای خوانده‌ام که معتقدم نامی مانند «tabstat» یا «tablestats» داشت که نمودار بسیار مفیدی از توزیع‌های تک متغیره از متغیرهای متعدد برای مجموعه‌های داده بزرگ تولید می‌کرد. من معتقدم این بسته توسط گوگل توسعه داده شده است، اما مطمئن نیستم. به نظر نمی رسد آن را در هیچ کجا پیدا کنم (tabstat در گوگل نتایج زیادی را برمی گرداند). اگر من کاملاً دیوانه هستم و این بسته وجود ندارد، چند بسته خوب برای کاوش مجموعه داده های واقعاً عظیم چیست؟ می‌دانم که plyr روش‌هایی برای جمع‌بندی پراکنده‌های دوبعدی برای کاهش اضافه‌نقاط دارد، اما هیچ بسته خوب دیگری برای خلاصه‌سازی بصری مجموعه‌های داده عظیم نمی‌شناسم.
بسته R برای تجسم و کاوش مجموعه داده های بزرگ
28101
من علاقه مند به یافتن رابطه بین دو سری زمانی (احتمالاً چند بعدی) $x_{1:T}$ و $y_{1:T}$ هستم. من تعجب می کنم که چگونه می توانم این کار را با یک سیستم دینامیکی خطی/فیلتر کالمن انجام دهم. روش من مانند تخمین پارامترهای $\theta$ با EM برای احتمال مشترک $p(x_{1:T}، y_{1:T}، h_{1:T})$ است که در آن $h_{1: T}$ حالت پنهان من است. سپس بگویید که من یک دنباله $x'_{1:T}$ را مشاهده کرده ام، می خواهم با پیدا کردن $p(y'_{1:T}، محتمل ترین دنباله $y'_{1:T}$ را تعیین کنم. |x'_{1:T})$. آیا کسی می داند که آیا این روش استاندارد برای این مشکل است؟ اگر نه، رویکرد استاندارد چیست؟ کسی منبعی میدونه که در این مورد توضیح داده شده باشه؟
آموزش نقشه برداری از یک سری زمانی به سری دیگر با فیلتر کالمن
22765
من سعی می کنم نحوه انتشار انحرافات استاندارد را در یک آزمایش بیولوژیکی بیابم، اما مشکلاتی دارم. من داده های (نیمه) ساختگی زیر را دارم که از تجزیه و تحلیل تصویر منتج به اندازه گیری های چگالی نوری (OD) می شود: ds <- data.frame( Sample = c(rep(seq(1,6,2)), Control.OD = c(7000، 7100، 5600، 5200، 5900، 7000، 8100، 7700، 6100، 5500، 6600، 7500)، هدف. OD = c(1000، 330، 35، 9300، 5570، 8700، 1300، 400، 62، 9100، 5817، 900) c(1,1,1,2,2,2,1,1,1,2,2,2) print(ds) Sample Control.OD Target.OD Group 1 1 7000 1000 1 2 2 7100 330 1 3 3 5600 35 1 4 4 5200 9300 2 5 5 5900 5570 2 6 6 7000 8700 2 7 1 8100 1300 1 8 2 7700 400 1 9 3 6100 62 1 10 4 5500 9100 2 11 5 6600 51020 51072 داده ها را نشان می دهد اندازه گیری های تکراری از یک آزمایش با 6 نمونه بیولوژیکی از دو گروه مختلف. من کارهای زیر را انجام می‌دهم: # جمع‌آوری تکثیرهای فنی ds.Agg <- aggregate(cbind(Control.OD، Target.OD) ~ Sample + Group، data = ds، mean) # تغییر نام ستون‌ها برای خواندن آسان‌تر نام‌ها (ds.Agg)[ names(ds.Agg)==Control.OD] <- Control.mean names(ds.Agg)[names(ds.Agg)==Target.OD] <- Target.mean # محاسبه نسبت اولیه بین هدف و کنترل # این مقداری است که هر ds نمونه بیولوژیکی را نشان می دهد. Agg$Ratio <- ds.Agg$Target.mean / ds.Agg$Control.mean # محاسبه میانگین گروه و sd معمولی (بدون انتشار) ds.group <- aggregate(Ratio ~ Group, data = ds.Agg, mean) ds.group$sd <- aggregate(Ratio ~ Group, data = ds.Agg, sd)$Ratio ds.group$sd.rel < - ds.group$sd / ds.group$ratio * 100 # نتایج چاپ برای روش کلاسیک انجام این کار (نه انتشار) قالب (ds.group، اعداد=3) نسبت گروهی sd sd.rel 1 1 0.07 0.0742 106.0 2 2 1.28 0.4080 31.8 خواندن نهایی این خواهد بود: کتابخانه (ggplot2) # نسخه 0.9.0 png(type = ویندوز، فایل = c:/temp/propagation1.png,width=140,height=200) ggplot(ds.group, mapping = aes(x = factor(Group), y = Ratio)) + geom_bar(width = 0.8, position= dodge) + geom_errorbar(نقشه برداری = aes(ymin = نسبت - sd، ymax = نسبت + sd)، عرض = 0.40، position=position_dodge(عرض = 0.8)) + scale_x_discrete (گروه) + scale_y_continuous(Limits = c(-0.1، 1.7)) + theme_bw() message(dev.off()) ! [خیر انتشار](http://i.stack.imgur.com/RLQzm.png) سپس تلاشی برای انتشار: # محاسبه sd برای موارد تکراری فنی که منتشر خواهند شد sdTmp <- aggregate(cbind(Control.OD, Target.OD) ~ نمونه + گروه، داده=ds، sd) ds.Agg$Control.sd <- sdTmp$Control.OD ds.Agg$Target.sd <- sdTmp$Target.OD # محاسبه sd نسبی منتشر شده مرتبط با نسبت محاسبه شده fltRelativeSd <- with(ds.Agg, sqrt( (Control.sd / Control.mean)^2 + (Target .sd / Target.mean)^2 ) ) ds.Agg$Ratio.sd <- ds.Agg$Ratio * fltRelativeSd ds.Agg$Ratio.sd.rel <- ds.Agg$Ratio.sd / ds.Agg$Ratio * 100 **کد دنبال کردن بزرگترین نگرانی من در محاسبه میزان انتشار است انحراف استاندارد:** # محاسبه sd منتشر شده برای گروه های ds.group$sd.prop <- aggregate(Ratio.sd ~ Group, data = ds.Agg, function(x) {sqrt( sum((x)^2) ) / length(x); })$Ratio **به اینجا.** ds.group$sd.prop.rel <- ds.group$sd.prop / ds.group$Ratio * 100 چاپ مجدد نتایج با انحرافات استاندارد منتشر شده: format( ds.group, digits=3) Group Ratio sd sd.rel sd.prop sd.prop.rel 1 1 0.07 0.0742 106.0 0.0111 15.79 2 2 1.28 0.4080 31.8 0.0418 3.26 و یک گراف: png(type = windows, file = c:/temp/propagation2.png,20gg14,width= mapping = aes(x = ضریب (گروه)، y = نسبت)) + geom_bar (width = 0.8، position=dodge) + geom_errorbar(mapping = aes(ymin = Ratio - sd.prop، ymax = Ratio + sd. پایه)، عرض = 0.40، موقعیت = موقعیت_دوج (عرض = 0.8)) + scale_x_discrete(گروه) + scale_y_continuous(limits = c(-0.1, 1.7)) + theme_bw() message(dev.off()) بنابراین یک خواندن برای انتشار: ![با انتشار](http:// i.stack.imgur.com/1vFrk.png) انتظار داشتم انحراف معیار در همان محله ای که در نمودار اول، با این حال به نظر می رسد آنها یک عامل 10 پایین تر است. بنابراین افکار/سوالات من در این مرحله: 1. آیا من محاسبه را انجام می دهم؟
انتشار عدم قطعیت / انحرافات استاندارد در آزمایشات بیولوژیکی
22768
من به بحث پیرامون این سوال و به ویژه نظر فرانک هارل فکر می‌کنم که تخمین واریانس در یک مدل کاهش‌یافته (یعنی مدلی که تعدادی از متغیرهای توضیحی آزمایش شده و رد شده‌اند) باید از درجات آزادی تعمیم یافته Ye's استفاده کند. پروفسور هارل خاطرنشان می کند که این نسبت به درجات آزادی باقیمانده مدل کامل اصلی (با همه متغیرها) بسیار نزدیکتر از مدل نهایی (که تعدادی از متغیرها رد شده اند) است. سوال 1. اگر من بخواهم از یک رویکرد مناسب برای تمام خلاصه ها و آمارهای استاندارد از یک مدل کاهش یافته استفاده کنم (اما در اجرای کامل درجات آزادی تعمیم یافته)، آیا یک رویکرد معقول این است که فقط از درجات آزادی باقیمانده استفاده کنم. مدل کامل در برآورد من از واریانس باقیمانده و غیره؟ سوال 2. اگر موارد بالا درست است و من می‌خواهم آن را در «R» انجام دهم، ممکن است به سادگی تنظیم finalModel$df.residual <- fullModel$df.residual در نقطه‌ای از تمرین برازش مدل باشد، جایی که finalModel و fullModel با lm() یا یک تابع مشابه ایجاد شد. پس از آن به نظر می‌رسد توابعی مانند summary() و confint() با df.residual مورد نظر کار می‌کنند، البته یک پیغام خطایی برمی‌گردانند که نشان می‌دهد شخصی به وضوح با شی finalModel آن را مخفی کرده است. با تشکر
درجات آزادی باقیمانده مناسب پس از حذف عبارت از یک مدل
20040
> **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ نمی دانم آیا کتاب درسی خودآموز خوبی برای یادگیری ماشین وجود دارد؟ من به ویژه به دنبال کسانی هستم که در سطح کاربردی هستند، نه چندان تئوری. من از یک کتاب سنگین ریاضی بدم نمی آید، تا زمانی که شما بچه ها فکر می کنید برای خودآموزی مناسب است. با تشکر
کتاب خودآموز یادگیری ماشینی؟
35704
> **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ رویکردهای یادگیری ماشینی متعددی وجود دارد. همچنین راه‌های متعددی برای بهینه‌سازی پارامترهای آن‌ها و راه‌های متعددی برای پیش‌پردازش داده‌های شما از قبل وجود دارد. به نظر می رسد که در ابتدا پیاده سازی برخی از رویکردهای خارج از قفسه (SVM، جنگل تصادفی) و سپس تلاش برای شکست دادن دقت با رویکردهای پیچیده تر، یک روش معمول است. می‌خواهم بدانم که آیا دستورالعمل‌ها، توصیه‌ها یا قوانین سرانگشتی وجود دارد که در کدام زمینه از کدام رویکرد استفاده کنم؟ آیا توصیه‌ها مختص داده هستند یا دامنه خاص (مانند ژنتیک، اقتصاد سنجی)؟ همچنین می‌خواهم بدانم هنگام نوشتن نتایج چگونه باید این تعداد زیادی را در نظر گرفت. آزمودن چند رویکرد و تنها گزارش بهترین روش در نشریه شما نمی تواند معتبر باشد، درست است؟
قوانین کلی برای انتخاب الگوریتم یادگیری ماشینی؟
61457
من از Matlab برای کشف چند خوشه در یک مجموعه داده استفاده می کنم که دارای متغیرهای عددی (مانند $) و دسته بندی (مثلاً کد پستی) است. من می دانم که برخی از ابزارها می توانند متغیرهای طبقه بندی شده را به عنوان فاکتور کنترل کنند، اما مطمئن نیستم که آیا این مورد برای Matlab است یا خیر. من به دنبال راهی خوب برای نشان دادن متغیرهای طبقه‌بندی خود هستم و مطمئن نیستم که استفاده از متغیرهای ساختگی بهترین راه باشد. یک ایده این است که هر رقم را از کد پستی من، به عنوان مثال، به عنوان یک متغیر باینری 10 رقمی نشان دهم. با انجام این کار، من 50 متغیر باینری جدید خواهم داشت. سؤالات: * آیا این روش قابل قبولی برای برخورد با این مشکل است؟ * چه راه‌های دیگر و/یا کارآمدتری برای نمایش متغیرهای طبقه‌بندی در یک مجموعه داده ترکیبی وجود دارد؟ * آیا من واقعاً نیاز به نمایش عددی متغیرهای طبقه بندی خود دارم یا Matlab واقعاً می تواند مجموعه داده های مختلط را مدیریت کند؟
نمایش داده های طبقه بندی شده در یک مجموعه داده ترکیبی
38955
من به دنبال ایجاد یک مدل حداکثر آنتروپی با استفاده از مقیاس بندی تکراری عمومی هستم. در این فرآیند، من با پروژه SharpEntropy برای دات نت مواجه شدم و از آن به عنوان مرجعی برای پیاده سازی که در حال ساختم هستم استفاده می کنم. همانطور که گفته شد، مثال ساده از مشاهدات زیر استفاده می کند (همه مقادیر اسمی): دمای روز. زمان رطوبت در روز چتر بگیرید (نتیجه) --- ----- -------- ----------- -------------- --------- 1 چتر گرم خشک بدون_چتر 2 چتر سرد خشک بدون_چتر 3 چتر سرد بارانی 4 چتر سرد خشک 5 چتر گرم خشک No_Umbrella 6 Cold Dry Early Umbrella 7 Cold Rainy Early Umbrella 8 Cold Dry Late No_Umbrella 9 Warm Rainy Late No_Umbrella 10 Warm Dry Late No_Umbrella با نگاه کردن به کد، به نظر می رسد که به منظور تولید مدل دودویی ماکزیمم (enpredica) مدل باینری enpredica برچسب ها را می برد _همه ویژگی ها_، مهم نیست که در کجا مقدار پیدا می شود. به این معنی که اگر «گرم» در ستون «رطوبت» بود، آن‌گاه هنگام تعیین آنتروپی مربوط به تابع باینری «مشاهده گرما» محاسبه می‌شود. این به نظر من بسیار نادرست است. مسلماً، برای داده‌های بالا، به نظر می‌رسد که کار می‌کند زیرا همه برچسب‌ها در همه ویژگی‌ها منحصربه‌فرد هستند. بیایید ویژگی دیگری را به مجموعه بالا اضافه کنیم، دمای روز قبل: دمای روز قبل. دما زمان رطوبت در روز چتر بگیرید (نتیجه) --- ----------- ----- -------- ----------- --- -------------------- 1 چتر گرم گرم خشک بدون_چتر 2 سرد سرد خشک بدون_چتر 3 چتر سرد سرد بارانی 4 چتر گرم چتر سرد سرد 5 چتر گرم گرم خشک بدون_چتر 6 چتر سرد سرد خشک زودرس 7 چتر سرد سرد بارانی زودرس 8 گرم سرد خشک دیر نه_چتر 9 سرد سرد گرم بارانی دیر نه_چتر 10 گرم گرم نه_پخش خشک تابع باینری: // می خواستم این کار را در LaTeX انجام دهم، اما LaTeX-fu من نتوانستم. // برای مثال، f0 خواهد بود. بازگشت (priorTemp == گرم || priorTemp == گرم); این به نظر من اشتباه است، و اینکه شما واقعاً می خواهید _دو_ تابع باینری، یکی برای دمای روز قبل: // f0 return priorTemp == Warm; و سپس یکی برای روز جاری: // f1 return temp == Warm; با این اوصاف، آیا این روش مناسبی برای تولید توابع دودویی است، که هر ویژگی در یک مشاهده، جهان ارزش‌های خاص خود را دارد، حتی اگر از نظر معنایی در هنگام در نظر گرفتن جهان بزرگ‌تری از مقادیر (مثلاً دما به طور کلی، معنای مشابهی داشته باشند). در مقابل درجه حرارت در یک روز معین)؟
چه چیزی باعث می شود که مقادیر دو ویژگی برای اهداف ساخت یک مدل آنتروپی حداکثر برابر باشند؟
22762
من یک 2000 SKU دارم، می خواهم فرآیند ARIMA را برای آنها شناسایی کنم، بهترین راه برای انجام آن چیست؟، از چه ابزارهایی باید استفاده کنم؟ خیلی ممنون روجی
فرآیند شناسایی ARIMA
3853
من کد _R_ زیر را برای ایجاد _barplot_ دارم: # ... در اینجا فایل cvs mx <- rbind(results$AVG.P10.) colnames(mx) <- results$RUN rownames(mx) <- AVG P postscript(file=avg_p_result.ps) barplot(mx, beside=T, col=c(خاکستری)، names.arg= results$RUN، cex.axis = 1.5، cex.lab=1.5) من cex.lab=1.5 را امتحان کردم اما اصلا کار نمی کند.
نحوه افزایش اندازه فونت برچسب در بارپلات
108534
چگونه می خواهید مشکل زیر را حل کنید؟ شما یک شرکت بیمه هستید که سیاست های جبران خسارت کارگران را می نویسید. شما می خواهید یک توزیع احتمال برای تعداد ادعاهای سالانه یک حساب براساس ویژگی های خاصی بسازید. شما تعیین می کنید که سه متغیر مهم پیش بینی کننده عبارتند از تعداد کارکنان، سطح ریسک اختصاص داده شده (بالا، متوسط، کم) و حالت اولیه که کسب و کار در آن واقع شده است (AL، AK ، ...). شما فکر می کنید توزیع پواسون مدل خوبی خواهد بود، اما اگر سعی کنید یک مدل جداگانه با استفاده از داده های هر ترکیب منحصر به فرد کلاس های متغیر بسازید، داده های کافی برای معتبر بودن ندارید. برای مثال، اگر بخواهید توزیعی را با حساب‌های پرخطر AL با 10 کارمند تطبیق دهید، فقط 1 یا 2 مشاهده برای استفاده دارید. چگونه مردم معمولاً این نوع مشکل را حل می کنند. مطمئنم قبلا هزار بار انجام شده است، اما تجربه زیادی در مورد آن ندارم. شاید نوعی GLM؟ چیزی که برای من گیج‌کننده‌تر می‌شود این است که چگونه می‌توانید سه نوع بسیار متفاوت پیش‌بینی‌کننده را ترکیب کنید - یک پیش‌بینی‌کننده عددی، و یک عامل ترتیبی، و یک عامل غیر مرتب.
تخمین توزیع از یک مجموعه داده با پارامترهای متعدد
61456
فرض کنید من دو مجموعه از ضرایب همبستگی پیرسون دارم -- آنها را مجموعه A و مجموعه B می نامیم و اندازه آنها یکسان است. چگونه می توانم به طور سیستماتیک همبستگی های A را با B مقایسه کنم؟ به عنوان مثال، من می‌خواهم این فرضیه را آزمایش کنم که A کمتر از B است -- چیزی شبیه به آزمون t دو نمونه‌ای، اما مشکل اینجاست که دو نمونه دو نمونه از ضرایب همبستگی هستند. من تحقیقاتی انجام دادم و متوجه شدم که تبدیل z فیشر برای این منظور وجود دارد. اما فقط تفاوت بین یک همبستگی $\rho_1$ را در برابر $\rho_2$ دیگر آزمایش می کند. من نتوانستم راهی برای آزمایش سیستماتیک تفاوت بین مجموعه‌ای از همبستگی‌ها پیدا کنم. آیا چنین راهی وجود دارد؟ یا من فقط می توانم هر جفت همبستگی را با استفاده از روش فیشر مقایسه کنم و به نحوی تفاوت را بدست بیاورم، در صورت وجود؟
آزمون تفاوت بین 2 مجموعه همبستگی پیرسون
24659
من باید 4 متغیر زیر را برای 29 واحد زمان پیش بینی کنم. من تقریباً 2 سال داده تاریخی دارم که 1 و 14 و 27 همه یک دوره (یا زمان سال) هستند. در پایان، من در حال تجزیه به سبک Oaxaca-Blinder در $W$، $wd$، $wc$، و $p$ هستم. زمان W wd wc p 1 4.920725 4.684342 4.065288 .5962985 2 4.956172 4.73998 4.092179 .6151785 3 4.855509 4.724 6028712 . ۵۹۰۳۱۴ ۷ ۴.۶۱۲۵۹۴ ۴.۶۵۶۲۵۳ ۴.۱۳۶۲۷۱ 0.5832723 10 4.736177 4.679152 3.974465 .5843731 11 4.738954 4.759482 4.037036 .5868722 12 4.54611. .556147 13 4.883891 4.750031 4.168203 .602057 14 4.652408 4.703114 4.042872 .6059471 15 4.642408. .5672519 16 4.695732 4.614248 3.998735 .5838578 17 4.633575 4.6025 3.943488 .5914644 18 4.61076 4.61076 .548952 19 4.678374 4.741046 4.060458 .5416393 20 4.48309 4.609238 4.000201 .5372143 21 4.4758.4758. 0.5515663 22 4.555191 4.627404 3.93675 .5542806 23 4.508585 4.595927 3.881685 .5572687 24 4.46717 0.5645944 25 4.326283 4.544351 3.877583 .5738906 26 4.672741 4.599463 3.953772 .5769604 27 4.4738906 0.5831352 28 4.528004 4.622972 3.90481 0.5968299 من معتقدم که $W$ را می توان با $p\cdot wd + (1 - p)\cdot wc$ به اضافه خطای اندازه گیری تقریب زد، اما شما می توانید به طور قابل توجهی ببینید که مقدار $W$ همیشه بیشتر است. به دلیل ضایعات، خطای تقریب یا سرقت این 2 سوال من است. 1. اولین فکر من این بود که رگرسیون خودکار برداری را روی این متغیرها با 1 تاخیر و یک متغیر زمان و دوره برون زا امتحان کنم، اما با توجه به اطلاعات کمی که دارم، ایده بدی به نظر می رسد. آیا روش‌های سری زمانی وجود دارد که (1) در مواجهه با «تعداد خرد» عملکرد بهتری داشته باشد و (2) بتواند از پیوند بین متغیرها بهره‌برداری کند؟ 2. از طرف دیگر، مدول های مقادیر ویژه برای VAR همگی کمتر از 1 هستند، بنابراین فکر نمی کنم نیازی به نگرانی در مورد ثابت نبودن داشته باشم (اگرچه تست دیکی-فولر خلاف این را نشان می دهد). به نظر می‌رسد که پیش‌بینی‌ها عمدتاً مطابق با پیش‌بینی‌های یک مدل تک متغیره انعطاف‌پذیر با روند زمانی هستند، به جز $W$ و $p$ که کمتر هستند. ضرایب مربوط به تأخیرها عمدتاً معقول به نظر می رسند، اگرچه در بیشتر موارد ناچیز هستند. ضریب روند خطی، مانند برخی از ساختگی های دوره، قابل توجه است. با این حال، آیا دلایل نظری برای ترجیح دادن این رویکرد ساده تر به مدل VAR وجود دارد؟ افشای کامل: من یک سوال مشابه را در Statalist بدون پاسخ پرسیدم.
احمقانه ترین راه برای پیش بینی یک سری زمانی چند متغیره کوتاه
28109
چندین سال پیش در مورد مسابقه ای برای ایجاد الگوریتمی برای پیش بینی نتیجه یک بازی فوتبال دانشگاهی خواندم. این مسابقه مجموعه داده‌های جامعی از بازی‌های سال‌های گذشته ارائه کرد. من در آن زمان مجموعه داده‌ها را دریافت نکردم و به عنوان یک هوادار فوتبال دانشگاهی و آماردان آماتور، آرزو داشتم که داشتم. آیا کسی از مجموعه داده یا منبعی مانند این مطلع است؟
مجموعه داده فوتبال کالج
38957
من اخیراً شروع به بررسی تجزیه و تحلیل بیزی کرده‌ام، و اگرچه شروع به درک چارچوب کلی کردم (یعنی $\text{posterior} \propto \text{likelihood} \times \text{prior}$) من هنوز در بازی کردن با توزیع ها با مشکلاتی روبرو هستم. امیدوارم بتوانم درک دقیق تری از این فرآیندها از طریق مثال های کار شده به دست بیاورم. آنچه در ادامه می‌آید، ارائه‌ای شبیه الگو از انواع مشکلاتی است که در کتاب‌ها و منابع آنلاین مختلف دیده‌ام - امیدوارم منطقی باشد. فرض کنید می‌خواهم یک تحلیل بیزی روی برخی از فرآیندها انجام دهم. داده‌های جمع‌آوری‌شده در این فرآیند در یک دوره زمانی مشخص نشان می‌دهد که فرآیند معمولاً با واریانس $\sigma$ (معروف) توزیع می‌شود. با این حال، هدف تحقیق کشف مقدار میانگین ($\mu$) (نامعلوم) است. از محقق دیگری نظر او درباره همین فرآیند پرسیده می‌شود و مقدار میانگین $\mu_{0}$ با انحراف معیار $\sigma_{0}$ را پیشنهاد می‌کند. * حال، فرض کنید من می‌خواستم توزیع قبلی _گاما را از نظر محقق همکار مشخص کنم. پی دی اف در این مورد چگونه خواهد بود؟ (یعنی چگونه میانگین و واریانس را در توزیع گاما تجسم کنم؟) * علاوه بر این، برای کامل بودن، احتمال و pdf های بعدی $\mu$ چگونه به نظر می رسد؟ همانطور که می بینید، بیشتر دستکاری توزیع ها است که باعث مشکلات من می شود.
تعیین شکل توزیع های قبلی، احتمال و پسین برای تحلیل بیزی
22760
ما مجموعه‌ای از 40 جعبه داریم که هر کدام یکی از چهار اندازه است (10 عدد از هر کدام به طور مساوی توزیع شده است): sizeA، sizeB، sizeC، sizeD. به شخص ما 1 جعبه از هر اندازه ارائه می شود، باید یک جعبه را از اندازه های مختلف انتخاب کند، سپس سه جعبه باقی مانده برداشته می شود و چهار جعبه جدید از هر اندازه ارائه می شود. من می دانم که این به من $4^{10}$ امکانات می دهد. اما اکنون این را در نظر بگیرید. از 10 جعبه، فرد باید با این اندازه ها تمام شود: 1 سایزA، 2 سایزB، 3 سایزC، 1 سایزD، 3 با هر اندازه. من سعی می کنم بر این اساس بفهمم که الان چند احتمال دارم؟ من فقط یک توسعه دهنده وب هستم که یک پروژه جانبی را امتحان می کنم و با این کار خیلی تازه هستم.
چند امکان برای انتخاب 10 جعبه با اندازه مشخص وجود دارد؟
24650
من مجموعه داده ای از 500 مشاهده دارم و باید بهترین توزیع مناسب را پیدا کنم. اگر به هیستوگرام داده ها و نمودار QQ نگاه کنم، به نظر می رسد که داده های من از توزیع یکنواختی پیروی می کنند. اما آزمون کای دو فرضیه صفر مربوطه را رد می کند و من نمی توانم از آزمون کولموگروف-اسمیرنوف (که فرضیه صفر را رد نمی کند) استفاده کنم زیرا پارامترها از داده ها تخمین زده می شوند. چه توزیع‌های دیگری را می‌توانم انجام دهم؟
هنگام تلاش برای تناسب توزیع داده های مشاهده شده، جایگزین های توزیع یکنواخت چیست؟
77682
من دیده ام که در رابطه با انتخاب مدل به آن اشاره شده است، اما به توضیح قطعی آن برخورد نکرده ام. حداکثر اثر مسطح چیست؟
حداکثر اثر مسطح؟
22767
من تقریباً 15000 ویژگی غیرمستقل برای **هر** دارم که حجم نمونه 100 عددی دارم. به طوری که برای هر ویژگی، 100 مقدار TRUE یا FALSE دارم. چگونه می توانم صحت هر ویژگی را آزمایش کنم و از این طریق درصد ویژگی های با مقدار TRUE قابل توجه را تعیین کنم؟ یک فرضیه صفر مناسب ممکن است این باشد که ویژگی وضعیت TRUE ندارد. مشکل من این است که $\alpha $ 0.05 مربوط به رد فرضیه صفر اگر بیش از 95 TRUES برای یک ویژگی وجود داشته باشد، بسیار زیاد به نظر می رسد. من هیچ مجموعه داده مرجعی برای مقایسه ندارم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Fa2qj.jpg) * * * به روز رسانی: پاسخ: استفاده از تست دقیق فیشر. من مطمئن نیستم که از چه پارامترهایی برای جدول احتمالی 2×2 با استفاده از آزمون دقیق فیشر یا آزمون کای دو استفاده کنم. کلاس 1، کلاس 2، نمونه 1 و نمونه 2 چه خواهد بود؟ شمارش واقعی و غیره؟ در اینجا چند ردیف و ستون اول داده ها آمده است: Sample1 Sample2 Sample3 Sample4 Sample5 Sample6 Sample7 Sample8 Sample9 Sample10 Feature1 TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE FALSE Feature2 TRUE FALSE TRUE FALSE TRUE FALSE TRUE FALSE FALSE Feature4 TRUE FALSE TRUE FALSE TRUE TRUE FALSE TRUE FALSE FALSE Feature5 TRUE FALSE TRUE FALSE TRUE FALSE FALSE FALSE TRUE FALSE FALSE Feature7 TRUE FALSE TRUE FALSE TRUE TRUE FALSE TRUE FALSE FALSE Feature8 FALSE FALSE TRUE FALSE TRUE TRUE FALSE FALSE TRUE FALSE FALSE Feature9 FALSE FALSE FALSE FALSE FALSE FALSE FALSE TRUE FALSE TRUE TRUE FALSE TRUE TRUE FALSE FALSE Feature11 FALSE FALSE TRUE FALSE TRUE TRUE TRUE TRUE TRUE FALSE TRUE Feature12 FALSE FALSE TRUE FALSE FALSE TRUE TRUE FALSE FALSE TRUE TRUE FALSE TRUE Feature14 FALSE TRUE TRUE FALSE FALSE TRUE TRUE TRUE FALSE TRUE Feature15 FALSE TRUE FALSE FALSE FALSE TRUE
آزمون معنی دار بودن بدون مقایسه
73304
داده ها: سری زمانی چند متغیره، سری 1) تقاضای یک محصول 2) داده های بارندگی هر دو در سطح ماهانه از 2010-2013 در دسترس هستند. رویکرد: من سعی دارم با استفاده از مدل VAR (خودرگرسیون برداری) اثر بارندگی بر تقاضای محصول را تخمین بزنم. داده های تقاضا دارای مقادیر پرت هستند، مانند یک ماه تقاضای ناگهانی بالا و به دنبال آن مقادیر صفر. **سوال:** چگونه با این موارد پرت رفتار کنم (من در R کار می کنم)، زیرا قبلاً داده های کمی دارم و حذف آنها برای من گزینه ای نیست.
درمان پرت در مدل خودرگرسیون برداری (VAR).
35539
نتایج رگرسیون (جزئی) زیر را در نظر بگیرید که در آن مقدار توضیحی 5 متغیر مستقل برای 3 متغیر وابسته اندازه گیری می شود. در این پست به مدل های `(1d)`, `(2d)` و `(3d)` اشاره می کنم. برای هر مدل، ستون اول ضریب، ستون دوم p-value است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/AP1O1.png) در پایان نامه خود چندین فرضیه را تعریف کردم. ، a.o. 1. اگر «hvVol0LN» افزایش یابد، «حجم معاملات» افزایش می‌یابد. 2. اگر «hbVol0LN» افزایش می‌یابد، «بازده» افزایش می‌یابد. 3. اگر «hbAgreeQ0» کاهش می‌یابد، «بازده» افزایش می‌یابد. اکنون زمان بررسی این است که آیا این فرضیات درست بوده اند یا خیر. من فقط می‌خواهم دوبار بررسی کنم که آیا این نتایج را درست تفسیر می‌کنم: 1. فرضیه پذیرفته شده: یک رابطه نسبتاً قوی ('r=.146') و از نظر آماری معنادار ('p=.000') وجود دارد. 2. فرضیه رد شده است. این رابطه برای شروع بسیار کوچک است، اما بیشتر از آن از نظر آماری ناچیز است ('p=.142'). این تنها در سطح معنی‌داری 14.2 درصد معنی‌دار خواهد بود. فرضیه در سطح 5 درصد پذیرفته شد: رابطه بین «hbAgreeQ0» و «بازده» در واقع منفی و نسبتاً قوی است (r=-.100)، و از نظر آماری در سطح 5 درصد معنی دار بود (005/0=p). اگر «p» بزرگتر از «005.» بود، این رابطه از نظر آماری معنی‌دار نخواهد بود، زیرا در عمل سطوح معنی‌داری 1 تا 5 درصد پذیرفته می‌شود (البته بسته به نوع تحقیق) 4. فرضیه پذیرفته می‌شود. : رابطه معنی دار است (`000/0=p) اما خیلی قوی نیست (052/0=r) آیا این روش درستی برای توصیف نتیجه hpyothes؟ به عبارت دیگر: * آیا می توانید پذیرش / رد را مستقیماً از خروجی رگرسیون استخراج کنید، و * آیا من مقادیر `r` و `p` را به درستی تفسیر می کنم؟ کمک شما در پایان پایان نامه من بسیار قابل قدردانی است :-) **ویرایش: مقداری خروجی رگرسیون SPSS برای واضح تر شدن منظورم از`r`**![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/LzhBI.png)
آزمون فرضیه: آیا من نتایج رگرسیون OLS را به درستی تفسیر می کنم؟
35530
گاهی اوقات من تعداد زیادی متغیر پنهان در یک مدل سلسله مراتبی بیزی دارم، اما من فقط به تخمین تبدیل های پیش بینی شده آن متغیرهای پنهان علاقه مند هستم (به عنوان مثال، من یک پارامتر دو جمله ای را به عنوان یک منطق معکوس از مجموعه ای از احتمالا- پارامتر می کنم. متغیرهای کمکی غیرقابل شناسایی، حتی اگر نتیجه مورد علاقه من تخمین پارامتر دو جمله ای است). دگرگونی‌های پیش‌بینی‌شده اغلب خیلی سریع (بر اساس تشخیص‌های هم‌گرایی مانند گلمن/روبین یا با چشم در نمونه‌های خلفی) همگرا می‌شوند، حتی اگر متغیرهای پنهان هنوز همگرا نشده باشند. به طور شهودی این منطقی است، مدل ممکن است یک فراپارامترسازی باشد که در آن پارامترهای نهفته قابل شناسایی نیستند - کمیت های مشتق شده در یک منطقه باریک با احتمال بالا از فضای پارامتر متغیرهای تبدیل شده محدود می شوند که به یک فضای بسیار بزرگتر تا حد زیادی مسطح نگاشت می شود. منطقه احتمال (اما محدود) فضای پارامتر متغیر پنهان. بنابراین آیا این شهود درست است که من نگران نباشم که متغیرهای پنهان بیش از حد پارامتر قابل شناسایی نیستند و به طور کامل همگرا نیستند وقتی نمونه‌های بعدی خود را می‌گیرم؟ آیا منابع خوبی وجود دارد که در مورد استفاده از متغیرهای پنهان ناشناخته به این روش بحث می کند؟ من برخی از بحث‌ها را در مورد پارامتر بیش از حد برای سرعت بخشیدن به همگرایی mcmc شنیده‌ام، اما در مورد چگونگی فکر کردن به این موضوع کاملاً روشن نیستم، زیرا به نظر می‌رسد رویکردها و نگرش‌ها نسبت به پارامتر بیش از حد و غیرقابل شناسایی بودن در روش‌های بیزی کمی متفاوت از روش‌های بیزی است. سایر زمینه های مدل سازی
متغیرهای پنهان، فراپارامتری و همگرایی MCMC در مدل های بیزی
37638
> **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ > کتاب خودآموز یادگیری ماشینی؟ چند کتاب خوب برای الگوریتم های یادگیری ماشین نظری و عملی چیست؟ من به ویژه به دنبال کتابی هستم که مهمترین و برجسته ترین الگوریتم های یادگیری ماشینی را که امروزه استفاده می شود توضیح دهد. همچنین آیا کتاب خوبی برای یادگیری شبکه های عصبی پایه وجود دارد؟ من هم به دنبال تئوری و هم برای کاربرد هستم، بنابراین پیشنهادات در مورد هر کدام خوب است. من فقط یک مبتدی در این زمینه هستم، بنابراین هرچه درک کتاب راحت تر باشد بهتر است!
کتاب الگوریتم های یادگیری/شبکه ​​های عصبی؟
35532
من این مشکل را دارم که در مدل دوجمله‌ای-glmm من با ساختار جلوه‌های تصادفی تو در تو (30000 ردیف واقع در 30 گروه تو در تو در 25 گروه) نمودارهای تشخیصی خوب به نظر می‌رسند (تا آنجا که من می‌توانم بگویم)، باقیمانده‌ها الگوهای سنگین را نشان نمی‌دهند و برخی پیش بینی ها حتی قابل توجه هستند. با این حال، $R^2$ 0.055 است. هدف من پیش بینی مقادیر جدید نیست، بلکه فقط درک روابط موجود در مجموعه داده حاضر است. آیا $R^2$ هنوز مهم است؟ یا ممکن است ساختار من مزخرف باشد و در نتیجه منجر به پایین بودن R^2$ شود؟ اطلاعات اضافی: 25 ایستگاه انرژی بادی (WEA) در حال ساخت هستند. در طول ساخت اینها، تصور می شود سطوح سر و صدا بر گرازهای دریایی (گونه های دلفین مانند) تأثیر می گذارد. 30 ایستگاه صوتی وجود دارد که صداهای گراز دریایی (آنها می توانند بین کشتی ها و ماهی ها تفاوت قائل شوند)، مقدار دما و سطوح نویز (SEL) وجود دارد. WEA گاهی اوقات از یک دستگاه نادیده گرفته می شود. هدف این است که بفهمیم آیا این دستگاه در یک بازه زمانی معین منجر به کلیک بیشتر از خوک‌ماهی می‌شود یا خیر. اندازه گیری ایستگاه ها در طول یک سال و هر دقیقه انجام شد. با این حال، مورد علاقه تنها فاصله 100 ساعت پس از پایان ساخت WEA است. این مرحله HRW (کار مرتبط با ساعت) نامیده می شود. همیشه یک ساخت WEA در هر زمان وجود دارد، نه همه با هم. بنابراین WEA را می توان به عنوان یک رویداد در نظر گرفت. متغیر وابسته: * ppm (شمارش کلیک گراز دریایی در هر دقیقه در طول یک ساعت) بنابراین مقادیر ساعتی * داده های شمارش صفر متورم متغیر مستقل: * SEL اندازه گیری نویز، میانگین در روز (پیوسته) * میانگین دمای روزانه (پیوسته) * کل ساختمان زمان (پیوسته = دقیقه) * مکان x/y ایستگاه ها (هنوز در سیستم جغرافیایی، یعنی 54333) 9,3333) * hrw (فاز زمانی بعد از کار، از 0،1،2،...،100. ایستگاه ها همیشه طول کامل را اندازه گیری نمی کنند، گاهی فقط 17 ساعت) * دستگاه قطع صدا (ضریب باینری) * ماه به عنوان یک فاکتور با 7 سطح (گربه) * WEA ID (گربه، جلوه تصادفی) * ایستگاه صوتی (گربه، اثر تصادفی) * پود در یک ایستگاه، گاهی اوقات سیستم‌های اندازه‌گیری pod-acoutstic در هر ایستگاه رد و بدل شدند (گربه) * به طور بالقوه همچنین 4 کلاس فاصله من افکت‌های تصادفی را با (hrw|WEA/station) می‌سازم، اگرچه هنوز مطمئن نیستم که آیا این طراحی درست است یا خیر. نکته این است که WEA یک رویداد است (25 عدد) در طول یک رویداد 30 ایستگاه ppm را اندازه می‌گیرند. آیا این متقاطع است یا تودرتو؟ من مطمئن نیستم اگرچه من انتظار همبستگی خودهمبستگی زمانی و مکانی را داشتم، اما هیچ اشاره ای در این مورد نیافتم. امیدوارم این موضوع کمی بیشتر ماجرا را روشن کند.
زمانی که پیش‌بینی هدف تحقیق نیست، R^2$ چقدر مهم است؟
64114
من چندین طبقه بندی کننده را در یادگیری ماشین یاد گرفته ام - درخت تصمیم، شبکه عصبی، SVM، طبقه بندی کننده بیزی، K-NN، فرآیند مارکوف و غیره. آیا کسی می تواند کمک کند تا بفهمم چه زمانی باید یکی از طبقه بندی کننده ها را بر دیگری ترجیح دهم - برای مثال - در کدام موقعیت (ماهیت مجموعه داده ها و غیره) باید درخت تصمیم را به شبکه عصبی ترجیح دهم یا اینکه SVM در کدام وضعیت ممکن است بهتر از بیزی عمل کند. انواع مشکلات برای اعمال درخت تصمیم، شبکه عصبی، k-nn، فرآیندهای مارکوف یا SVM یا بیزی مناسب هستند. با تشکر
مشکلات مناسب برای انواع مختلف طبقه بندی کننده های ML
38952
اجازه دهید $X_1$ و $X_2$ نرمال دو متغیره با میانگین $\mu=(0,\mu_2)$، برای هر $\mu_2$، و همبستگی $\rho$ باشد. نابرابری زیر را در نظر بگیرید: \begin{align*} Pr\left\\{|X_1| \ge \Phi^{-1}(1-\alpha/2)، |X_2| \ge \Phi^{-1}(1-\alpha/2)\right\\} \le 2Pr\left\\{|X_1| \ge \Phi^{-1}(1-\alpha/4)، |X_2| \ge \Phi^{-1}(1-\alpha/2)\right\\} \end{align*} آیا نابرابری برای همبستگی $|\rho| \le 1 دلار؟ آیا نتایج مرتبطی در مورد توزیع نرمال دو متغیره عمومی وجود دارد؟
نابرابری برای توزیع نرمال دو متغیره
31855
برنامه من این است: * یافتن منبع داده در مورد زمان و مکان تصادفات در ایالات متحده 101 * یافتن منبع داده در مورد حجم ترافیک در همان جاده * داده ها را زیر مجموعه ای قرار دهید تا فقط تصادفاتی را که در US101 بین سانفرانسیسکو و پالو آلتو. * تصادفات را بر حجم ترافیک برای بازه های زمانی کوچکی که بتوانم داده های حجم ترافیک را دریافت کنم، تقسیم کنم. به عنوان مثال، اگر بتوانم حجم ترافیک در ساعت را بدست بیاورم، عالی خواهد بود، زیرا در این صورت می توانم میانگین # تصادف در آن ساعت در یک روز معین را بر حجم ترافیک در آن پنجره تقسیم کنم و سپس فرض کنم، به دلیل عدم وجود یک ایده بهتر این است که هر خودرو شانس مساوی برای درگیر شدن دارد. شاید بتوانم اطلاعاتی در مورد سطوح مختلف خطر براساس سن راننده یا نوع خودرو دریافت کنم، اما تصور می‌کنم شرکت‌های بیمه این داده‌ها را در اختیار دارند و به احتمال زیاد به اشتراک نمی‌گذارند. پیشنهادات برای منابع داده بسیار مورد استقبال قرار می گیرد. حتی اگر مجبور باشم کار بدی مانند ضرب کردن ریسک ملی در حجم ترافیک انجام دهم، فعلاً به اندازه کافی خوب است، مشکل اصلی من دریافت داده است. هر گونه پیشنهاد هوشمندانه قدردانی می شود. (FYI: این فقط برای منافع شخصی است)
چگونه می توانم احتمال تصادف رانندگی در US101 را بر اساس روز هفته و ساعت روز تخمین بزنم؟
77686
من در یک پروژه سرگرمی کار می کنم، و برای مشکل زیر کمک می خواهم: من اطلاعات قیمت را از یک بازار اینترنتی می گیرم، بنابراین اگر یک کلمه کلیدی (مثلاً قاب آیفون) ارائه کنم، می خواهم آن را دریافت کنم. 500 مورد اول که در آن بازار نمایش داده می شود، همراه با قیمت آنها. سوال من این است که چگونه می توانم توزیع قیمت را به درستی تجسم کنم تا بتوانم اطلاعات معناداری به دست بیاورم؟ من نمودارهای پراکنده را امتحان کرده ام، اما فکر نمی کنم نمودار چیز زیادی در مورد قیمت ها در آن بازار به من بگوید: ![تلاش من برای تجسم توزیع قیمت](http://i.stack.imgur.com/Y3W10.png ) من همچنین سعی کردم میانگین و انحراف معیار را در نمودار پراکنده ترسیم کنم، اما مطمئن نیستم که آیا گلابی و سیب را با هم مخلوط می‌کنم، وقتی آن مقادیر را به صورت پراکنده ترسیم می‌کنم. نمودار من نه یک داده کاوی هستم و نه یک فرد آماری. من این کار را فقط به عنوان یک سرگرمی انجام می دهم و از این پروژه کوچک به عنوان یک تجربه یادگیری شخصی استفاده می کنم. هر گونه کمکی بسیار قدردانی خواهد شد.
چگونه توزیع قیمت در بازار را تجسم کنیم؟
31851
در آمار از دو عبارت توزیع نرمال و توزیع نرمال استاندارد استفاده می شود. آیا عبارت استاندارد به توزیع نرمال کمک می کند؟ لطفاً در پشت این عبارات، یک دلیل ساده اما منطقی ارائه دهید.
تفاوت بین توزیع نرمال و توزیع نرمال استاندارد چیست؟
77687
من داشتم مقاله ام. کالینز را می خواندم که پرسپترون ساخت یافته را معرفی می کرد (این یک پیوند است). من نمی فهمم منظور از آموزش تبعیض آمیز HMM چیست. چگونه می توان یک مدل مولد را به شیوه ای تبعیض آمیز آموزش داد؟ (و دقیقاً به چه معناست)
آموزش تبعیض آمیز چیست؟
55229
از نظر قاعده‌بندی $\ell_1$، یک راه طبیعی برای گنجاندن پراکندگی در یک مدل بیزی، اضافه کردن یک پیشین لاپلاسی به نظر من است. اما به جای این، یک روش معمول برای رسیدگی به پراکندگی در مدل بیزی، روشی است که در مقاله یادگیری پراکنده بیزی و ماشین بردار ارتباط پیشنهاد شده است. تفاوت این دو در عمل چیست؟ آیا مطالعات تطبیقی ​​در مورد آنها وجود دارد؟ متشکرم.
چرا روش‌های بیزی از طریق احتمال نرمال و گاماهایپرپیور به پراکندگی می‌رسند؟
12386
به نظر من منابعی مانند کتاب آشپزی احتمالات و آمار و کارت مرجع R برای داده کاوی بسیار مفید هستند. بدیهی است که آنها به خوبی به عنوان مرجع عمل می کنند، اما همچنین به من کمک می کنند تا افکارم را در مورد یک موضوع سازماندهی کنم و به نظرم اهمیت بدهم. س: آیا چیزی مانند این منابع برای روش های یادگیری ماشین وجود دارد؟ من یک کارت مرجع را تصور می کنم که برای هر روش ML شامل موارد زیر می شود: * ویژگی های عمومی * زمانی که روش به خوبی کار می کند * زمانی که روش ضعیف عمل می کند * روش از کدام یا به کدام روش دیگر تعمیم می یابد. آیا عمدتاً جایگزین شده است؟ * مقالات اساسی در مورد روش * مسائل باز مرتبط با روش * شدت محاسباتی همه این موارد را می توان با کمی حفاری در کتاب های درسی پیدا کرد. داشتن آنها در چند صفحه واقعاً راحت خواهد بود.
کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟
32627
اگر بخواهم عملکرد PCA و PLS را با داده های غیرخطی مقایسه کنم، چه چیزی را باید اندازه گیری کنم؟ من می دانم که می توانم از MSE استفاده کنم (اما اگر از نمایه خطی استفاده نکنم، نمی توانم پارامترهای رگرسیون خطی را تخمین بزنم، پس چگونه آن را محاسبه کنم؟ برای PLS، داده ها باید از توزیع نرمال پیروی کنند یا این یک روش بدون نظارت است که برای تکنیک های کاهش ابعاد به من پیشنهاد می کنید؟
مقایسه عملکرد بین تکنیک های کاهش
51763
من در استفاده از SPSS تازه کار هستم و با رویه General Linear Model [که فقط مدل خطی است] گیر کردم. من 8 متغیر شناختی مانند تأخیر، thigmotaxis، فضایی، ربع، ربع nt، مجاورت، نزدیکی nt و سرعت فعال دارم. همه اینها در روزهای 1،2،3،4 و 5 مورد تجزیه و تحلیل قرار گرفتند و برای چهار گروه رژیم غذایی مختلف و تنها یک جنسیت (مونث) مورد آزمایش قرار گرفتند. رئیس من می خواهد تفاوت معنی داری را در میانگین بین روزها و رژیم های غذایی پیدا کند و آن را به عنوان جدول با استفاده از GLM نشان دهد. من فقط با یک متغیر با استفاده از اندازه‌گیری‌های مکرر GLM امتحان کردم، اما نمی‌دانم کدام مقدار p باید گزارش شود. من تا اینجا می دانم که باید برویم به تحلیل> مدل خطی عمومی> اندازه گیری های مکرر> درون موضوع (وارد شده به عنوان زمان)> سطوح (وارد شده به عنوان 5)> تعریف> متغیرهای درون موضوعی (انتخاب شده برای همه روزها)> بین موضوع ها (رژیم غذایی وارد شده)> کنتراست (تکرار شده)> گزینه ها (emmeans)> خوب. **من هنوز متوجه نشده ام که چگونه مقادیر p همانطور که در تصویر زیر نشان داده شده است به دست آمده است**. من جدولی ندیدم که اینطور یا چیزی شبیه به این را نشان دهد. نمی دانم اینجا چه چیزی را از دست داده ام. داده های من در Means +/- SEM و N است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XIBEq.png)
برای یافتن تفاوت معنادار بین میانگین ها با استفاده از اندازه گیری های مکرر GLM
101240
من می‌دانم چگونه EIGN را با دست محاسبه کنم، اما وقتی می‌خواهم کد بدون تابع EIGN() بنویسم، سرنخی نداشتم. برای محاسبه مقدار ویژه، شمارش تمام c های ممکن در det(A-c*I)=0 است. A ماتریس و c یک عدد است.
چگونه بدون استفاده از تابع ()eign با R محاسبه کنیم؟
51764
صبح بخیر، برای یک تکلیف از ماشین‌های بردار پشتیبان (طبقه‌بندی) با هسته RBF، اعتبارسنجی متقاطع k-fold=10، هزینه نقض محدودیت‌ها=100 و گاما=0.001 استفاده کردم. عالی کار می کند و پیش بینی های من بسیار خوب است. با این حال، ما ندیدیم که چگونه مدل را در شرایط ریاضی فرمول بندی کنیم (خب ما اصلاً قرار نیست svm را در دوره پوشش دهیم)، و معتقدم مهم است. من کتاب های هستی و دیگر کتاب ها را مرور کردم، اما هنوز نمی دانم چگونه این مدل را فرموله کنم. آیا کسی می تواند مرا در مسیر درست راهنمایی کند؟ ممنون، دیگو
فرمول بندی ریاضی مدل SVM
35531
می دانم که چند سوال می پرسم و از این بابت عذرخواهی می کنم. با این حال من سعی خواهم کرد راه حل ها را بخوانم و نقاط ضعف نظریه خود را بشناسم. اینجاست: اگر $u=x\cos \theta+y\sin\theta$ و $v=y \cos \theta-x\sin\theta$. متغیرهای $u$ و $v$ همبستگی ندارند، پس چگونه می توانم ثابت کنم که $$\tan 2\theta=\frac{2r_{xy}s_xs_y}{s_x^2-s_y^2}$$ جایی که $r_{ xy}$ ضریب همبستگی بین $x$ و $y$ است و $s_i$ انحراف استاندارد یک متغیر $i$ است. ببخشید که بدون زحمت زیاد سوال میپرسم، اما الان اواخر شب است و باید به زودی عیوبم را شناسایی کنم.
محاسبه $\tan 2\theta$ بر حسب ضرایب همبستگی و واریانس
35537
من سعی می‌کنم در یک مطالعه منتشر شده، نرخ طبقه‌بندی اشتباه را تعیین کنم، جایی که نتایج شامل این مقدار نمی‌شود. با این حال، من نتایج «حساسیت»، «ویژگی»، «مقدار پیش‌بینی مثبت» و «ارزش پیش‌بینی منفی» را دارم. نتایج عبارتند از: حساسیت ویژه PPV NPV 69.9 99.3 95.6 93.7 حجم نمونه 860 است. به نظر من این را می توان با استفاده از مجموعه ای از 4 معادله همزمان حل کرد، اما جبر من در حد کار نیست. اگر از حروف زیر برای جایگزینی در معادلات استفاده کنیم: * a = مثبت واقعی * b = مثبت کاذب * c = منفی کاذب * d = منفی واقعی، مجموعه معادلات همزمان به نظر می رسد: a/(a+c)= 0.699 (یعنی حساسیت) b/(b+d)=.993 (یعنی ویژگی) a/(a+b)=.956 (یعنی PPV) d/(c+d)=.937 (یعنی NPV) عبارات کسری موجود در معادلات مرا دیوانه کرده است. مطمئناً شخص دیگری باید در گذشته همین مشکل را داشته باشد و آن را حل کرده باشد، اما من نتوانستم یک حسابگر آماده برای حل این مشکل پیدا کنم. وقتی بدانم چهار مقدار چیست، می توانم به راحتی نرخ طبقه بندی اشتباه را محاسبه کنم. من از هرگونه کمکی در مورد این مشکل محاسبه برگشتی قدردانی می کنم. من در اینجا پست گذاشته‌ام زیرا فکر می‌کنم یک اپیدمیولوژیست یا آمارشناس زیستی محتمل‌ترین نوع فردی است که می‌تواند پاسخ دهد و ممکن است سؤالات ریاضی را نخواند.
تخمین نرخ طبقه بندی اشتباه از مقادیر طبقه بندی خلاصه
56756
من در حال طراحی مطالعه ای هستم تا مقایسه کنم که آیا یک درمان خاص کیفیت زندگی را بهبود می بخشد یا خیر. من از یک نمونه راحت ($N=20$) استفاده می کنم. امیدوارم بتوانم سه پرسشنامه مختلف را برای هر آزمودنی قبل و بعد از مداخله (همه تایید شده و استاندارد شده) اجرا کنم تا معیارهای قبل و بعد از کیفیت زندگی را با هم مقایسه کنیم. یکی از پرسشنامه ها به شدت و فراوانی علائم قبل و بعد از درمان می پردازد. من امیدوارم که نتایج را تجزیه و تحلیل کنم تا نشان دهم که آیا علائم بهبود یافته اند و اگر وجود داشته باشد چه تأثیری بر کیفیت زندگی هر یک از افراد دارد. آیا باید از آزمون های t زوجی استفاده کنم؟
چگونه می توان تفاوت در 3 معیار مرتبط ارزیابی شده قبل و بعد از درمان را در یک نمونه آزمایش کرد؟
10519
اگر سری های زمانی زیادی داشته باشم که می خواهم آنها را با هم مقایسه کنم تا ببینم آیا روابطی بین متغیرها وجود دارد، (من چندین متغیر وابسته و متغیرهای مستقل بیشتری دارم) چگونه می توانم این کار را انجام دهم (من در R کار می کنم، فقط فیی)؟ من واقعاً مثال‌های زیادی برای مقایسه و کشف روابط بین بسیاری از متغیرها پیدا نکرده‌ام. به طور خاص، می‌خواهم ببینم آیا تغییر در سری‌های زمانی مستقل من باعث ایجاد تغییرات در سری‌های زمانی وابسته می‌شود یا خیر، و من آنقدر با آمار (و R) تازه کار هستم که واقعاً مطمئن نیستم چگونه به این مشکل نزدیک شوم. در اینجا برخی از داده های نمونه وجود دارد (من می دانم که 2 مقدار گم شده وجود دارد، و ممکن است Y2 را به عنوان یک متغیر مستقل در نظر بگیرم زیرا فکر می کنم Y2 و Y1 ممکن است همبستگی داشته باشند. ستون با عنوان متغیر کمکی سال ها از آخرین سیل است، زیرا فکر می کنم این نیز ممکن است مهم باشد): سال Y1 Y2 X1 X2 X3 X4 X5 متغیر کمکی 1 40 92 0 0 20.6 91 503 3 2 54 65 0 0 21.7 33 175 4 3 59 75 1 1 22.2 34 94 5 4 68 53 8 9 22.2 24 86 6 5 5 20 20.6 5 185 223 7. 119 8 7 76 55 16 18 23.3 0 153 9 8 82 58 18 2 24.4 19 0 1 9 60 57 28 24 23.33 0 223 2 10 58 421 421. 49 48 2 1 23.33 0 110 4 12 28 76 0 3 22.78 0 213 5 13 56 61 0 1 22.78 12 123 6 14 105 53 53 239 2423 28 13 24.44 0 154 8 16 119 47 46 35 23.33 0 182 9 هر گونه راهنمایی بسیار قدردانی خواهد شد زیرا من واقعاً مطمئن نیستم که چگونه در اینجا ادامه دهم.
مقایسه چند سری زمانی در R
29757
> **موضوع تکراری:** > کتاب آشپزی یادگیری ماشینی / کارت مرجع / برگه تقلب؟ هر طبقه بندی کننده مزایا و معایب خاص خود را دارد. به عنوان مثال سرعت قطار/آزمایش، طبقه‌بندی/رگرسیون (و تعداد کلاس‌هایی که می‌توان آنها را مدیریت کرد)، چند درجه آزادی، مناسب/نامناسب برای انواع مجموعه داده‌های انتزاعی (که ممکن است بگوییم)، مدل حاصل چقدر قابل تفسیر است (مانند حداکثر -ent: اهمیت ویژگی های منفرد)، و غیره و غیره آیا یک نمای کلی خوب می شناسید؟ اگر نه، آیا می خواهید یکی را ایجاد کنید؟
مروری بر طبقه بندی کننده های (متداول) و ویژگی های آنها
93532
آیا درست است که بگوییم هدف طبقه‌بندی‌کننده (به عنوان مثال K-NN، رگرسیون لجستیک، LDA) تقریب‌کردن مرز تصمیم بیز است؟
مرز تصمیم بیز و طبقه بندی کننده
31858
به نظر می رسد که اگر من یک مدل رگرسیونی مانند $y_i \sim \beta_0 + \beta_1 x_i+\beta_2 x_i^2 +\beta_3 x_i^3$ داشته باشم، می‌توانم یک چند جمله‌ای خام را جا بزنم و نتایج غیرقابل اعتمادی به دست بیاورم یا چند جمله‌ای متعامد و ضرایبی را دریافت کنید که تفسیر فیزیکی مستقیم ندارند (مثلاً نمی توانم از آنها برای پیدا کردن مکان های اکسترم روی مقیاس اصلی). به نظر می رسد که من باید بتوانم بهترین های هر دو جهان را داشته باشم و بتوانم ضرایب متعامد برازش شده و واریانس آنها را به مقیاس خام تبدیل کنم. من یک دوره تحصیلات تکمیلی را در رگرسیون خطی کاربردی (با استفاده از Kutner، 5ed) گذرانده‌ام و فصل رگرسیون چند جمله‌ای را در Draper نگاه کردم (3ed، که توسط Kutner به آن اشاره شده است) اما هیچ بحثی در مورد چگونگی انجام این کار پیدا نکردم. متن راهنما برای تابع «poly()» در R وجود ندارد. همچنین در جستجوی وب خود، از جمله اینجا، چیزی پیدا نکردم. آیا بازسازی ضرایب خام (و به دست آوردن واریانس آنها) از ضرایب برازش شده به یک چند جمله ای متعامد... 1. غیر ممکن است و من وقتم را تلف می کنم. 2. ممکن است اما در حالت کلی معلوم نیست. 3. ممکن است اما مورد بحث قرار نگرفت زیرا چه کسی می خواهد؟ 4. ممکن است اما مورد بحث قرار نگرفت زیرا این واضح است. اگر پاسخ 3 یا 4 است، اگر کسی حوصله داشته باشد توضیح دهد که چگونه این کار را انجام دهد یا به منبعی که این کار را انجام می دهد اشاره کند، بسیار سپاسگزار خواهم بود. اگر 1 یا 2 باشد، باز هم کنجکاو هستم که بدانم مانع چیست. از اینکه این مطلب را خواندید بسیار متشکرم و اگر نکته بدیهی را نادیده گرفتم پیشاپیش عذرخواهی می کنم.
بازیابی ضرایب خام و واریانس از رگرسیون چند جمله ای متعامد
73301
من یک نمونه از 197 پاسخ دارم. 8.6٪ (17) از گروه A، بقیه از گروه B هستند. (گروه ها متقابلاً منحصر به فرد هستند و مستقل نیستند). (اگر به تجسم مسئله کمک کند، گروه A زیر 10 سال است، گروه B پاسخ دهندگان بالای 11 سال.) سپس پاسخ ها بر اساس نوع به گروه ها طبقه بندی می شوند. نوع 1 آسیب سر است و 3 نفر از این گروه هستند. 2 نفر از گروه B، 1 از گروه A است. من انتظار دارم که نتایج برای آسیب سر کمتر از 10 (گروه A) و آسیب سر: 0.3 زیر 10 و بدون آسیب سر: 16.7 بیش از 10 (گروه B) و آسیب سر باشد. : 2.7 بیش از 10 و بدون آسیب به سر: 179.3 از چند دوست پرسیده ام که چگونه می توان آزمایش کرد که آیا مقدار مورد انتظار بسیار کمتر از مقدار مشاهده شده قابل توجه است یا خیر. به نظر می رسد که تاکنون پاسخ ها به نفع آزمون Z یا آزمون مجذور کای با تصحیح برای اعداد بسیار کوچک هستند. تعداد من بسیار زیاد است، اما می توانم به اندازه کافی خوب مدیریت کنم -- فقط مطمئن نیستم که آزمون مناسب در اینجا چیست؟
چگونه می توان در جداول اقتضایی با اعداد و نسبت های بسیار کم ارتباط را آزمایش کرد؟
56757
من دو سوال کلی در مورد توابع پاسخ ضربه ای در R با استفاده از بسته **vars** دارم. به این کد نگاهی بیندازید: library(vars) data(Canada) var.2c <- VAR(کانادا، p = 2، نوع = const) plot(irf(var.2c، impulse = e، پاسخ = c(prod، rw، U)، boot = T)) پاسخ‌های ضربه‌ای به شوک در متغیر e را ایجاد می‌کند. سوالات من: 1. آیا این یک شوک مثبت یا منفی در e؟ 2. با فرض یک شوک مثبت، چگونه می توانم آن را به شوک منفی تبدیل کنم؟ فکر می کنم شوک ها در یک مدل VAR متقارن هستند، بنابراین برای به دست آوردن شوک منفی باید علامت تابع پاسخ ضربه را تغییر دهم؟ تا اینجا درست میگم؟ با تشکر برای هر گونه کمک!
شوک های مثبت و منفی در مدل VAR و تابع پاسخ ضربه در R
38488
من به دنبال توضیح مبتنی بر مثال برای HMM هستم. چگونه است که HMM مدل P(O|HMM) دارد 2T* N^T (T طول مشاهده است، N تعداد حالت های پنهان است.) و چگونه این با الگوریتم رو به جلو و عقب حل می شود. من به چند مثال نیاز دارم \- پیشاپیش متشکرم
الگوریتم رو به جلو و عقب برای HMM
51769
من اطلاعات کمی در مورد قوانین مسابقات فوتبال دارم، یک سوال وجود دارد که نمی توانم درک کنم. نمودار نقطه زیر تعداد گل های زده شده توسط 20 تیم را نشان می دهد که در بازی های فوتبال دبیرستان یک شهر در یک روز خاص بازی می کنند. لطفا از کد زیر برای ایجاد نقطه نقطه استفاده کنید. یک <- c(0,1,1,1,1,2,2,2,2,2,2,3,3,3,4,4,5,5,7,10) (A, روش = stack, offset = 0.5, at = .15, pch = 19,xaxt=n) axis(1, at = 0:9, labels = 0:9) 1. یک سوپراستار شش گل زد، اما تیمش باز هم شکست خورد، همه امتیازهای نهایی ممکن برای آن بازی چیست؟ توضیح دهید. 2. آیا ممکن است تمام تیم هایی که دقیقا دو گل به ثمر رسانده اند بازی های خود را ببرند؟ توضیح دهید. پاسخ ها: 1. اگر بازیکن 6 گل زده باشد، تیم او باید 7 یا 10 گل زده باشد، اما شکست خورده است، بنابراین 7 گل زده است و تنها امتیاز نهایی ممکن این است که با نتیجه 10 بر 7 شکست خورده باشد. 2. نه، شش تیم بودند که دقیقا دو گل زدند، اما فقط پنج تیم بودند که کمتر از دو گل زدند، بنابراین همه تیم های دو گل نمی توانستند برنده شوند. من بارها و بارها پاسخ را خواندم، اما هنوز نفهمیدم.
قانون مسابقه فوتبال من را متحیر کرد
19516
من می‌خواهم رگرسیون بتا چند سطحی را با دو سطح اجرا کنم (سال‌های تو در تو در پیکسل‌های جغرافیایی). من در مورد betareg می دانم، اما تا آنجا که می دانم گزینه چند سطحی ندارد. با تشکر
بسته رگرسیون بتا چند سطحی برای R؟
112668
من سعی می کنم داده ها را با تابع Holt-Winters در R مطابقت دهم. با این وجود، پیام زیر را دریافت می کنم: ts1<-ts(data$nb_decl,frequency=53) hw1<-HoltWinters(ts1) پیام هشدار: در HoltWinters(ts1) : مشکلات بهینه سازی: خطا: ABNORMAL_TERMINATION_IN_LNSRCH تعداد «داده» 313 خط و اگر فقط آخرین مقدار را حذف یا تغییر دهم (یا مقدار 314 را اضافه کنم)، کد کار می کند ... آیا من کار اشتباهی انجام می دهم؟ یا مشکل اطلاعات من چیست؟ داده های مورد استفاده را در زیر ببینید: هفته داده سال nb_decl 1 00 2006 0 2 01 2006 0 3 02 2006 0 4 03 2006 1 5 04 2006 0 6 05 2006 1 7 06 06 2006 1 7 06 06 2006 2006 0 10 09 2006 0 11 10 2006 1 12 11 2006 0 13 12 2006 2 14 13 2006 1 15 14 2006 1 16 15 2006 1 16 15 2006 1 16 15 2006 2006 0 19 18 2006 1 20 19 2006 0 21 20 2006 0 22 21 2006 0 23 22 2006 0 24 23 2006 1 25 24 2006 1 25 24 2006 2006 2006 1 28 27 2006 0 29 28 2006 1 30 29 2006 0 31 30 2006 0 32 31 2006 0 33 32 2006 0 34 33 2006 0 34 33 2006 2006 0 34 33 2006 2006 0 37 36 2006 1 38 37 2006 0 39 38 2006 0 40 39 2006 0 41 40 2006 1 42 41 2006 1 43 42 2404 2004 1 43 42 2404 2006 0 46 45 2006 1 47 46 2006 3 48 47 2006 2 49 48 2006 4 50 49 2006 2 51 50 2006 1 52 51 2006 1 52 51 2006 1 52 51 2006 2007 0 55 02 2007 1 56 03 2007 1 57 04 2007 1 58 05 2007 0 59 06 2007 2 60 07 2007 0 61 08 2007 2007 0 61 08 2007 2007 1 64 11 2007 1 65 12 2007 1 66 13 2007 1 67 14 2007 1 68 15 2007 1 69 16 2007 1 70 17 2007 2007 1 70 17 2007 2007 1 73 20 2007 0 74 21 2007 0 75 22 2007 3 76 23 2007 0 77 24 2007 0 78 25 2007 1 79 26 2807 2007 1 79 26 2007 2007 0 82 29 2007 1 83 30 2007 0 84 31 2007 0 85 32 2007 1 86 33 2007 0 87 34 2007 2 88 35 2007 288 31 2007 288 35 2007 2007 1 91 38 2007 1 92 39 2007 2 93 40 2007 0 94 41 2007 3 95 42 2007 0 96 43 2007 0 97 44 2004 2007 0 97 44 2007 2007 0 100 47 2007 0 101 48 2007 0 102 49 2007 0 103 50 2007 1 104 51 2007 1 105 52 2007 0 10107 0 10207 1 108 01 2008 9 109 02 2008 0 110 03 2008 0 111 04 2008 1 112 05 2008 0 113 06 2008 0 114 07 2008 0 114 07 2008 0 114 07 2008 09 2008 2 117 10 2008 2 118 11 2008 1 119 12 2008 0 120 13 2008 0 121 14 2008 3 122 15 2003 2003 1621 1621 2008 1 125 18 2008 2 126 19 2008 1 127 20 2008 1 128 21 2008 1 129 22 2008 1 130 23 2008 2 121208 2 121212 1 133 26 2008 0 134 27 2008 0 135 28 2008 3 136 29 2008 0 137 30 2008 4 138 31 2008 1 139 3208 2008 1 139 32 2008 34 2008 1 142 35 2008 2 143 36 2008 0 144 37 2008 1 145 38 2008 0 146 39 2008 0 147 40 2008 4124 2008 2 150 43 2008 1 151 44 2008 0 152 45 2008 1 153 46 2008 2 154 47 2008 0 155 48 2008 3 121508 3 121507 2 158 51 2008 0 159 52 2008 0 160 00 2009 2 161 01 2009 3 162 02 2009 3 163 03 2009 2 164 04 2009 2 164 04 2009 06 2009 1 167 07 2009 1 168 08 2009 1 169 09 2009 2 170 10 2009 3 171 11 2009 1
Holt-Winters و ختم غیرعادی در LNSRCH
16323
من یک مدل خطی را تخمین می زنم و سپس یک ماتریس کوواریانس واریانس مقاوم ناهمگونی (سفید) را محاسبه می کنم. این به من اجازه می دهد تا موارد زیر را انجام دهم (که در آن «hr.cov» ماتریس کوواریانس قوی است): > coeftest(model, hr.cov) t آزمون ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 157.146959 14.760426 10.6465 8.99e-15 *** x 0.134499 0.033050 4.0696 0.0001525 0.0001520 *** 320.320 *** 1.3041 0.1978438 x:d 0.068120 0.047416 1.4366 0.1566992 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 من می خواهم یک آزمایش یک طرفه انجام دهم که آیا d<0 (بر خلاف 0 در هر دو جهت که در بالا نشان داده شده است). من می خواهم بتوانم چیزی مانند test(model,d<0,hr.cov) را تایپ کنم. چگونه باید در این مورد اقدام کنم؟
چگونه می توان آزمون ضریب را در مدل خطی با ماتریس کوواریانس قوی انجام داد؟
93535
من بردار داده زیر را دارم (در واقع طول نقاط داده «2392» آن است): > (dput(head(data, 35))) c(0.009917216، 0.158975732، -0.008065753، -0.018648987، 0.018648987، 0، 0، 03، 0196-0. -0.108234184، 0، -0.151124958، -0.049062385، -0.12970766، 0، -0.281741056، -0.04834985، -0.0259231957، 0.0259231957، 0.025923957، 0. 0.080834965، 0.457401398، -0.007328027، -0.026647639، 0، 0.146048389، 0.059651004، -0.115781325، -0.115781325، -70. -0.025330951، -0.011990763، 0، -0.051658383، -0.054335988، -0.190313988، -0.031937749، -0.000498226، -0.000498226، -0. 0.108053675) اکنون می‌خواهم یک آزمون رتبه‌بندی علامت‌دار wilcoxon غیر پارامتری برای این قاب داده انجام دهم: > (Wilcox.test(data)) آزمون رتبه علامت‌دار Wilcoxon با داده‌های تصحیح پیوستگی: داده V = 1100747، p-value = 8.992e-12 فرضیه جایگزین: مکان واقعی برابر با 0 نیست همانطور که می بینید V بسیار زیاد است و I فکر کنید بنابراین احتمالا اشتباه است. توصیه ای دارید که من چه کار اشتباهی انجام می دهم؟ چیزی که من شخصا فکر می کنم این است که ورودی R من ممکن است اشتباه باشد. هر گونه توصیه ای که چگونه می توان آن را بسیار بیشتر برای آزمون رتبه بندی امضا شده غیر پارامتریک Wilcoxon مشخص کرد. من واقعا از پاسخ شما قدردانی می کنم!
آزمون رتبه امضا شده غیر پارامتریک Wilcoxon
114184
به طور خاص، آیا مدل‌های رگرسیون دو جمله‌ای وجود دارد که از هسته‌ای با دنباله‌های سنگین‌تر و کشش بالاتر نسبت به هسته‌های استاندارد (لجستیک/پروبیت/کلاگ) استفاده می‌کند؟ به عنوان تابعی از پیش‌بینی‌کننده خطی $\textbf{x}'\mathbf{\hat{\beta}}$، توزیع لجستیک * احتمال قرار گرفتن داده‌های من در انتهای توزیع را دست‌کم می‌گیرد * کشش یا خوشه‌بندی از داده ها، در وسط توزیع: این را می توان از نمودار تشخیصی مناسب من مشاهده کرد: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/ar6OW.png) * خط قرمز CDF لجستیکی است که نشان دهنده تناسب کامل است * خط سیاه نشان دهنده احتمالات برازش شده از مجموعه داده من است (محاسبه شده با ترکیب مشاهدات به 0.1 فواصل $\textbf{x}'\mathbf{\hat{\beta}}$، جایی که $\mathbf{\hat{\beta}}$ بدست می‌آید از تناسب من) * نوارهای خاکستری در پس زمینه تعداد مشاهداتی را نشان می دهد که احتمالات واقعی بر اساس آن ها است. در حالت ایده آل، هر راه حلی از R استفاده می کند. ## ویرایش چرا من در مورد CDF ها صحبت می کنم؟ معادله GLM ما این است: $$\mathbb{P}(Y = 1) = \mathbb{E}[Y] = g^{-1}(\textbf{x}'\mathbf{\beta})$$ کجا $g$ تابع پیوند است. بعلاوه، اگر $g^{-1}$ یک توزیع احتمال معتبر است (یعنی به طور یکنواخت از 0 به 1 افزایش می‌یابد، در واقع در مورد probit، logit، cloglog است)، سپس یک متغیر تصادفی پیوسته پنهان (که مستقیماً مشاهده نشده است) $Y را در نظر بگیرید. ^{*}$ که توزیع آن (CDF) با $g^{-1}$ داده شده است. سپس طبق تعریف $$\mathbb{P}(Y^{*} \leq \textbf{x}'\mathbf{\beta}) = g^{-1}(\textbf{x}'\mathbf{\beta })$$ با معادل کردن دو معادله بالا، می بینیم که احتمال $Y=1$ دقیقا برابر است با CDF $Y^{*}$$$\mathbb{P}(Y = 1) = \mathbb{P}(Y^{*} \leq \textbf{x}'\mathbf{\beta})$$ بنابراین من به جای هم در مورد پاسخ مورد انتظار $\mathbb{E}[Y]$ صحبت می‌کنم و CDF $Y^{*}$ روی فضای پیش‌بینی خطی ($\textbf{x}'\mathbf{\hat{\beta}}$).
آیا یک مدل رگرسیون دو جمله ای وجود دارد که داده ها را با دم های چربی جمع آوری کند؟
101242
آیا می توانم $\Phi(ax)$ را به عنوان $b\Phi(x)$ برای مقداری $b$ ثابت بنویسم، لطفا؟ FYI، $\Phi(\cdot)$ cdf برای متغیر تصادفی معمولی استاندارد است. آیا چنین رابطه ای وجود دارد؟
تبدیل توزیع نرمال استاندارد $\Phi(x)$
101245
آیا کسی می‌داند کجا می‌توانم الگوریتمی (و همچنین پیاده‌سازی «R» آن) برای انجام تحلیل مولفه‌های اصلی پراکنده پیدا کنم؟
تجزیه و تحلیل اجزای اصلی پراکنده
95184
1. سهام | 2. (بازگشت سهام i - Rf) / بتا(i) | 3. SUM [(بازگشت سهام i - Rf) * بتا(i) / Var(خطای i)] | 4. Beta(i)^2 / Var(error i)^2 | 5. SUM [بتا(i)^2 / Var(خطای i)^2] * y 0.0395 13.7170 13.7170 342.2115 347.2115 C1 * x 0.0080 4.3307 18.0485 18.0474 526 526 526 18.0474 z. 0.0067 1.9733 20.0210 294.4627 1180.1694 C3 فرض کنید Rf = 0.02 و واریانس بازدهی بازار 0.0023 است. **اگر فروش کوتاه مجاز نباشد، ترکیب پرتفوی بهینه چگونه است؟** من C1 = 0.017541، C2 = 0.013667، C3 = 0.012397 محاسبه کردم، بنابراین محاسبه می کنم که تنها سهم اول دارای نسبت بازدهی مازاد به بتا بیشتر از C، که به معنای Z/Sum(Z) = 1 است؟ بازده پرتفولیو و انحراف معیار آن وقت چقدر است؟ این هیچ معنایی ندارد چگونه سبد بهینه فقط حاوی سهام Y است؟ اصلاً اطلاعات دیگری ارائه نشده است.
انتخاب نمونه کارها بهینه با استفاده از یک مدل شاخص واحد
104141
در حالی که تئوری و احتمال زیادی در پس‌زمینه برای فهمیدن وجود دارد، می‌خواستم بدانم آیا منابع/نشان‌دهنده‌های سریعی وجود دارد که در هنگام مدل‌سازی یک مشکل با استفاده از شبکه‌های بیزی چه چیزهایی را در نظر بگیریم. به طور خاص، من سوالات زیر را داشتم: \- از چه نوع پیشین هایی استفاده کنم؟ \- از داده ها چه می آموزیم؟ و چگونه می توان پیش بینی کرد؟ آیا وبلاگ/سندی وجود دارد که این موارد را از ابتدا با موارد استفاده ساده توضیح دهد؟ (به عنوان مثال: مدل سازی رفتار کلیک کاربر، پیش بینی آب و هوا، تشخیص و غیره). من به دنبال نمونه‌هایی هستم که کمی فراتر از نمونه‌های اسباب‌بازی (کمی نزدیک به موقعیت‌های واقعی زندگی) مورد استفاده در دوره‌ها باشد. هر کمکی قابل تقدیر است.
استراتژی های کلی در ایجاد یک مدل گرافیکی احتمالی چیست؟
32620
من دو متغیر تصادفی $s\sim \mathcal{N}(\nu,\sigma)$ و $a\sim \mathcal{U}(0,A)$, $0<A<1$ دارم، یک r.v سوم را محاسبه کنید. $t=(1-a)/s$ و می خواهید توزیع آن $p(t|\nu,\sigma,A)$ را پیدا کنید. استدلال من این است که برای هر مقدار $a$، دقیقاً یک $s=(1-a)/t$ وجود دارد، به طوری که جفت $(a,s)$ $t$ تولید می کند و من باید ادغام بر روی احتمالات برای این مقادیر: $$p(t|\nu,\sigma,A) = \int_0^A p_a(x)p_s((1-x)/t)\,\mathrm dx\\\$$ که می تواند به صورت مجموع دو تابع خطا بیان شود. اما قبلاً هنگام بررسی عددی این مرحله، بین توزیع تخمینی (نمونه‌برداری) و توزیع محاسبه شده اختلاف پیدا می‌کنم: مطابقت دارد؟_ این کدی است که من استفاده کردم: n=10000000 A=0.7 nu=.7 سیگما=.1 # نمونه برداری از توزیع هدف s=rnorm(n، mean=nu، sd=sigma) a=runif(n، min=0، max=A) t=(1-a)/s hist(t,200، freq=F، xlim=c (0,5), ylim=c(0,2.5)) # رسم نتیجه تحلیلی تحلیلی <- تابع (t, A, nu, sigma ){ tmp <- تابع(x, A, t, nu, sigma){ return (1/A*dnorm( (1-x)/t, mean=nu, sd=sigma) } return( integrate( tmp, 0, A , A=A, t=t, nu=nu, sigma=sigma)$value) } x=seq(0,5,by=.01) y=rep(0,length(x)) for(i in seq(1,length(x)) ){ y[i]=analytic(x[i], A, nu, sigma) }خطوط(x,y , col=red, type=l)
تقسیم یکنواخت بر یک متغیر تصادفی معمولی: توزیع چیست؟
54693
محاسبه توان برای آزمون‌های t زوجی و ANOVA آسان است، اما چگونه می‌توان قدرت را برای طرح‌های پیچیده‌تر مانند طرح‌های اسپلیت پلات یا طرح‌های فاکتوریل محاسبه کرد؟
قدرت برای طراحی آزمایشی
74086
من یک مجموعه داده میکروبلاگ با حدود 100 هزار توییت دارم و می‌خواهم آنها را با استفاده از برخی الگوریتم‌های کمتر پیشرفته خوشه‌بندی کنم. آیا جایی وجود دارد که بتوانم مانند یک K-Means تک پاس یا الگوریتم های مشابه پیدا کنم. با تشکر من استفاده از K-Means را امتحان کرده‌ام و حدود 5 دقیقه طول می‌کشد تا 100 هزار توییت را با استفاده از پیش پردازش استاندارد (توکن‌سازی، ریشه‌یابی) دسته‌بندی کنیم. من از LDA آنلاین نیز استفاده کرده ام، اما نمی توانم توییت ها را از موضوعات بازیابی کنم.
خوشه بندی میکروبلاگ ها
27308
من سعی می‌کنم یک مدل چند سطحی را که در آن افراد در گروه‌ها تودرتو هستند، قرار دهم. V1 متغیر نتیجه من است. G2 گروه بالاترین سطح من است و G1 گروهی است که درون G2 m1 <- clmm(V1 ~ 1 + (1 | G2)، داده = df، Hess = T) m2 <- clmm(V1 ~ 1 + (1 | G1) ) + (1 | G2)، داده = df، Hess = T) بر اساس مقادیر AIC، m1 بهترین تناسب است، بنابراین از آنجا می‌روم. m3 <- clmm(V1 ~ 1 + (1 | G1:G2)، داده = df، Hess = T) m4 <- clmm(V1 ~ 1 + (1 | G2/G1)، داده = df، Hess = T) آیا نحو m3 تودرتوی G2 در G1 یا G1 در G2 است؟ برای m4 چطور؟ در نهایت، آیا واریانس تولید شده توسط خلاصه (m1)، خلاصه (m2) و غیره واریانسی است که در مدل باقی می‌ماند؟ اگر من یک تعامل متقاطع بین G1:G2 انجام دهم، چگونه باید واریانس در بخش اثرات RE نتایج را تفسیر کنم؟ Var Std.Dev G1:G2 9.017e-11 9.496e-06 G1 1.683e-01 4.103e-01 برای اساسی بودن این سوال و کمبود داده متاسفم.
واریانس و سطوح چندگانه در clmm