text stringlengths 0 1.95k |
|---|
C именем Томаса Байеса (или в правильной фонетической транскрипции Бейза – |
Bayes, 1763) связывается широкий спектр различных методов оценки статистических |
параметров, схем принятия решений и алгоритмов распознавания образов. Иногда |
название “байесовский подход” намекает на использование формулы Байеса для условных |
вероятностей, но чаще является просто синонимом слова “вероятностный”, хотя и в |
в общих чертах отличие |
определенном нетривиальном контексте. |
байесовской парадигмы от классической статистической теории можно определить |
достаточно четко (McCarthy, 2007, Айвазян, 2008; Link, Baker, 2009): |
Тем не менее, |
1. Классическая статистика оперирует частотным определением “вероятности”, под |
которой понимается предел отношения определенного результата эксперимента к общему |
числу экспериментов. Байесовское понимание вероятности – это степень уверенности в |
истинности суждения, а теорема Байеса задает правило, по которому эта степень |
уверенности изменяется при появлении новой информации. |
2. Байесовский |
подход использует |
любую предварительную информацию |
относительно формулируемой гипотезы или параметров модели, которая обычно |
выражается в виде априорной функции вероятности предполагаемого результата. Затем |
начальные предположения "пересматриваются" с учетом эксперимента или выборочных |
данных, что находит свое отображение в виде уточненного |
апостериорного |
распределения плотности вероятности. |
3. Байесовские методы стремятся ответить на логически состоятельный вопрос: |
"Какова вероятность того, что H0 верна, если принять во внимание полученные данные?". |
Оцениваемые параметры трактуются уже не как некие предположительные константы, а |
как случайные величины, и результаты в виде графиков их вероятностных распределений в |
полной мере отвечают поставленной задаче и легко интерпретируются. Напомним, что |
287 |
классическая проверка гипотез отвечает на весьма косвенный вопрос "Какова вероятность |
получить наши данные при условии, что H0 верна?" (и это при том, что данные уже |
получены, а аналогичная вероятность при Н1 не всегда может быть определена). |
Байесовское правило определяет соотношение между априорными вероятностями |
p(Ai), определяющими уровень наших знаний до проведения эксперимента (или до |
обработки имеющихся данных), и апостериорными условными вероятностями p(Ai|D), |
скорректированными по результатам эксперимента D: |
| |
DAp |
i |
( |
ADpAp |
i |
( |
ADpAp |
i |
/) |
= |
( |
) |
) |
) |
( |
( |
) |
. |
| |
| |
i |
i |
å |
i |
Здесь Ai , i = 1, ..., k - набор гипотез (моделей, теорий, суждений) об изучаемом предмете. |
Эти гипотезы являются взаимоисключающими и образуют исчерпывающее множество |
возможных объяснений изучаемого феномена å |
. Функция правдоподобия |
эксперимента |
p(D|Аi) |
подтверждают правильность i-й гипотезы. Поскольку знаменатель приведенной формулы |
не зависит от параметров эксперимента, соотношение Байеса показывает, как меняются |
априорные представления о предмете в процессе накопления знаний: |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.