text
stringlengths
0
1.95k
C именем Томаса Байеса (или в правильной фонетической транскрипции Бейза –
Bayes, 1763) связывается широкий спектр различных методов оценки статистических
параметров, схем принятия решений и алгоритмов распознавания образов. Иногда
название “байесовский подход” намекает на использование формулы Байеса для условных
вероятностей, но чаще является просто синонимом слова “вероятностный”, хотя и в
в общих чертах отличие
определенном нетривиальном контексте.
байесовской парадигмы от классической статистической теории можно определить
достаточно четко (McCarthy, 2007, Айвазян, 2008; Link, Baker, 2009):
Тем не менее,
1. Классическая статистика оперирует частотным определением “вероятности”, под
которой понимается предел отношения определенного результата эксперимента к общему
числу экспериментов. Байесовское понимание вероятности – это степень уверенности в
истинности суждения, а теорема Байеса задает правило, по которому эта степень
уверенности изменяется при появлении новой информации.
2. Байесовский
подход использует
любую предварительную информацию
относительно формулируемой гипотезы или параметров модели, которая обычно
выражается в виде априорной функции вероятности предполагаемого результата. Затем
начальные предположения "пересматриваются" с учетом эксперимента или выборочных
данных, что находит свое отображение в виде уточненного
апостериорного
распределения плотности вероятности.
3. Байесовские методы стремятся ответить на логически состоятельный вопрос:
"Какова вероятность того, что H0 верна, если принять во внимание полученные данные?".
Оцениваемые параметры трактуются уже не как некие предположительные константы, а
как случайные величины, и результаты в виде графиков их вероятностных распределений в
полной мере отвечают поставленной задаче и легко интерпретируются. Напомним, что
287
классическая проверка гипотез отвечает на весьма косвенный вопрос "Какова вероятность
получить наши данные при условии, что H0 верна?" (и это при том, что данные уже
получены, а аналогичная вероятность при Н1 не всегда может быть определена).
Байесовское правило определяет соотношение между априорными вероятностями
p(Ai), определяющими уровень наших знаний до проведения эксперимента (или до
обработки имеющихся данных), и апостериорными условными вероятностями p(Ai|D),
скорректированными по результатам эксперимента D:
|
DAp
i
(
ADpAp
i
(
ADpAp
i
/)
=
(
)
)
)
(
(
)
.
|
|
i
i
å
i
Здесь Ai , i = 1, ..., k - набор гипотез (моделей, теорий, суждений) об изучаемом предмете.
Эти гипотезы являются взаимоисключающими и образуют исчерпывающее множество
возможных объяснений изучаемого феномена å
. Функция правдоподобия
эксперимента
p(D|Аi)
подтверждают правильность i-й гипотезы. Поскольку знаменатель приведенной формулы
не зависит от параметров эксперимента, соотношение Байеса показывает, как меняются
априорные представления о предмете в процессе накопления знаний: