Отношение правдоподобия
Функция правдоподобия
Исходной информацией для принятия решения являются выборочные значения(выборка) хN = х1, х2, …, хN, которые получаются в результате наблюдения случайной величины (или явления) x. Число N называется размером или объемом выборки х N.
Функцией правдоподобия выборки называется условное совместное распределение выборочных значений, задаваемое выражениями
f n (х1, х2, …, хN / s) =
Р{ х = х1, х = х2, …, х = хN / s } = р (х i / s)
если выборочные значения х1, х2, …, хN являются независимыми величинами. Здесь величина s определяет состояние изучаемого явления.
Будем полагать в дальнейшем, что:
1) в процессе извлечения выборки х1, х2, …, хN состояние s изучаемого явления не меняется;
2) объем выборки N остается фиксированным.
Байесовские решения. Отношение правдоподобия.
Будем рассматривать задачу проверки простой гипотезы против простой альтернативы. По прежнему объектом для решения задачи является выборка хN = х1, х2, …, хN, полученная в результате наблюдения какого- либо явления (или случайной величины). Известно, что выборочные значения х1, х2, …, хN принадлежат одному из двух распределений
f N (х1, х2, …, х N / s0) = f N (хN / s0)
или f N (х1, х2, …, х N / s1) = f N (хN / s1),
связанных с взаимоисключающими состояниями s0 и s1 изучаемого явления. Задача состоит в том, чтобы указать наилучший(в каком-то смысле) алгоритм обработки опытных данных с целью решить, какому из указанных распределений принадлежит полученная выборка.
Обозначим гипотезы Н 0 и Н 1 о том, что выборочные значения принадлежат распределениям f N (хN / s0) и f N (хN / s1) соответственно:
Н 0 : f N (хN / s) = f N (хN / s0);
Н 1: f N (хN / s) = f N (хN / s1).
Гипотеза Н 1 является простой альтернативой для гипотезы Н 0. Поэтому можно рассматривать только одну гипотезу Н 0 , так как отклонение гипотезы Н 0 означает принятие гипотезы Н 1. Обозначим через g 0 и g 1 принятые решения:
- если статистика Z попадает в допустимую область Z 0 = V \ V k, то принимается решение g 0 (z в Í V \ V k ® g 0);
- если статистика Z попадает в критическую область Z 1 = V k, то принимается решение g 1 (z в Í V k ® g 1).
При использовании любого заранее установленного правила выбора решения(критерия) наряду с правильными решениями неизбежны и ошибочные решения: ошибки 1 –го и 2 –го рода.
Тогда при каждом испытании возможны следующие ситуации:
1) верна гипотеза Н 0 (т.е. Z Í V \ V k) и выбираем гипотезу Н 0, то принимается правильное решение g 0 0;
2) верна гипотеза Н 1 и выбираем гипотезу Н 0 (Z Í V k), то принимается ошибочное решение g 0 1;
3) верна гипотеза Н 1 и выбираем гипотезу Н 1 , то принимается правильное решение g 1 1;
4) верна гипотеза Н 0 и выбираем гипотезу Н 1 , то принимается ошибочное решение g 1 0;
Вероятности каждого принятого решения будут равны соответственно:
Р [ g0 0 ] = Р [g 0 / Н 0 ] = 1 - a
Р [ g0 1 ] = Р [g 0 / Н 1 ] = b
Р [ g1 1 ] = Р [g 1 / Н 1 ] = 1 - b
Р [ g1 0 ] = Р [g 1/ Н 0 ] = a,
Где a вероятность ошибки 1 –го рода есть уровень значимости, а
(1 - b) – вероятность отвергнуть гипотезу(ложную) Н 0 называется мощностью правила выбора решения.
Для заданного объема выборки невозможно одновременно сделать сколь угодно малыми вероятности ошибок 1 –го и 2 –го рода.
Ошибочные решения g 0 1 и g 1 0 могут иметь последствия. Для количественной оценки последствий принятых решений вводят функцию потерь или функцию стоимости, которая приписывает каждому из возможных принятых решений g i j соответствующую плату П i j, где i = { 0; 1} и j = { 0; 1}. Величины потерь П i j удобно представлять в виде матрицы, которую называют матрицей потерь П
П = , где П 01 > П 0 0 и П 10 > П 11.
По главной диагонали расположены платы за правильные решения, а по другой диагонали – платы за ошибочные решения.
Обозначим априорные вероятности состояний s0 и s1 через
р = Р (s1 ) и q = Р (s0 ), причем р + q = 1.
Среднее значение потерь называется средним риском и он равен
R = р × r 1 + q × r 0,
где r i = П i j × Р [ g j / s i ] - условная функция риска, а
r 0 = П 0 0 × Р [ g 0 0] + П 0 1 × Р [ g 1 0] = (1 - a) × П 0 0 + a × П 0 1; r 1 = П 1 0 × Р [ g 0 1] + П 1 1 × Р [ g 1 1] = b × П 1 0 + (1 - b) × П 1 1
условные риски, соответствующие состояниям s0 и s1.
Основной целью является уменьшение средних потерь R. Это достигается при выполнении условия
f N (хN / s1) q × (П 0 1 - П 0 0)
_____________________ ³ ______________________. (1)
f N (хN / s0) р × (П 10 - П 11)
Формула (1) задает правило принятия решения, основанное на критерии минимального среднего риска, которое называется байесовским решением. Его можно сформулировать следующим образом:
- принимается решение g 1 (отвергнуть гипотезу Н 0 ), если выполняется условие (1); и
- принимается решение g 0 (принять гипотезу Н 0 ), если выполняется условие
f N (хN / s1) q × (П 0 1 - П 0 0)
_____________________ < ______________________. (2)
f N (хN / s0) р × (П 10 - П 11)
Левая часть в выражениях (1) и (2)
f N (хN / s1)
L (х1, х2, …, хN) = L (хN) = _____________________ (3)
f N (хN / s0)
называется отношением правдоподобия.
Обозначим правую часть в (2) как
q × (П 0 1 - П 0 0) q
______________________ = _____ × с 0 = m × с 0 = с. (4)
р × (П 10 - П 11) р
и определим ее как порог при байесовском решении.
Сформулируем окончательно байесовское правило принятия решения:
Если имеет место неравенство L (хN) ³ с, то принимается решение g 1 о истинности гипотезы Н 1 ;
Если имеет место неравенство противоположного знака L (хN) < с, принимается решение g 0 о истинности гипотезы Н 0 (или отклонении гипотезы Н 1 ).
Байесовское правило принятия решения минимизирует средний риск и поэтому его называют критерием минимального риска.
Если потери примут значения П 0 0 = П 1 1 = 0 и П 0 1 = П 1 0 = 1, то байесовское решение минимизирует полную вероятность ошибки
R = q a + р b = Р ош. (5)