В задаче обнаружения подлежащий наблюдению случайный процесс удобно записывать в виде суммы:
(5.1)
где S(t) - детерминированный сигнал; n(t) - стационарный гауссовский шум с <n(t)> = 0, <n2(t)> = ;
– случайная величина, равная 0, если сигнал отсутствует, и равная 1, если присутствует.
Заметим, что процесс (t), определяемый выражением (5.1), является случайным как из-за случайности шума n(t), так и из-за случайности величины
. Последнее обстоятельство приводит к тому, что процесс
(t) характеризуется условными плотностями вероятностей: одной при условии, что
= 0, а другой - при условии, что
= 1.
Если = 0, то равенство (5.1) примет вид
(5.2)
В этом случае условная одномерная плотность вероятности определится в соответствии с формулой для гауссовского распределения с нулевым математическим ожиданием и дисперсией выражением
(5.3)
где индекс n в (х) означает, что рассматривается плотность вероятности при условии, что
= 0, когда действует только шум.
Если = 1, то равенство (5.1) примет вид
(5.4)
При детерминированном сигнале процесс (5.4) будет иметь математическое ожидание, равное сигналу:
(5.5)
В соответствии с этим условная плотность вероятности процесса (5.4) будет определяться выражением, отличающимся от (5.3) только математическим ожиданием
(5.6)
Найдем условные n-мерные плотности вероятности в предположении, что процесс (t) может наблюдаться на интервале времени [0,Т], а интервал времени корреляции шума равен
. Если проводить сечение процесса через интервал
, то все сечения
(5.7)
будут некоррелированными, а та как процесс (t) гауссовский, – независимыми. При этом число независимых сечений ограничивается величиной
(5.8)
Тогда условные n-мерные плотности вероятности определяются как произведения одномерных (5.3) или (5.6). Соответственно, для =0 и
= 1 эти плотности будут равны:
(5.9)
(5.10)
где S(ti) - значение сигнала S(t) в момент определения сечения t = ti, i =1,2,..., n..
Перейдём к непрерывному времени наблюдения, положив t1 = 0, tn = Т. Если n(t) является гауссовским белым шумом, то согласно лекции №3 n-мерная плотность вероятности (5.9) превратится в условный функционал, в котором суммирование заменяется интегрированием, а последовательный ряд возможных значений (х1, х2,...,хn) вырождается в возможную реализацию x(t):
(5.11)
Так как выражение (5.10) отличается от (5.9) только математическим ожиданием, то при белом шуме плотность вероятности (5.10) переходит в условный функционал
(5.12)
Функционалы (5.11), (5.12) являются полными аналогами условных плотностей вероятности (5.9), (5.10), с той только разницей, что при решении практических задач ответы необходимо получать в виде отношения функционалов, чтобы коэффициент k, который при белом шуме стремится к нулю, сократился.
5.2.2 Функция правдоподобия при дискретном и непрерывном наблюдениях. Корреляционный прием
Выражения (5.9), (5.10) и (5.11), (5.12) можно рассматривать как условные плотности вероятности либо дискретной выборки (x 1, x 2,... xn) объёма n, либо непрерывной выборки x (t), у которой мерой объёма является время наблюдения Т.
Задачу обнаружения можно свести к задаче оценки параметра . Если определить, что параметр
=0, то в соответствии с (5.1) это то же самое, что принять решение о том, что в наблюдаемой реализации процесса
(t) сигнал отсутствует. И наоборот, если определить, что
= 1, то это значит принять решение о наличии сигнала S(t) в наблюдаемой реализации процесса
(t).
Поэтому если в условные плотности вероятности (5.9), (5.10) поставить на место дискретных аргументов (х1,х2,...,хn) конкретные результаты наблюдений (), то получим функцию правдоподобия L(
) при дискретном наблюдении. При этом, так как параметр
может принимать только два значения, то и функция правдоподобия L(
) будет состоять из двух значений:
(5.13)
(5.14)
Если же в условных функционалах (5.11), (5.12) на место возможной непрерывной реализации x(t) поставить конкретную зафиксированную реализацию x*(t), получим функцию правдоподобия L() для непрерывного времени наблюдения, состоящую из двух значений L(
= 0), L(
= 1):
(5.15)
(5.16)
В дальнейшем звездочки у и х*(t) в формулах для простоты написания будем опускать, но всегда будем иметь в виду, что в выражениях для функции правдоподобия L(
) величины хi и x(t) есть конкретные результаты наблюдений.
В задаче обнаружения при гауссовском шуме обычно используются не сами значения функции правдоподобия L( =0) и L(
=1), a логарифм их отношения
. Найдем этот логарифм при непрерывном времени наблюдения:
(5.17)
где - удельная энергия сигнала.
Полагаем, что отношение сигнал/шум по энергии при белом шуме определяется выражением .
Тогда формулу (5.17) можно записать в виде
ln =ln
(5.18)
Интеграл вида
(5.19)
называется взаимным корреляционным интегралом между наблюдаемым процессом x(t) и копией сигнала.
Математическая операция (5.19) является наиболее существенной для нахождения логарифма отношения правдоподобия, так как отношение сигнал/шум q для полностью известного сигнала и заданного уровня шума N0 определено. В то же время (5.19) является функцией результата наблюдения x(t) и поэтому представляет собой статистику у. Учитывая, что статистика у полностью определяет логарифм отношения правдоподобия, её называют достаточной статистикой.
Радиоприёмник (рис. 5.1), реализующий вычисление взаимного корреляционного интеграла между наблюдаемым процессом x(t) и копией сигнала S(t), называется корреляционным приёмником. Этот приёмник включает в себя гетеродин Г, воссоздающий копию сигнала S(t), перемножитель сигнала S(t) с входным процессом x(t) и интегратор. Результат вычислений получается на выходе интегратора в момент окончания наблюдения. Корреляционный приёмник лежит в основе построения многих оптимальных устройств, синтезируемых на основе решения оптимальных задач радиоприёма.
Рис. 5.1