Применение скрытых марковских моделей для распознавания речи




Скрытой Марковской Моделью (СММ, HMM – Hidden Markov Model) называется модель состоящая из N состояний, в каждом из которых некоторая система может принимать одно из M значений какого-либо параметра. Вероятности переходов между состояниями задается матрицей вероятностей A={aij}, где aij – вероятность перехода из i-го в j-е состояние. Вероятности выпадения каждого из M значений параметра в каждом из N состояний задается вектором B={bj(k)}, где bj(k) – вероятность выпадения k-го значения параметра в j-м состоянии. Вероятность наступления начального состояния задается вектором π={πi}, где πi – вероятность того, что в начальный момент система окажется в i-м состоянии. Таким образом, скрытой марковской моделью называется тройка λ={A,B,π}. Использование скрытых марковских моделей для распознавания речи основано на двух приближениях:

1) Речь может быть разбита на фрагменты, соответствующие состояниям в СММ, параметры речи в пределах каждого фрагмента считаются постоянными.

2) Вероятность каждого фрагмента зависит только от текущего состояния системы и не зависит от предыдущих состояний.

Модель называется «скрытой», так как нас, как правило, не интересует конкретная последовательность состояний, в которой пребывает система. Мы либо подаем на вход системы последовательности типа O={o1,o2,…oτ} - где каждое oi – значение параметра (одно из M), принимаемое в i-й момент времени, а на выходе ожидаем модель λ ={A,B,π}с максимальной вероятностью генерирующую такую последовательность, - либо наоборот подаем на вход параметры модели и генерируем порождаемую ей последовательность. И в том и другом случае система выступает как «черный ящик», в котором скрыты действительные состояния системы, а связанная с ней модель заслуживает названия скрытой.

Скрытые марковские модели являются мощным инструментом, позволяющим распознавать речевой сигнал с высоким качеством. Используют статистические свойства сигналов и учитывают непосредственно их пространственные характеристики. HMM состоит из двух взаимосвязанных частей.

1. Ненаблюдаемая марковская цепь с конечным числом состояний, матрица переходных вероятностей и вектор вероятностей начальных состояний.

2. Функция плотности, ассоциируемые с каждыми состояниями.

Таким образом, НММ представляет собой конечный автомат, изменяющий свое состояние в каждый дискретный момент времени t (см. рис. 6.1). Переход из состояния si в состояние sj осуществляется случайным образом с вероятностью aij. В каждый дискретный момент времени модель порождает вектор наблюдений ot (который в конкретной задаче является вектором признаков, полученным в преобразователе сигнала) с вероятностью bj(ot). Распределение плотности вероятности наблюдений моделируется конечной гаусовской смесью с четырьмя компонентами. Каждая такая модель обозначает один из звуков речи или отсутствие звука (одна из моделей).

Pисунок 6.1 – Представление скрытой марковской модели

 

Относительно скрытых Марковских моделей решаются как правило три задачи:

Задача 1

Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо вычислить вероятность появления указанной последовательности для данной модели. То есть решение этой задачи непосредственно связано с задачей распознавания речи. Если, например, состояния модели соответствуют отрезкам времени, в которые снимаются параметры речевого сигнала, и в каждом из этих состояний (отрезков) некие параметры речевого сигнала принимают некоторые значения, которые мы представляем в виде O={o1,o2,…oτ}, то решив задачу отыскания вероятности появления этой последовательности для каждой из имеющихся у нас моделей λ={A,B,π}, соответствующих, например, фонемам (звукам речи) или словам, мы можем выбрать ту из фонем (слов), которая(ое) в наибольшей степени соответствует исходному отрезку речевого сигнала. А это и значит распознать речевую единицу (фонему или слово).

Задача 2

Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо выбрать последовательность состояний Q= {q1,q2,…qτ}, которая с наибольшей вероятностью порождает указанную последовательность. Данные, полученные при решении этой задачи используются для изучения поведения полученной модели.

Задача 3

Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо подобрать параметры модели так, чтобы максимизировать вероятность данной последовательности наблюдений. Это в чистом виде задача обучения модели на наборах входных данных, для того чтобы в дальнейшем использовать эту модель для решения задачи 1, то есть распознавания. То есть опять же состояния модели соответствуют отрезкам времени (как правило 10-30 мс), в которых снимаются значения параметра речевого сигнала, а принимаемые на некотором временном отрезке значения параметра и образуют последовательность наблюдений O.

Рассмотрим алгоритмы решения указанных задач.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2022-09-06 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: