Значения различных средних для эргодических процессов




Относительные частоты в описании случайных процессов

Для простоты рассмотрим генератор бинарного цифрового сигнала, выход которого случайно переключается между положениями 1 и -1 с 𝑇0-секундными интервалами, как показано на рисунке 7.1. Пусть 𝑋 (𝑡, ζ𝑖) случайный сигнал, соответствующий выходу генератора 𝑖th.

Пусть относительная частота используется для оценки 𝑃 (𝑋 = +1) посредствам анализа результатов всех генераторов на определенный момент времени. Так как выходы являются функциями времени, мы должны указать время, когда записывается относительная частота. Следующая таблица может быть построена из данных генератора полученных на выходах в каждой промежуток времени. Показано на рисунке:

Таблица

Из этой таблицы видно, что относительные частоты изменяются с интервалом времени.

Рисунок 7.1

Хотя это изменение относительной частоты может быть результатом статистической неоднородности высока вероятность того, что некоторые явления 𝑋 = 1 становятся более вероятны, с увеличением времени. Чтобы уменьшить вероятность того, что статистическая неравномерность является виновником отклонений мы могли бы повторить эксперимент с 100 или 1000 генераторов. Это, очевидно, мысленный эксперимент, потому что было бы очень трудно получить набор идентичных генераторов и подготовить их в идентичных модах.

Некоторая терминология случайных процессов

Примеры Функций и ансамблей

Таким же образом, как это показано на рисунке 7.1, мы могли бы себе представить, использование любой возможности экспериментировать много раз одновременно. Если, например, случайная величина представлена как напряжение на клеммах генератора шума, случайная величина 𝑋1 может быть назначена для представления всевозможных значений этого напряжения в момент времени 𝑡1 и случайная величина 𝑋2 для значений в момент времени 𝑡2. Как и в случае с генератором цифрового сигнала, можно представить себе много генераторов шума построеных идентичным образом, поскольку мы можем сделать их, и считать, что они работают при идентичных условиях. На рисунке 7.2 (а) показаны типичные формы сигналов, генерируемых в таких экспериментах. Каждый сигнал 𝑋(𝑡, ζ𝑖) называется примером функции, где ζ𝑖 является членом из выборочного пространства S. Совокупность всех образцов функций называется ансамблем. Лежащий в основе эксперимент, приводящий к ансамблю выборочных функций, называется случайным или стохастическим процессом. Таким образом, для каждого результата ζ мы назначаем, в соответствии с определенным правилом, временную функцию 𝑋 (𝑡, ζ). Для конкретного ζ, скажем ζ𝑖, 𝑋 (𝑡, ζ𝑖) означает одну функцию времени. Для конкретных значений времени 𝑡𝑗, 𝑋 (𝑡𝑗, ζ) обозначает случайную величину. При фиксированном 𝑡 = 𝑡𝑗 и фиксированной ζ = ζ𝑖, 𝑋 (𝑡𝑗, ζ𝑖) является числом. В дальнейшем мы будем часто игнорировать ζ.

Подводя итог, различие между случайной величиной и случайным процессом является то, что длят случайной величины, исход в выборочном пространстве отображается в численном значении, а для случайного процесса отображается в функции зависимой от времени.

Рисунок 7.2

Описание случайных процессов при условии совместимости с форматом PDF

Полное описание случайного процесса {𝑋 (𝑡, ζ)} задается 𝑁-кратным совместной PDF, что

вероятностно описывает возможные значения, принимаемые типичной функции образца при раз

𝑡𝑁> 𝑡𝑁-1> ⋯> 𝑡1, где 𝑁 является произвольным. Для 𝑁 = 1, мы можем интерпретировать эту совместную PDF

𝑓𝑋1 (𝑥1, 𝑡1), как 𝑓𝑋1 (𝑥1, 𝑡1) 𝑑𝑥1 = 𝑃 (𝑥1 - 𝑑𝑥1 <𝑋1 ≤ 𝑥1 в момент времени 𝑡1) (7.1) где 𝑋1 = 𝑋 (𝑡1, ζ). Аналогично, для 𝑁 = 2, мы можем интерпретировать совместная плотность 𝑓𝑋1𝑋2 (𝑥1, 𝑡1; 𝑥2, 𝑡2) как 𝑓𝑋1𝑋2 (𝑥1, 𝑡1; 𝑥2, 𝑡2) 𝑑𝑥1𝑑𝑥2 = 𝑃 (𝑥1 - 𝑑𝑥1 <𝑋1 ≤ 𝑥1 в момент времени 𝑡1 и 𝑥2 - 𝑑𝑥2 <𝑋2 ≤ 𝑥2 в момент времени 𝑡2) (7.2) где 𝑋2 = 𝑋 (𝑡2, ζ).

Чтобы помочь в интерпретации (7.2), на рисунке 7.2 (б) показаны три выборочных функций, на рис 7.2 (а) накладываются барьеры, расположенные на 𝑡 = 𝑡1 и 𝑡 = 𝑡2. Согласно интерпретации относительной частоты, совместная вероятность числа образцов функции, которые проходят через прорези обоих барьеров, деленное на общее число 𝑀 образца действует как 𝑀 становится неограниченно большим и дается формулой (7.2).

Стационарность

Мы указали на возможную зависимость 𝑓𝑋1𝑋2 от 𝑡1 и 𝑡2, путем включения их в свой аргумент. Если {𝑋 (𝑡)}, например, это гауссовский случайный процесс, то его значение в момент времени 𝑡1 и 𝑡2 будет описываться (6,187), где 𝑚𝑋, 𝑚𝑌, σ2𝑋, σ2𝑌 и ρ, в общем, зависят от 𝑡1 и 𝑡2. Обратите внимание, что мы нуждаемся в общей 𝑁 раза PDF(н мерной функцией) для полного описания случайного процесса {𝑋 (𝑡)}. В общем, такая PDF зависит от 𝑁 мгновений времени 𝑡1, 𝑡2,..., 𝑡𝑁. В некоторых случаях, эта совместная PDF зависит лишь от временных разниц 𝑡2 - 𝑡1, 𝑡3 - 𝑡1,..., 𝑡𝑁 - 𝑡1; то есть, выбор времени происхождения для случайного процесса не имеет значения. Такие случайные процессы, как говорят, статистически стационарный в строгом смысле слова, или просто стационарны.

Для стационарных процессов, средние значения и дисперсии не зависят от времени, а корреляция коэффициента (или ковариация) зависит только от разности времени 𝑡2 - 𝑡1. Рисунок 7.3 контрастами выделены выборочные функции стационарных и нестационарных процессов. Может случиться, что в некоторых случаях среднее значение и дисперсия случайного процесса не зависят от времени, а ковариация зависит только от разницы во времени, но 𝑁 мерная совместная плотность зависит от времени происхождения. Такие случайные процессы называются стационарными в широком смысле процессов, чтобы отличать их от строго стационарные процессов (то есть, процессы, 𝑁 раза PDF не зависит от времени происхождения). Строгая стационарность подразумевает стационарность в широком смысле, но обратное не всегда верно. Исключение возникает для гауссовских случайных процессов, для которых в широком смысле стационарность подразумевает стационарность в строгом смысле, так как совместное гаусова PDF полностью задается Средствами, дисперсиями и ковариациями 𝑋 (𝑡1), 𝑋 (𝑡2),..., 𝑋 (𝑡𝑁).

Рисунок 7.3

7.2.4 Частичное описания случайных процессов: Эргодичность

Как и в случае случайных величин, мы не всегда требуем полного статистического описания случайного процесса, или мы, возможно, не можем получить 𝑁 мерную совместная плотность даже при желании. В таких случаях, мы работаем с различными моментами по выбору, либо по необходимости. Наиболее важные средние значения,

(7.3)

дисперсия,

(7.4)

и ковариация,

(7.5)

Введем в (7.5) обозначения t= 𝑡1 и 𝑡 + τ = 𝑡2. Первое слагаемое в правой части является автокорреляционной функцией, вычисляется как статистическая или ансамбль, в среднем (то есть, в среднем составляется по выборочным функциям в моменты 𝑡 и 𝑡 + τ). С точки зрения совместная плотность случайного процесса, автокорреляционная функция

(7.6)

где 𝑋1 = 𝑋 (𝑡1) и 𝑋2 = 𝑋 (𝑡2). Если процесс стационарный в широком смысле, 𝑓𝑋1𝑋2 не зависит от 𝑡, а разница во времени обозначена: τ = 𝑡2 - 𝑡1 и, как следствие, 𝑅𝑋 (𝑡1, 𝑡2) = 𝑅𝑋 (τ) является функцией только τ. Очень важным является вопрос: '' Если автокорреляционная функция использования определена средним временем, как указано в главе 2, будет ли результат такой же, как дает формула среднестатистического (7.6)? '' для многих процессов, называемых эргодическими, ответ утвердительный. Эргодические процессы – это процессы, для которых время и ансамбль среднего значения взаимозаменяемы. Таким образом, если 𝑋 (𝑡) эргодический процесс, все время и соответствующий ансамбль среднего являются взаимозаменяемыми. В частности,

(7.7)

(7.8)

и

(7.9)

где

(7.10)

как это определено в главе 2. Мы подчеркиваем, что для эргодических процессов все время и ансамбль среднего являются взаимозаменяемыми, а не только среднее значение, дисперсия и Автокорреляционная функция.

Пример 7.1

Рассмотрим случайный процесс у выборочных функций

𝑛(𝑡) = 𝐴 cos(2𝜋𝑓0𝑡 + Θ)

где 𝑓0 является постоянным, Θ является случайной величиной с PDF

(7.11)

Вычисляется как статистических средние, первый и второй моменты

(7.12)

И

(7.13)

соответственно. Дисперсия равна второму моменту, так как длина равна нулю.

Вычисляется как средние время, первый и второй моменты

(7.14)

И

(7.15)

соответственно. В общем, время в среднем некоторой функции ансамбля член случайного процесса является случайной величиной. В этом примере, ⟨𝑛 (𝑡)⟩ и ⟨𝑛2 (𝑡)⟩ Постоянны! Мы подозреваем, что этот случайный процесс является стационарным и эргодическим, хотя предыдущие результаты не доказывают это. Оказывается, что это действительно так.

Продолжая пример, рассмотрим PDF

(7.16)

В этом случае, ожидаемое значение, или среднее, случайного процесса вычисляется в произвольный момент времени 𝑡.

(7.17)

Второй момент, вычисляется как статистическое среднее, это

(7.18)

Поскольку из стационарности случайного процесса следует, что все моменты не зависят от начала отсчета времени, результаты показывают, что этот процесс не является стационарным. Для того, чтобы понять физическую причину этого, вы должны нарисовать некоторые типичные функции образца. Кроме того, этот процесс не может быть эргодическим, поскольку эргодичность требует стационарности. Действительно, среднее по времени первый и второй моменты по-прежнему ⟨𝑛 (𝑡)⟩ = 0 и ⟨𝑛2 (𝑡)⟩ = 1, соответственно. Таким образом, мы обнаружили два временных средних, которые не равны соответствующим статистическим средним.

Значения различных средних для эргодических процессов

Это полезно сделать паузу в этом месте для обобщения значений различных средних для эргодического процесса:

1. Среднее 𝑋 (𝑡) = ⟨𝑋 (𝑡)⟩ это постоянная составляющая.

2. ------------постоянного тока

3. -----------это полная мощность

4. это мощность в сети переменного тока (изменяющихся во времени).

5. Общая мощность ----------- сумма переменного тока и постоянного тока.

Таким образом, в случае эргодических процессов, мы видим, что эти моменты являются измеряемыми величинами в том смысле, что они могут быть заменены соответствующими временными средними и конечным временем, приближение к этим временным средним может быть измерено в лаборатории.

Пример 7.2

Чтобы проиллюстрировать некоторые из определений, приведенных выше в отношении корреляционные функции, рассмотрим случайный телеграфный сигнал 𝑋 (𝑡), как показано на рисунке 7.4. Выборочная функция случайного процесса имеет следующие свойства:

1. значения, принимаемые в любой момент времени 𝑡0 𝑋 (𝑡0)= 𝐴 или 𝑋 (𝑡0)= -𝐴 С равной вероятностью

2. Количество 𝑘 коммутационных моментов в любом временном интервале 𝑇 подчиняется распределению Пуассона, как определено в (6.182), с сопутствующими допущениями ведущими к этому распределению. (То есть, вероятность более чем одной мгновенной коммутации, происходящей в малый промежуток времени 𝑑𝑡 равна нулю, вероятность равна единице для мгновенных коммутаций, происходящих в 𝑑𝑡 будет α 𝑑𝑡, где α является постоянной. Кроме того, последовательные коммутации являются независимыми.)

Если τ любое положительное приращение времени, то автокорреляционная функция случайного процесса определяется указанными выше свойствами, можно рассчитать:

𝑅𝑋(𝜏) = 𝐸[𝑋 (𝑡) 𝑋(𝑡 + 𝜏)]

= 𝐴2 𝑃 [𝑋 (𝑡) и 𝑋(𝑡 + 𝜏) имеют одинаковый знак]

+(−𝐴2)𝑃 [𝑋 (𝑡) и 𝑋(𝑡 + 𝜏) имеют разные знаки]

= 𝐴2 𝑃 [четное число коммутации моментов в (𝑡, 𝑡 + 𝜏)]

−𝐴2 𝑃 [нечетное число коммутации моментов в (𝑡, 𝑡 + 𝜏)]

Рисунок 7.4 Пример функции случайного телеграфного сигнала.

(7.19)

Предыдущее выражение было проведено в предположении, что τ был положительным. Это может переписать аналогичным образом с τ отрицательным, так что:

(7.20)

Это результат, который имеет место для всех τ. То есть, 𝑅𝑋 (τ) является четной функцией τ, которую в общем мы покажем в ближайшем изложении.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-04-26 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: