Основные формулы исчисления вероятностей




Разберём весьма частный, однако, часто встречающийся случай: W состоит из конечного числа N равновероятных событий.

Понятие ''равновероятности'' здесь является исходным, неопределяемым. Основанием для суждения о равновозможности, равновероятности обычно слу­жит физическая симметрия, равноправие исходов. Понятие "вероятность" здесь уже является производным, определяемым: вероятностью P (A) события A называется

P (A)= ,
где N (A) – число элементарных событий, благоприятствующих событию A.

В этих условиях выведем основные формулы исчисления вероятностей.

1°. Вероятность достоверного события равна 1:  P (W)=1. Это очевидно, так как   N (W)= N.

2°. Вероятность невозможного события равна 0:  P (Æ)=0.  Это ясно, поскольку  N (Æ)=0.

3°. P ()=1- P (A). Справедливость равенства следует из равенства  N (A)+
+ N ()= N.

4°.P (A)£1 для " A, поскольку 0£ N (AN.

5°. A Í B  Û  P (AP (B), поскольку в этом случае  N (AN (B).

6°. Для любых событий A и B:  P (ABP (A), так как  N (ABN (A).

7°. Теорема сложения для несовместимых событий. Если события A и B несовместимы, то вероятность их суммы равна сумме вероятностей:

P (A + B)= P (A)+ P (B).

Действительно,  N (A + B)= N (A)+ N (B) и остаётся разделить это равенство на N.

8°. Теорема сложения в общем случае:

P (A + B)= P (A)+ P (B)- P (AB).

Действительно, из определения суммы событий:  N (A + B)= N (A)+ N (B)-
- N (AB). Деля почленно это равенство на N, убеждаемся в справедливости теоремы.

9°. Обобщение теоремы сложения на n событий:

P (A 1+ A 2+¼+ An)= (-1) k +1 P (Aj 1 Aj 2¼ Ajk).

Формула доказывается методом математической индукции несложно, но громоздко. Во внутренней сумме число слагаемых, очевидно, равно и суммирование ведётся по всевозможным наборам различных натуральных индексов  j 1, j 2, ¼, jk.

10°. Условная вероятность.

Добавим к комплексу условий, реализация которых интерпретируется как опыт, ещё одно условие: произошло событие ^ B; это возможно практически лишь в случае, когда  P (B)>0. Все опыты, в которых B не произошло, мы как бы игнорируем. Считаем, что добавление события B к комплексу условий не нарушает равновероятности исходов и не меняет природы самих исходов. Теперь опыт может иметь лишь один из N (B) исходов, а из них событию A благоприятствуют N (AB) исходов. В соответствии с классическим определением, вероятность события A при условии, что произошло событие B, равна:

P (A | B)= = = .

Таким образом, по существу, условная вероятность ничем не отличается от обычной, безусловной вероятности.

В случае, если A Í B, формула для условной вероятности упрощается:

P (A | B)= ,

так как здесь AB = A.

11°. Теорема умножения: вероятность совместного наступления двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое произошло:

P (AB)= P (BP (A | B)= P (AP (B | A).

Первая из этих формул для  P (B)>0 является лишь формой записи формулы пункта 10° для условной вероятности; вторая получена из неё перестановкой местами A и B, что для  P (A)>0 возможно. Вместе с тем ясно, что теорема умножения верна и для случая  P (A)=0 или  P (B)=0, но при этом она становится тривиальной и бессодержательной.

12°. Независимость событий.

Будем говорить, что событие ^ A не зависит от события B, если P (A | B)= P (A). В этом случае теорема умножения упрощается:  P (AB)= P (AP (B).

И наоборот, для событий, имеющих положительную вероятность, из последней формулы следует независимость события A от B:

P (A | B)= = = P (A).

Таким образом, второе эквивалентное определение независимости: события A и B, имеющие положительные вероятности, независимы, если вероятность их произведения равна произведению их вероятностей: P (AB)= P (A) P (B). События A и B в этом определении симметричны: если событие A не зависит от B, то и B не зависит от A.

Если события A и B независимы, то независимы также и события A и .

Действительно:

P ( | A)+ P (B | A)= + = = =1,

откуда:

P ( | A)=1- P (B | A)=1- P (B),

а это и доказывает наше утверждение.

Ясно, что независимы также и события , .

Если события A и B независимы, то они не могут быть несовместимыми: если A и B – одновременно несовместимы и независимы, то, с одной стороны,  AB =Æ и  P (AB)=0, а, с другой, –  P (AB)= P (AP (B), что противоречит предположению о положительности вероятностей  P (A) и  P (B).

Обобщение понятия независимости на n событий: события A 1, A 2, ¼, An называются независимыми в совокупности, если для любого набора различных индексов  j 1, j 2, ¼, jk  вероятность произведения событий  Aj 1 Aj 2¼ Ajk  равна произведению вероятностей событий Aj 1, Aj 2, ¼, Ajk:

P (Aj 1 Aj 2¼ Ajk)= P (Aj 1P (Aj 2)×¼× P (Ajk).

Можно думать, что для независимости событий в совокупности достаточно попарной независимости, Конкретные примеры, однако, доказывают, что это не так.

Таким образом, для независимых событий легко вычислять вероятность произведения, а для несовместимых событий легко вычислять вероятность суммы.

Если события  A 1, A 2, ¼, Anнезависимы, то

P (A 1+ A 2+¼+ An)= P ()=1- P (P ()×¼× P ().

Если события  A 1, A 2, ¼, Anнесовместимы, то

P ( × ×¼× )= P ()=1- P (A 1+ A 2+¼+ An)=1- P (Ak).

13°. Теорема умножения для n событий:

P (A 1 A 2¼ An)= P (A 1P (A 2¼ An | A 1).

Учитывая, что условные вероятности ничем не отличаются от безусловных – лишь добавляется к комплексу условий ещё одно, которое в дальнейшем терять или отбрасывать нельзя, – можем продолжить:

P (A 1 A 2¼ An)= P (A 1P (A 2| A 1P (A 3¼ An | A 1 A 2) ¼.

Окончательно:

P (A 1 A 2¼ An)= P (A 1P (A 2| A 1P (A 3| A 1 A 2)×¼× P (An | A 1 A 2¼ An -1).

Эта теорема позволяет дать ещё одно определение независимости в совокупности: события A 1, A 2, ¼, An, имеющие положительные вероятности, независимы в совокупности, если для любого набора неравных индексов

P (Aj 1 Aj 2¼ Ajk | Ai 1 Ai 2¼ Aim)= P (Aj 1 Aj 2¼ Ajk),

что легко устанавливается по теореме умножения и формуле для условных вероятностей.

14°. Формула полной вероятности.

Пусть A 1, A 2, ¼, An – любое разбиение пространства W, B – любое событие. Тогда  B = B W= B (A 1+ A 2+¼+ An)= BA 1+ BA 2+¼+ BAn  и получаем формулу полной вероятности:

P (B)= P (BAk)= P (AkP (B | Ak).

Обычно  A 1, A 2, ¼, An  – взаимоисключающие друг друга ситуации, в которых может происходить событие B.

15°. Формулы Байеса.

В обозначениях предыдущего пункта:

P (Ak | B)= = , k =1, 2, ¼, n,

и мы получили формулы Байеса, которые называют также формулами вероятностей гипотез: если событие B может произойти лишь с одним и только одним из событий A 1, A 2, ¼, An и оно действительно произошло, то, спрашивается, с каким из событий Ak оно произошло? Можно сделать n гипотез и, соответственно, формулы Байеса дают апостериорные вероятности P (Ak | B) для этих гипотез, выражая их через априорные вероятности P (Am) и условные вероятности P (B | Am) того, что в условиях m -ой гипотезы произойдёт событие B.

Таковы основные формулы исчисления вероятностей. Они получены в условиях весьма частного случая – классической схемы, т. е. для пространства конечного числа N равновероятных элементарных событий. В этой схеме число событий, которым благоприятствуют ровно k исходов, равно , а общее число различных событий, следовательно, равно 2 N.

Весьма неожиданно, что все полученные формулы являются общими и в действительности сохраняют свою силу для любого пространства элементарных событий. Покажем это.

^ Понятие об аксиоматическом построении
теории вероятностей

Пусть дано пространство элементарных событий W. Множество Å событий A, B, C, ¼ назовём полем событий, если

а)  WÎÅ;

б)A, B ÎÅ Þ  A + B ÎÅ,  AB ÎÅ,  ÎÅ,  ÎÅ.

Таким образом, введённые действия с событиями: сложение, умножение и переход к противоположному событию – не выводят нас из поля событий, поле событий замкнуто относительно этих операций.

Очевидно, также, что ÆÎÅ.

Примем следующие три аксиомы:

I. Любому событию A из поля событий Å приведено в соответствие неотрицательное число P (A), называемое вероятностью события A.

II. P (W)=1: вероятность достоверного события равна единице.

III. Аксиома сложения. Вероятность суммы несовместимых событий равна сумме их вероятностей.

Если A 1, A 2, ¼, An – попарно несовместимые события, то

P (A 1+ A 2+¼+ An)= P (Ak).

Тройка (W, Å, P (×)) называется вероятностным пространством.

Таким образом, поле событий Å является областью определения вероятностной функции P (×), при этом, как будет показано ниже (), отрезок [0; 1] является областью её значений.

Все пятнадцать формул исчисления вероятностей оказываются следствием трёх только что введённых аксиом. Действительно:

1°. P (W)=1 по II аксиоме.

2°. W+Æ=W, WÆ=Æ, поэтому по III аксиоме: P (W)+ P (Æ)= P (W), откуда P (Æ)=0.

В классической схеме были справедливы и обратные утверждения: если P (A)=1, то событие A – достоверное; если P (A)=0, то событие A – невозможное. В общей же схеме обратные утверждения, вообще говоря, ошибочны. При­ходится вводить особые названия для событий единичной и нулевой вероятности: если P (A)=1, то говорят, что событие A происходит почти наверное, если P (A)=0, говорят, что событие A почти наверное не происходит. Пожалуй, именно это различие значительно усложняет строгую теорию вероятностей по сравнению с классическим случаем.

3°. A + =W и A =Æ. Поэтому по аксиомам III и II: P (A)+ P ()= P (W)=1. Отсюда: P ()=1- P (A).

4°. По аксиоме I:  P (A)³0. Так как  P (A)+ P ()= P (W)=1, и, ввиду аксиомы I:  P ()³0, то  P (A)£1. Итак, для любого события A: 0£ P (A)£1.

5°. Если  A Ì B, то  B = A + B, и слагаемые здесь несовместимы. По аксиоме III:  P (B)= P (A)+ P ( B); по I аксиоме:  P ( B)³0; поэтому  P (BP (A).

6°. Для любых двух событий A и B:  P (ABP (A).

Действительно:  A = AB + A  и по аксиомам III и I:

P (A)= P (AB)+ P (A P (AB).

7°. Формула  P (A + B)= P (A)+ P (B) в случае, когда  AB =Æ, верна по аксиоме III.

8°. Докажем теорему сложения для двух событий:

P (A + B)= P (A)+ P (B)- P (AB).

Очевидно,

A + B = A + B ,
B = AB + B ,

причём в обоих равенствах справа слагаемые несовместимы. По III аксиоме:

P (A + B)= P (A)+ P (B ),
P (B)= P (AB)+ P (B ).

Вычитая почленно нижнее равенство из верхнего, получим теорему сложения.

9°. Теорема сложения для n событий

P (A 1+ A 2+¼+ An)= (-1) k +1 P (Aj 1 Aj 2¼ Ajk)

является прямым следствием теоремы сложения для двух событий.

10°. Формула для условной вероятности

P (A | B)=

является определением условной вероятности в предположении, что вероятность P (^ B) ненулевая:  P (B)>0. Вероятность P (A | B) показывает, какая часть ве­роятности P (B) приходится на долю события A.

11°. Прямым следствием определения условной вероятности оказывается формула:

P (AB)= P (BP (A | B)= P (AP (B | A).

12°. Совершенно так же, как и в классической схеме, на основе последних формул строится понятие независимости событий: события A и B независимы в том и только в том случае, когда  P (AB)= P (AP (B).

13°. Теорема умножения для n событий

P (A 1 A 2¼ An)= P (A 1P (A 2| A 1P (A 3| A 1 A 2)×¼× P (An | A 1 A 2¼ An -1)

является прямым следствием теоремы умножения для двух событий.

14°, 15°. Выводы формулы полной вероятности и формул вероятностей гипотез воспроизводятся без изменений: для любого события B и любого разбиения пространства W (W= A 1+ A 2+¼+ An):

P (B)= P (AkP (B | Ak),

P (Ak | B)= = , k =1, 2, ¼, n.

В более полных, чем наш, курсах теории вероятностей приходится рассматривать также и суммы бесконечного числа событий и, соответственно, требовать, чтобы эта операция не выводила из поля событий: для бесконечной последовательности попарно несовместимых событий A 1, A 2, ¼, An, ¼ требуют, чтобы An ÎÅ. Такие поля событий называются борелевскими полями или сигма-алгебрами. Приходится для борелевского поля событий усиливать аксиому III, распространяя её и на бесконечные суммы попарно несовместимых событий:

P ( An)= P (An).

Любопытно отметить, что в изложенном аксиоматическом построении те­ории вероятностей не нашлось места такому понятию, как событие "произо­шло" или "не произошло". Теория вероятностей оказывается частью теории меры, причём характерными свойствами вероятностной меры оказываются её неотрицательность:  P (A)³0 и нормированность на единицу:  P (W)=1. Про­сматривая выведенные свойства вероятностной функции P (×), можно заметить, что она ведёт себя подобно массе: единичная "масса вероятности" распределяется в пространстве W. Если нас интересует вероятность некоторого события A, то мы должны подсчитать, сколько этой массы досталось множеству A.


Одномерные случайные величины

Пусть имеется вероятностное пространство (W, Å, ^ P (×)) Определим на W числовую функцию X = X (w): каждому элементарному событию w приведено в соответствие вещественное число X (w).Такая функция называется случайной величиной. Мы ставим опыт, получаем элементарное событие w, смотрим, какое число X (w)= x было приведено ему в соответствие, и говорим: в опыте случайная величина X приняла значение x.

Рассмотрим простейший случай: число возможных значений случайной величины ^ X конечно или счётно:x 1, ¼, xk, ¼ Такую случайную величину называют дискретной. Законом распределения дискретной случайной величины называют совокупность вероятностей её возможных значений:  pk = P { X = xk }. Будем предполагать, что события { X = xk } содержатся в поле событий Å, и тем самым вероятности pk определены.

Очевидно, одно и только одно из своих значений случайная величина обязательно примет. Поэтому выполняется равенство

pk =1,

называемое иногда условием нормировки в дискретном случае.

Задать случайную величину значит задать закон её распределения: т. е. указать её возможные значения и распределение вероятностей между ними.

^ В общем случае общепринятый способ задания случайной величины даёт так называемая функция распределения:

F (x)= P { X < x }.

Она указывает, какая вероятность досталась не отдельным точкам, а полуоси левее точки x, не включая саму точку x. Приходится дополнительно предполагать, что событие { X < x }ÎÅ, в противном случае функция распределения была бы не определена.

Дискретную случайную величину можно задавать её функцией распределения. Нетрудно сообразить, что это будет ступенчатая функция с разрывами в точках xk и скачками pk в этих точках:

F (x)= P { X < x }= P { X = xk }= pk,

где суммирование ведётся по всем тем возможным значениям X, которые оказались меньше x.

Если существует такая функция p (x), которая позволяет представить функ­цию распределения интегралом:

F (x)= p (x) dx,

то случайная величина X называется непрерывной, а p (x) – плотностью вероятности случайной величины X.

Функция распределения F (x) непрерывной случайной величины является непрерывной функцией (отсюда и название случайной величины), и, более того, – дифференцируемой функцией: F ¢(x)= p (x).

В более общем случае случайная величина X может принадлежать к смешанному типу: вероятность распределяется как между отдельными точками (дискретная составляющая), так и на интервалах (непрерывная составляющая). Если отдельным точкам xk достались вероятности pk, а остальная вероятность пошла на непрерывное распределение с линейной плотностью p (x), то:

F (x)= P { X < x }= P { X = xk }+ p (x) dx.

Если суммарная вероятность, доставшаяся точкам xk случайной величины X смешанного типа, равна A  (pk = A), а на непрерывное распределение X ухо­дит вероятность B, ( p (x) dx = B), то A + B =1.

Можно считать, что случайная величина X является смесью двух случайных величин: дискретной Y с возможными значениями xk и вероятностями pk и непрерывной Z с плотностью p (x). Функция распределения X имеет вид: F (x)= AFY (x)+ BFZ (x).

Вообще, если имеются случайные величины Xi, i =1, 2, ¼, n  с функциямираспределения FXi (x), то смесью этих случайных величин называют случайную величину с функцией распределения

F (x)= AiFXi (x),

где числа Ai удовлетворяют условиям: 0£ Ai £1,  A 1+ A 2+¼+ An =1, и играют роль весовых множителей, они регулируют вклад в смесь отдельных составляющих. Функция F (x), очевидно, обладает необходимыми свойствами функции распределения и может задавать случайную величину.

^ Основные свойства функции распределения F (x)
и плотности вероятности p (x)

1°. Считаем, что случайная величина X или совсем не принимает значений ±¥ или почти наверное их не принимает: P { X =+¥}= P { X =-¥}=0. При этом предположении:

F (x)= F (-¥)=0, F (x)= F (+¥)=1.

2°. F (x) – монотонно-неубывающая функция:

x 1< x 2 Þ  F (x 1F (x 2).

Действительно: { X < x 2}={ X < x 1}+{ x 1£ X < x 2}. Справа стоит сумма двух несовместимых событий. Поэтому:

P { X < x 2}= P { X < x 1}+ P { x 1£ X < x 2},

или:

F (x 2)= F (x 1)+ P { x 1£ X < x 2}

и неравенство F (x 2F (x 1) следует из неотрицательности вероятности P { x 1£ X <
< x 2}.

3°. В доказательстве второго свойства мы выразили через функцию распределения вероятность попадания случайной величины ^ X в полуоткрытый интервал:

P { x 1£ X < x 2}= F (x 2)- F (x 1).

4°. Перепишем последнее равенство, взяв x 1= x, x 2= x +e, e>0:

P { x £ X < x +e}= F (x +e)- F (x).

Перейдём здесь к пределу при e®0:  P { X = x }= F (x +e)- F (x)= F (x +0)- F (x). Таким образом, для любой случайной величины X вероятность любого конкретного значения равна скачку  F (x +0)- F (x) её функции распределения в точке x. Во всех точках непрерывности F (x) этот скачок и, следовательно, вероятность P { X = x }, равны нулю. Для непрерывных случайных величин все точки таковы, и ни одной из них не досталось положительной вероятности.

Если мы наблюдаем непрерывную случайную величину и получили значение X = x, то мы получили пример события  A ={ X = x }, вероятность которого равна нулю, которое, однако, произошло, а событие  ={ X ¹ x }, вероятность которого рана единице, не произошло. Ясно, что повторить появление события A почти наверное не удастся.

Так как функция распределения определена равенством F (x)= P { X < x }, где под знаком вероятности стоит строгое неравенство, то вероятность, возможно сосредоточенная в точке x, не учитывается, поэтому F (x) – функция, непрерывная слева:

F (x -e)= F (x -0)= F (x).

5°. Теперь нетрудно выразить через F (x) вероятность попадания случайной величины в произвольный интервал:

P { x 1£ X £ x 2}= F (x 2+0)- F (x 1),
P { x 1< X < x 2}= F (x 2)- F (x 1+0),
P { x 1< X £ x 2}= F (x 2+0)- F (x 1+0).

6°. Плотность вероятности p (x) неотрицательна. Это следует из монотонного неубывания F (x).

7°. Переходя к пределу при  x ®+¥ в равенстве  F (x)= p (x) dx, и учитывая, что  F (+¥)=1, получим условие нормировки для непрерывной случайной величины:

p (x) dx =1.

Геометрический смысл этого равенства: площадь под кривой плотности вероятности всегда равна единице.

8°. Общее правило вычисления вероятностей для дискретной и непрерывной случайной величины: если ^ A –– некоторое числовое множество на вещественной оси, то

P { X Î A }= P { X = xk },
P { X Î A }= p (x) dx

и ясно, что в непрерывном случае вероятность событий { X Î A } определена лишь для таких множеств A, для которых имеет смысл интеграл p (x) dx.

9°. Мы считаем, что задавая произвольную функцию F (x) с обязательными свойствами функции распределения: монотонное неубывание, непрерывность слева, F (-¥)=0, F (+¥)=1, – мы задаём некоторую случайную величину. Если F (x) – ступенчатая функция, то она задаёт дискретную случайную величину: точки скачков – её возможные значения, величины скачков – их вероятности.

Дискретную случайную величину можно задать таблицей её возможных значений и их вероятностей:  xk, pk, k =1, 2, ¼, n, лишь бы были " pk ³0 и pk =1.

Непрерывную случайную величину можно задать плотностью вероятности p (x). В качестве таковой может служить любая неотрицательная функция, удовлетворяющая условию нормировки: p (x) dx =1.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-04-15 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: