Презентация по дисциплине Элементы высшей математики,тема: Теория вероятности для ССУЗов, специальность Компьютерные сети


Составитель: Ризванова Надежда Аксеновна, преподаватель математики, высшая квалификационная категория. Раздел 1. Классическая вероятностная схема1.1 Основные формулы комбинаторикиВ данном разделе мы займемся подсчетом числа «шансов». О числе шансов говорят, когда возможно несколько различных результатов какого-либо действия (извлечение карты из колоды, подбрасывание кубика или монетки, двух кубиков и т.д.). Число шансов — это число таких возможных результатов, или, иначе говоря, число способов проделать это действие.Теорема о перемножении шансовТеорема 1. Пусть имеется, k групп элементов, причем i-я группа содержит ni элементов, 1<=i<=k. Выберем из каждой группы по одному элементу. Тогда общее число N способов, которыми можно произвести такой выбор, равняетсяЗамечание 1. В теореме 1 считается, что даже если все элементы в i-й группе неразличимы, выбрать один из них можно ni способами. Замечание 2. Результат выбора, описанного в теореме 1, представим в виде набора (а1, а 2,…, а k) в котором аi — выбранный из i-й группы элемент. Тогда общее число различных наборов (а1, а 2,…, а k) также равняется 1. Доказательство теоремы Занумеруем элементы i -ой группы числами от 1 до ni. Элемент из первой группы можно выбрать n1 способами. Если мы выбрали элемент j, 1<=i<= n1, то выбрать элемент из второй группы мы можем n2 способами. Получаем, что с первым элементом j возможно составить n2 пар (j, l), где 1<=l<= n2.Но столько же пар можно составить и с любым другим элементом первой группы. Тогда всего пар, в которых первый элемент выбран из первой группы, а второй — из второй, существует ровно Иначе говоря, есть способов выбрать по одному элементу из первых двух групп. Возьмем одну такую пару (j, l). Заметим, что элемент из третьей группы можно выбрать n3 способами, то есть возможно составить ровно n3 троек (j, l, m), добавляя к данной паре (j, l) любой из n3 элементов третьей группы.Но столько же троек можно составить и с любой другой парой (j, l). Тогда всего троек, в которых первый элемент выбран из первой группы, второй — из второй, а третий — из третьей, существует ровноПродолжая рассуждения, методом математической индукции заключаем справедливость утверждения теоремы.Урны и шарикиЕсть урна, (то есть ящик), содержащая n занумерованных объектов, которые мы без ограничения общности будем считать шариками. Мы выбираем из этой урны k шариков. Нас интересует, сколькими способами можно выбрать k шариков из n, или сколько различных результатов (то есть наборов, состоящих из k шариков) получится.На этот вопрос нельзя дать однозначный ответ, пока мы не определимсяс тем, как организован выбор (скажем, можно ли шарики возвращать в урну), ис тем, что понимается под различными результатами выбора.Рассмотрим следующие возможные схемы выбора:1. Выбор с возвращением: каждый выбранный шарик возвращается в урну, то есть каждый из k шариков выбирается из полной урны. В полученном наборе, состоящем из k номеров шариков, могут встречаться одни и те же номера (выборка с повторениями).2. Выбор без возвращения: выбранные шарики в урну не возвращаются, и в полученном наборе не могут встречаться одни и те же номера (выборка без повторений).И в том, и в другом случае результатом выбора является набор из k номеров шариков. Удобно считать, что шарики всегда выбираются последовательно, по одному (с возвращением или без).Условимся, какие результаты мы будем считать различными. Есть ровно две возможности.1. Выбор с учетом порядка: два набора номеров шариков считаются различными, если они отличаются составом или порядком номеров. Так, при выборе трех шариков из урны, содержащей 5 шариков, наборы (1,2,5), (2,5,1) (4,4,5) различны, если производится выбор с учетом порядка.2. Выбор без учета порядка: два набора номеров шариков считаются различными, если они отличаются составом. Наборы, отличающиеся лишь порядком следования номеров, считаются одинаковыми. Так, в примере выше первые два набора (1,2,5), (2,5,1) есть один и тот же результат выбора, а набор (4,4,5) — другой результат выбора.Подсчитаем теперь, сколько же возможно различных результатов при каждой из четырех схем (выбор с возвращением и без, и в каждом из этих случаев учитываем ли мы порядок или нет).Теорема 2. Общее количество выборок в схеме выбора k элементов из n без возвращения и с учетом порядка определяется формулой и называется числом размещений из n элементов по k элементов. Доказательство. Первый шарик можно выбрать n способами. При каждом из этих способов второй шарик можно выбрать n-1 способом, и т.д. Последний k-й шарик можно выбрать (n-k+1) способом. По теореме 1, общее число способов выбора равно что и требовалось доказать.Следствие 1. Число возможных перестановок множества из n элементов есть n!Доказательство очевидно, если заметить, что перестановка есть не что иное, как результат выбора без возвращения и с учетом порядка всех n элементов из n. Так что общее число перестановок равноТеорема 3. Общее количество выборок в схеме выбора k элементов из n без возвращения и без учета порядка определяется формулой и называется числом сочетаний из n элементов по k элементов. Доказательство. Заметим, что, согласно следствию 1, из каждой выборки данного состава (состоящей из k элементов) можно образовать k! выборок, отличающихся друг от друга только порядком элементов.То есть число выборок, различающихся еще и порядком, в k! раз больше, чем число выборок, различающихся только составом. Поделив на k!, получим утверждение теоремы.Теорема 4. Общее количество выборок в схеме выбора k элементов из n с возвращением и с учетом порядка определяется формулойДоказательство. Первый шарик можно выбрать n способами. При каждом из этих способов второй шарик можно выбрать также n способами, и так k раз.Рассмотрим урну с двумя шариками и перечислим результаты выбора двух шариков из этой урны при выборе с возвращением:Заметим, что в схеме «без учета порядка» получилось 3 различных результата в отличие от четырех в схеме «с учетом порядка». (число 4 возникает и согласно теореме 4); и что никаким делением на «число каких-нибудь перестановок» число 3 из 4 получить не удастся. С учетом порядка Без учета порядка (1, 1) (2, 2) (1, 2) (2, 1) (1, 1) (2, 2) (1, 2) Заметим, что в схеме «без учета порядка» получилось 3 различных результата в отличие от четырех в схеме «с учетом порядка». (число 4 возникает и согласно теореме 4); и что никаким делением на «число каких-нибудь перестановок» число 3 из 4 получить не удастся.Теорема 5. Общее количество выборок в схеме выбора k элементов из n с возвращением и без учета порядка определяется формулойДоказательство. Рассмотрим подробно, чем отличаются друг от друга два разных результата такой схемы выбора. Нам не важен порядок номеров, то есть мы учитываем только, сколько раз в нашем наборе из k номеров шариков появился шарик номер 1, шарик номер 2, … , шарик номер n. То есть результат выбора можно представить набором чисел k1, k2, …kn, в котором ki — число появлений шарика номер i в выборке, и k1+ k2+ …+kn.= k. При этом два результата эксперимента различны, если соответствующие им наборы k1, k2, …,kn не совпадают.Представим себе другой эксперимент, имеющий точно такие же результаты (и, следовательно, их столько же). Есть n ящиков, в которых размещается k шариков. Нас интересует только количество шариков в каждом ящике. То есть, результатом эксперимента снова является набор чисел k1, k2, …kn , в котором ki — число шариков в ящике с номером i, и k1+ k2+ … +kn.= k. Числа ki по-прежнему принимают натуральные значения или равны 0.А теперь изобразим результат такого размещения в виде схемы, в которой вертикальные линии обозначают перегородки между ящиками, а кружки — находящиеся в ящиках шарики:Мы видим результат размещения 9 шариков по 7 ящикам. Здесь 1-й ящик содержит 3 шарика, 2-й и 6-й ящики пусты, 3-й ящик содержит 1 шарик, и в 4-м и 5-м ящиках есть по 2 шарика. Переложим один шарик из первого ящика во второй и изобразим таким же образом еще один результат размещения:И еще один: Видим, что все размещения можно получить, меняя между собой шарики и перегородки, или расставляя k шариков на n-1+k месте. Число n-1+k получается так: у n ящиков есть ровно n+1 перегородка, считая крайние, или n-1 перегородка, если не считать крайние, которые двигать нельзя. И есть k шариков. Перебрав все возможные способы расставить k шариков на этих n-1+k местах (и ставя на оставшиеся места перегородки), переберем все нужные размещения.Но способов расставить k шариков на n-1+k местах ровно - это в точности число способов выбрать из n-1+k номеров мест k номеров мест (без учета порядка и без возвращения), на которые нужно поместить шарики. Заметим, что равенство верно как по определению биномиальных коэффициентов или свойствам треугольника Паскаля, так и в силу того, что можно вместо выбора k мест для шариков выбирать n-1 место для перегородок ящиков, заполняя шариками оставшиеся места.1.2 Основные понятия элементарной теории вероятностейПредмет теории вероятностей. Статистическая устойчивость.Теория вероятностей изучает закономерности, возникающие в случайных экспериментах (явлениях). Случайным называют эксперимент, результат которого нельзя предсказать заранее. Невозможность предсказать заранее — основное, что отличает случайное явление от детерминированного.Не все случайные явления (эксперименты) можно изучать методами теории вероятностей, а лишь те, которые могут быть воспроизведены в одних и тех же условиях и обладают (непонятно как проверяемым заранее) свойством «статистической устойчивости : «если А — некоторое событие, могущее произойти или не произойти в результате эксперимента, то доля n(A)/n числа экспериментов, в которых данное событие произошло, имеет тенденцию стабилизироваться с ростом общего числа экспериментов n, приближаясь к некоторому числу P(A). Это число служит объективной характеристикой «степени возможности» событию А произойти.В дальнейшем мы будем говорить лишь о случайных экспериментах, обладающих данными свойствами, а свойство статистической устойчивости докажем в утверждении, известном как закон больших чисел Я.Бернулли. Пространство элементарных исходов. Операции над событиямиОпределение 1. Пространством элементарных исходов Ω («омега») называется множество, содержащее все возможные результаты данного случайного эксперимента, из которых в эксперименте происходит ровно один. Элементы этого множества называют элементарными исходами и обозначают буквой ω («омега») с индексами или без.Определение 2. Событиями мы будем называть подмножества множества Ω. Говорят, что в результате эксперимента произошло событие А  Ω, если в эксперименте произошел один из элементарных исходов, входящих в множество А.Замечание 3. Вообще говоря, можно назвать событиями не обязательно все подмножества множества Ω, а лишь множества из некоторого набора подмножеств. О смысле такого ограничения мы поговорим позднее.Пример 1. Один раз подбрасывается одна игральная кость (кубик). Самый разумный способ задать пространство элементарных исходов таков: Ω = {1,2,3,4,5,6}, элементарные исходы здесь соответствуют числу выпавших очков.Примеры событий: A = {1,2} — выпало одно или два очка; A = {1,3,5} — выпало нечетное число очков.Пример 2. Два раза подбрасывается одна игральная кость (кубик). Или, что, то же самое, один раз подбрасываются две игральные кости. Как мы увидим в дальнейшем, здесь самый разумный способ задать пространство элементарных исходов — считать результатом эксперимента упорядоченную пару чисел (i, j), в которой 1 i, j  6и i - число очков выпавших первый раз, j – число очков, выпавших второй раз. Ω = {(i, j), где 1 i, j  6}Примеры событий:A = {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6)} — при первом подбрасывании выпало одно очко;A = {(1,1),(2,2), (3,3), (4,4), (5,5), (6,6)} — при двух подбрасываниях выпало одинаковое число очков.Пример 3. На поверхность стола бросается монета. Результатом эксперимента можно считать координату центра монеты (а если нам не безразличен угол поворота монеты, то можно добавить и величину этого угла). Пространство элементарных исходов — множество точек стола (во втором случае — множество пар {x, φ} , где x — координата точки стола и φ [0, 2π]— угол поворота). Число элементарных исходов такого эксперимента несчетно. Пример 3. На поверхность стола бросается монета. Результатом эксперимента можно считать координату центра монеты (а если нам не безразличен угол поворота монеты, то можно добавить и величину этого угла). Пространство элементарных исходов — множество точек стола (во втором случае — множество пар {x, φ} , где x — координата точки стола и φ [0, 2π]— угол поворота). Число элементарных исходов такого эксперимента несчетно.Пример 4. Монета подбрасывается до тех пор, пока не выпадет вверх гербом. Пространство элементарных исходов состоит из бесконечного, но счетного числа исходов:Ω = {г, рг, ррг, рррг, ррррг, рррррг, …} , где р и г обозначают выпадение решки и герба при одном подбрасывании, соответственно.Пример 5. Приведем пример неправильно выбранного пространства элементарных событий. Пусть при бросания игральной кости Ч = {четное число очков}, Т = {число очков, кратное трем}. Тогда Ω = {Ч, Т, 1, 5} составляет все исходы эксперимента, однако исходы Ч и Т могут наступать одновременно.Определение 3.1. Достоверным называется событие, которое обязательно происходит в результате эксперимента, то есть единственное событие, включающее все без исключения элементарные исходы — событие Ω.2. Невозможным называется событие которое не может произойти в результате эксперимента, то есть событие, не содержащее ни одного элементарного исхода («пустое множество» ). Заметим, что всегда   Ω.Определение 4. Пусть А и В — события.1. Объединением А U В событий А и В называется событие, состоящее в том, что произошло либо А , либо В, либо оба события одновременно. На языке теории множеств А U В есть множество, содержащее как элементарные исходы, входящие в А, так и элементарные исходы, входящие в В.2. Пересечением А ∩ В событий А и В называется событие, состоящее в том, что произошли оба события А и В одновременно. То есть А ∩ В есть множество, содержащее элементарные исходы, входящие одновременно в А и в В. 3. Дополнением А \ В события А до В называется событие, состоящее в том, что произошло событие А , но не произошло В. То есть А \ В есть множество, содержащее элементарные исходы, входящие в А, но не входящие в В.4. Противоположным (или дополнительным) к событию А называется событие , состоящее в том, что событие А в результате эксперимента не произошло. Иначе говоря, есть множество, содержащее элементарные исходы, не входящие в А.Определение 5.1. События А и В называются несовместными, если А ∩ В = .2. События А1, А2 , … Аn называются попарно несовместными, если для любых i ≠ j, 1  i,j  n, события Аiи Аj несовместны.3. Говорят, что событие А влечет событие В, и пишут А  В, если всегда, как только происходит событие А, происходит и событие В. На языке теории множеств это означает, что любой элементарный исход, входящий в А, одновременно входит и в событие В.Вероятность на дискретном пространстве элементарных исходовПредположим, что мы имеем дело с дискретным пространством элементарных исходов, то есть пространством, состоящим из конечного или счетного числа элементов:Ω = {ω1, ω2 , … ωn , … }.Определение 6. Поставим каждому элементарному исходу ωi  Ω в соответствие число p(ωi )  [0,1] так, чтоНазовем число p(ωi) вероятностью элементарного исхода ωi . Вероятностью события А  Ω называется числоравное сумме вероятностей элементарных исходов, входящих в множество А. Замечание 4. Позднее, познакомившись с аксиоматикой теории вероятностей, мы зададим вероятности событий непосредственно, а не через вероятности элементарных исходов. Тем более, что сложением вероятностей элементарных исходов можно получить лишь вероятность события, состоящего не более чем из счетного числа элементарных исходов (иначе само понятие суммирования не определено). Но на дискретном пространстве элементарных исходов определить вероятности событий так, как это сделано в определении 6, всегда возможно.Перечислим очевидные в случае дискретного пространства элементарных исходов свойства вероятности, которые мы скоро докажем сразу в общем случае.0  Р(А)  1;Р(Ω) = 1;Р() = 0;Р(Ō) = 1 - Р(О);если А и В несовместны, то Р(А U В) = Р(А) + Р(В);в общем же случае Р(А U В) = Р(А) + Р(В) - Р(А ∩ В);если А  В, то Р(А)  Р(В).Классическое определение вероятностиПредположим, что мы имеем дело с пространством элементарных исходов, состоящим из конечного числа N элементов: Ω = {ω1, ω2, … ωN}. Более того, предположим, что из каких-либо соображений мы можем считать элементарные исходы равновозможными. Тогда вероятность любого из них принимается равной 1/ N.Эти соображения чаще всего не имеют отношения к математической модели и основаны на какой-либо симметрии в эксперименте (симметричная монета, хорошо перемешанная колода карт, правильная кость). Либо мы можем заранее считать исходы эксперимента равновозможными, но тогда рано или поздно все равно возникнет вопрос о соответствии такой математической модели реальному эксперименту.Если событие А = { } состоит из k элементарных исходов, то вероятность этого события равняетсяотношению k / N: где символом │А│ обозначено число элементов конечного множества А. Определение 7.Говорят, что эксперимент удовлетворяет классическому определению вероятности (или классической вероятностной схеме), если пространство элементарных исходов состоит из конечного числа │А│ = N равновозможных исходов.В этом случае вероятность любого события А вычисляется по формуле называемой классическим определением вероятности. Эта формула читается так: «вероятность события А равна отношению числа исходов, благоприятствующих событию А, к общему числу исходов».Замечание 5. Полезно помнить классическую формулировку Якоба Бернулли: «Вероятность есть степень достоверности и отличается от нее как часть от целого». (Ars Conjectandi, 1713 г.)Замечание 6. Мы видим теперь, что подсчет вероятности в классической схеме сводится к подсчету числа «шансов» (элементарных исходов), благоприятствующих какому-либо событию, и общего числа шансов. Как правило, это делается с помощью формул комбинаторики.Рассмотрим описанные в параграфе 1.1 урновые схемы. Напомним, что речь идет об извлечении k шариков из урны, содержащей n шариков. При этом три схемы: с возвращением и с учетом порядка, без возвращения и с учетом порядка, а также без возвращения и без учета порядка удовлетворяют классическому определению вероятности.Общее число элементарных исходов в этих схемах подсчитано в теоремах 4, 2, 3 и равно, соответственноЧетвертая же схема — схема выбора с возвращением и без учета порядка — имеет заведомо неравновозможные исходы. Пример 6. Рассмотрим, скажем, выбор двух шариков из двух или, что то же самое, дважды подбросим монету. Если учитывать порядок, то исходов получится 4, и все они равновозможны, то есть имеют вероятность по 1/4:(герб, герб), (решка, решка), (решка, герб), (герб, решка).Если порядок не учитывать, то следует объявить два последних исхода одним и тем же результатом эксперимента, и получить три исхода вместо четырех: выпало два герба, либо две решки, либо один герб и одна решка.При этом первые два исхода имеют вероятность 1/4, а последний — вероятность 1/4+1/4=1/2.Гипергеометрическое распределениеПример 7. Из урны, в которой n1 белых и n -n1 чёрных шаров, наудачу, без возвращения вынимают k шаров, k n1 или k - k1 > n - n1 искомая вероятность равна 0, так как соответствующее событие невозможно. Пусть k1 < n1 и k - k1 < n - n1. Результатом эксперимента является набор из k шаров. При этом можно не учитывать или учитывать порядок следования шаров. 1. Выбор без учета порядка. Общее число элементарных исходов есть число k –элементных подмножеств множества, состоящего из n элементов, то есть (по теореме 3).Обозначим через A событие, вероятность которого требуется найти. Событию A благоприятствует появление любого набора, содержащего k1 белых шаров и k - k1 черных.Число благоприятных исходов равно произведению (по теореме 1) числа способов выбрать k1 белых шаров из n1 и числа способов выбрать k - k1 черных шаров из n - n1: Вероятность события A равна: 2. Выбор с учетом порядка. Общее число элементарных исходов есть число способов разместить n элементов на k местах При подсчете числа благоприятных исходов нужно учесть, как число способов выбрать нужное число шаров, так и число способов расположить эти шары среди k. Можно, скажем, посчитать число способов выбрать k1 мест среди k (равное ), затем число способов разместить на этих k1 местах n1 белых шаров (равное — не забывайте про учет порядка!), и затем число способов разместить на оставшихся k - k1 местах n - n1 черных шаров (равное ). Перемножив эти числа, получим: В рассмотренной задаче мы сопоставили каждому набору из k1 белых и k-k1черных шаров вероятность получить этот набор при выборе k шаров из урны, содержащей n1белых и n-n1черных шаров:Определение 8. Соответствие или следующий набор вероятностейНазывается гипергеометрическим распределением. Раздел 2. Геометрическая вероятность2.1 Что это такоеРассмотрим какую-нибудь область Ω в Rm ,(на прямой, на плоскости, в пространстве). Предположим, что «мера» Ω (длина, площадь, объем, соответственно) конечна. Пусть случайный эксперимент состоит в том, что мы наудачу бросаем в эту область точку а. Термин «наудачу» здесь означает, что вероятность попадания точки в любую часть А  Ω не зависит от формы или расположения А внутри Ω, а зависит лишь от «меры» области.Определение 9. Эксперимент удовлетворяет условиям «геометрического определения вероятности», если его исходы можно изобразить точками некоторой области Ω в Rm так, что вероятность попадания точки в любую А  Ω не зависит от формы или расположения А внутри Ω, а зависит лишь от меры области А (и, следовательно, пропорциональна этой мере): «Мерой» мы пока будем называть длину, площадь, объем и т.д.Если для точки, брошенной в область Ω, выполнены условия геометрического определения вероятности, то говорят, что точка равномерно распределена в области Ω.Пример 8. Точка наудачу бросается на отрезок [0,1]. Вероятность точке попасть в точку {0,5} равна нулю, так как мера множества, состоящего из одной точки («длина точки»), есть 0. Вместе с тем попадание в точку {0,5} не является невозможным событием — это один из элементарных исходов эксперимента. 2.2 Задача о встречеПример 9. Два лица Х и У условились встретиться в определенном месте между двумя и тремя часами дня. Пришедший первым ждет другого в течении 10 минут, после чего уходит. Чему равна вероятность встречи этих лиц, если каждый из них может прийти в любое время в течение указанного часа независимо от другого?Будем считать интервал с 14 до 15 часов дня отрезком [0,1] длиной 1 час. Пусть ξ («кси») и η («эта») — моменты прихода Х и У (точки отрезка [0,1]).Все возможные результаты эксперимента — множество точек квадрата со стороной 1: Ω = {( ξ , η): 0  ξ 1 0  η 1 }=[0,1]x[0,1]Можно считать, что эксперимент сводится к бросанию точки наудачу в квадрат. При этом благоприятными исходами являются точки множества A = {( ξ , η): │ξ - η│  1/6 } (10 минут = 1/6 часа). То есть попадание в множество A наудачу брошенной в квадрат точки означает, что Х и У встретятся.Тогда вероятность встреч и равна Раздел 3. Аксиоматика теории вероятностей3.1 σ -алгебра событийПусть Ω — пространство элементарных исходов некоторого случайного эксперимента (то есть, вообще говоря, множество произвольной природы). Мы собираемся определить набор подмножеств Ω, которые будут называться событиями, и затем задать вероятность как функцию, определенную только на множестве событий.То есть событиями мы будем называть не любые подмножества Ω, а лишь подмножества из некоторого «множества подмножеств» Ψ. При этом необходимо позаботиться, чтобы это множество Ψ подмножеств Ω было «замкнуто» относительно введенных в параграфе 1.2 операций над событиями, то есть чтобы объединение, пересечение, дополнение событий (то есть элементов Ψ) снова давало событие (то есть элемент Ψ ).Определение 10. Множество Ψ, состоящее из подмножеств множества Ω, (не обязательно всех!) называется σ - алгеброй событий, или σ – алгеброй подмножеств Ω, если выполнены следующие условия:(A1) Ω  Ψ (σ -алгебра событий содержит достоверное событие);(A2) если , то (вместе с любым событием σ -алгебра содержит противоположное событие);(A3) если А1, А2…  Ψ, то (вместе с любым конечным или счетным набором событий σ -алгебра содержит их объединение).Условия (A1)–(A3) часто называют «аксиомами σ - алгебры».Проверим, что этого набора аксиом достаточно для замкнутости множества Ψ относительно других операций над событиями.Вместо первой аксиомы достаточно предположить, что Ψ не пусто, т.е. содержит хоть один элемент.Свойство 1.   Ψ (σ -алгебра событий содержит невозможное событие).Доказательство. По (A1), Ω  Ψ, но  = Ω/ Ω = ¬ Ω  Ψ в силу (A2). Свойство 2. При выполнении (A1),(A2) свойство (A3) эквивалентно свойству (A4)(A4) если А1, А2…  Ψ, то(вместе с любым конечным или счетным набором событий σ -алгебра содержит их пересечение).Доказательство. Докажем, что при выполнении (A1),(A2) из (A3) следует (A4).Если А1, А2…  Ψ, то при всех i = 1, 2,… по свойству (A2) выполнено Тогда из (A3) следует, что и, по (A2), дополнение к этому множеству также принадлежит Ψ, то есть Но, в силу формул двойственности,Доказательство в обратную сторону выглядит совершенно аналогично.Свойство 3. Если А, В Ψ , то А\ В ΨПример 12. Пусть Ω = {1, 2, 3, 4, 5, 6}— пространство элементарных исходов (например, при бросании игрального кубика). Следующие наборы подмножеств Ω являются σ -алгебрами (доказать!):1. Ψ = { Ω , } ={ {1, 2, 3, 4, 5, 6}, }— тривиальная σ -алгебра.2. Ψ = { Ω , ,{1},¬{1}} ={ {1, 2, 3, 4, 5, 6},,{1},{2, 3, 4, 5, 6} }.3. Ψ = { Ω , A,¬A} ={ {1, 2, 3, 4, 5, 6},, A,¬A }., где A — произвольное подмножество Ω (в предыдущем примере A ={1} ).Итак, мы определили специальный класс Ψ подмножеств пространства элементарных исходов Ω, названный σ -алгеброй событий, причем применение счетного числа любых операций (таких, как объединение, пересечение, дополнение) к множествам из Ψ снова дает множество из Ψ (не выводит за рамки этого класса). Множества А Ψ мы и назвали «событиями».Определим теперь понятие «вероятности» как функции, определенной на множестве событий (то есть функции, которая каждому событию ставит в соответствие число). А чтобы читателю сразу стало понятно, о чем пойдет речь, добавим: вероятность мы определим как неотрицательную нормированную меру, заданную на σ -алгебре Ψ подмножеств Ω. 3.2 Вероятность как нормированная мераОпределение 11.Пусть Ω — некоторое множество и Ψ — σ -алгебра его подмножеств. Функция μ: Ψ → R U {∞} называется мерой на (Ω, Ψ), если она удовлетворяет условиям:(M1) Для любого множества А  Ψ его мера неотрицательна: μ(А)≥ 0.(M2) Для любого счетного набора попарно непересекающихся множеств А1, А2…  Ψ мера их объединения равна сумме их мер: («счетная аддитивность» или «σ -аддитивность»). Иначе говоря, мера есть неотрицательная, счетно-аддитивная функция множеств.Определение 12.Пусть Ω — некоторое множество и Ψ — σ -алгебра его подмножеств. Мера μ: Ψ → R называется нормированной, если μ(Ω) = 1. Другое название нормированной меры — «вероятность» или «вероятностная мера».То же самое еще раз и подробно:Определение 13.Пусть Ω — пространство элементарных исходов и Ψ — σ -алгебра его подмножеств (событий). Вероятностью или вероятностной мерой на (Ω, Ψ), называется функция P Ψ → R, обладающая свойствами:(P1) Для любого события А  Ψ выполняется неравенство P(А)≥ 0;(P2) Для любого счетного набора попарно несовместных событий А1, А2…  Ψ имеет место равенство(P3) Вероятность достоверного события равна единице: P(Ω) = 1.Свойства (P1)–(P3) часто называют «аксиомами вероятности». Определение 14.Тройка (Ω, Ψ,Р), в которой Ω — пространство элементарных исходов, Ψ — σ -алгебра его подмножеств и P — вероятностная мера на Ψ, называется вероятностным пространством.Выпишем свойства вероятности:Для любого конечного набора попарно несовместимых событий А1, А2…  Ψ имеет место равенство1.2.Для любого конечного набора попарно несовместимых событий А1, А2…  Ψ имеет место равенство3.4.Если ,то 5. Если ,то6.7.8.9. 10. Раздел 4. Условная вероятность, независимость4.1 Условная вероятностьПример 13. Кубик подбрасывается один раз. Известно, что выпало более трех очков. Какова при этом вероятность того, что выпало четное число очков?В данном случае пространство элементарных исходов состоит из трех равновозможных элементарных исходов: Ω = {4, 5, 6}, и событию A = {выпало четное число очков} благоприятствуют 2 из них: A = {4, 6}. Поэтому P(A) = 2/3.Посмотрим на этот вопрос с точки зрения первоначального эксперимента. Пространство элементарных исходов при одном подбрасывании кубика состоит из шести точек: Ω = {1, 2, 3, 4, 5, 6} . Слова «известно, что выпало более трех очков» означают, что в эксперименте произошло событие B = {4, 5, 6},. Слова «какова при этом вероятность того, что выпало четное число очков?» означают, что нас интересует, в какой доле случаев при осуществлении B происходит и А. Вероятность события А, вычисленную в предположении, что нечто о результате эксперимента уже известно (событие B произошло), мы будем обозначать через P(A/B)Мы хотим вычислить отношение числа исходов, благоприятствующих А внутри B (то есть благоприятствующих одновременно A и B), к числу исходов, благоприятствующих B.Определение 15. Условной вероятностью события А, при условии, что произошло событие В, называется числоБудем считать, что условная вероятность определена только в случае, когда P(В) > 0.Следующее свойство называется "теоремой умножения": Теорема 6. P(A∩B) = P(B)P(A\B) = P(A)P(B\A), если соответствующие условные вероятности определены (то есть если P(В) > 0, P(A) > 0).Теорема умножения для большего числа событий:Теорема 7. P(A1 ∩ A2 ∩…∩ An) = P(A1) P(A2\A1) P(A3 \A1 ∩A2)… P(An \A1∩…∩An-1)если соответствующие условные вероятности определены.4.2 НезависимостьОпределение 16. События A и B называются независимыми, если P(A∩B) = P(A)P(B)Пример 14.1. Точка с координатами ξ, η бросается наудачу в квадрат со стороной 1. Доказать, что для любых х, у R события A = { ξ 0, то события А и В независимы P(А\В) =Р(А)Если P(А) > 0, то события А и В независимы P(В\А) =Р(В)Лемма 1. Если события А и В независимы, то независимы и события .Определение 17. События А1, А2…Аn называются независимыми в совокупности, если для любого набора 1 ≤ i1, i2…ik ≤ n Замечание 9. Если события А1, А2…Аn независимы в совокупности, то они попарно независимы, то есть любые два события Аi, Аj независимы. Достаточно в равенстве (3) взять k =2. Обратное, как показывает следующий пример, неверно.Пример 15 (Пример С. Н. Бернштейна).Рассмотрим правильный тетраэдр, 3 грани которого окрашены, соответственно, в красный, синий, зеленый цвета, а четвертая грань содержит все три цвета. Событие A, (B, C) означает, что выпала грань, содержащая красный (синий, зеленый) цвета.Вероятность каждого из этих событий равна 1/2, так как каждый цвет есть на двух гранях из четырех. Вероятность пересечения любых двух из них равна 1/4, так как только одна грань содержит два цвета. А так как 1/4 = 1/2 1/2, то все события попарно независимы.Но вероятность пересечения всех трех тоже равна 1/4, а не 1/8, то есть события не являются независимыми в совокупности.Заметьте, что равенство (6) выполнено для k = 2, но не выполнено для k = 3. 4.3 Формула полной вероятностиПример 16. Есть 3 завода, производящих одну и ту же продукцию. При этом 1-й завод производит 25%, 2-й завод — 35% и 3-й завод — 40% всей производимой продукции. Брак составляет 5% от продукции 1-го завода, 3% от продукции 2-го и 4% от продукции 3-го завода. Вся продукция смешивается и поступает в продажу. Найти а) вероятность купить бракованное изделие; б) условную вероятность того, что купленное изделие изготовлено 1-м заводом, если это изделие бракованное.Первая вероятность равна доле бракованных изделий в объеме всей продукции, то есть 0,05*0,25 + 0,03*0,35 + 0,04*0,4. Вторая вероятность равна доле брака 1-го завода среди всего брака, то естьОпределение 18. Набор попарно несовместных событий Н1, Н2… таких, что P(Аi) > 0 для всех i иназывается полной группой событий или разбиение пространства ΩСобытия Н1, Н2 …, образующие полную группу событий, часто называют гипотезами. При подходящем выборе гипотез для произвольного события А могут быть сравнительно просто вычислены P(А/ Нi) (вероятность событию А произойти при выполнении «гипотезы» Нi) и собственно P(Нi)(вероятность выполнения «гипотезы» Нi). Теорема 8 (Формула полной вероятности).Пусть Н1, Н2 — полная группа событий. Тогда вероятность любого события A может быть вычислена по формуле: 4.4 Формула БайесаТеорема 9 (Формула Байеса).Пусть Н1, Н2 …— полная группа событий и A — некоторое событие положительной вероятности. Тогда условная вероятность того, что имело место событие Нk, если в результате эксперимента наблюдалось событие A, может быть вычислена по формуле:Пример 17. Вернемся к примеру 15. Изделие выбирается наудачу из всей произведенной продукции. Рассмотрим три гипотезы: Нi = {изделие изготовлено i-м заводом }, i = 1, 2, 3. Вероятности этих событий даны: P(Н1) = 0,25, P(Н2) = 0,35, P(Н3) = 0,4 . Пусть A = {изделие оказалось бракованным }. Даны также условные вероятности P(A\Н1) = 0,05, P(A\Н2) = 0,03, P(A\Н3) = 0,04Пример 18. Два стрелка подбрасывают монетку и выбирают, кто из них стреляет по мишени (одной пулей). Первый стрелок попадает по мишени с вероятностью 1, второй стрелок — с вероятностью 0,00001. Можно сделать два предположения об эксперименте: Н1 = {стреляет 1-й стрелок}Н2 = { стреляет 2-й стрелок } . Априорные (a’priori —«до опыта») вероятности этих гипотез одинаковы: P(Н1) = P(Н1) = 1/2.Рассмотрим событие A = {пуля попала в мишень}. Известно, что P(A\Н1) = 1, P(A\Н2) = 0,00001 Поэтому вероятность пуле попасть в мишень P(A) = 1/2*1 + 1/2*0,00001. . Предположим, что событие A произошло. Какова теперь апостериорная (a’posteriori — «после опыта») вероятность каждой из гипотез Нi? Очевидно, что первая из этих гипотез много вероятнее второй (а именно, в 100000 раз). Действительно, Раздел 5. Схема Бернулли5.1 Распределение числа успехов в n испытанияхОпределение 19. Схемой Бернулли называется последовательность независимых испытаний, в каждом из которых возможны лишь два исхода — «успех» и «неудача», при этом «успех» в одном испытании происходит с вероятность р  [0,1], «неудача» — с вероятностью q = 1 - p.Теорема 10 (Формула Бернулли).Обозначим через vn число успехов в n испытаниях схемы Бернулли. Тогда для любого k = 0, 1, …nДоказательство. Событие A ={ vn = k} означает, что в n испытаниях схемы Бернулли произошло ровно k успехов. Рассмотрим один из благоприятствующих событию A элементарных исходов: Здесь буквами «у» и «н» обозначены, соответственно, успешный и неудачный результаты испытаний. Поскольку испытания независимы, вероятность такого элементарного исхода (первые k испытаний завершились успехом, остальные неудачей) равна pk(1 - p)n-k.Другие благоприятствующие событию A элементарные исходы отличаются от рассмотренного выше лишь расположением k успехов на n местах. Есть ровно способов расположить k успехов на n местах. Поэтому событие A состоит из элементарных исходов, вероятность каждого из которых равна pk(1 - p)n-k.Определение 20. Набор чиселназывается биноминальным распределением вероятностей и обозначается Вnp или B(n,p).Теорема 11 Пусть m1, m2 целые числа, 0  m1  m  m2  n Обозначим через Рn(m1,m2) вероятность того, что событие А наступило не менее m1 и не более m2 раз в n испытаниях. Тогда 5.2 Наиболее вероятное число успеховПо формуле Бернулли, событие «произошло 0 успехов в n испытаниях» имеет вероятность qn , 1 успех — вероятность n p qn и т.д. Какое же число успехов наиболее вероятно? Иначе говоря, при каком k достигается максимум P(vn=k)?Чтобы выяснить это, сравним отношение P(vn=k)и P(vn=k-1)с единицей.Видим, что(a) Р(vn = k) > Р(vn = k-1) при np + p – k > 0, то есть при k < np + p;(b) Р(vn = k) < Р(vn = k-1 )при np + p – k < 0, то есть при k > np + p;(c) Р(vn = k) = Р(vn = k-1 при np + p – k = 0, что возможно лишь если np + p — целое число.Рассмотрим два случая: np + p –целое число и np + p – дробное число. В первом случае пусть k0 = np + p. Из полученных выше неравенств, сразу следует, чтоДействительно, неравенство Р(vn = k0) > Р(vn = k0+1), например, следует из (b), примененного для k = k0+1 > np + p.Видим, что в зависимости от того, является число 1 > np + p целым или нет, имеется либо два равновероятных «наиболее вероятных» числа успехов k0 = np + p и k0 –1 > np + p - 1,либо одно «наиболее вероятное» число успехов k0 = [np + p].Сформулируем уже доказанное утверждение в виде теоремы. Теорема 12. В n испытаниях схемы Бернулли с вероятностью успеха p наиболее вероятным числом успеховявляетсяa) единственное число k0 = [np + p], если число np + p не целое;б) два числа k0 = np + p и k0 -1= np + p -1, если число np + p целое.Пример 19. Если p = q = 1/2, то при четном числе испытаний n число np + p = n/2 + 1 /2— не целое, так что наиболее вероятным является единственное число успехов [n/2 + 1 /2] = n/2. Что совершенно понятно, так как есть нечетное число возможностей — получить 0, 1, …n успехов, причем вероятности получить k и n-k успехов одинаковы.При нечетном же числе испытаний n число np + p = n/2 + 1 /2 — целое, так что наиболее вероятными (и одинаково вероятными) являются два числа успехов n/2 + 1 /2 и n/2 - 1 /2.5.3 Номер первого успешного испытанияРассмотрим схему Бернулли с вероятностью успеха p в одном испытании. Испытания проводятся до появления первого успеха. Введем величину τ , равную номеру первого успешного испытания.Теорема 13. Вероятность того, что первый успех произойдет в испытании с номером k, равна P(τ = k) = p qk-1.Доказательство. Действительно,Определение 21. Набор чисел {p qk-1 } называется геометрическим распределением вероятностей иобозначается Gp или G(p).Геометрическое распределение вероятностей обладает интересным свойством, которое можно назватьсвойством «нестарения». Пусть величина τ обозначает, скажем, время безотказной работы (измеряемоецелым числом часов) некоторого устройства. Предположим, что для величины τ вероятность принять любоесвое значение k в точности равна pqk-1. Справедливо следующее утверждение. Теорема 14. Пусть P(τ = k) = p qk-1. Тогда для произвольных n, k  0P(τ > n+k\ τ > n) = P(τ > k)Данному равенству можно придать следующее звучание: если известно, что устройство проработало без отказов n часов, то вероятность ему работать еще не менее k часов точно такая же, как вероятность проработать не менее k часов для нового устройства.Можно прочесть эту формулу и так: вероятность работающему устройству проработать еще сколько-то часов не зависит от того момента, когда мы начали отсчет времени, или от того, сколько уже работает устройство.Доказательство. По определению условной вероятности,Последнее равенство следует из того, что событие {τ > n+k} влечет событие {τ > n}, так что пересечение этих событий есть {τ > n+k}. Найдем для произвольного m  0 вероятность P(τ > m).Можно также заметить, что событие {τ > m} означает, что в схеме Бернулли первые m испытаний завершились «неудачами», а это событие имеет вероятность как раз qm.Возвращаясь к (4), получим 5.4. Независимые испытания с несколькими исходамиРассмотрим следующий пример, когда из двух очень похожих вопросов на один можно ответить, пользуясь формулой Бернулли, а для другого этой формулы оказывается недостаточно:Пример 20. Игральная кость подбрасывается 15 раз. Найти вероятности следующих событий:а) выпадет ровно 10 шестерок; б) выпадет ровно 10 шестерок и три единицы.а) есть 15 испытаний схемы Бернулли с вероятностью успеха 1/6 (выпадение шестерки). Вероятность десяти успехов в 15 испытаниях равнаб) здесь каждое испытание имеет три, а не два исхода: выпадение шестерки, выпадение единицы, выпадение остальных граней. Воспользоваться формулой для числа успехов в схеме Бернулли не удается — перед нами уже не схема Бернулли.Осталось изобрести формулу для подсчета вероятности каждому исходу в нескольких независимых испытаниях выпасть нужное число раз, если в одном испытании возможно не два, а более исходов.Пусть в одном испытании возможны m исходов. Обозначим их цифрами 1, 2, …m. Пусть исход i в одном испытании случается с вероятностью рi, 1 ≤ i ≤ m иОбозначим через Р(n1,n2,…,nm) вероятность того, что в n = n1+ n2+ …+nm независимых испытаний исход 1 появился n1, раз, исход 2 – n2 раз,… Теорема 16. Для любого n и любых целых n1 ≥ 0… nm ≥ 0 таких, что n1+ n2+ …+nm = n, верна формула:Доказательство. Рассмотрим один элементарный исход, благоприятствующий выпадению n1 единиц, n2 двоек, … , nm раз m-ок:Это результат n экспериментов, когда все нужные исходы появились в некотором заранее заданном порядке. Вероятность такого результата n независимых испытаний равнаВсе остальные благоприятные исходы отличаются лишь расположением чисел 1, 2, …m на n местах. Число таких исходов равно числу способов расставить на n местах n1 единиц, n2 двоек, , … , nm раз чисел m, то естьТеперь мы можем вернуться к примеру 20(б) и выписать ответ: так как вероятности выпадения шестерки и единицы равны 1/6, а вероятность третьего исхода (выпали любые другие грани) равна 4/6, то вероятность получить 10 шестерок, 3 единицы и еще 2 других очка равна 5.5.Теорема Пуассона для схемы БернуллиПредположим, нам нужна вероятность получить не менее десяти успехов в 1000 испытаний схемы Бернулли с вероятностью успеха 0.003. Вероятность этого события равна любому из следующих выражений:и вычисление даже одного слагаемого в каждом из этих выражений весьма проблематично.Сформулируем теорему о приближенном вычислении вероятности какого-либо числа успехов в большом числе испытаний схемы Бернулли с маленькой вероятностью успеха. Термин «большое число» должен означать n → ∞. Если при этом p = pn→ 0,то, очевидно, вероятность получить любое конечное число успехов при растущем числе испытаний стремится к нулю. Необходимо чтобы вероятность успеха p = pn→ 0 одновременно с ростом числа испытаний. Но от испытания к испытанию вероятность успеха меняться не может (см. определение схемы Бернулли).Поэтому рассмотрим «схему серий»: естьодно испытание ○ с вероятностью успеха p1два испытания ○ , ○ с вероятностью успеха p2…n испытаний ○ , … , ○с вероятностью успеха pn…Вероятность успеха меняется не внутри одной серии испытаний, а от серии к серии, когда меняется общее число испытаний. Обозначим через vn число успехов в n-той серии испытаний. Теорема 17 (Теорема Пуассона).Пусть n → ∞ , pn→ 0 так, что n pn→ λ > 0. Тогда для любого k ≥ 0 вероятность получить k успехов в n испытаниях схемы Бернулли с вероятностью успеха pn стремится к величине (5)для n → ∞ , pn→ 0 так, что n pn→ λ.Определение 22. Пусть λ > 0— некоторая постоянная. Набор чисел называется распределением Пуассона с параметром λ.Пользуясь теоремой 17, можно приближенно посчитать вероятность получить не менее десяти успехов в 1000 испытаний схемы Бернулли с вероятностью успеха 0.003, с вычисления которой мы начали. Поскольку n = 1000 «велико», а pn = 0.003 «мало», то, взяв λ = n pn = 3 , можно написать приближенное равенство(6)Осталось решить, а достаточно ли n=103 «велико», а pn = 0.003 «мало», чтобы заменить точную вероятность P(vn = k) на приближенное значение Для этого нужно уметь оценивать разницу между этими двумя вероятностями. Теорема 18 (Теорема Пуассона с оценкой погрешности).Пусть A  {0, 1, …, n} — произвольное множество целых неотрицательных чисел, vn — число успехов в n испытаниях схемы Бернулли с вероятностью успеха p, λ = n p. ТогдаТаким образом, теорема 18 предоставляет нам возможность самим решать, достаточно ли n «велико», а p «мало», руководствуясь полученной величиной погрешности.Какова же погрешность в формуле (6)?Погрешность не более 0,009 (при вероятности около 0,001). Во всяком случае, можно утверждать, что искомая вероятность никак не больше, чем 0,01=0,001+0,009.Рассмотрим еще одну формулу приближенного вычисления pn (m) когда n велико. В отличии от предыдущего результата число успехов m в этом случае тоже растет с ростом n, а вероятность успеха постоянна. Локальная теорема Муавра – Лапласа Пусть . Предположим, что и величины являются ограниченными. ТогдаВ частности, если , то Доказательство:В силу ограниченности величин разность вместе с n и m Воспользуемся формулой СтирлингаВ силу определения Раздел 6. Случайные величины и их распределения6.1 Случайные величиныМы уже видели, что для очень многих экспериментов нет никаких различий в подсчете вероятностей событий, тогда как элементарные исходы в этих экспериментах очень различаются. Но нас и должны интересовать именно вероятности событий, а не структура пространства элементарных исходов. Поэтому пора во всех таких «похожих» экспериментах вместо самых разных элементарных исходов использовать, например, числа. То есть ввести соответствие (иначе говоря, отображение) между элементарными исходами и вещественными числами (с ними удобно работать).Пусть имеется случайный эксперимент и задано вероятностное пространство (Ω, Ψ,Р).Определение 23. Функция ξ: Ω →R называется случайной величиной, если для любого х  R множество { ξ < x} = {ω: ξ(ω) < x} является событием, то есть принадлежит σ-алгебре событий Ψ.Замечание 10. Можно смело считать, что любое множество элементарных исходов есть событие, и, следовательно, случайная величина есть произвольная функция из Ω в R. Никаких неприятностей на практике это обычно не влечет.Определение 24. Будем говорить, что функция ξ: Ω →R является Ψ -измеримой, если {ω: ξ(ω) < x} принадлежит Ψ для любого х  R.Итак, случайная величина есть Ψ - измеримая функция, ставящая в соответствие каждому элементарному исходу ω  Ω число ξ(ω)  R.Пример 21. Подбрасываем 1 раз кубик. Пусть Ω = {1, 2, 3, 4, 5, 6} , и две функции из Ω в заданы так: ξ(ω)= ω , η(ω)= ω2.  Если Ψ есть множество всех подмножеств Ω, то ξ и η являются случайными величинами, поскольку любое множество элементарных исходов принадлежит Ψ, в том числе и {ω: ξ(ω) < x} или {ω: η (ω) < x} . Можно записать соответствие между значениями случайных величин ξ и η вероятностями принимать эти значения в виде «таблицы распределения вероятностей» или, коротко, «таблицы распределения»:Здесь 1/6 = Р(ξ=1)=…= Р(ξ=6) = Р(η =1)= …= Р(η =36)Пусть σ -алгебра событий Ψ состоит всего из четырех множеств:Ψ = { Ω ,, {1,3,5},{2,4,6} }то есть событием является, кроме достоверного и невозможного событий, выпадение четного (соответственно, нечетного) числа очков. Убедимся, что при такой «бедной» σ -алгебре ни ξ, ни η не являются случайными величинами, так как эти функции не Ψ - измеримы. Возьмем (например) x = 3,967. Видим, что{ω  Ω: ξ(ω) < 3,967}= {1, 2, 3} Ψ и {ω  Ω: η (ω) < 3,967}= {1} ΨТеперь попробуем понять, зачем нужна Ψ - измеримость и почему требуется, чтобы {ω: ξ(ω) < x} являлось событием.Если задана случайная величина ξ, нам может потребоваться вычислить вероятности типа P(ξ = 5) = P{ω: ξ(ω) = 5},P (ξ  [-3,7]), P(ξ  3,2),P(ξ > 0) (и вообще самые разные вероятности попадания в различные множества на прямой). Это возможно только если множества, стоящие под знаком вероятности, являются событиями (напомню, что вероятность есть функция из σ - алгебры событий в [0,1]). ξ 1 2 3 4 5 6 Р 1/6 1/6 1/6 1/6 1/6 1/6 η 1 4 9 16 25 36 Р 1/6 1/6 1/6 1/6 1/6 1/6 Но если потребовать, чтобы Ax = {ω: ξ(ω) < x} было событием при любом x, то мы из свойств σ - алгебры сразу получим, что и — событие, и — событие, и — событие, и {ω: ξ(ω) = x}= Bx \ Ax — событие, (7)и т.д., и т.п. (операции пересечения, объединения, дополнения событий не выводят из класса событий).Можно потребовать в определении 23 чего-нибудь другого. Например, чтобы событием было попадание в любой интервал: (ω: ξ(ω)  [a, b]) для любых a < b.Или чтобы {ω: ξ(ω)  x} было событием для любого x. Любое такое определение эквивалентно исходному.Опишем различные типы распределений случайных величин. Под распределением случайной величины мы будем понимать соответствие «значение случайной величины ↔ вероятность принимать это значение»,либо (чаще)«множество на прямой ↔ вероятность случайной величине попасть в это множество».6.2 Дискретные распределенияОпределение 25. Говорят, что случайная величина ξ имеет дискретное распределение, если существует конечный или счетный набор чисел {a1, a2, …} такой, что:а) pi = P{ ξ = ai} > 0 для всех i; б) То есть случайная величина ξ имеет дискретное распределение, если она принимает не более чем счетное число значений. Определение 26. Если случайная величина ξ имеет дискретное распределение, назовем таблицей распределения соответствие ai ↔ pi, которое чаще всего рисуют так:6.3 Примеры дискретных распределенийВырожденное распределение.Говорят, что случайная величина ξ имеет вырожденное распределение с параметром а, и пишут ξ  Ia если ξ принимает единственное значение а с вероятностью 1, то есть P(ξ = a) = 1. Таблица распределения ξ имеет видРаспределение Бернулли.Говорят, что случайная величина ξ имеет распределение Бернулли с параметром р, и пишут ξ  Вр, если ξ принимает значения 1 и 0 с вероятностями р и 1 - р, соответственно. Случайная величина ξ с таким распределением равна числу успехов в одном испытании схемы Бернулли с вероятностью успеха (0 успехов или 1 успех). Таблица распределения ξ имеет вид   ξ а1 а2 а3 … Р р1 р2 р3 … ξ а Р 1 ξ 0 1 Р (1-p) р Биномиальное распределение.Говорят, что случайная величина ξ имеет биномиальное распределение с параметрами n и p, где 0  p , n и пишут ξ  Вn,р, если ξ принимает значения 0, 1, …,n с вероятностями P(ξ = k) = Cnk pk (1-p)n-k . Случайная величина ξ с таким распределением имеет смысл числа успехов в n испытаниях схемы Бернулли с вероятностью успеха р .Таблица распределения ξ имеет видГеометрическое распределение.Говорят, что случайная величина τ имеет геометрическое распределение с параметром р, где 0  p , n, и пишут τ  Gр, если τ принимает значения 1, 2, 3, …с вероятностями P(τ = k) = p (1-p)k-1. Случайная величина τ с таким распределением имеет смысл номера первого успешного испытания в схеме Бернулли с вероятностью успеха р .Таблица распределения τ имеет видРаспределение Пуассона.Говорят, что случайная величина ξ имеет распределение Пуассона с параметром λ, где λ > 0 , и ξ  П λ, если ξ принимает значения 0, 1, 2 … с вероятностями Таблица распределения ξ имеет вид ξ 0 1 … k … n Р (1-p)n n p(1-p)n-1 … Cnk pk (1-p)n-k … Pn τ 1 2 … k … Р p Р (1 – р) … p (1-p)k-1 … ξ 1 2 … k … Р е- λ λ е- λ … (λk /k!)е- λ … 6.4. Независимость случайных величинОпределение 33. Случайные величины ξ1, ξ2, … , ξn независимы, если для любого набора множеств В1  R, … Вn  R имеет место равенство:Это определение можно сформулировать в терминах функций распределения:Определение 34. Случайные величины ξ1, ξ2, … , ξn независимы, если для любых х1, х2, … , хn имеет место равенство:Определение 35. Случайные величины ξ1, ξ2, … , ξn с дискретным распределением независимы, если для любых а1, а2, … , аn имеет место равенство:Для случайных величин с абсолютно непрерывным совместным распределением определение независимости можно сформулировать так:Определение 36. Случайные величины ξ1, ξ2, … , ξn с абсолютно непрерывным совместным распределением независимы, если плотность совместного распределения равна произведению плотностей случайных ξ1, ξ2, …, ξn, то есть для любых х1, х2, … , хn имеет место равенство: «Случайных величин без мат. ожидания не бывает, так как, если у нас есть случайная величина мы всегда в праве от нее что-нибудь ожидать.»Из студенческой контрольной работы. Раздел 7. Числовые характеристики случайных величин7.1 Математическое ожидание случайной величиныОпределение 38. Математическим ожиданием Eξ (средним значением, первым моментом) случайной величины ξ с дискретным распределением, задаваемым таблицей P(ξ = аi) = pi, называется числоесли указанный ряд абсолютно сходится.Если же , то говорят, что математическое ожидание не существует.Определение 39. Математическим ожиданием Eξ случайной величины ξ с абсолютно непрерывным распределением с плотностью распределения fξ(x), называется число если указанный интеграл абсолютно сходится. Если же , то говорят, что математическое ожидание не существует.Математическое ожидание имеет простой физический смысл: если на прямой разместить единичную массу, поместив в точку аi массу pi (для дискретного распределения), или «размазав» ее с плотностью fξ(x) (для абсолютно непрерывного распределения), то точка Eξ есть координата «центра тяжести» прямой.Пример 26. Пусть случайная величина ξ равна числу очков, выпадающих при одном подбрасывании кубика. Тогда в среднем при подбрасывании кубика выпадает 3.5 очка Пример 27. Пусть случайная величина ξ — координата точки, брошенной наудачу на отрезок [a,b]. Тогдацентр тяжести равномерного распределения на отрезке есть середина отрезка.7.2 Свойства математического ожиданияВо всех свойствах предполагается, что рассматриваемые математические ожидания существуют.E0. Математическое ожидание случайной величины есть ЧИСЛО!E1. Для произвольной функции функция g : R  RДоказательство. Мы докажем это свойство (как и почти все дальнейшие) только для дискретного распределения. Пусть g(ξ) принимает значения с1 с2 … с вероятностямиТогда,E2 Математическое ожидание const равно этой const Eс = с.E3. const можно вынести за знак математического ожидания: E(с ξ) = с Eξ. Доказательство. Следует из свойства E1 при g(ξ) = с ξ .E4. Математическое ожидание суммы любых случайных величин ξ и η равно сумме их математических ожиданий.E (ξ + η ) = E (ξ )+ E (η)Доказательство. Для величин с дискретным распределением: пусть xk и yn — значения ξ и η, соответственно.E5.Если ξ  0 п.н. (« почти наверное», т.е. с вероятностью 1: P(ξ  0 ) = 1), то E ξ  0;Если ξ  0 п.н., и при этом Eξ = 0, то ξ = 0 п.н., то есть P(ξ = 0) = 1.Следствие 11.Если ξ  η п.н., то E ξ  Eη .Если ξ  η п.н., и при этом Eξ = Eη, то ξ = η п.н.E6. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.: если ξ и η независимы, то E(ξη) = Eξ Eη.Доказательство.Замечание 16. Обратное утверждение к свойству E6 неверно: из равенства E(ξη) = Eξ Eη. Не следует независимость величин ξ и η.Пример 28. Пусть φ  U0,2π, ξ = cos φ, η = sin φ— заведомо зависимые случайные величины. Но математическое ожидание их произведения равно произведению их математических ожиданий: по свойству E1 7.3 Моменты старших порядков. ДисперсияОпределение 40. Если , то число называется моментом порядка k (k -м моментом) случайной величины ξ; называется абсолютным моментом порядка k (абсолютным k -м моментом) случайной величины ξ; называется центральным моментом порядка k (центральным k -м моментом) случайной величины ξ;называется абсолютным центральным моментом порядка k (абсолютным центральным k -м моментом) случайной величины ξ.Число Dξ = E(ξ – Eξ)2 (центральный момент порядка 2) называется дисперсией случайной величины ξПример 29. Пусть, скажем, случайная величина ξ принимает значение 0 с вероятностью 1-10-5 , и значение 100 с вероятностью 10-5. Посмотрим, как моменты разных порядков реагируют на большие, но маловероятные значения случайной величины. Пример 30. Дисперсия Dξ = E(ξ – Eξ)2 есть «среднее значение квадрата отклонения случайной величины ξ от своего среднего». Посмотрим, за что эта величина отвечает.Пусть случайная величина ξ принимает значения +-1 с вероятностью 1/2, а случайная величина η — значения ю +-10 с вероятностью 1/2. Тогда Eξ = Eη = 0 поэтому D ξ = E ξ2 = 1, Dη = Eη2 = 100. Говорят, что дисперсия характеризует степень разброса значений случайной величины вокруг ее математического ожидания.Если говорить о распределении случайной величины, как о распределении единичной массы по невесомому стержню, то дисперсия есть в точности момент инерции этого стержня, закрепленного в центре тяжести.Определение 40. Если дисперсия величины ξ конечна, то число называют среднеквадратичным отклонением случайной величины ξ.Следует хорошо понимать, что из существования моментов больших порядков следует существование моментов меньших порядков. В частности, конечность второго момента (или дисперсии) влечет существование математического ожидания.7.4 Свойства дисперсииВсе свойства дисперсии следуют из соответствующих свойств математического ожидания.D1.Действительно,D2.D3. если и только если ξ= const.п.н. Доказательство. Дисперсия есть всего-навсего математическое ожидание п.н. неотрицательной с.в.: Dξ = E(ξ – Eξ)2, и неотрицательность дисперсии следует из свойства E5. По тому же свойству, Dξ = 0 если и только если E(ξ – Eξ)2 = 0 п.н., то есть ξ = ξ п.н.D4. Дисперсия не меняется от сдвига с.в. на постоянную:D5. Если ξ и η независимы, тоДействительно,так как математическое ожидание произведения независимых с.в. равно произведению их математических ожиданий.D6. Минимум среднеквадратического отклонения случайной величины ξ от точек вещественной прямой есть среднеквадратическое отклонение ξ от своего математического ожидания:Наименьший момент инерции стержня с распределенной на нем единичной массой получится, если точка вращения – центр тяжести стержня, а не любая другая точка.Доказательство.причем равенство достигается только для а = Eξ. 7.5 Математические ожидания и дисперсии стандартных распределенийПример 31. Распределение Бернулли Вр,Пример 32. Биномиальное распределение Вn,pВоспользуемся свойством устойчивости биномиального распределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин ξ1 ξ2 … ξn, имеющих распределение Бернулли В,p = В1,p.Тогда их сумма Sn = ξ1 + ξ2 +… + ξn имеет распределение Вn,pтак как все ξi одинаково распределены и их математическое ожидание равно pi;поскольку ξi независимы и дисперсия каждой равна pq.Пример 33. Геометрическое распределение GpПри p  (0,1)Равенство (*) появилось из-за нежелания дифференцировать сумму геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны ПоэтомуПример 34. Распределение Пуассона ПλПоказать, что , следовательноПример 35. Равномерное распределение Ua,b Пример 36. Стандартное нормальное распределение N0,1поскольку под интегралом стоит нечетная функция, и сам интеграл абсолютно сходится (за счет быстро убывающейПоследнее равенство следует из того, что а интеграл по всей прямой от плотности любого распределения равен 1. ПоэтомуПример 37. Нормальное распределение Мы знаем, что еслиПоэтомуПример 38. Показательное (экспоненциальное) распределение ЕαНайдем для произвольного k  N момент порядка k.В последнем равенстве мы воспользовались гамма-функцией Эйлера: Соответственно, Распределение Коши. Говорят, что ξ имеет распределение Коши с параметрами α, σ2, где α  R, σ > 0, если для всех х  R.Распределение Коши имеет, например, абсцисса точки пересечения луча, посланного из точки (α, σ) под наудачу выбранным углом, с осью ОХ. Математическое ожидание для распределения Коши не существует, посколькурасходится (подинтегральная функция ведет себя на бесконечности как 1/х).Пример 40. Распределение Парето Распределение Парето. Говорят, что ξ имеет распределение Парето с параметрами х0, s, где х0 > 0, s > 0, еслиУ распределения Парето существуют только моменты порядка u < s, посколькусходится при u < s, то есть когда подинтегральная функция на бесконечности бесконечно мала по сравнению с 1/х.«Случайных величин без мат. ожидания не бывает, так как, если у нас есть случайная величина мы всегда в праве от нее что-нибудь ожидать.»Из студенческой контрольной работы. Раздел 8. Числовые характеристики случайных величин8.1 Математическое ожидание случайной величиныОпределение 38. Математическим ожиданием Eξ (средним значением, первым моментом) случайной величины ξ с дискретным распределением, задаваемым таблицей P(ξ = аi) = pi, называется число если указанный ряд абсолютно сходится.Если же , то говорят, что математическое ожидание не существует.Определение 39. Математическим ожиданием Eξ случайной величины ξ с абсолютно непрерывным распределением с плотностью распределения fξ(x), называется число если указанный интеграл абсолютно сходится.Если же, то говорят, что математическое ожидание не существует.Математическое ожидание имеет простой физический смысл: если на прямой разместить единичную массу, поместив в точку аi массу pi (для дискретного распределения), или «размазав» ее с плотностью fξ(x) (для абсолютно непрерывного распределения), то точка Eξ есть координата «центра тяжести» прямой.Пример 26. Пусть случайная величина ξ равна числу очков, выпадающих при одном подбрасывании кубика. Тогда в среднем при подбрасывании кубика выпадает 3.5 очка. Пример 27. Пусть случайная величина ξ — координата точки, брошенной наудачу на отрезок [a,b]. Тогдацентр тяжести равномерного распределения на отрезке есть середина отрезка.8.2 Свойства математического ожиданияВо всех свойствах предполагается, что рассматриваемые математические ожидания существуют.E0. Математическое ожидание случайной величины есть ЧИСЛО!E1. Для произвольной функции функция g : R  RДоказательство. Мы докажем это свойство (как и почти все дальнейшие) только для дискретного распределения. Пусть g(ξ) принимает значения с1 с2 … с вероятностямиТогдаE2 Математическое ожидание const равно этой const Eс = с.E3. const можно вынести за знак математического ожидания: E(с ξ) = с Eξ. Доказательство. Следует из свойства E1 при g(ξ) = с ξ .E4. Математическое ожидание суммы любых случайных величин ξ и η равно сумме их математических ожиданий.E (ξ + η ) = E (ξ )+ E (η)Доказательство. Для величин с дискретным распределением: пусть xk и yn — значения ξ и η, соответственно.E5.Если ξ  0 п.н. (« почти наверное», т.е. с вероятностью 1: P(ξ  0 ) = 1), то E ξ  0;Если ξ  0 п.н., и при этом Eξ = 0, то ξ = 0 п.н., то есть P(ξ = 0) = 1.Следствие 11.Если ξ  η п.н., то E ξ  Eη .Если ξ  η п.н., и при этом Eξ = Eη, то ξ = η п.н.E6. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.: если ξ и η независимы, тоE(ξη) = Eξ Eη.Доказательство.Замечание 16. Обратное утверждение к свойству E6 неверно: из равенства E(ξη) = Eξ Eη. Не следует независимость величин ξ и η. Пример 28. Пусть φ  U0,2π, ξ = cos φ, η = sin φ— заведомо зависимые случайные величины. Но математическое ожидание их произведения равно произведению их математических ожиданий: по свойству E18.3. Свойства дисперсииВсе свойства дисперсии следуют из соответствующих свойств математического ожидания.D1.Действительно,D2.D3. если и только если ξ= const.п.н.Доказательство. Дисперсия есть всего-навсего математическое ожидание п.н. неотрицательной с.в.: Dξ = E(ξ – Eξ)2, и неотрицательность дисперсии следует из свойства E5. По тому же свойству, Dξ = 0 если и только если E(ξ – Eξ)2 = 0 п.н., то есть ξ = ξ п.н.D4. Дисперсия не меняется от сдвига с.в. на постоянную:D5. Если ξ и η независимы, тоДействительно,так как математическое ожидание произведения независимых с.в. равно произведению их математических ожиданий. D6. Минимум среднеквадратического отклонения случайной величины ξ от точек вещественной прямой есть среднеквадратическое отклонение ξ от своего математического ожидания:Наименьший момент инерции стержня с распределенной на нем единичной массой получится, если точка вращения – центр тяжести стержня, а не любая другая точка.Доказательство.причем равенство достигается только для а = Eξ.8.4 Математические ожидания и дисперсии стандартных распределенийПример 31. Распределение Бернулли Вр,Пример 32. Биномиальное распределение Вn,pВоспользуемся свойством устойчивости биномиального распределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин ξ1 ξ2 … ξn, имеющих распределение Бернулли В,p = В1,p.Тогда их сумма Sn = ξ1 + ξ2 +… + ξn имеет распределение Вn,pтак как все ξi одинаково распределены и их математическое ожидание равно pi; поскольку ξi независимы и дисперсия каждой равна pq. Пример 33. Геометрическое распределение GpПри p  (0,1)Равенство (*) появилось из-за нежелания дифференцировать сумму геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны ПоэтомуПример 34. Распределение Пуассона Пλ Показать, что , следовательноПример 35. Равномерное распределение Ua,b Пример 36. Стандартное нормальное распределение N0,1поскольку под интегралом стоит нечетная функция, и сам интеграл абсолютно сходится (за счет быстро убывающей Последнее равенство следует из того, что а интеграл по всей прямой от плотности любого распределения равен 1. ПоэтомуПример 37. Нормальное распределениеМы знаем, что еслиПоэтомуПример 38. Показательное (экспоненциальное) распределение ЕαНайдем для произвольного k  N момент порядка k.В последнем равенстве мы воспользовались гамма-функцией Эйлера:Соответственно, Пример 39. Стандартное распределение Коши С0,1 Распределение Коши. Говорят, что ξ имеет распределение Коши с параметрами α, σ2, где α  R, σ > 0, если для всех х  R.Распределение Коши имеет, например, абсцисса точки пересечения луча, посланного из точки (α, σ) под наудачу выбранным углом, с осью ОХ. Математическое ожидание для распределения Коши не существует, посколькурасходится (подинтегральная функция ведет себя на бесконечности как 1/х).Пример 40. Распределение Парето Распределение Парето. Говорят, что ξ имеет распределение Парето с параметрами х0, s, где х0 > 0, s > 0, еслиУ распределения Парето существуют только моменты порядка u < s, посколькусходится при u < s, то есть когда подинтегральная функция на бесконечности бесконечно мала по сравнению с 1/х.