Закон распределения суммы двух случайных величин. Композиция законов распределения

Чрезвычайно важным объектом теории вероятностей является сумма независимых случайных величин. Именно исследования распределения сумм независимых случайных величин заложили фундамент для развития аналитических методов теории вероятностей.

Распределение суммы независимых случайных величин

В данном разделе мы получим общую формулу, позволяющую вычислить функцию распределения суммы независимых случайных величин, и рассмотрим несколько примеров.

Распределение суммы двух независимых случайных величин. Формула свертки

независимые случайные величины с функциями распределения

соответственно

Тогда функцию распределения F суммы случайных величин

можно вычислить по следующей формуле (формула свертки )

Для доказательства воспользуемся теоремой Фубини.

Аналогично доказывается вторая часть формулы.

Плотность распределения суммы двух независимых случайных величин

Если распределения обеих случайных величины имеют плотности, то плотность суммы этих случайных величин можно вычислить по формуле

Если распределение случайной величины (или ) имеет плотность, то плотность суммы этих случайных величин можно вычислить по формуле

Для доказательства этих утверждений достаточно воспользоваться определением плотности.

Кратные свертки

Вычисление суммы конечного числа независимых случайных величин производится с помощью последовательного применения формулы свертки. Функция распределения суммы k независимых одинаково распределенных случайных величин с функцией распределения F

называется k –кратной сверткой функции распределения F и обозначается

Примеры вычисления распределения сумм независимых случайных величин

В этом пункте приведены примеры ситуаций, при суммировании случайных величин сохраняется вид распределения. Доказательства представляют собой упражнения на суммирование и вычисление интегралов.

Суммы независимых случайных величин. Нормальное распределение

Суммы независимых случайных величин.Биномиальное распределение

Суммы независимых случайных величин.Пуассоновское распределение

Суммы независимых случайных величин.Гамма распределение

Пуассоновский процесс

последовательность независимых одинаково распределенных случайных величин, имеющих экспоненциальное распределение с параметром



Случайная последовательность точек

на неотрицательной полуоси называется пуассоновский (точечный) процесс .

Вычислим распределение числа точек

пуассоновского процесса в интервале (0,t)

эквиваленты, поэтому

Но распределение случайной величины

является распределением Эрланга порядка k, поэтому

Таким образом распределение количества точек пуассоновского процесса в интервале (o,t) это пуассоновское распределение с параметром

Пуассоновский процесс используется для моделирования моментов наступления случайных событий – процесса радиоактивного распада, моментов поступления звонков на телефонную станцию, моментов появления клиентов в системе обслуживания, моментов отказа оборудования.

На практике часто возникает надобность находить закон распределения суммы случайных величин.

Пусть имеются система (Х ь Х 2) двух непрерывных с. в. и их сумма

Найдем плотность распределения с. в. У. В соответствии с общим решением предыдущего пункта, находим область плоскости где х+ х 2 (рис. 9.4.1):

Дифференцируя это выражение по у, получим п. р. случайной величины У= Х + Х 2:

Так как функция ф (х ь х 2) = Xj + х 2 симметрична относительно своих аргументов, то

Если с. в. Х и Х 2 независимы, то формулы (9.4.2) и (9.4.3) примут вид:


В случае, когда складываются независимые с. в. Х х и Х 2 , говорят о композиции законов распределения. Произвести композицию двух законов распределения - это значит найти закон распределения суммы двух независимых с. в., распределенных по этим законам. Для обозначения композиции законов распределения применяется символическая запись

которой по существу обозначаются формулы (9.4.4) или (9.4.5).

Пример 1. Рассматривается работа двух технических устройств (ТУ). Сначала работает ТУь после его выхода из строя (отказа) включается в работу ТУ 2 . Времена безотказной работы ТУ Ь ТУ 2 - Х х и Х 2 - независимы и распределены по показательным законам с параметрами А,1 и Х 2 . Следовательно, время Y безотказной работы ТУ, состоящего из ТУ! и ТУ 2 , будет определяться по формуле

Требуется найти п. р. случайной величины Y, т. е. композицию двух показательных законов с параметрами и Х 2 .

Решение. По формуле (9.4.4) получим (у > 0)


Если находится композиция двух показательных законов с одинаковыми параметрами (?ц = Х 2 = У), то в выражении (9.4.8) получается неопределенность типа 0/0, раскрывая которую, получим:

Сравнивая это выражение с выражением (6.4.8), убеждаемся в том, что композиция двух одинаковых показательных законов (?ц = Х 2 = X) представляет собой закон Эрланга второго порядка (9.4.9). При композиции двух показательных законов с различными параметрами Х х и А-2 получают обобщенный закон Эрланга второго порядка (9.4.8). ?

Задача 1. Закон распределения разности двух с. в. Система с. в. (Х и Х 2) имеет совместную п. р./(х ь х 2). Найти п. р. их разности У= Х - Х 2 .

Решение. Для системы с. в. (Х ь - Х 2) п. р. будет/(х ь - х 2), т. е. мы разность заменили суммой. Следовательно, п. р. случайной величины Убудет иметь вид (см. (9.4.2), (9.4.3)):

Если с. в. Х х иХ 2 независимы, то

Пример 2. Найти п. р. разности двух независимых показательно распределенных с. в. с параметрами Х х и Х 2 .

Решение. По формуле (9.4.11) получим

Рис. 9.4.2 Рис. 9.4.3

На рисунке 9.4.2 изображена п. р. g (у). Если рассматривается разность двух независимых показательно распределенных с. в. с одинаковыми параметрами (A-i = Х 2 = А,), то g (у) = /2 - уже знакомый

закон Лапласа (рис. 9.4.3). ?

Пример 3. Найти закон распределения суммы двух независимых с. в. Х и Х 2 , распределенных по закону Пуассона с параметрами а х и а 2 .

Решение. Найдем вероятность события (Х х + Х 2 = т) (т = 0, 1,



Следовательно, с. в. У= Х х + Х 2 распределена по закону Пуассона с параметром а х2) - а х + а 2 . ?

Пример 4. Найти закон распределения суммы двух независимых с. в. Х х и Х 2 , распределенных по биномиальным законам с параметрами п х ри п 2 , р соответственно.

Решение. Представим с. в. Х х в виде:

где Х 1) - индикатор события А ву"-м опыте:

Ряд распределения с. в. X,- имеет вид


Аналогичное представление сделаем и для с. в. Х 2: где Х] 2) - индикатор события А в у"-м опыте:


Следовательно,

где Х? 1)+(2) если индикатор события А:

Таким образом, мы показали, что с. в. Тесть сумма (щ + п 2) индикаторов события А , откуда следует, что с. в. ^распределена по биномиальному закону с параметрами (п х + п 2), р.

Заметим, что если вероятности р в различных сериях опытов различны, то в результате сложения двух независимых с. в., распределенных по биномиальным законам, получится с. в., распределенная не по биномиальному закону. ?

Примеры 3 и 4 легко обобщаются на произвольное число слагаемых. При композиции законов Пуассона с параметрами а ъ а 2 , ..., а т снова получается закон Пуассона с параметром а (т) = а х + а 2 + ... + а т.

При композиции биномиальных законов с параметрами (п ь р ); (я 2 , р) , (п т, р) снова получается биномиальный закон с параметрами («(«), Р), где п (т) = щ+ п 2 + ... + п т.

Мы доказали важные свойства закона Пуассона и биномиального закона: «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов одинакового типа получается закон того же типа (различаются только параметры этого закона). В подразделе 9.7 мы покажем, что таким же свойством устойчивости обладает нормальный закон.

Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X,Y) с плотностью распределения f(x,у). Рассмотрим сумму случайных величин X и Y: и найдем закон распределения величины Z. Для этого построим на плоскости хОу линию, уравнение которой (рис. 7). Это -- прямая, отсекающая на осях отрезки, равные z. Прямая делит плоскость хОу на две части; правее и выше ее; левее и ниже.

Область D в данном случае -- левая нижняя часть плоскости хОу, заштрихованная на рис. 7. Согласно формуле (16) имеем:

Дифференцируя это выражение по переменной z, входящей в верхний предел внутреннего интеграла, получим:

Это -- общая формула для плотности распределения суммы двух случайных величин.

Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

который равносилен первому и может применяться вместо него.

Пример композиции нормальных законов. Рассмотрим две независимые случайные величины X и Y, подчиненные нормальным законам:

Требуется произвести композицию этих законов, т. е. найти закон распределения величины: .

Применим общую формулу для композиции законов распределения:

Если раскрыть скобки в показателе степени подынтегральной функции и привести подобные члены, получим:

Подставляя эти выражения в уже встречавшуюся нам формулу

после преобразований получим:

а это есть не что иное, как нормальный закон с центром рассеивания

и среднеквадратическим отклонением

К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

Не раскрывая скобок и не производя преобразований в подынтегральной функции (17), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С -- в квадрате. Имея это в виду и применяя формулу (18), приходим к заключению, что g(z) есть показательная функция, показатель степени которой -- квадратный трехчлен относительно z, а плотность распределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения величины z должен быть нормальным. Чтобы найти параметры этого закона -- и -- воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий. По теореме сложения математических ожиданий. По теореме сложения дисперсий или откуда следует формула (20).

Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим: .

Таким образом, мы пришли к следующему правилу: при композиции нормальных законов получается снова нормальный закон, причем математические ожидания и дисперсии (или квадраты вероятных отклонений) суммируются.

Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

Если имеется n независимых случайных величин: подчиненных нормальным законам с центрами рассеивания и среднеквадратическими отклонениями,то величина также подчинена нормальному закону с параметрами

Вместо формулы (22) можно применять равносильную ей формулу:

Если система случайных величин (X, Y) распределена по нормальному закону, но величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r -- коэффициент корреляции величин X и Y.

При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

или в вероятных отклонениях

где -- коэффициент корреляции величин X i , X j , а суммирование распространяется на все различные попарные комбинации величин.

Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это -- так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

Устойчивость нормального закона -- одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нормального закона является то, что при композиции достаточно большого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на участках от 0 до 1. Получающийся при этом закон распределения g(z) изображен на рис. 8. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона.

Пусть имеется система двух случайных величин X и Y , совместное распределение которых известно. Ставится задача найти распределение случайной величины . В качестве примеров СВ Z можно привести прибыль с двух предприятий; число определенным образом проголосовавших избирателей с двух разных участков; сумму очков на двух игральных костях.

1.Случай двух ДСВ. Какие бы значения ни принимали дискретные СВ (в виде конечной десятичной дроби, с разным шагом), ситуацию почти всегда можно свести к следующему частному случаю. Величины X и Y могут принимать только целые значения, т.е. где . Если изначально они являлись десятичными дробями, то целыми числами их можно сделать умножением на 10 k . А отсутствующим значениям между максимумами и минимумами можно приписать нулевые вероятности. Пусть известно совместное распределение вероятностей. Тогда, если пронумеровать строки и столбцы матрицы по правилам: , то вероятность суммы:

Элементы матрицы складываются по одной из диагоналей.

2. Случай двух НСВ. Пусть известна совместная плотность распределения . Тогда плотность распределения суммы:

Если X и Y независимы, т.е. , то

Пример 1. X , Y – независимые, равномерно распределенные СВ:

Найдём плотность распределения случайной величины .

Очевидно, что ,

СВ Z может принимать значения в интервале (c+d ; a+b ), но не при всех x . За пределами этого интервала . На координатной плоскости (x , z ) областью возможных значений величины z является параллелограмм со сторонами x =с ; x =a ; z=x+d ; z=x+b . В формуле для пределами интегрирования будут c и a . Однако ввиду того, что в производится замена y=z-x , при некоторых значениях z функция . Например, если c, то при z=x+c и любом x будем иметь: . Поэтому вычисление интеграла следует осуществлять по отдельности для различных областей изменения величины z , в каждой из которых пределы интегрирования будут разными, но при всех x и z . Проделаем это для частного случая, когда а+d < b+c . Рассмотрим три различные области изменения величины z и для каждой из них найдём .

1) c+d ≤ z ≤ a+d . Тогда

2) а+d ≤ z ≤ b+c . Тогда

3) b+c ≤ z ≤ a+b . Тогда

Такое распределение называется законом Симпсона. На рис.8, 9 изображены графики плотности распределения СВ при с =0, d =0.

ТЕМА 3

понятие функции распределения

математическое ожидание и дисперсия

равномерное (прямоугольное) распределение

нормальное (гауссово) распределение

Распределение

t - распределение Стьюдента

F - распределение

распределение суммы двух случайных независимых величин

пример: распределение суммы двух независимых

равномерно распределенных величин

преобразование случайной величины

пример: распределение гармонического колебания

со случайной фазой

центральная предельная теорема

моменты случайной величины и их свойства

ЦЕЛЬ ЦИКЛА

ЛЕКЦИЙ:

СООБЩИТЬ НАЧАЛЬНЫЕ СВЕДЕНИЯ О ВАЖНЕЙШИХ ФУНКЦИЯХ РАСПРЕДЕЛЕНИЙ И ИХ СВОЙСТВАХ

ФУНКЦИИ РАСПРЕДЕЛЕНИЯ

Пусть x(k) - некоторая случайная величина. Тогда для любого фиксированного значения x случайное событие x(k) x определяется как множество всех возможных исходов k таких, что x(k) x . В терминах исходной вероястностной меры, заданной на выборочном пространстве, функция распределения P(x) определяется как вероятность, приписанная множеству точек k x(k) x . Заметим, что множество точек k , удовлетворяющих неравенству x(k) x , является подмножеством совокупности точек, которые удовлетворяют неравенству x(k) . Формально

Очевидно, что

Если область значений случайной величины непрерывна, что и предполагается в дальнейшем, то плотность вероятности (одномерная) p(x) определяется дифференциальным соотношением

(4)

Следовательно,

(6)

Для того, чтобы можно было рассматривать дискретные случаи, следует допустить наличие в составе плотности вероятности дельта - функций.

МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ

Пусть случайная величина x(k) принимает значения из области от -  до + . Среднее значение (иначе, математическое ожидание или ожидаемое значение ) x(k) вычисляется с помощью соответствующего предельного перехода в сумме произведений значений x(k) на вероятности наступления этих событий:

(8)

где E - математическое ожидание выражения в квадратных скобках по индексу k . Аналогично определяется математическое ожидание действительной однозначной непрерывной функции g (x) от случайной величины x(k)

(9)

где p(x) - плотность вероятности случайной величины x(k). В частности, взяв g(x)=x, получим средний квадрат x(k) :

(10)

Дисперсия x(k) определяется как средний квадрат разности x(k) и ее среднего значения,

т. е. в этом случае g(x)= и

По определению, стандартное отклонение случайной величины x(k), обозначаемое , есть положительное значение квадратного корня из дисперсии. Стандартное отклонение измеряется в тех же единицах, что и среднее значение.

ВАЖНЕЙШИЕ ФУНКЦИИ РАСПРЕДЕЛЕНИЯ

РАВНОМЕРНОЕ (ПРЯМОУГОЛЬНОЕ) РАСПРЕДЕЛЕНИЕ.

Допустим, что эксперимент состоит в случайном выборе точки из интервала [a,b ] , включая его конечные точки. В этом примере в качестве значения случайной величины x(k) можно взять числовое значение выбранной точки. Соответствующая функция распределения имеет вид

Поэтому плотность вероятности задается формулой

В данном примере вычисление среднего значения и дисперсии по формулам (9) и (11) дает

НОРМАЛЬНОЕ (ГАУССОВО) РАСПРЕДЕЛЕНИЕ

, - среднее арифметическое, - СКО.

Значение z, соответствующее вероятности P(z)=1-, т. е.

ХИ - КВАДРАТ РАСПРЕДЕЛЕНИЕ

Пусть - n независимых случайных величин, каждая из которых имеет нормальное распределение с нулевым средним и единичной дисперсией.

Хи- квадрат случайная величина с n степенями свободы.

плотность вероятности .

DF: 100 - процентные точки - распределения обозначаются , т. е.

среднее значение и дисперсия равны

t - РАСПРЕДЕЛЕНИЯ СТЬЮДЕНТА

y, z - независимые случайные величины; y - имеет - распределение, z - нормально распределена с нулевым средним и единичной дисперсией.

величина - имеет t - распределение Стьюдента с n степенями свободы

DF: 100 - процентная точка t - распределения обозначается

Среднее значение и дисперсия равны

F - РАСПРЕДЕЛЕНИЕ

Независимые случайные величины; имеет - распределение с степенями свободы; распределение с степенями свободы. Случайная величина:

,

F распределенная случайная величина с и степенями свободы.

,

DF: 100 - процентная точка:

Среднее и дисперсия равны:

РАСПРЕДЕЛЕНИЕ СУММЫ

ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

Пусть x(k) и y(k) – случайные величины, имеющие совместную плотность вероятности p(x,y). Найдем плотность вероятности суммы случайных величин

При фиксированном x имеем y= z– x. Поэтому

При фиксированном z значения x пробегают интервал от – до +. Поэтому

(37)

откуда видно, что для вычисления искомой плотности суммы нужно знать исходную совместную плотность вероятности. Если x(k) и y(k) – независимые случайные величины, имеющие плотности и соответственно, то и

(38)

ПРИМЕР: СУММА ДВУХ НЕЗАВИСИМЫХ, РАВНОМЕРНО РАСПРЕДЕЛЕННЫХ СЛУЧАЙНЫХ ВЕЛИЧИН.

Пусть две случайные независимые величины имеют плотности вида

В остальных случаях Найдем плотность вероятности p(z) их суммы z= x+ y.

Плотность вероятности для т. е. для Следовательно, x не превышает z . Кроме того, не равно нулю для По формуле (38) находим, что

Иллюстрация:

Плотность вероятности суммы двух независимых, равномерно распределенных случайных величин.

ПРЕОБРАЗОВАНИЕ СЛУЧАЙНОЙ

ВЕЛИЧИНЫ

Пусть x(t) - случайная величина с плотностью вероятности p(x), и пусть g(x) - однозначная действительная непрерывная функция от x . Рассмотрим сначала случай, когда обратная функция x(g) тоже является однозначной непрерывной функцией от g. Плотность вероятности p(g), соответсвующую случайной величине g(x(k)) = g(k), можно определить по плотности вероятности p(x) случайной величины x(k) и производной dg/dx в предположении, что производная существует и отлична от нуля, а именно:

(12)

Поэтому в пределе при dg/dx # 0

(13)

Используя эту формулу, следует в её правой части вместо переменной x подставить соответствующее значение g .

Рассмотрим теперь случай, когда обратная функция x(g) является действительной n -значной функцией от g , где n - целое и все n значений равновероятны. Тогда

(14)

ПРИМЕР:

РАСПРЕДЕЛЕНИЕ ГАРМОНИЧЕСКОЙ ФУНКЦИИ.

Гармоническая функция с фиксированными амплитудой X и частотой f будет случайной величиной, если её начальный фазовый угол = (k) - случайная величина. В частности, пусть t фиксировано и равно t o , и пусть гармоническая случайная величина имеет вид

Предположим, что (k) имеет равномерную плотность вероятности p() вида

Найдем плотность вероятности p(x) случайной величины x(k).

В этом примере прямая функция x() однозначно, а обратная функция (x) двузначна.