Системы случайных величин. Зависимые и независимые случайные величины Смотреть что такое "события случайные независимые" в других словарях

24.11.2023

Любой из них, не зависит от того, какие значения приняли (или примут) остальные случайные величины.

Например, система двух игральных кубиков – совершенно понятно, что результат броска одного кубика никак не влияет на вероятности выпадения граней другого кубика. Или одинаковые независимо работающие игровые автоматы. И, наверное, у некоторых сложилось впечатление, что независимы вообще любые СВ. Однако это далеко не всегда так.

Рассмотрим одновременное сбрасывание двух кубиков-магнитов, у которых северные полюса находятся на стороне 1-очковой грани и южные – на противоположной грани в 6 очков. Будут ли независимыми аналогичные случайные величины? Да, будут. Просто снизятся вероятности выпадения «1» и «6» и увеличатся шансы других граней, т.к. в результате испытания кубики могут притянуться противоположными полюсами.

Теперь рассмотрим систему , в которой кубики сбрасываются последовательно :

– количество очков, выпавших на первом кубике;

– количество очков, выпавших на втором кубике, при условии, что он всё время сбрасывается по правую (например) сторону от 1-го кубика .

В этом случае закон распределения случайной величины зависит от того, как расположился 1-й кубик. Вторая кость может либо притянуться, либо наоборот – отскочить (если «встретились» одноимённые полюса), либо частично или полностью проигнорировать 1-й кубик.

Второй пример: предположим, что одинаковых игровых автоматов объединены в единую сеть, и – есть система случайных величин - выигрышей на соответствующих автоматах. Не знаю, законна ли эта схема, но владелец игрового зала вполне может настроить сеть следующим образом: при выпадении крупного выигрыша на каком-либо автомате, автоматически меняются законы распределения выигрышей вообще на всех автоматах. В частности, целесообразно на некоторое время обнулить вероятности крупных выигрышей, чтобы заведение не столкнулось с нехваткой средств (в том случае, если вдруг кто-то выиграет по-крупному ещё раз). Таким образом, рассмотренная система будет зависима.

В качестве демонстрационного примера рассмотрим колоду из 8 карт, пусть это будут короли и дамы, и простую игру, в которой два игрока последовательно (не важно, в каком порядке) извлекают из колоды по одной карте. Рассмотрим случайную величину , которая символизирует одного игрока и принимает следующие значения: 1 , если он извлёк червовую карту, и 0 – если карту другой масти.

Аналогично, пусть случайная величина символизирует другого игрока и тоже принимает значения 0 либо 1, если он извлёк не черву и черву соответственно.

– вероятность того, что оба игрока извлекут черву,

– вероятность противоположного события, и:

– вероятность того, что один извлечёт черву, а другой – нет; ну или наоборот:

Таким образом, закон распределения вероятностей зависимой системы :

Контроль: , что и требовалось проверить. …Возможно, у вас возник вопрос, а почему я рассматриваю именно 8, а не 36 карт? Да просто для того, чтобы дроби получились не такими громоздкими.

Теперь немного проанализируем результаты. Если просуммировать вероятности по строкам : , то получится в точности закон распределения случайной величины :

Легко понять, что это распределение соответствует ситуации, когда «иксовый» игрок тянет карту один, без «игрекового» товарища, и его математическое ожидание:
– равно вероятности извлечения червы из нашей колоды.

Аналогично, если просуммировать вероятности по столбцам , то получим закон распределения одиночной игры второго игрока:

с тем же матожиданием

В силу «симметрии» правил игры, распределения получились одинаковыми, но, в общем случае, они, конечно, различны.

Помимо этого, полезно рассмотреть условные законы распределения вероятностей . Это ситуация, когда одна из случайных величин уже приняла какое-то конкретное значение, или же мы предполагаем это гипотетически.

Пусть «игрековый» игрок тянет карту первым и извлёкает не черву . Вероятность этого события составляет (суммируем вероятности по первому столбцу таблицы – см. вверху ). Тогда, из той же теоремы умножения вероятностей зависимых событий получаем следующие условные вероятности:
– вероятность того, что «иксовый» игрок вытянет не черву при условии, что «игрековый» вытянул не черву;
– вероятность того, что «иксовый» игрок вытянет черву, при условии, что «игрековый» вытянул не черву.

…все помнят, как избавляться от четырёхэтажных дробей ? И да, формальное, но очень удобное техническое правило вычисления этих вероятностей : сначала следует просуммировать все вероятности по столбцу , и затем каждую вероятность разделить на полученную сумму.

Таким образом, при условный закон распределения случайной величины запишется так:

, ОК. Вычислим условное математическое ожидание:

Теперь составим закон распределения случайной величины при условии, что случайная величина приняла значение , т.е. «игрековый» игрок извлёк карту червовой масти. Для этого суммируем вероятности 2-го столбца таблицы (см. вверху ): и вычисляем условные вероятности:
– того, что «иксовый» игрок вытянет не черву,
– и черву.
Таким образом, искомый условный закон распределения:

Контроль: , и условное математическое ожидание:
– разумеется, оно получилось меньше, чем в предыдущем случае, так как «игрековый» игрок убавил количество черв в колоде.

«Зеркальным» способом (работая со строками таблицы ) можно составить – закон распределения случайной величины , при условии, что случайная величина приняла значение , и условное распределение , когда «иксовый» игрок извлёк черву. Легко понять, что в силу «симметрии» игры, получатся те же распределения и те же значения .

Для непрерывных случайных величин вводятся такие же понятия условных распределений и матожиданий , но если в них нет горячей надобности, то лучше продолжить изучение этого урока.

На практике в большинстве случаев вам предложат готовый закон распределения системы случайных величин:

Пример 4

Двумерная случайная величина задана своим законом распределения вероятностей:

…хотел рассмотреть таблицу побольше, но решил таки не маньячить, ведь главное разобраться в самом принципе решения.

Требуется:

1) Составить законы распределения и вычислить соответствующие математические ожидания. Сделать обоснованный вывод о зависимости или независимости случайных величин .

Это задание для самостоятельного решения! Напоминаю, что в случае независимости СВ законы должны получиться одинаковыми и совпасть с законом распределения случайной величины , и законы – совпасть с . Десятичные дроби, кто не знает или позабыл, удобно делить так: .
Свериться с образцом можно внизу страницы.

2) Вычислить коэффициент ковариации.

Сначала разберёмся в самом термине, и откуда он вообще произошёл: когда случайная величина принимает различные значения, то говорят, что она варьируется , и количественное измерение этой вариации , как вы знаете, выражается дисперсией . Используя формулу вычисления дисперсии, а также свойства матожидания и дисперсии, нетрудно установить, что:

то есть, при сложении двух случайных величин суммируются их дисперсии и добавляется дополнительное слагаемое, характеризующее совместную вариацию или коротко – ковариацию случайных величин.

Ковариация или корреляционный момент – это мера совместной вариации случайных величин.

Обозначение : или

Ковариация дискретных случайных величин определяется, сейчас буду «выражаться»:), как математическое ожидание произведения линейных отклонений этих случайных величин от соответствующих матожиданий:

Если , то случайные величины зависимы . Образно говоря, ненулевое значение говорит нам о закономерных «откликах» одной СВ на изменение другой СВ.

Ковариацию можно вычислить двумя способами, я рассмотрю оба.

Способ первый . По определению математического ожидания :

«Страшная» формула и совсем не страшные вычисления. Сначала составим законы распределения случайных величин и – для этого суммируем вероятности по строкам («иксовая» величина) и по столбцам («игрековая» величина) :

Взгляните на исходную верхнюю таблицу – всем понятно, как получились распределения? Вычислим матожидания :
и отклонения значений случайных величин от соответствующих математических ожиданий:

Полученные отклонения удобно поместить в двумерную таблицу, внутрь которой затем переписать вероятности из исходной таблицы:


Теперь нужно вычислить все возможные произведения , в качестве примера я выделил: (красный цвет) и (синий цвет) . Вычисления удобно проводить в Экселе, а на чистовике расписать всё подробно. Я привык работать «по строкам» слева направо и поэтому сначала перечислю все возможные произведения с «иксовым» отклонением -1,6, затем – с отклонением 0,4:

Способ второй , более простой и распространённый. По формуле:

Матожидание произведения СВ определяется как и технически всё очень просто: берём исходную таблицу задачи и находим все возможные произведения на соответствующие вероятности ; на рисунке ниже я выделил красным цветом произведение и синим произведение :


Сначала перечислю все произведения со значением , затем – со значением , но вы, разумеется, можете использовать и другой порядок перебора – кому как удобнее:

Значения уже вычислены (см. 1-й способ), и осталось применить формулу:

Как отмечалось выше, ненулевое значение ковариации говорит нам о зависимости случайных величин, причём, чем оно больше по модулю , тем эта зависимость ближе к функциональной линейной зависимости . Ибо определяется через линейные отклонения.

Таким образом, определение можно сформулировать точнее:

Ковариация – это мера линейной зависимости случайных величин.

С нулевым значением всё занятнее. Если установлено, что , то случайные величины могут оказаться как независимыми, так и зависимыми (т.к. зависимость может носить не только линейный характер). Таким образом, этот факт в общем случае нельзя использовать для обоснования независимости СВ !

Однако, если известно, что независимы, то . В этом легко убедиться аналитически: так как для независимых случайных величин справедливо свойство (см. предыдущий урок) , то по формуле вычисления ковариации:

Какие значения может принимать этот коэффициент? Коэффициент ковариации принимает значения, не превосходящие по модулю – и чем больше , тем сильнее выражена линейная зависимость. И всё вроде бы хорошо, но есть существенное неудобство такой меры:

Предположим, мы исследуем двумерную непрерывную случайную величину (готовимся морально:)), компоненты которой измеряются в сантиметрах, и получили значение . Кстати, какая размерность у ковариации? Коль скоро, – сантиметры, и – тоже сантиметры, то их произведение и матожидание этого произведения – выражается в квадратных сантиметрах, т.е. ковариация, как и дисперсия – есть квадратичная величина.

Теперь предположим, что кто-то изучил ту же систему , но использовал не сантиметры, а миллиметры. Так как 1 см = 10 мм, то ковариация увеличится в 100 раз и будет равна !

Поэтому удобно рассмотреть нормированный коэффициент ковариации, который давал бы нам одинаковое и безразмерное значение. Такой коэффициент получил название, продолжаем нашу задачу:

3) Коэффициент корреляции . Или, точнее, коэффициент линейной корреляции:

, где – стандартные отклонения случайных величин.

Коэффициент корреляции безразмерен и принимает значения из промежутка:

(если у вас на практике получилось другое – ищите ошибку) .

Чем больше по модулю к единице, тем теснее линейная взаимосвязь между величинами , и чем ближе к нулю – тем такая зависимость выражена меньше. Взаимосвязь считается существенной, начиная примерно с . Крайним значениям соответствует строгая функциональная зависимость , но на практике, конечно, «идеальных» случаев не встретить.

Очень хочется привести много интересных примеров, но корреляция более актуальна в курсе математической статистики , и поэтому я приберегу их на будущее. Ну а сейчас найдём коэффициент корреляции в нашей задаче. Так. Законы распределения уже известны, скопирую сверху:

Матожидания найдены: , и осталось вычислить стандартные отклонения. Табличкой уж оформлять не буду, быстрее подсчитать строкой:

Ковариация найдена в предыдущем пункте , и осталось рассчитать коэффициент корреляции:
, таким образом, между величинами имеет место линейная зависимость средней тесноты.

Четвёртое задание опять же более характерно для задач математической статистики , но на всякий случай рассмотрим его и здесь:

4) Составить уравнение линейной регрессии на .

Уравнение линейной регрессии – это функция , которая наилучшим образом приближает значения случайной величины . Для наилучшего приближения, как правило, используют метод наименьших квадратов , и тогда коэффициенты регрессии можно вычислить по формулам:
, вот это чудеса, и 2-й коэффициент:

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее тесной.

Понятие о независимых случайных величинах -- одно из важных понятий теории вероятностей.

Определение 1. Случайная величина Y называется независимой от случайной величины X, если закон распределения величины Y не зависит от того, какое значение приняла величина X.

Для непрерывных случайных величин условие независимости Y от X может быть записано в виде:

Напротив, в случае, если Y зависит от X, то

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина Y не зависит от X, то и величина X не зависит от Y.

Действительно, пусть Y не зависит от X , тогда

Плотность совместного распределения согласно (5.4.5) и (5.4.6) можно записать

откуда, получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Определение 2. Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и Y называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Остановимся, несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «зависимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости--полную, жесткую, так называемую функциональную зависимость. Две величины X и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости -- с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X).

Рассмотрим, например, две такие случайные величины: X -- рост наугад взятого человека, Y -- его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес.

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B, вычисленная в предположении осуществления другого события A, называется условной вероятностью события Bи обозначается P{A|B}.

Условие независимости события B от события A записывают в виде P{B|A}=P{B}, а условие его зависимости - в виде P{B|A}≠P{B}.

Вероятность события в испытаниях Бернулли. Формула Пуассона.

Повторными независимыми испытаниями, испытаниями Бернулли или схемой Бернулли называются такие испытания, если при каждом испытании имеются только два исхода - появление события А или и вероятность этих событий остается неизменной для всех испытаний. Эта простая схема случайных испытаний имеет большое значение в теории вероятностей.

Наиболее известным примером испытаний Бернулли является опыт с последовательным бросанием правильной (симметричной и однородной) монеты, где событием А является выпадение, например, "герба", ("решки").

Пусть в некотором опыте вероятность события А равна P(А)=р , тогда , где р+q=1. Выполним опыт n раз, предположив, что отдельные испытания независимы, а значит исход любых из них не связан с исходами предыдущих (или последующих) испытаний. Найдем вероятность появления событий А точно k раз, скажем только в первых k испытаниях. Пусть - событие, заключающееся в том, что при n испытаниях событие А появиться точно k раз в первых испытаниях. Событие можно представить в виде

Поскольку опыты мы предположили независимыми, то

41)[стр2] Если ставить вопрос о появлении события А k-раз в n испытаниях в произвольном порядке, то событие представимо в виде

Число различных слагаемых в правой части этого равенства равно числу испытаний из n по k , поэтому вероятность событий , которую будем обозначать , равна

Последовательность событий образует полную группу независимых событий . Действительно, из независимости событий получаем

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Понятие о независимых случайных величинах – одно их важных понятий теории вероятностей.

Случайная величина называется независимой от случайной величины , если закон распределения величины не зависит от того, какое значение приняла величина .

Для непрерывных случайных величин условие независимости от может быть записано в виде:

при любом .

Напротив, в случае, если зависит от , то

.

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина не зависит от .

Действительно, пусть не зависит от :

. (8.5.1)

Из формул (8.4.4) и (8.4.5) имеем:

откуда, принимая во внимание (8.5.1), получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины и называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины и называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

, (8.5.2)

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Условие (8.5.2) может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции можно заключить, что случайные величины , являются независимыми, а именно, если плотность распределения распадается на произведение двух функций, из которых одна зависит только от , другая - только от , то случайные величины независимы.

Пример. Плотность распределения системы имеет вид:

.

Определить, зависимы или независимы случайные величины и .

Решение. Разлагая знаменатель на множители, имеем:

.

Из того, что функция распалась на произведение двух функций, из которых одна зависима только от , а другая - только от , заключаем, что величины и должны быть независимы. Действительно, применяя формулы (8.4.2) и (8.4.3), имеем:

;

аналогично

,

откуда убеждаемся, что

и, следовательно, величины и независимы.

Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины и независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «независимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую - функциональную зависимость. Две величины и называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости - с вероятностной или «стохастической» зависимостью. Если величина связана с величиной вероятностной зависимостью, то, зная значение , нельзя указать точно значение , а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина .

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, и действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины и находятся в вероятностной зависимости, это не означает, что с изменением величины величина изменяется вполне определенным образом; это лишь означает, что с изменением величины величина имеет тенденцию также изменяться (например, возрастать или убывать при возрастании ). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступлении.

Рассмотрим, например, две такие случайные величины: - рост наугад взятого человека, - его вес. Очевидно, величины и находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом.

Упорядоченная пара (X , Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y. Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины. Дискретная двумерная случайная величина (X , Y) считается заданной, если известен ее закон распределения:

P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2...,m

Назначение сервиса . С помощью сервиса по заданному закону распределения можно найти:

  • ряды распределения X и Y, математическое ожидание M[X], M[Y], дисперсию D[X], D[Y];
  • ковариацию cov(x,y), коэффициент корреляции r x,y , условный ряд распределения X, условное математическое ожидание M;
Кроме этого, дается ответ на вопрос, "зависимы ли случайные величины X и Y ?".

Инструкция . Укажите размерность матрицы распределения вероятностей (количество строк и столбцов) и ее вид. Полученное решение сохраняется в файле Word .

Пример №1 . Двумерная дискретная случайная величина имеет таблицу распределения:

Y/X 1 2 3 4
10 0 0,11 0,12 0,03
20 0 0,13 0,09 0,02
30 0,02 0,11 0,08 0,01
40 0,03 0,11 0,05 q
Найти величину q и коэффициент корреляции этой случайной величины.

Решение. Величину q найдем из условия Σp ij = 1
Σp ij = 0,02 + 0,03 + 0,11 + … + 0,03 + 0,02 + 0,01 + q = 1
0.91+q = 1. Откуда q = 0.09

Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.

Математическое ожидание M[Y] .
M[y] = 1*0.05 + 2*0.46 + 3*0.34 + 4*0.15 = 2.59
Дисперсия D[Y] = 1 2 *0.05 + 2 2 *0.46 + 3 2 *0.34 + 4 2 *0.15 - 2.59 2 = 0.64
Среднее квадратическое отклонение σ(y) = sqrt(D[Y]) = sqrt(0.64) = 0.801

Ковариация cov(X,Y) = M - M[X]·M[Y] = 2·10·0.11 + 3·10·0.12 + 4·10·0.03 + 2·20·0.13 + 3·20·0.09 + 4·20·0.02 + 1·30·0.02 + 2·30·0.11 + 3·30·0.08 + 4·30·0.01 + 1·40·0.03 + 2·40·0.11 + 3·40·0.05 + 4·40·0.09 - 25.2 · 2.59 = -0.068
Коэффициент корреляции r xy = cov(x,y)/σ(x)&sigma(y) = -0.068/(11.531*0.801) = -0.00736

Пример 2 . Данные статистической обработки сведений относительно двух показателей X и Y отражены в корреляционной таблице. Требуется:

  1. написать ряды распределения для X и Y и вычислить для них выборочные средние и выборочные средние квадратические отклонения;
  2. написать условные ряды распределения Y/x и вычислить условные средние Y/x;
  3. изобразить графически зависимость условных средних Y/x от значений X;
  4. рассчитать выборочный коэффициент корреляции Y на X;
  5. написать выборочное уравнение прямой регрессии;
  6. изобразить геометрически данные корреляционной таблицы и построить прямую регрессии.
Решение . Упорядоченная пара (X,Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y.
Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины.
Дискретная двумерная случайная величина (X,Y) считается заданной, если известен ее закон распределения:
P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2..,m
X / Y 20 30 40 50 60
11 2 0 0 0 0
16 4 6 0 0 0
21 0 3 6 2 0
26 0 0 45 8 4
31 0 0 4 6 7
36 0 0 0 0 3
События (X=x i , Y=y j) образуют полную группу событий, поэтому сумма всех вероятностей p ij (i=1,2...,n, j=1,2..,m ), указанных в таблице, равна 1.
1. Зависимость случайных величин X и Y .
Находим ряды распределения X и Y.
Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.
X 11 16 21 26 31 36
P 2 10 11 57 17 3 ∑P i = 100
Математическое ожидание M[X] .
M[x] = (11*2 + 16*10 + 21*11 + 26*57 + 31*17 + 36*3)/100 = 25.3
Дисперсия D[X] .
D[X] = (11 2 *2 + 16 2 *10 + 21 2 *11 + 26 2 *57 + 31 2 *17 + 36 2 *3)/100 - 25.3 2 = 24.01
Среднее квадратическое отклонение σ(x) .

Пользуясь формулой ∑P(xi ,yj ) = qj (i=1..m), находим ряд распределения Y.

Y 20 30 40 50 60
P 6 9 55 16 14 ∑P i = 100
Математическое ожидание M[Y] .
M[y] = (20*6 + 30*9 + 40*55 + 50*16 + 60*14)/100 = 42.3
Дисперсия D[Y] .
D[Y] = (20 2 *6 + 30 2 *9 + 40 2 *55 + 50 2 *16 + 60 2 *14)/100 - 42.3 2 = 99.71
Среднее квадратическое отклонение σ(y) .

Поскольку, P(X=11,Y=20) = 2≠2·6, то случайные величины X и Y зависимы .
2. Условный закон распределения X .
Условный закон распределения X(Y=20) .
P(X=11/Y=20) = 2/6 = 0.33
P(X=16/Y=20) = 4/6 = 0.67
P(X=21/Y=20) = 0/6 = 0
P(X=26/Y=20) = 0/6 = 0
P(X=31/Y=20) = 0/6 = 0
P(X=36/Y=20) = 0/6 = 0
Условное математическое ожидание M = 11*0.33 + 16*0.67 + 21*0 + 26*0 + 31*0 + 36*0 = 14.33
Условная дисперсия D = 11 2 *0.33 + 16 2 *0.67 + 21 2 *0 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 14.33 2 = 5.56
Условный закон распределения X(Y=30) .
P(X=11/Y=30) = 0/9 = 0
P(X=16/Y=30) = 6/9 = 0.67
P(X=21/Y=30) = 3/9 = 0.33
P(X=26/Y=30) = 0/9 = 0
P(X=31/Y=30) = 0/9 = 0
P(X=36/Y=30) = 0/9 = 0
Условное математическое ожидание M = 11*0 + 16*0.67 + 21*0.33 + 26*0 + 31*0 + 36*0 = 17.67
Условная дисперсия D = 11 2 *0 + 16 2 *0.67 + 21 2 *0.33 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 17.67 2 = 5.56
Условный закон распределения X(Y=40) .
P(X=11/Y=40) = 0/55 = 0
P(X=16/Y=40) = 0/55 = 0
P(X=21/Y=40) = 6/55 = 0.11
P(X=26/Y=40) = 45/55 = 0.82
P(X=31/Y=40) = 4/55 = 0.0727
P(X=36/Y=40) = 0/55 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.11 + 26*0.82 + 31*0.0727 + 36*0 = 25.82
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.11 + 26 2 *0.82 + 31 2 *0.0727 + 36 2 *0 - 25.82 2 = 4.51
Условный закон распределения X(Y=50) .
P(X=11/Y=50) = 0/16 = 0
P(X=16/Y=50) = 0/16 = 0
P(X=21/Y=50) = 2/16 = 0.13
P(X=26/Y=50) = 8/16 = 0.5
P(X=31/Y=50) = 6/16 = 0.38
P(X=36/Y=50) = 0/16 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.13 + 26*0.5 + 31*0.38 + 36*0 = 27.25
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.13 + 26 2 *0.5 + 31 2 *0.38 + 36 2 *0 - 27.25 2 = 10.94
Условный закон распределения X(Y=60) .
P(X=11/Y=60) = 0/14 = 0
P(X=16/Y=60) = 0/14 = 0
P(X=21/Y=60) = 0/14 = 0
P(X=26/Y=60) = 4/14 = 0.29
P(X=31/Y=60) = 7/14 = 0.5
P(X=36/Y=60) = 3/14 = 0.21
Условное математическое ожидание M = 11*0 + 16*0 + 21*0 + 26*0.29 + 31*0.5 + 36*0.21 = 30.64
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0 + 26 2 *0.29 + 31 2 *0.5 + 36 2 *0.21 - 30.64 2 = 12.37
3. Условный закон распределения Y .
Условный закон распределения Y(X=11) .
P(Y=20/X=11) = 2/2 = 1
P(Y=30/X=11) = 0/2 = 0
P(Y=40/X=11) = 0/2 = 0
P(Y=50/X=11) = 0/2 = 0
P(Y=60/X=11) = 0/2 = 0
Условное математическое ожидание M = 20*1 + 30*0 + 40*0 + 50*0 + 60*0 = 20
Условная дисперсия D = 20 2 *1 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 20 2 = 0
Условный закон распределения Y(X=16) .
P(Y=20/X=16) = 4/10 = 0.4
P(Y=30/X=16) = 6/10 = 0.6
P(Y=40/X=16) = 0/10 = 0
P(Y=50/X=16) = 0/10 = 0
P(Y=60/X=16) = 0/10 = 0
Условное математическое ожидание M = 20*0.4 + 30*0.6 + 40*0 + 50*0 + 60*0 = 26
Условная дисперсия D = 20 2 *0.4 + 30 2 *0.6 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 26 2 = 24
Условный закон распределения Y(X=21) .
P(Y=20/X=21) = 0/11 = 0
P(Y=30/X=21) = 3/11 = 0.27
P(Y=40/X=21) = 6/11 = 0.55
P(Y=50/X=21) = 2/11 = 0.18
P(Y=60/X=21) = 0/11 = 0
Условное математическое ожидание M = 20*0 + 30*0.27 + 40*0.55 + 50*0.18 + 60*0 = 39.09
Условная дисперсия D = 20 2 *0 + 30 2 *0.27 + 40 2 *0.55 + 50 2 *0.18 + 60 2 *0 - 39.09 2 = 44.63
Условный закон распределения Y(X=26) .
P(Y=20/X=26) = 0/57 = 0
P(Y=30/X=26) = 0/57 = 0
P(Y=40/X=26) = 45/57 = 0.79
P(Y=50/X=26) = 8/57 = 0.14
P(Y=60/X=26) = 4/57 = 0.0702
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.79 + 50*0.14 + 60*0.0702 = 42.81
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.79 + 50 2 *0.14 + 60 2 *0.0702 - 42.81 2 = 34.23
Условный закон распределения Y(X=31) .
P(Y=20/X=31) = 0/17 = 0
P(Y=30/X=31) = 0/17 = 0
P(Y=40/X=31) = 4/17 = 0.24
P(Y=50/X=31) = 6/17 = 0.35
P(Y=60/X=31) = 7/17 = 0.41
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.24 + 50*0.35 + 60*0.41 = 51.76
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.24 + 50 2 *0.35 + 60 2 *0.41 - 51.76 2 = 61.59
Условный закон распределения Y(X=36) .
P(Y=20/X=36) = 0/3 = 0
P(Y=30/X=36) = 0/3 = 0
P(Y=40/X=36) = 0/3 = 0
P(Y=50/X=36) = 0/3 = 0
P(Y=60/X=36) = 3/3 = 1
Условное математическое ожидание M = 20*0 + 30*0 + 40*0 + 50*0 + 60*1 = 60
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *1 - 60 2 = 0
Ковариация .
cov(X,Y) = M - M[X]·M[Y]
cov(X,Y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 25.3 · 42.3 = 38.11
Если случайные величины независимы, то их ковариации равна нулю. В нашем случае cov(X,Y) ≠ 0.
Коэффициент корреляции .


Уравнение линейной регрессии с y на x имеет вид:

Уравнение линейной регрессии с x на y имеет вид:

Найдем необходимые числовые характеристики.
Выборочные средние:
x = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 42.3
y = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 25.3
Дисперсии:
σ 2 x = (20 2 (2 + 4) + 30 2 (6 + 3) + 40 2 (6 + 45 + 4) + 50 2 (2 + 8 + 6) + 60 2 (4 + 7 + 3))/100 - 42.3 2 = 99.71
σ 2 y = (11 2 (2) + 16 2 (4 + 6) + 21 2 (3 + 6 + 2) + 26 2 (45 + 8 + 4) + 31 2 (4 + 6 + 7) + 36 2 (3))/100 - 25.3 2 = 24.01
Откуда получаем среднеквадратические отклонения:
σ x = 9.99 и σ y = 4.9
и ковариация:
Cov(x,y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 42.3 · 25.3 = 38.11
Определим коэффициент корреляции:


Запишем уравнения линий регрессии y(x):

и вычисляя, получаем:
y x = 0.38 x + 9.14
Запишем уравнения линий регрессии x(y):

и вычисляя, получаем:
x y = 1.59 y + 2.15
Если построить точки, определяемые таблицей и линии регрессии, увидим, что обе линии проходят через точку с координатами (42.3; 25.3) и точки расположены близко к линиям регрессии.
Значимость коэффициента корреляции .

По таблице Стьюдента с уровнем значимости α=0.05 и степенями свободы k=100-m-1 = 98 находим t крит:
t крит (n-m-1;α/2) = (98;0.025) = 1.984
где m = 1 - количество объясняющих переменных.
Если t набл > t критич, то полученное значение коэффициента корреляции признается значимым (нулевая гипотеза, утверждающая равенство нулю коэффициента корреляции, отвергается).
Поскольку t набл > t крит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим.

Задание . Количество попаданий пар значений случайных величин X и Y в соответствующие интервалы приведены в таблице. По этим данным найти выборочный коэффициент корреляции и выборочные уравнения прямых линий регрессии Y на X и X на Y .
Решение

Пример . Распределение вероятностей двумерной случайной величины (X, Y) задано таблицей. Найти законы распределения составляющих величин X, Y и коэффициент корреляции p(X, Y).
Скачать решение

Задание . Двумерная дискретная величина (X, Y) задана законом распределения. Найти законы распределения составляющих X и Y, ковариацию и коэффициент корреляции.