Независимость (теория вероятностей)

Поделись знанием:
Перейти к: навигация, поиск

В теории вероятностей два случайных события называются независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют независимыми, если изменение значения одной из них не влияет на значение другой.

Независимые события

Будем считать, что дано фиксированное вероятностное пространство <math>(\Omega,\;\mathcal{F},\;\mathbb{P})</math>.

Определение 1. Два события <math>A, B\in\mathcal{F}</math> независимы, если

Вероятность появления события <math>A</math> не меняет вероятности события <math>B</math>.

Замечание 1. В том случае, если вероятность одного события, скажем <math>B</math>, ненулевая, то есть <math>\mathbb{P}(B)>0</math>, определение независимости эквивалентно:

<math>\mathbb{P}(A\mid B)=\mathbb{P}(A),</math>

то есть условная вероятность события <math>A</math> при условии <math>B</math> равна безусловной вероятности события <math>A</math>.

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий <math>\{A_{i}\}_{i\in I}\subset\mathcal{F}</math>, где <math>I</math> — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семейства независимы, то есть

<math>\mathbb{P}(A_i\cap A_j)=\mathbb{P}(A_i)\cdot\mathbb{P}(A_j),\;\forall i\ne j.</math>

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий <math>\{A_{i}\}_{i\in I}\subset\mathcal{F}</math>. Тогда эти события совместно независимы, если для любого конечного набора этих событий <math>\{A_{i_k}\}_{k=1}^N</math> верно:

<math>\mathbb{P}(A_{i_1}\cap\ldots\cap A_{i_N})=\mathbb{P}( A_{i_1})\cdot\ldots\cdot\mathbb{P}(A_{i_N}).</math>

Замечание 2. Совместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

  • <math>A_1</math>: монеты 1 и 2 упали одной и той же стороной;
  • <math>A_2</math>: монеты 2 и 3 упали одной и той же стороной;
  • <math>A_3</math>: монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события <math>A_1</math> и <math>A_2</math> произошли, мы знаем точно, что <math>A_3</math> также произошло. Более формально: <math>\mathbb{P}(A_i \cap A_j) = \frac14 = \frac12 \cdot \frac12 = \mathbb{P}(A_i) \cdot \mathbb{P}(A_j) \quad \forall i \ne j</math>. С другой стороны, <math>\mathbb{P}(A_1 \cap A_2 \cap A_3) = \frac14 \ne \frac12 \cdot \frac12 \cdot \frac12 = \mathbb{P}(A_1) \cdot \mathbb{P}(A_2) \cdot \mathbb{P}(A_3)</math>.

Независимые сигма-алгебры

Определение 4. Пусть <math>\mathcal{A}_1,\;\mathcal{A}_2\subset\mathcal{F}</math> две сигма-алгебры на одном и том же вероятностном пространстве. Они называются независимыми, если любые их представители независимы между собой, то есть:

<math>\mathbb{P}(A_1\cap A_2)=\mathbb{P}(A_1)\cdot\mathbb{P}(A_2),\;\forall A_1\in\mathcal{A}_1,\;A_2\in\mathcal{A}_2</math>.

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная независимость очевидным образом.

Независимые случайные величины

Определения

Определение 5. Пусть дано семейство случайных величин <math>(X_i)_{i\in I}</math>, так что <math>X_i\colon\Omega\to\R,\;\forall i\in I</math>. Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры <math>\{\sigma(X_i)\}_{i\in I}</math>. Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины <math>X,\;Y</math> независимы тогда и только тогда, когда:

  • Для любых <math>A,\;B\in\mathcal{B}(\R)</math>:
<math>\mathbb{P}(X\in A,\;Y\in B)=\mathbb{P}(X\in A)\cdot\mathbb{P}(Y \in B).</math>
  • Для любых борелевских функций <math>f,\;g\colon\R\to\R</math> случайные величины <math>f(X),\;g(Y)</math> независимы.
  • Для любых ограниченных борелевских функций <math>f,\;g\colon\R\to\R</math>:
<math>\mathbb{E}\left[f(X)g(Y)\right]=\mathbb{E}\left[f(X)\right]\cdot\mathbb{E}\left[g(Y)\right].</math>

Свойства независимых случайных величин

  • Пусть <math>\mathbb{P}^{X,\;Y}</math> — распределение случайного вектора <math>(X,\;Y)</math>, <math>\mathbb{P}^X</math> — распределение <math>X</math> и <math>\mathbb{P}^Y</math> — распределение <math>Y</math>. Тогда <math>X,\;Y</math> независимы тогда и только тогда, когда
<math>\mathbb{P}^{X,\;Y}=\mathbb{P}^X\otimes\mathbb{P}^Y,</math>

где <math>\otimes</math> обозначает (прямое) произведение мер.

<math>F_{X,\;Y}(x,\;y)=F_X(x)\cdot F_Y(y).</math>
  • Пусть случайные величины <math>X,\;Y</math> дискретны. Тогда они независимы тогда и только тогда, когда
<math>\mathbb{P}(X=i,\;Y=j)=\mathbb{P}(X=i)\cdot\mathbb{P}(Y=j).</math>
  • Пусть случайные величины <math>X,\;Y</math> совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность <math>f_{X,\;Y}(x,\;y)</math>. Тогда они независимы тогда и только тогда, когда
<math>f_{X,\;Y}(x,\;y)=f_X(x)\cdot f_Y(y),\;\forall(x,\;y)\in\R^2</math>,

где <math>f_X(x),\;f_Y(y)</math> — плотности случайных величин <math>X</math> и <math>Y</math> соответственно.

См. также


К:Википедия:Статьи без источников (тип: не указан)