Система Orphus

Неравенство Чебышева и закон больших чисел.

Теорема. Пусть \xi=\xi(\omega)\geqslant 0 при любом \omega\in \Omega. Если M\xi существует, то при любом \varepsilon>0

P(\xi\geqslant\varepsilon)\leqslant\frac{M\xi}{\varepsilon}.

Доказательство. Проведем доказательство для случая, когда \xi задана в абсолютно непрерывном вероятностном пространстве. По определению математического ожидания имеем

M\xi=\underset{\Omega}{\int\cdots\int}\xi(u_1,\cdots,u_n)\pi(u_1,\cdots,u_n)du_1\cdots du_n.

Пусть

\Omega_{\varepsilon}=\{(u_1,\cdots,u_n):\xi(u_1,\cdots,u_n)\geqslant \varepsilon\}

Ведем случайную величину

\eta=\begin{cases}
  0,~(u_1,\cdots,u_n)\in\Omega\setminus\Omega_\varepsilon,\\
  \varepsilon,~(u_1,\cdots,u_n)\in\Omega_\varepsilon
\end{cases}

При любом (u_1,\cdots,u_n)\in\Omega имеем \xi\geqslant\eta. Умножим обе части этого неравенства на \pi(u_1,\cdots,u_n) и проинтегрируем по \Omega. Получим, что M\xi\geqslant M\eta. Отсюда следует утверждение теоремы, так как

M\eta=\varepsilon P(\Omega_\varepsilon)=\varepsilon P(\xi\geqslant \varepsilon).

Неравенство Чебышева. Если случайная величина \xi имеет дисперсию, то при любом \varepsilon > 0

P(|\xi-M\xi|\geqslant \varepsilon)\leqslant \frac{D\xi}{\varepsilon^2}

Доказательство. Случайная величина \eta=(\xi-M\xi)^2\geqslant 0 при всех \omega\in \Omega, и M\eta=M(\xi-M\xi)^2=D\xi конечно. Следовательно можно воспользоваться неравенством

P(\xi\geqslant\varepsilon)\leqslant\frac{M\xi}{\varepsilon}.

Таким образом,

P(|\xi-M\xi|\geqslant \varepsilon)=P(\eta\geqslant\varepsilon^2)\leqslant\frac{M\eta}{\varepsilon^2}=\frac{D\xi}{\varepsilon^2}

В.П.Чистяков Курс теории вероятностей.стр.107


Закон больших чисел. Для любой последовательности \xi_1,\xi_2,\ldots попарно независимых и одинаково распределенных случайных величин с конечным вторым моментом M\xi_1^2<\infty имеет место сходимость

\frac{\xi_1+\ldots+\xi_n}{n}\underset{P}{\longrightarrow}M\xi_1.

Доказательство. Обозначим через S_n=\xi_1+\ldots+\xi_n сумму первых случайных величин. Из линейности математического ожидания

M\left(\frac{S_n}{n}\right)=M\xi_1.

Пусть \varepsilon >0. Воспользуемся неравенством Чебышева:

M\left(\left|\frac{S_n}{n}-M\left(\frac{S_n}{n}\right)\right|\geqslant\varepsilon\right)\leqslant \frac{D\left(\frac{S_n}{n}\right)}{\varepsilon^2}=\frac{DS_n}{n^2\varepsilon^2}=\frac{D\xi_1+\ldots+D\xi_n}{n^2\varepsilon^2}=
=\frac{nD\xi_1}{n^2\varepsilon^2}=\frac{D\xi_1}{n\varepsilon^2}\to 0 при n\to\infty,

так как D(\xi_1)<\infty.


В.П.Чистяков Курс теории вероятностей.стр.141

[2] http://www.nsu.ru/mmf/tvims/chernova/tv/lec/node55.html


Система Orphus

Комментарии