This repository has been archived on 2021-03-01. You can view files and clone it, but cannot push or open issues or pull requests.
cours-ing1/maths/proba.tex

501 lines
14 KiB
TeX

\documentclass[10pt]{report}
\usepackage[utf8x]{inputenc}
\usepackage[frenchb]{babel}
\usepackage{ucs}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{enumerate}
\begin{document}
\chapter{Le modèle probabiliste et variables aléatoires}
\section{Espaces utilisables}
\subsection{Expériences aléatoires et évènements}
Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par
avance son résultat, et, si répété dans des conditions identiques,
elle peut donner lieu à des résultats différents.
On représente le résultat de cette expérience comme un élément
$\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles.
Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut
associer l'ensemble $\Omega$~:
$$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$
$$Card(\Omega)=36$$
$\Omega$ n'est pas déduit de manière unique de l'expérience mais
dépend de l'usage qui doit être fait des résultats.
Si l'on convient qu'on ne retiendra de cette expérience que la somme
des points affichés.
Donc $$\Omega'={2,...,12}$$.\\
Un événement est une proposition logique relative au résultat de
l'expérience.
\paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg.
\subsection{Algèbre des évènements}
Soit $C$, l'ensemble des évènements à tout élément $A\in C$,
$\bar{A}$~:contraire de $A$. Le complémentaire de $A$~:
$$\bar{A}=C^{A}_{\Omega}$$
La classe $C$ est définie par trois axiomes~:
\begin{enumerate}[(i)]
\item $\forall A\in C$, $\bar{A}\in C$
\item Pour tout ensemble fini ou dénombrable\footnote{$I$
dénombrable~: il existe une application $\varphi$ bijective et
$\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots,
$A_n$ $\in C\cup A_i\in C$.
\item $\Omega\in C$
\end{enumerate}
\paragraph{Remarque~:} Les trois axiomes impliquent que~:
$\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in
C$.
$A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$.
%$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$
Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou
tribu.
\paragraph{Définition~:} On appelle espace probabilisable le couple
$(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu.
\section{Espace probabilisé}
\subsection{L'axiomatique de Kolmogorov}
$$A\longmapsto P(A)\in[0,1]$$
$$A\in C$$
\paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$
(loi de probabilité) une application~:
$P: C\longmapsto[0,1]$ vérifiable\\
$A\longmapsto P(A)$
\begin{enumerate}[(i)]
\item $P(\Omega)=1$
\item Pour tout ensemble dénombrable d'événements incompatibles
$A_i$, on a~:
\end{enumerate}
$$P(\cup_i A_i)=\Sigma_i P(A)$$
\paragraph{Propriétés~:}
\begin{enumerate}[(i)]
\item $P(\emptyset)=0$,
\item $P(\bar{A})=1-P(A)$,
\item $P(A)\leq P(B)$ si $A\in B$,
\item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$,
\item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$
\end{enumerate}
\subsection{Lois conditionnelles}
\paragraph{Définition~:} Soit $B\in C/P(B)\neq0$.
On appelle probabilité conditionelle de $A$ sachant $B$~:
$$P(A/B)=\frac{P(A\cap B)}{P(B)}$$
\paragraph{Définition~:} $A$ est indépandant de $B$ si~:
$P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$
\begin{enumerate}[(i)]
\item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$
\item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot
P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$
\end{enumerate}
\paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$,
$M_3$ fabriquent des boulons de même type.
\begin{itemize}
\item $M_1$ sort en moyenne $0,3\%$ boulons défectueux.
\item $M_2$ sort en moyenne $0,8\%$ boulons défectueux.
\item $M_3$ sort en moyenne $1\%$ boulons défectueux.
\end{itemize}
On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de
$M_2$, $150$ de $M_3$.
On tire un boulon au hasard dans la caisse, il est défectueux. Quelle
est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou
$M_3$~?\\
$D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\
$P(M_1/D)=0,3\%$\\
$P(M_2/D)=0,8\%$\\
$P(M_3/D)=1\%$
$$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$
$$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$
$$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$
$$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$
\subsection{Variables aléatoires réelles}
Le concept de variables aléatoires formalise la notion de rgandeur
variant selon le résultat d'une expérience aléatoire.
Considérons le lancé de deux dés parfaitement équilibrés.
$$\Omega={(1,1);...;(6,6)}$$
$\Omega$ est muni de la probabilité~:
$P(\omega)=\frac{1}{36}\forall\omega\in\Omega$
Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$
$$E={2,...,12}$$
Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit
de dénombrer les $\omega$ qui réalisent cette valeur.
Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$
Généralement~:
$$P(S=s)=P({S^{-1}(s)})$$
Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que
$E$ soit probabilisable c'est-à-dire muni d'une tribu $F$.
\paragraph{Définition~:} Une variable est une application mesurable de
$(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est
un élément de $C$.
Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés
par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu
Borélienne notée $B$.
$$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$
\subsubsection{Fonction de répartition}
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application.
$F$~: $\mathbb{R}\longmapsto [0,1]$
$x\longmapsto F(x)=P[X<x]$
$$\lbrace^{F est croissante}_{F(-\infty)=0 et F(+\infty)=1x}$$
\paragraph{Définition~:} une loi de probabilité $P_X$ admet une
densité $f$ si pour tout intervalle $I$ de $\mathbb{R}$,
$P_X(I)=\int_{T}f(x)dx$
$$P(a<X<b)=f(x)dx=F(b)-F(a)$$
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application $$F:\mathbb{R}\longmapsto[0,1]$$
$$x\longmapsto F(x)=P(X,x)$$
\subsection{Moment d'une variable aléatoire}
\subsubsection{L'espérance mathématique}
Pour une variable discrète, on définit l'espérance~:
$$E(X)=\sum_i x_i P[X=x_i]$$
Dans le cas continue~: $E(X)=\int_\mathbb{R} x\times f(x)dx$$f(x)$
est la densité de $X$.
\paragraph{Proposition~:}
\begin{enumerate}[(i)]
\item $E(a)=a \forall a\in\mathbb{R}$
\item $E(\alpha X)=\alpha E(x) \forall\alpha\in\mathbb{R}$
\item $E(X+Y)=E(X)+E(Y)$
\end{enumerate}
\paragraph{Définition~:} Soit $X$ une variable aléatoire et $\varphi$
une fonction quelconque.
Cas discret~: $E[\varphi(X)]=\sum_i \varphi(x_i) P[X=x_i]$
Cas continue~: $E[\varphi(X)]=\int_\mathbb{R} \varphi(x) f(x)dx$
\subsubsection{La variance}
On appelle variance de $X$ notée $V(X)$ ou $\sigma$ la quantité.
$V\left(X\right)=E\left(\left(X-m\right)^2\right)$$m=E\left(X\right)$
Cas discret~: $V\left(X\right)=\sum_i\left(x_i-m\right)^2 P(X=x_i)$
Cas continue~: $V\left(X\right)=\int_\mathbb{R}\left(x-m\right)^2 f(x)dx$
$\sigma=\sqrt{V\left(X\right)}$ l'écart-type
La variance est une mesure de la dispersion de $X$ autour de la
moyenne $m=E\left(X\right)$.
\paragraph{Propriété~:}
\begin{enumerate}[(i)]
\item $V(a)=0$
\item $V(\alpha X)=\alpha^2 V(X)\forall\alpha\in\mathbb{R}$
\item $V(X+Y)=V(X)+V(Y)$ si $X$, $Y$ indépendantes.
\end{enumerate}
\subsubsection{Formule de König-Hyghans}
$$V(X)=E(X^2)-E^2(X)$$
Soient $X$ et $Y$ deux variables~:
$$V(X+Y)=E\left(X+Y\right)-E^2(X+Y)$$
$$V(X+Y)=E\left(X^2\right)+E\left(Y^2\right)+2E(X/cdot
Y)-E^2(X)-E^2(Y)-2E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+V(Y)+2E$$
On appelle covariance de $X$, $Y$~:
$$cov(X+Y)=E(X/cdot Y)-E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+2cov(X, Y)$$
Si $X$, $Y$ sont indépendantes $\Rightarrow cov(X, Y)=0$
\section{Lois de probabilité d'usage courant}
\subsection{Lois discrètes}
\subsubsection{Loi uniforme}
$$X={1, 2, ..., n}$$
$$P[X=k]=\frac{1}{n}\forall k=1, ..., n$$
$$E(X)=\sum^n_{k=1}k P[X=k]=\frac{1}{n}\sum^n_{k=1}k=\frac{n+1}{2}$$
$$V(X)=E(X^2)-E(X)$$
$$E(X^2)=\sum^n_1 k^2 P[X=k]=\frac{1}{n}\sum^n_{k=1}k^2$$
\paragraph{Rappel~:}
$$\sum^n_1 k^2=\frac{n(n+1)(2n+1)}{6}$$
$$E(X^2)=\frac{(n+1)(2n+1)}{6}$$
$$V(X)=\frac{(n+1)(2n+1)}{6}-\frac{(n+1)^2}{4}=\frac{n^2-1}{12}$$
\subsubsection{Loi de Bernoulli $B(p)$}
C\'est la loi d'une varuable aléatoire $X$ pouvant prednre que les
deux valeurs 1 ou 0 avec les probabilités $p$ et $1-p$.
$X$ est la fonction indicatrice d'un évévement $A$ de probabilité $p$
$$E(X)=\sum_0^1 k P[X=k]=p$$
$$E(X^2)=\sum_0^1 k^2 P[X=k]=p$$
$V(X)=p-p^2=p(1-p)=pq$$q=1-p$
\subsubsection{Loi binomiale $B(n, p)$}
Supposons que l'on répète $n$ fois dans des conditions identiques une
expérience aléatoire dont l'issue se traduit par l'apparition (ou la
non-apparition) d'un événement $A$ de probabilité $p$. Les résultats
de chaque expériences sont indépendants.
$X$ est le nombre de réalisations de $A$.\\
Somme indépendante de variable de Bernoulli~:
$$X=\sum^n_{i=1}$$
$$P[X=k]=C^k_n p^k(1-p)^{n-k}$$
$X_i$ suit $B(p)$
$$E(X)=\sum^n_{i=1}E(X_i)=np$$
$$V(X)=\sum^n_{i=1}V(X_i)=np(1-p)=npq$$
\subsubsection{Loi de Poisson $P(\lambda)$}
C'est la loi d'une variable aléatoire entière positive qui satisfait à
$P\left[X=x\right]=e^{i\lambda}\frac{\lambda^x}{x!}\forall x\in\mathbb{N}$
$\lambda_i$ paramètre de Poisson.\\
On obtient la loi de Poisson comme approximation de la loi binomiale
$B(n, p)$ avec $n\mapsto\infty$, $p\mapsto 0$ et $np\mapsto\lambda$
$$C^k_n p^k(1-p)^{n-k}\simeq e^{-np}\times\frac{(np)^k}{k!}\qquad\lambda=np$$
\paragraph{Théorème} Soit $X_n$ une suite de valeurs aléatoires $B(n, p)$
telles que $n\mapsto +\infty$ et $p\mapsto 0$ de manière à ce que le produit
$n\times p\mapsto \lambda$ (finie), alors $X_n$ converge en loi vers une
variuable de Posiion $P(\lambda)$.
\paragraph{Démonstration}
$$P[X_n=k]=C^n_k p^k(1-p)^{n-k}=\frac{n!}{k!(n-k!)}p^k(1-p)^{n-k}$$
$$P[X_n=k]=\frac{n(n-1)(n-1)...(n-k+1)}{k!}p^k(1-p)^n-k$$
$$P[X_n=k]=\frac{(np)^k}{k!}(1-\frac{1}{n})(1-\frac{2}{n})...
(1-\frac{k-1}{n})(1-p)^{n-k}$$
$$(1-p)^{n-k}=(1-p)^n\times (1-p)^{-k}$$
$$(1-p)^{-k}\longrightarrow_{p\rightarrow 0} 1$$
$$np\sim\lambda\Leftrightarrow\frac{\lambda}{n}$$
$$(1-p)^n\sim(1-\frac{\lambda}{n})^n$$
Rappel~: $lim_{n/mapsto +\infty}(1+\frac{x}{n})^n=e^x$
$$C_n^k p^k (1-p)^{n-k}\longrightarrow_{n\mapsto +\infty; p\rightarrow 0}
\frac{\lambda^k}{k!}e^{-k+}$$
\subparagraph{Espèrance}
Soit $X$ suit $P(\lambda)$~:
$$E(X)=\sum_{k=0}^{+\infty}k P[X=k]=\sum_{k=0}^{+\infty}k\cdot e^{-k}
\frac{\lambda^k}{k!}$$
$$E(X)=e^{-k}\sum^{+\infty}_{k=1}\frac{\lambda^{k}}{(k-1)!}=
e^{-\lambda}\lambda e^\lambda=\lambda$$
Rappel~: $$\sum_{k=0}^{+\infty}\frac{X^k}{k!}=e^x$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum_{k=0}^{+\infty}k^2e^{-\lambda}\frac{\lambda^k}{k!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}k\cdot\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}(k-1+1)\frac{\lambda^k}{(k-1)!}=
e^{-\lambda}\sum_{k=2}\frac{\lambda^2}{(k-2)!}+
e^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\lambda^2e^2+e^{-k}\lambda e^k=\lambda^2+\lambda$$
$$V(X)=\lambda^2+\lambda-\lambda^2=\lambda$$
\subsubsection{Loi hypergéométrique $H(N, n, p)$}
Soit une population de $N$ individus parmis lesquelles, une proportion $p$
($n\cdot p$ individus) possèdent un certain caractère.
On prélève un échantillon de $n$ individus parmis cette population (tirage sans
remise).
Soit $X$ la variable aléatoire~: le nombre d'individus de l'échantillon
possédant la propriété. On dit que $X$ suit la loi hypergéométrique.
La probabilité de $X$~: $P[X=x]=\frac{C^{x}_{N\cdot p}\cdot
C^{n-x}_{N-N\cdot p}}{C^n_N}$
\paragraph{Remarque} $H(N, n, p)\rightarrow B(n, p)$ quand $N\rightarrow
+\infty$ (loi binomiale).
En pratique, ce résultat est vrai lorsque $\frac{n}{N}<10\%$ ($\frac{n}{N}$ est
le taux de sondage).
$$E(X)=n\cdot p$$
$$V(X)=\left(\frac{N-n}{N-1}\right)\cdot n\cdot p\cdot (1-p)$$
\subsubsection{Loi géométrique et loi de Pascal}
C'est la loi du nombre d'essais nécessaire pour faire apparaître un événement
$A$ de probabilité $p$.
$$P[X=x]=(1-p)^{x-1}\cdot p\qquad\forall x\geq 1$$
$$1-p=q\qquad P[X=x]=q^{x-1}\cdot p$$
$$E(X)=\sum^{+\infty}_{x=1}x(1-p)^{x-1}\cdot p=p\cdot\sum^{+\infty}_{x=1}x\cdot q^{x-1}$$
Rappel~: $\sum^{+\infty}_{k=0} q^k=\frac{1}{1-q}\qquad q>1$
$$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$
En dérivant~:
$$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$
$$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p=
p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$
En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~:
$$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$
La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour
observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se
terminer par $A$.
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$
$$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$
Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre
$p$.
$$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$
$$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$
\paragraph{Exercice}
Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi
de Poisson $P(3)$.
\begin{enumerate}
\item Calculer le nombre moyen d'appels par minutes ainsi que la variance.
\item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute.
\item Quelle est la probabilité d'avoir au moins trois appels dans une minute.
\end{enumerate}
\paragraph{Exercice}
Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang
minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage
est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage
auquels il doit participer pour atteindre son objectif.
\begin{enumerate}
\item Quelle est la loi de probabilité de $X$ et donner sa fonction de
répartition.
\item Donner le nombre moyen de tirage nécessaires ainsi que la variance.
\item Quelle est la probabilité pour qu'il gagne après $n$ tirages.
\item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la
probabilité pour qu'il gagne au $(n+k)$ième tirage.
\end{enumerate}
\end{document}