\documentclass[10pt]{report} \usepackage[utf8x]{inputenc} \usepackage[frenchb]{babel} \usepackage{ucs} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{enumerate} \begin{document} \chapter{Le modèle probabiliste et variables aléatoires} \section{Espaces utilisables} \subsection{Expériences aléatoires et évènements} Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par avance son résultat, et, si répété dans des conditions identiques, elle peut donner lieu à des résultats différents. On représente le résultat de cette expérience comme un élément $\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles. Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut associer l'ensemble $\Omega$~: $$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$ $$Card(\Omega)=36$$ $\Omega$ n'est pas déduit de manière unique de l'expérience mais dépend de l'usage qui doit être fait des résultats. Si l'on convient qu'on ne retiendra de cette expérience que la somme des points affichés. Donc $$\Omega'={2,...,12}$$.\\ Un événement est une proposition logique relative au résultat de l'expérience. \paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg. \subsection{Algèbre des évènements} Soit $C$, l'ensemble des évènements à tout élément $A\in C$, $\bar{A}$~:contraire de $A$. Le complémentaire de $A$~: $$\bar{A}=C^{A}_{\Omega}$$ La classe $C$ est définie par trois axiomes~: \begin{enumerate}[(i)] \item $\forall A\in C$, $\bar{A}\in C$ \item Pour tout ensemble fini ou dénombrable\footnote{$I$ dénombrable~: il existe une application $\varphi$ bijective et $\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots, $A_n$ $\in C\cup A_i\in C$. \item $\Omega\in C$ \end{enumerate} \paragraph{Remarque~:} Les trois axiomes impliquent que~: $\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in C$. $A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$. %$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$ Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou tribu. \paragraph{Définition~:} On appelle espace probabilisable le couple $(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu. \section{Espace probabilisé} \subsection{L'axiomatique de Kolmogorov} $$A\longmapsto P(A)\in[0,1]$$ $$A\in C$$ \paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$ (loi de probabilité) une application~: $P: C\longmapsto[0,1]$ vérifiable\\ $A\longmapsto P(A)$ \begin{enumerate}[(i)] \item $P(\Omega)=1$ \item Pour tout ensemble dénombrable d'événements incompatibles $A_i$, on a~: \end{enumerate} $$P(\cup_i A_i)=\Sigma_i P(A)$$ \paragraph{Propriétés~:} \begin{enumerate}[(i)] \item $P(\emptyset)=0$, \item $P(\bar{A})=1-P(A)$, \item $P(A)\leq P(B)$ si $A\in B$, \item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$, \item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$ \end{enumerate} \subsection{Lois conditionnelles} \paragraph{Définition~:} Soit $B\in C/P(B)\neq0$. On appelle probabilité conditionelle de $A$ sachant $B$~: $$P(A/B)=\frac{P(A\cap B)}{P(B)}$$ \paragraph{Définition~:} $A$ est indépandant de $B$ si~: $P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$ \begin{enumerate}[(i)] \item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$ \item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$ \end{enumerate} \paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$, $M_3$ fabriquent des boulons de même type. \begin{itemize} \item $M_1$ sort en moyenne $0,3\%$ boulons défectueux. \item $M_2$ sort en moyenne $0,8\%$ boulons défectueux. \item $M_3$ sort en moyenne $1\%$ boulons défectueux. \end{itemize} On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de $M_2$, $150$ de $M_3$. On tire un boulon au hasard dans la caisse, il est défectueux. Quelle est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou $M_3$~?\\ $D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\ $P(M_1/D)=0,3\%$\\ $P(M_2/D)=0,8\%$\\ $P(M_3/D)=1\%$ $$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$ $$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$ $$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$ $$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$ \subsection{Variables aléatoires réelles} Le concept de variables aléatoires formalise la notion de rgandeur variant selon le résultat d'une expérience aléatoire. Considérons le lancé de deux dés parfaitement équilibrés. $$\Omega={(1,1);...;(6,6)}$$ $\Omega$ est muni de la probabilité~: $P(\omega)=\frac{1}{36}\forall\omega\in\Omega$ Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$ $$E={2,...,12}$$ Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit de dénombrer les $\omega$ qui réalisent cette valeur. Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$ Généralement~: $$P(S=s)=P({S^{-1}(s)})$$ Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que $E$ soit probabilisable c'est-à-dire muni d'une tribu $F$. \paragraph{Définition~:} Une variable est une application mesurable de $(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est un élément de $C$. Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu Borélienne notée $B$. $$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$ \subsubsection{Fonction de répartition} \paragraph{Définition~:} La fonction de répartition d'une variable aléatoire $X$ est l'application. $F$~: $\mathbb{R}\longmapsto [0,1]$ $x\longmapsto F(x)=P[X1$ $$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$ En dérivant~: $$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$ $$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$ $$V(X)=E(X^2)-E^2(X)$$ $$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p= p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$ En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~: $$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$ La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se terminer par $A$. $$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$ $$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$ Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre $p$. $$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$ $$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$ \paragraph{Exercice} Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi de Poisson $P(3)$. \begin{enumerate} \item Calculer le nombre moyen d'appels par minutes ainsi que la variance. \item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute. \item Quelle est la probabilité d'avoir au moins trois appels dans une minute. \end{enumerate} \paragraph{Exercice} Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage auquels il doit participer pour atteindre son objectif. \begin{enumerate} \item Quelle est la loi de probabilité de $X$ et donner sa fonction de répartition. \item Donner le nombre moyen de tirage nécessaires ainsi que la variance. \item Quelle est la probabilité pour qu'il gagne après $n$ tirages. \item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la probabilité pour qu'il gagne au $(n+k)$ième tirage. \end{enumerate} \end{document}