512 lines
15 KiB
TeX
512 lines
15 KiB
TeX
\documentclass[10pt]{report}
|
|
|
|
\usepackage[utf8x]{inputenc}
|
|
\usepackage[frenchb]{babel}
|
|
\usepackage{ucs}
|
|
\usepackage[pdfauthor={Nemunaire},pagebackref=true,pdftex,pdfstartview=FitV,colorlinks=true,citecolor=black,linkcolor=black,urlcolor=black]{hyperref}
|
|
\usepackage{amsmath}
|
|
\usepackage{amsfonts}
|
|
\usepackage{amssymb}
|
|
\usepackage{enumerate}
|
|
|
|
\begin{document}
|
|
|
|
\title{Probabilités}
|
|
\author{Regragui Mohammed}
|
|
\date{ING1 2014\\
|
|
\vspace{6em}
|
|
\small{Sources disponibles sur \url{http://ing1.nemunai.re/} ou \href{mailto:ing1@nemunai.re}{ing1@nemunai.re}}}
|
|
|
|
\maketitle
|
|
|
|
\tableofcontents
|
|
|
|
\chapter{Le modèle probabiliste et variables aléatoires}
|
|
|
|
\section{Espaces utilisables}
|
|
|
|
\subsection{Expériences aléatoires et évènements}
|
|
|
|
Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par
|
|
avance son résultat, et, si répété dans des conditions identiques,
|
|
elle peut donner lieu à des résultats différents.
|
|
|
|
On représente le résultat de cette expérience comme un élément
|
|
$\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles.
|
|
|
|
Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut
|
|
associer l'ensemble $\Omega$~:
|
|
|
|
$$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$
|
|
$$Card(\Omega)=36$$
|
|
|
|
$\Omega$ n'est pas déduit de manière unique de l'expérience mais
|
|
dépend de l'usage qui doit être fait des résultats.
|
|
Si l'on convient qu'on ne retiendra de cette expérience que la somme
|
|
des points affichés.
|
|
|
|
Donc $$\Omega'={2,...,12}$$.\\
|
|
|
|
Un événement est une proposition logique relative au résultat de
|
|
l'expérience.
|
|
|
|
\paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg.
|
|
|
|
|
|
\subsection{Algèbre des évènements}
|
|
|
|
Soit $C$, l'ensemble des évènements à tout élément $A\in C$,
|
|
$\bar{A}$~:contraire de $A$. Le complémentaire de $A$~:
|
|
|
|
$$\bar{A}=C^{A}_{\Omega}$$
|
|
|
|
La classe $C$ est définie par trois axiomes~:
|
|
\begin{enumerate}[(i)]
|
|
\item $\forall A\in C$, $\bar{A}\in C$
|
|
\item Pour tout ensemble fini ou dénombrable\footnote{$I$
|
|
dénombrable~: il existe une application $\varphi$ bijective et
|
|
$\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots,
|
|
$A_n$ $\in C\cup A_i\in C$.
|
|
\item $\Omega\in C$
|
|
\end{enumerate}
|
|
|
|
\paragraph{Remarque~:} Les trois axiomes impliquent que~:
|
|
$\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in
|
|
C$.
|
|
|
|
$A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$.
|
|
|
|
%$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$
|
|
|
|
Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou
|
|
tribu.
|
|
|
|
\paragraph{Définition~:} On appelle espace probabilisable le couple
|
|
$(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu.
|
|
|
|
|
|
\section{Espace probabilisé}
|
|
|
|
\subsection{L'axiomatique de Kolmogorov}
|
|
|
|
$$A\longmapsto P(A)\in[0,1]$$
|
|
|
|
$$A\in C$$
|
|
|
|
\paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$
|
|
(loi de probabilité) une application~:
|
|
|
|
$P: C\longmapsto[0,1]$ vérifiable\\
|
|
|
|
$A\longmapsto P(A)$
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $P(\Omega)=1$
|
|
\item Pour tout ensemble dénombrable d'événements incompatibles
|
|
$A_i$, on a~:
|
|
\end{enumerate}
|
|
|
|
$$P(\cup_i A_i)=\Sigma_i P(A)$$
|
|
|
|
\paragraph{Propriétés~:}
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $P(\emptyset)=0$,
|
|
\item $P(\bar{A})=1-P(A)$,
|
|
\item $P(A)\leq P(B)$ si $A\in B$,
|
|
\item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$,
|
|
\item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$
|
|
\end{enumerate}
|
|
|
|
\subsection{Lois conditionnelles}
|
|
|
|
\paragraph{Définition~:} Soit $B\in C/P(B)\neq0$.
|
|
On appelle probabilité conditionelle de $A$ sachant $B$~:
|
|
|
|
$$P(A/B)=\frac{P(A\cap B)}{P(B)}$$
|
|
|
|
|
|
\paragraph{Définition~:} $A$ est indépandant de $B$ si~:
|
|
$P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$
|
|
\item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot
|
|
P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$
|
|
\end{enumerate}
|
|
|
|
\paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$,
|
|
$M_3$ fabriquent des boulons de même type.
|
|
|
|
\begin{itemize}
|
|
\item $M_1$ sort en moyenne $0,3\%$ boulons défectueux.
|
|
\item $M_2$ sort en moyenne $0,8\%$ boulons défectueux.
|
|
\item $M_3$ sort en moyenne $1\%$ boulons défectueux.
|
|
\end{itemize}
|
|
|
|
On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de
|
|
$M_2$, $150$ de $M_3$.
|
|
|
|
On tire un boulon au hasard dans la caisse, il est défectueux. Quelle
|
|
est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou
|
|
$M_3$~?\\
|
|
|
|
$D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\
|
|
$P(M_1/D)=0,3\%$\\
|
|
$P(M_2/D)=0,8\%$\\
|
|
$P(M_3/D)=1\%$
|
|
|
|
$$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$
|
|
|
|
$$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$
|
|
|
|
$$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$
|
|
|
|
$$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$
|
|
|
|
\subsection{Variables aléatoires réelles}
|
|
|
|
Le concept de variables aléatoires formalise la notion de rgandeur
|
|
variant selon le résultat d'une expérience aléatoire.
|
|
|
|
Considérons le lancé de deux dés parfaitement équilibrés.
|
|
|
|
$$\Omega={(1,1);...;(6,6)}$$
|
|
|
|
$\Omega$ est muni de la probabilité~:
|
|
$P(\omega)=\frac{1}{36}\forall\omega\in\Omega$
|
|
|
|
Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$
|
|
|
|
$$E={2,...,12}$$
|
|
|
|
Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit
|
|
de dénombrer les $\omega$ qui réalisent cette valeur.
|
|
|
|
Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$
|
|
|
|
Généralement~:
|
|
|
|
$$P(S=s)=P({S^{-1}(s)})$$
|
|
|
|
Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que
|
|
$E$ soit probabilisable c'est-à-dire muni d'une tribu $F$.
|
|
|
|
\paragraph{Définition~:} Une variable est une application mesurable de
|
|
$(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est
|
|
un élément de $C$.
|
|
|
|
Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés
|
|
par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu
|
|
Borélienne notée $B$.
|
|
|
|
$$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$
|
|
|
|
\subsubsection{Fonction de répartition}
|
|
|
|
\paragraph{Définition~:} La fonction de répartition d'une variable
|
|
aléatoire $X$ est l'application.
|
|
|
|
$F$~: $\mathbb{R}\longmapsto [0,1]$
|
|
$x\longmapsto F(x)=P[X<x]$
|
|
|
|
$$\lbrace^{F est croissante}_{F(-\infty)=0 et F(+\infty)=1x}$$
|
|
|
|
\paragraph{Définition~:} une loi de probabilité $P_X$ admet une
|
|
densité $f$ si pour tout intervalle $I$ de $\mathbb{R}$,
|
|
$P_X(I)=\int_{T}f(x)dx$
|
|
|
|
$$P(a<X<b)=f(x)dx=F(b)-F(a)$$
|
|
|
|
\paragraph{Définition~:} La fonction de répartition d'une variable
|
|
aléatoire $X$ est l'application $$F:\mathbb{R}\longmapsto[0,1]$$
|
|
$$x\longmapsto F(x)=P(X,x)$$
|
|
|
|
\subsection{Moment d'une variable aléatoire}
|
|
|
|
\subsubsection{L'espérance mathématique}
|
|
|
|
Pour une variable discrète, on définit l'espérance~:
|
|
|
|
$$E(X)=\sum_i x_i P[X=x_i]$$
|
|
|
|
Dans le cas continue~: $E(X)=\int_\mathbb{R} x\times f(x)dx$ où $f(x)$
|
|
est la densité de $X$.
|
|
|
|
\paragraph{Proposition~:}
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $E(a)=a \forall a\in\mathbb{R}$
|
|
\item $E(\alpha X)=\alpha E(x) \forall\alpha\in\mathbb{R}$
|
|
\item $E(X+Y)=E(X)+E(Y)$
|
|
\end{enumerate}
|
|
|
|
\paragraph{Définition~:} Soit $X$ une variable aléatoire et $\varphi$
|
|
une fonction quelconque.
|
|
|
|
Cas discret~: $E[\varphi(X)]=\sum_i \varphi(x_i) P[X=x_i]$
|
|
|
|
Cas continue~: $E[\varphi(X)]=\int_\mathbb{R} \varphi(x) f(x)dx$
|
|
|
|
\subsubsection{La variance}
|
|
|
|
On appelle variance de $X$ notée $V(X)$ ou $\sigma$ la quantité.
|
|
|
|
$V\left(X\right)=E\left(\left(X-m\right)^2\right)$ où $m=E\left(X\right)$
|
|
|
|
Cas discret~: $V\left(X\right)=\sum_i\left(x_i-m\right)^2 P(X=x_i)$
|
|
|
|
Cas continue~: $V\left(X\right)=\int_\mathbb{R}\left(x-m\right)^2 f(x)dx$
|
|
|
|
$\sigma=\sqrt{V\left(X\right)}$ l'écart-type
|
|
|
|
La variance est une mesure de la dispersion de $X$ autour de la
|
|
moyenne $m=E\left(X\right)$.
|
|
|
|
\paragraph{Propriété~:}
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $V(a)=0$
|
|
\item $V(\alpha X)=\alpha^2 V(X)\forall\alpha\in\mathbb{R}$
|
|
\item $V(X+Y)=V(X)+V(Y)$ si $X$, $Y$ indépendantes.
|
|
\end{enumerate}
|
|
|
|
\subsubsection{Formule de König-Hyghans}
|
|
|
|
$$V(X)=E(X^2)-E^2(X)$$
|
|
|
|
Soient $X$ et $Y$ deux variables~:
|
|
|
|
$$V(X+Y)=E\left(X+Y\right)-E^2(X+Y)$$
|
|
|
|
$$V(X+Y)=E\left(X^2\right)+E\left(Y^2\right)+2E(X/cdot
|
|
Y)-E^2(X)-E^2(Y)-2E(X)E(Y)$$
|
|
|
|
$$V(X+Y)=V(X)+V(Y)+V(Y)+2E$$
|
|
|
|
On appelle covariance de $X$, $Y$~:
|
|
$$cov(X+Y)=E(X/cdot Y)-E(X)E(Y)$$
|
|
|
|
$$V(X+Y)=V(X)+V(Y)+2cov(X, Y)$$
|
|
|
|
Si $X$, $Y$ sont indépendantes $\Rightarrow cov(X, Y)=0$
|
|
|
|
\section{Lois de probabilité d'usage courant}
|
|
|
|
\subsection{Lois discrètes}
|
|
|
|
\subsubsection{Loi uniforme}
|
|
|
|
$$X={1, 2, ..., n}$$
|
|
|
|
$$P[X=k]=\frac{1}{n}\forall k=1, ..., n$$
|
|
|
|
$$E(X)=\sum^n_{k=1}k P[X=k]=\frac{1}{n}\sum^n_{k=1}k=\frac{n+1}{2}$$
|
|
|
|
$$V(X)=E(X^2)-E(X)$$
|
|
|
|
$$E(X^2)=\sum^n_1 k^2 P[X=k]=\frac{1}{n}\sum^n_{k=1}k^2$$
|
|
|
|
\paragraph{Rappel~:}
|
|
|
|
$$\sum^n_1 k^2=\frac{n(n+1)(2n+1)}{6}$$
|
|
|
|
$$E(X^2)=\frac{(n+1)(2n+1)}{6}$$
|
|
|
|
$$V(X)=\frac{(n+1)(2n+1)}{6}-\frac{(n+1)^2}{4}=\frac{n^2-1}{12}$$
|
|
|
|
\subsubsection{Loi de Bernoulli $B(p)$}
|
|
|
|
C\'est la loi d'une varuable aléatoire $X$ pouvant prednre que les
|
|
deux valeurs 1 ou 0 avec les probabilités $p$ et $1-p$.
|
|
|
|
$X$ est la fonction indicatrice d'un évévement $A$ de probabilité $p$
|
|
|
|
$$E(X)=\sum_0^1 k P[X=k]=p$$
|
|
|
|
$$E(X^2)=\sum_0^1 k^2 P[X=k]=p$$
|
|
|
|
$V(X)=p-p^2=p(1-p)=pq$ où $q=1-p$
|
|
|
|
\subsubsection{Loi binomiale $B(n, p)$}
|
|
|
|
Supposons que l'on répète $n$ fois dans des conditions identiques une
|
|
expérience aléatoire dont l'issue se traduit par l'apparition (ou la
|
|
non-apparition) d'un événement $A$ de probabilité $p$. Les résultats
|
|
de chaque expériences sont indépendants.
|
|
|
|
$X$ est le nombre de réalisations de $A$.\\
|
|
|
|
Somme indépendante de variable de Bernoulli~:
|
|
$$X=\sum^n_{i=1}$$
|
|
|
|
$$P[X=k]=C^k_n p^k(1-p)^{n-k}$$
|
|
|
|
$X_i$ suit $B(p)$
|
|
|
|
$$E(X)=\sum^n_{i=1}E(X_i)=np$$
|
|
|
|
$$V(X)=\sum^n_{i=1}V(X_i)=np(1-p)=npq$$
|
|
|
|
\subsubsection{Loi de Poisson $P(\lambda)$}
|
|
|
|
C'est la loi d'une variable aléatoire entière positive qui satisfait à
|
|
$P\left[X=x\right]=e^{i\lambda}\frac{\lambda^x}{x!}\forall x\in\mathbb{N}$
|
|
|
|
$\lambda_i$ paramètre de Poisson.\\
|
|
|
|
On obtient la loi de Poisson comme approximation de la loi binomiale
|
|
$B(n, p)$ avec $n\mapsto\infty$, $p\mapsto 0$ et $np\mapsto\lambda$
|
|
|
|
$$C^k_n p^k(1-p)^{n-k}\simeq e^{-np}\times\frac{(np)^k}{k!}\qquad\lambda=np$$
|
|
|
|
|
|
\paragraph{Théorème} Soit $X_n$ une suite de valeurs aléatoires $B(n, p)$
|
|
telles que $n\mapsto +\infty$ et $p\mapsto 0$ de manière à ce que le produit
|
|
$n\times p\mapsto \lambda$ (finie), alors $X_n$ converge en loi vers une
|
|
variuable de Posiion $P(\lambda)$.
|
|
|
|
\paragraph{Démonstration}
|
|
|
|
$$P[X_n=k]=C^n_k p^k(1-p)^{n-k}=\frac{n!}{k!(n-k!)}p^k(1-p)^{n-k}$$
|
|
|
|
$$P[X_n=k]=\frac{n(n-1)(n-1)...(n-k+1)}{k!}p^k(1-p)^n-k$$
|
|
|
|
$$P[X_n=k]=\frac{(np)^k}{k!}(1-\frac{1}{n})(1-\frac{2}{n})...
|
|
(1-\frac{k-1}{n})(1-p)^{n-k}$$
|
|
|
|
$$(1-p)^{n-k}=(1-p)^n\times (1-p)^{-k}$$
|
|
|
|
$$(1-p)^{-k}\longrightarrow_{p\rightarrow 0} 1$$
|
|
|
|
$$np\sim\lambda\Leftrightarrow\frac{\lambda}{n}$$
|
|
|
|
$$(1-p)^n\sim(1-\frac{\lambda}{n})^n$$
|
|
|
|
Rappel~: $lim_{n/mapsto +\infty}(1+\frac{x}{n})^n=e^x$
|
|
|
|
$$C_n^k p^k (1-p)^{n-k}\longrightarrow_{n\mapsto +\infty; p\rightarrow 0}
|
|
\frac{\lambda^k}{k!}e^{-k+}$$
|
|
|
|
\subparagraph{Espèrance}
|
|
Soit $X$ suit $P(\lambda)$~:
|
|
|
|
$$E(X)=\sum_{k=0}^{+\infty}k P[X=k]=\sum_{k=0}^{+\infty}k\cdot e^{-k}
|
|
\frac{\lambda^k}{k!}$$
|
|
|
|
$$E(X)=e^{-k}\sum^{+\infty}_{k=1}\frac{\lambda^{k}}{(k-1)!}=
|
|
e^{-\lambda}\lambda e^\lambda=\lambda$$
|
|
|
|
Rappel~: $$\sum_{k=0}^{+\infty}\frac{X^k}{k!}=e^x$$
|
|
|
|
$$V(X)=E(X^2)-E^2(X)$$
|
|
|
|
$$E(X^2)=\sum_{k=0}^{+\infty}k^2e^{-\lambda}\frac{\lambda^k}{k!}$$
|
|
|
|
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}k\cdot\frac{\lambda^k}{(k-1)!}$$
|
|
|
|
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}(k-1+1)\frac{\lambda^k}{(k-1)!}=
|
|
e^{-\lambda}\sum_{k=2}\frac{\lambda^2}{(k-2)!}+
|
|
e^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^k}{(k-1)!}$$
|
|
|
|
|
|
$$E(X^2)=e^{-\lambda}\lambda^2e^2+e^{-k}\lambda e^k=\lambda^2+\lambda$$
|
|
$$V(X)=\lambda^2+\lambda-\lambda^2=\lambda$$
|
|
|
|
\subsubsection{Loi hypergéométrique $H(N, n, p)$}
|
|
|
|
Soit une population de $N$ individus parmis lesquelles, une proportion $p$
|
|
($n\cdot p$ individus) possèdent un certain caractère.
|
|
|
|
On prélève un échantillon de $n$ individus parmis cette population (tirage sans
|
|
remise).
|
|
|
|
Soit $X$ la variable aléatoire~: le nombre d'individus de l'échantillon
|
|
possédant la propriété. On dit que $X$ suit la loi hypergéométrique.
|
|
|
|
La probabilité de $X$~: $P[X=x]=\frac{C^{x}_{N\cdot p}\cdot
|
|
C^{n-x}_{N-N\cdot p}}{C^n_N}$
|
|
|
|
\paragraph{Remarque} $H(N, n, p)\rightarrow B(n, p)$ quand $N\rightarrow
|
|
+\infty$ (loi binomiale).
|
|
|
|
En pratique, ce résultat est vrai lorsque $\frac{n}{N}<10\%$ ($\frac{n}{N}$ est
|
|
le taux de sondage).
|
|
|
|
$$E(X)=n\cdot p$$
|
|
|
|
$$V(X)=\left(\frac{N-n}{N-1}\right)\cdot n\cdot p\cdot (1-p)$$
|
|
|
|
\subsubsection{Loi géométrique et loi de Pascal}
|
|
|
|
C'est la loi du nombre d'essais nécessaire pour faire apparaître un événement
|
|
$A$ de probabilité $p$.
|
|
|
|
$$P[X=x]=(1-p)^{x-1}\cdot p\qquad\forall x\geq 1$$
|
|
|
|
$$1-p=q\qquad P[X=x]=q^{x-1}\cdot p$$
|
|
|
|
$$E(X)=\sum^{+\infty}_{x=1}x(1-p)^{x-1}\cdot p=p\cdot\sum^{+\infty}_{x=1}x\cdot q^{x-1}$$
|
|
|
|
Rappel~: $\sum^{+\infty}_{k=0} q^k=\frac{1}{1-q}\qquad q>1$
|
|
|
|
|
|
$$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$
|
|
|
|
En dérivant~:
|
|
|
|
$$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$
|
|
|
|
$$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$
|
|
|
|
$$V(X)=E(X^2)-E^2(X)$$
|
|
|
|
$$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p=
|
|
p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$
|
|
|
|
En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~:
|
|
|
|
$$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$
|
|
|
|
La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour
|
|
observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se
|
|
terminer par $A$.
|
|
|
|
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$
|
|
$$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$
|
|
|
|
Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre
|
|
$p$.
|
|
|
|
$$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$
|
|
$$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$
|
|
|
|
\paragraph{Exercice}
|
|
|
|
Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi
|
|
de Poisson $P(3)$.
|
|
|
|
\begin{enumerate}
|
|
\item Calculer le nombre moyen d'appels par minutes ainsi que la variance.
|
|
\item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute.
|
|
\item Quelle est la probabilité d'avoir au moins trois appels dans une minute.
|
|
\end{enumerate}
|
|
|
|
\paragraph{Exercice}
|
|
|
|
Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang
|
|
minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage
|
|
est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage
|
|
auquels il doit participer pour atteindre son objectif.
|
|
|
|
\begin{enumerate}
|
|
\item Quelle est la loi de probabilité de $X$ et donner sa fonction de
|
|
répartition.
|
|
\item Donner le nombre moyen de tirage nécessaires ainsi que la variance.
|
|
\item Quelle est la probabilité pour qu'il gagne après $n$ tirages.
|
|
\item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la
|
|
probabilité pour qu'il gagne au $(n+k)$ième tirage.
|
|
\end{enumerate}
|
|
|
|
\end{document}
|