Cours copiés au premier semestre

This commit is contained in:
Némunaire 2012-01-30 15:05:18 +01:00
commit 96e4f76a9c
6 changed files with 1135 additions and 0 deletions

171
maths/exos.tex Normal file
View file

@ -0,0 +1,171 @@
\documentclass[10pt]{report}
\usepackage[utf8x]{inputenc}
\usepackage[frenchb]{babel}
\usepackage{ucs}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{eurosym}
\usepackage{enumerate}
\begin{document}
\chapter{Le modèle probabiliste et variables aléatoires}
\section{Exos}
\subsection{Exercice 1}
Un usager du métro effectue régulièrement 100 voyages par mois en 1ère
classe. On admet qu'à chaque voyage, cet usager a 1 chance sur 10 d'être
contrôlé. On suppose que cet usager fraude systématiquement en voyageant en
1ère classe avec un billet de seconde classe.
La différence entre les prix des billets de 1ère et 2e est de 1 \euro mais à
chaque contrôle, l'usager doit payer une amande $A$.
Soit $X$ le nombre de fois où l'usager est contrôlé pendant un mois.\\
\begin{enumerate}
\item La loi de X~?
\item Soit $B$ la variable aléatoire qui donne le bénéfice fait pour l'usage
pendant un mois en fraudant.\\
Calculer $E(B)$ et en déduire pour quelle condition portant sur $A$
l'usager est en moyenne gagnant.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ $\lbrace^{n=100}_{p=\frac{1}{10}}$
$$\left[^{P[X=k]=C^k_{100}(0,1)^k(0,9)^{100-k}}_{\forall k=0, 1, ..., n}\right.$$
\paragraph{Correction 2.}
$B$ variable aléatoire bénéfice.
$$B=n-X\cdot A$$
$$E(B)=E(n)-A\cdot E(X)=n-A\cdot n\cdot p=100-10\cdot A$$
$E$ est linéaire.
L'usager est gagnant si $E(B)>0\Rightarrow 100-10\cdot A>0\Rightarrow A <
10\mathrm{~euros}$
\subsection{Exercice 2}
Une fabrique produit des tubes électroniques doit en moyenne $1\%$ soit
défectueux.
On suppose que les évènements sont indépendants.
Un client achète $300$ tubes électroniques. La fabrique garanti ses tubes à
$97\%$.
Soit $X$ le nombre de tubes défectueux, parmi les tubes achetés.
\begin{enumerate}
\item Quelle est la loi de probabilité de $X$~?
\item Pour quelle loi peut-on l'approcher~?
\item Déterminer la probabilité que le client, après avoir testé ses tubes,
revienne à la fabrique pour faire marcher la garantie.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ $n=300$ et $p=0,01$
\paragraph{Correction 2.}
\subparagraph{Théorème} Loi de poisson
$$B(n,p)\longrightarrow^{Loi}_{n\mapsto+\infty}B(\lambda=n\cdot p)$$
En pratique~:
$$\left\lbrace^{n>50}_p<0,1\Longrightarrow B(n,p)\simeq P(\lambda=3)\right.$$
$$P[X=k]=C^{k}_{300}(0,01)^k(0,99)^{300-k}\simeq
e^{-3}\frac{3^k}{k!}\mathrm{~(Loi~de~poisson)}$$
\paragraph{Correction 3.}
Le nombre de tubes qui fonctionnent~: $300\times 97\%=291$
$$P[X>300-291=9]=P[X>9]=1-P[X\leq 9]\simeq
1-\sum^{9}_{k=0}e^{-3}\frac{3^k}{k!}\simeq
1-e^{-3}\sum^{9}_{k=0}\frac{3^k}{k!}$$
=> 1 chance sur 1000 pour qu'il revienne
\subsection{Exercice 3}
Lors de tests d'accès à un ordinateur central par réseau télématique, on a
constaté que $95\%$ des essais permettaient une connexion correcte.
Une entreprise doit se connecter 4 fois par jour pour la mise à jour de ses
fichiers.
Soit $X$ le nombre d'essais nécessaires pour se connecter 4 fois.
\begin{enumerate}
\item Calculer $P[X=4]$
\item Calculer la probabilité de dépasser 6 essais.
\item Calculer $E(X)$, $\sigma(X)=\sqrt{V\left(X\right)}$
\end{enumerate}
\paragraph{Correction 1.}
Soit $X$ le nombre d'essaus nécessaires pour observer l'événement $A$ $n$ fois.
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}=C^{n-1}_{x-1}p^n\cdot
p^{x-n}$$
$$q=1-p=5\%$$
$X$ suit la loi de Pascal d'ordre $n=4$
$$p=0,95\qquad P[X=4]=(0,95)^4=0,815$$
\paragraph{Correction 2.}
$$P[X>6]=1-P[X\leq 6]=1-\sum_{k=4}^6 P[X=k]$$
$$=1-(0,95)^4-C^3_4 (0,95)^4(0,05)-C^3_5 (0,95)^4(0,05)^2\simeq 0,00223$$
\paragraph{Correction 3.}
$$E(X)=\frac{n}{p}=\frac{4}{0,95}=4,21$$
$$V(X)=\frac{n\cdot q}{p^2}\Rightarrow\sigma=\frac{\sqrt{n/cdot
q}}{p}=\frac{\sqrt{4\times 0,05}}{0,95}=0,47$$
\subsection{Exercice 4}
Un médecin envisage d'installer un cavinet de traumatologie dans une station de
sports d'hiver pendant la saison de ski.
Il estime qu'un tel cabinet devient rentable à partir de 10 patients par
jour. En moyenne, dans cette station, 5~000 skieurs skient par jour et d'après
les statistiques chaque skieur a une probabilité de 0,001 d'être victime d'une
mauvaise chute. Soit $X$ le nombre d'accidents en une journée.
\begin{enumerate}
\item Quelle est la loi de $X$.
\item Calculer la probabilité que le cabinet soit rentable.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ avec $n=5000$ et $p=0,001$.
$$\left\lbrace^{n~grand}_{p<0,1}\right.\Rightarrow B(n,p)\simeq P(\lambda=5)$$
\paragraph{Correction 2.}
$$P[X\geq 10]=1-P[X\leq 9]\simeq 1-e^{-5}\sum_{k=0}^{9}\frac{5^k}{k!}\simeq 0,968$$
\section{Conseils pour révision}
Pas de Choleski
Relaxation,
Faire 2 exos sur les 3 pour avoir la moyenne
\end{document}

500
maths/proba.tex Normal file
View file

@ -0,0 +1,500 @@
\documentclass[10pt]{report}
\usepackage[utf8x]{inputenc}
\usepackage[frenchb]{babel}
\usepackage{ucs}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{enumerate}
\begin{document}
\chapter{Le modèle probabiliste et variables aléatoires}
\section{Espaces utilisables}
\subsection{Expériences aléatoires et évènements}
Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par
avance son résultat, et, si répété dans des conditions identiques,
elle peut donner lieu à des résultats différents.
On représente le résultat de cette expérience comme un élément
$\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles.
Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut
associer l'ensemble $\Omega$~:
$$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$
$$Card(\Omega)=36$$
$\Omega$ n'est pas déduit de manière unique de l'expérience mais
dépend de l'usage qui doit être fait des résultats.
Si l'on convient qu'on ne retiendra de cette expérience que la somme
des points affichés.
Donc $$\Omega'={2,...,12}$$.\\
Un événement est une proposition logique relative au résultat de
l'expérience.
\paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg.
\subsection{Algèbre des évènements}
Soit $C$, l'ensemble des évènements à tout élément $A\in C$,
$\bar{A}$~:contraire de $A$. Le complémentaire de $A$~:
$$\bar{A}=C^{A}_{\Omega}$$
La classe $C$ est définie par trois axiomes~:
\begin{enumerate}[(i)]
\item $\forall A\in C$, $\bar{A}\in C$
\item Pour tout ensemble fini ou dénombrable\footnote{$I$
dénombrable~: il existe une application $\varphi$ bijective et
$\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots,
$A_n$ $\in C\cup A_i\in C$.
\item $\Omega\in C$
\end{enumerate}
\paragraph{Remarque~:} Les trois axiomes impliquent que~:
$\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in
C$.
$A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$.
%$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$
Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou
tribu.
\paragraph{Définition~:} On appelle espace probabilisable le couple
$(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu.
\section{Espace probabilisé}
\subsection{L'axiomatique de Kolmogorov}
$$A\longmapsto P(A)\in[0,1]$$
$$A\in C$$
\paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$
(loi de probabilité) une application~:
$P: C\longmapsto[0,1]$ vérifiable\\
$A\longmapsto P(A)$
\begin{enumerate}[(i)]
\item $P(\Omega)=1$
\item Pour tout ensemble dénombrable d'événements incompatibles
$A_i$, on a~:
\end{enumerate}
$$P(\cup_i A_i)=\Sigma_i P(A)$$
\paragraph{Propriétés~:}
\begin{enumerate}[(i)]
\item $P(\emptyset)=0$,
\item $P(\bar{A})=1-P(A)$,
\item $P(A)\leq P(B)$ si $A\in B$,
\item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$,
\item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$
\end{enumerate}
\subsection{Lois conditionnelles}
\paragraph{Définition~:} Soit $B\in C/P(B)\neq0$.
On appelle probabilité conditionelle de $A$ sachant $B$~:
$$P(A/B)=\frac{P(A\cap B)}{P(B)}$$
\paragraph{Définition~:} $A$ est indépandant de $B$ si~:
$P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$
\begin{enumerate}[(i)]
\item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$
\item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot
P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$
\end{enumerate}
\paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$,
$M_3$ fabriquent des boulons de même type.
\begin{itemize}
\item $M_1$ sort en moyenne $0,3\%$ boulons défectueux.
\item $M_2$ sort en moyenne $0,8\%$ boulons défectueux.
\item $M_3$ sort en moyenne $1\%$ boulons défectueux.
\end{itemize}
On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de
$M_2$, $150$ de $M_3$.
On tire un boulon au hasard dans la caisse, il est défectueux. Quelle
est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou
$M_3$~?\\
$D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\
$P(M_1/D)=0,3\%$\\
$P(M_2/D)=0,8\%$\\
$P(M_3/D)=1\%$
$$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$
$$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$
$$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$
$$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$
\subsection{Variables aléatoires réelles}
Le concept de variables aléatoires formalise la notion de rgandeur
variant selon le résultat d'une expérience aléatoire.
Considérons le lancé de deux dés parfaitement équilibrés.
$$\Omega={(1,1);...;(6,6)}$$
$\Omega$ est muni de la probabilité~:
$P(\omega)=\frac{1}{36}\forall\omega\in\Omega$
Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$
$$E={2,...,12}$$
Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit
de dénombrer les $\omega$ qui réalisent cette valeur.
Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$
Généralement~:
$$P(S=s)=P({S^{-1}(s)})$$
Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que
$E$ soit probabilisable c'est-à-dire muni d'une tribu $F$.
\paragraph{Définition~:} Une variable est une application mesurable de
$(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est
un élément de $C$.
Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés
par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu
Borélienne notée $B$.
$$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$
\subsubsection{Fonction de répartition}
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application.
$F$~: $\mathbb{R}\longmapsto [0,1]$
$x\longmapsto F(x)=P[X<x]$
$$\lbrace^{F est croissante}_{F(-\infty)=0 et F(+\infty)=1x}$$
\paragraph{Définition~:} une loi de probabilité $P_X$ admet une
densité $f$ si pour tout intervalle $I$ de $\mathbb{R}$,
$P_X(I)=\int_{T}f(x)dx$
$$P(a<X<b)=f(x)dx=F(b)-F(a)$$
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application $$F:\mathbb{R}\longmapsto[0,1]$$
$$x\longmapsto F(x)=P(X,x)$$
\subsection{Moment d'une variable aléatoire}
\subsubsection{L'espérance mathématique}
Pour une variable discrète, on définit l'espérance~:
$$E(X)=\sum_i x_i P[X=x_i]$$
Dans le cas continue~: $E(X)=\int_\mathbb{R} x\times f(x)dx$$f(x)$
est la densité de $X$.
\paragraph{Proposition~:}
\begin{enumerate}[(i)]
\item $E(a)=a \forall a\in\mathbb{R}$
\item $E(\alpha X)=\alpha E(x) \forall\alpha\in\mathbb{R}$
\item $E(X+Y)=E(X)+E(Y)$
\end{enumerate}
\paragraph{Définition~:} Soit $X$ une variable aléatoire et $\varphi$
une fonction quelconque.
Cas discret~: $E[\varphi(X)]=\sum_i \varphi(x_i) P[X=x_i]$
Cas continue~: $E[\varphi(X)]=\int_\mathbb{R} \varphi(x) f(x)dx$
\subsubsection{La variance}
On appelle variance de $X$ notée $V(X)$ ou $\sigma$ la quantité.
$V\left(X\right)=E\left(\left(X-m\right)^2\right)$$m=E\left(X\right)$
Cas discret~: $V\left(X\right)=\sum_i\left(x_i-m\right)^2 P(X=x_i)$
Cas continue~: $V\left(X\right)=\int_\mathbb{R}\left(x-m\right)^2 f(x)dx$
$\sigma=\sqrt{V\left(X\right)}$ l'écart-type
La variance est une mesure de la dispersion de $X$ autour de la
moyenne $m=E\left(X\right)$.
\paragraph{Propriété~:}
\begin{enumerate}[(i)]
\item $V(a)=0$
\item $V(\alpha X)=\alpha^2 V(X)\forall\alpha\in\mathbb{R}$
\item $V(X+Y)=V(X)+V(Y)$ si $X$, $Y$ indépendantes.
\end{enumerate}
\subsubsection{Formule de König-Hyghans}
$$V(X)=E(X^2)-E^2(X)$$
Soient $X$ et $Y$ deux variables~:
$$V(X+Y)=E\left(X+Y\right)-E^2(X+Y)$$
$$V(X+Y)=E\left(X^2\right)+E\left(Y^2\right)+2E(X/cdot
Y)-E^2(X)-E^2(Y)-2E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+V(Y)+2E$$
On appelle covariance de $X$, $Y$~:
$$cov(X+Y)=E(X/cdot Y)-E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+2cov(X, Y)$$
Si $X$, $Y$ sont indépendantes $\Rightarrow cov(X, Y)=0$
\section{Lois de probabilité d'usage courant}
\subsection{Lois discrètes}
\subsubsection{Loi uniforme}
$$X={1, 2, ..., n}$$
$$P[X=k]=\frac{1}{n}\forall k=1, ..., n$$
$$E(X)=\sum^n_{k=1}k P[X=k]=\frac{1}{n}\sum^n_{k=1}k=\frac{n+1}{2}$$
$$V(X)=E(X^2)-E(X)$$
$$E(X^2)=\sum^n_1 k^2 P[X=k]=\frac{1}{n}\sum^n_{k=1}k^2$$
\paragraph{Rappel~:}
$$\sum^n_1 k^2=\frac{n(n+1)(2n+1)}{6}$$
$$E(X^2)=\frac{(n+1)(2n+1)}{6}$$
$$V(X)=\frac{(n+1)(2n+1)}{6}-\frac{(n+1)^2}{4}=\frac{n^2-1}{12}$$
\subsubsection{Loi de Bernoulli $B(p)$}
C\'est la loi d'une varuable aléatoire $X$ pouvant prednre que les
deux valeurs 1 ou 0 avec les probabilités $p$ et $1-p$.
$X$ est la fonction indicatrice d'un évévement $A$ de probabilité $p$
$$E(X)=\sum_0^1 k P[X=k]=p$$
$$E(X^2)=\sum_0^1 k^2 P[X=k]=p$$
$V(X)=p-p^2=p(1-p)=pq$$q=1-p$
\subsubsection{Loi binomiale $B(n, p)$}
Supposons que l'on répète $n$ fois dans des conditions identiques une
expérience aléatoire dont l'issue se traduit par l'apparition (ou la
non-apparition) d'un événement $A$ de probabilité $p$. Les résultats
de chaque expériences sont indépendants.
$X$ est le nombre de réalisations de $A$.\\
Somme indépendante de variable de Bernoulli~:
$$X=\sum^n_{i=1}$$
$$P[X=k]=C^k_n p^k(1-p)^{n-k}$$
$X_i$ suit $B(p)$
$$E(X)=\sum^n_{i=1}E(X_i)=np$$
$$V(X)=\sum^n_{i=1}V(X_i)=np(1-p)=npq$$
\subsubsection{Loi de Poisson $P(\lambda)$}
C'est la loi d'une variable aléatoire entière positive qui satisfait à
$P\left[X=x\right]=e^{i\lambda}\frac{\lambda^x}{x!}\forall x\in\mathbb{N}$
$\lambda_i$ paramètre de Poisson.\\
On obtient la loi de Poisson comme approximation de la loi binomiale
$B(n, p)$ avec $n\mapsto\infty$, $p\mapsto 0$ et $np\mapsto\lambda$
$$C^k_n p^k(1-p)^{n-k}\simeq e^{-np}\times\frac{(np)^k}{k!}\qquad\lambda=np$$
\paragraph{Théorème} Soit $X_n$ une suite de valeurs aléatoires $B(n, p)$
telles que $n\mapsto +\infty$ et $p\mapsto 0$ de manière à ce que le produit
$n\times p\mapsto \lambda$ (finie), alors $X_n$ converge en loi vers une
variuable de Posiion $P(\lambda)$.
\paragraph{Démonstration}
$$P[X_n=k]=C^n_k p^k(1-p)^{n-k}=\frac{n!}{k!(n-k!)}p^k(1-p)^{n-k}$$
$$P[X_n=k]=\frac{n(n-1)(n-1)...(n-k+1)}{k!}p^k(1-p)^n-k$$
$$P[X_n=k]=\frac{(np)^k}{k!}(1-\frac{1}{n})(1-\frac{2}{n})...
(1-\frac{k-1}{n})(1-p)^{n-k}$$
$$(1-p)^{n-k}=(1-p)^n\times (1-p)^{-k}$$
$$(1-p)^{-k}\longrightarrow_{p\rightarrow 0} 1$$
$$np\sim\lambda\Leftrightarrow\frac{\lambda}{n}$$
$$(1-p)^n\sim(1-\frac{\lambda}{n})^n$$
Rappel~: $lim_{n/mapsto +\infty}(1+\frac{x}{n})^n=e^x$
$$C_n^k p^k (1-p)^{n-k}\longrightarrow_{n\mapsto +\infty; p\rightarrow 0}
\frac{\lambda^k}{k!}e^{-k+}$$
\subparagraph{Espèrance}
Soit $X$ suit $P(\lambda)$~:
$$E(X)=\sum_{k=0}^{+\infty}k P[X=k]=\sum_{k=0}^{+\infty}k\cdot e^{-k}
\frac{\lambda^k}{k!}$$
$$E(X)=e^{-k}\sum^{+\infty}_{k=1}\frac{\lambda^{k}}{(k-1)!}=
e^{-\lambda}\lambda e^\lambda=\lambda$$
Rappel~: $$\sum_{k=0}^{+\infty}\frac{X^k}{k!}=e^x$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum_{k=0}^{+\infty}k^2e^{-\lambda}\frac{\lambda^k}{k!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}k\cdot\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}(k-1+1)\frac{\lambda^k}{(k-1)!}=
e^{-\lambda}\sum_{k=2}\frac{\lambda^2}{(k-2)!}+
e^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\lambda^2e^2+e^{-k}\lambda e^k=\lambda^2+\lambda$$
$$V(X)=\lambda^2+\lambda-\lambda^2=\lambda$$
\subsubsection{Loi hypergéométrique $H(N, n, p)$}
Soit une population de $N$ individus parmis lesquelles, une proportion $p$
($n\cdot p$ individus) possèdent un certain caractère.
On prélève un échantillon de $n$ individus parmis cette population (tirage sans
remise).
Soit $X$ la variable aléatoire~: le nombre d'individus de l'échantillon
possédant la propriété. On dit que $X$ suit la loi hypergéométrique.
La probabilité de $X$~: $P[X=x]=\frac{C^{x}_{N\cdot p}\cdot
C^{n-x}_{N-N\cdot p}}{C^n_N}$
\paragraph{Remarque} $H(N, n, p)\rightarrow B(n, p)$ quand $N\rightarrow
+\infty$ (loi binomiale).
En pratique, ce résultat est vrai lorsque $\frac{n}{N}<10\%$ ($\frac{n}{N}$ est
le taux de sondage).
$$E(X)=n\cdot p$$
$$V(X)=\left(\frac{N-n}{N-1}\right)\cdot n\cdot p\cdot (1-p)$$
\subsubsection{Loi géométrique et loi de Pascal}
C'est la loi du nombre d'essais nécessaire pour faire apparaître un événement
$A$ de probabilité $p$.
$$P[X=x]=(1-p)^{x-1}\cdot p\qquad\forall x\geq 1$$
$$1-p=q\qquad P[X=x]=q^{x-1}\cdot p$$
$$E(X)=\sum^{+\infty}_{x=1}x(1-p)^{x-1}\cdot p=p\cdot\sum^{+\infty}_{x=1}x\cdot q^{x-1}$$
Rappel~: $\sum^{+\infty}_{k=0} q^k=\frac{1}{1-q}\qquad q>1$
$$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$
En dérivant~:
$$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$
$$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p=
p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$
En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~:
$$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$
La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour
observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se
terminer par $A$.
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$
$$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$
Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre
$p$.
$$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$
$$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$
\paragraph{Exercice}
Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi
de Poisson $P(3)$.
\begin{enumerate}
\item Calculer le nombre moyen d'appels par minutes ainsi que la variance.
\item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute.
\item Quelle est la probabilité d'avoir au moins trois appels dans une minute.
\end{enumerate}
\paragraph{Exercice}
Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang
minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage
est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage
auquels il doit participer pour atteindre son objectif.
\begin{enumerate}
\item Quelle est la loi de probabilité de $X$ et donner sa fonction de
répartition.
\item Donner le nombre moyen de tirage nécessaires ainsi que la variance.
\item Quelle est la probabilité pour qu'il gagne après $n$ tirages.
\item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la
probabilité pour qu'il gagne au $(n+k)$ième tirage.
\end{enumerate}
\end{document}