Cours copiés au premier semestre
This commit is contained in:
commit
96e4f76a9c
143
OS/3-ordonnancement.tex
Normal file
143
OS/3-ordonnancement.tex
Normal file
@ -0,0 +1,143 @@
|
||||
\chapter{Ordonnancement des processus}
|
||||
|
||||
\section{Généralités}
|
||||
|
||||
La durée de cycle d'un processus, c'est la durée moyenne d'un cycle de
|
||||
Von-Neuman non intérompu (pour des entrées/sorties).
|
||||
|
||||
Globalement, pour un ordinateur grand public, la plus grande majorité
|
||||
des programmes se trouvent être majoritairement tributaire des
|
||||
entrées/sorties.
|
||||
|
||||
\subsection{Ordonnancement et réquisition}
|
||||
|
||||
Il existe deux familles d'ordonnanceurs : avec ou sans
|
||||
réquisitions. On parle alors de système coopératifs ou préemptifs.
|
||||
|
||||
Pour commuter, il peut se passer deux choses :
|
||||
- soit ce n'est pas un choix : le processus s'est bloqué pour une E/S
|
||||
ou s'est terminé.
|
||||
- un choix : par exemple lorsqu'un nouveau processus arrive ; passage
|
||||
des états actifs ou bloqués à l'état prêt.
|
||||
|
||||
Les ordonnanceurs sans réquisition ne passe la main à d'autres
|
||||
processus que dans le cas où un autre processus se bloque.
|
||||
Dans un système de ce type, on demande au programmeur de placer dans
|
||||
son code des yield, un appel système pour passer la main à un autre
|
||||
programme.
|
||||
|
||||
Le problème d'un système préemptif c'est la synchronisation (il ne
|
||||
faudrait pas arrêter un processus en pleine transaction réseau ou
|
||||
lors d'un appel système, ...)
|
||||
Pour une horloge à temps fixe est nécessaire pour ce genre de système.
|
||||
|
||||
\subsection{Critères d'ordonnancement}
|
||||
|
||||
Pour tous les systèmes, les grandes lignes sont~:
|
||||
\begin{itemize}
|
||||
\item \textbf{Équité~:} répartition du CPU entre processus différent
|
||||
(faut-il donner autant de CPU à tous)
|
||||
\item \textbf{Respect de politique~:} imposer les choix
|
||||
d'ordonnacement. Regarder que tous les processus respectent bien
|
||||
les règles d'ordonnancement définies.
|
||||
\item \textbf{Équilibre~:} le choix de l'ordonnanceur ne doit pas
|
||||
conduire à un trop grand nombre de périphériques inactifs.
|
||||
\end{itemize}
|
||||
|
||||
Pour un système de traitement par lot, les grandes lignes sont
|
||||
plutôt~:
|
||||
\begin{itemize}
|
||||
\item \textbf{Capacité de traitement/rendement~:} mombre de
|
||||
processus exécutés par unité de temps.
|
||||
\item \textbf{Temps de restitution/service~:} délai entre la
|
||||
soumission d'un processus et sa terminaison (mise en mémoire,
|
||||
atente en état prêt, attente E/S, exécution)
|
||||
\end{itemize}
|
||||
|
||||
Pour des processus interactifs, les grandes lignes sont~:
|
||||
\begin{itemize}
|
||||
\item \textbf{Temps de réponse~:} délai entre la soumission et le
|
||||
moment où l'oin commence à répondre.\\
|
||||
Paradoxalement, un processus plus long à s'exécuter peut être
|
||||
préféré s'il répond plus vite.
|
||||
\item \textbf{Temps d'attente~:} temps passé en état prêt.\\
|
||||
C'est évidemment du gachi pour l'utilisateur.
|
||||
\item \textbf{Proportionnalité~:} aux attentes des utilisateurs.\\
|
||||
Répondre en fonction des critères de l'utilisateur. (commande
|
||||
\texttt{nice}).
|
||||
\end{itemize}
|
||||
|
||||
Dans le cas des systèmes temps réels, les deux critères importants
|
||||
sont~: le respect des dates limites (éviter la perte de données) et la
|
||||
prédictibilité (pour la stabilité des applications multimédia).
|
||||
|
||||
\section{Algorithmes d'ordonnancement}
|
||||
|
||||
\subsection{Premier arrivé premier servi}
|
||||
|
||||
C'est le premier algorithme à avoir été implémenté, directement issue
|
||||
du traitement par lot.
|
||||
|
||||
Il s'agit d'un algorithme sans réquistion. Il est facile à comprendre
|
||||
est facile à programmer.
|
||||
Il y a une file d'attente des processus « prêt ». C'est relativement
|
||||
optimal et peut couteux~: des simples mises à jour de pointeurs pour
|
||||
la gestion de la file.
|
||||
|
||||
Il est intrinsèquement équitable pour des processus équivalent.
|
||||
|
||||
Les problèmes de cet algo sont la grande variance dans les critères
|
||||
d'ordonnancement ; mais également l'effet d'accumulation~: les petits
|
||||
processus qui font de nombreux accès aux périphériques perdent
|
||||
énormément de temps car les périphériques sont inactifs le temps qu'un
|
||||
processus long s'exécute.
|
||||
|
||||
|
||||
\subsection{Plus court d'abord}
|
||||
|
||||
Il s'agit d'un algorithme sans réquisition
|
||||
|
||||
C'est le meilleur algo pour avoir un temps d'attente moyen minimal.
|
||||
|
||||
Le problème de cet algo est que l'on est pas capable de
|
||||
l'implémenter, car on est pas capable de calculer la durée du prochain
|
||||
cycle :D
|
||||
|
||||
Cet algo n'est pas adapté pour l'ordonnancement à court terme, mais
|
||||
reste valable pour les systèmes de traitement par lots.
|
||||
Étant donné qu'il est optimal, on peut l'utiliser pour benchmarker les
|
||||
autres types d'ordonnanceurs.
|
||||
|
||||
\subsection{Ordonnancement avec priorité}
|
||||
|
||||
|
||||
\subsection{Tourniquet}
|
||||
|
||||
Concu spécialement pour le temps partagé.
|
||||
C'est un FCFS avec réquisition sur une base de quantums (20-50ms).
|
||||
Il nécesite une horloge pour permettre d'être préamptif.
|
||||
|
||||
Il y a quelques précautions à prendre~:
|
||||
- Le quantum doit être grand par rapport au temps de commutation
|
||||
- Le quantum ne doit pas être trop grand
|
||||
|
||||
\subsection{Files d'attentes multi-niveau}
|
||||
|
||||
On découpe la file d'attente des processus prêts en plusieurs files (processus système, interactifs, arrière-plan, ...)
|
||||
Il est donc possible d'utiliser un algorithme d'ordonnancement différent pour chaque file. On peut également ordonnancer les files entre-elles (priorité fixes,
|
||||
allocation de tranches de temps, ...)
|
||||
|
||||
Il est généralement utilisé conjointement avec un ordinnancement avec feedback (ou recyclage) comme algo de veillissement : il s'agit de la possibilité de
|
||||
déplacer les processus d'une file d'attente à l'autre. L'implementation est légère.
|
||||
|
||||
\subsection{Loterie}
|
||||
|
||||
OVNI dans la théorie de l'ordonnancement.
|
||||
|
||||
Chaque processus qui arrive dans la liste se voit attribuer un numéro, puis à intervalle régulier, il va choisir un processus aléatoirement.
|
||||
|
||||
Il a quelques avantages :
|
||||
- L'implémentation de priorité est légère : il suffit de lui donner deux tickets d'ordonnanceur ou plus !
|
||||
|
||||
\subsection{Ordonnancement temps-réel}
|
||||
|
63
OS/7-memoirevirtuelle.tex
Normal file
63
OS/7-memoirevirtuelle.tex
Normal file
@ -0,0 +1,63 @@
|
||||
\subsection{Algorithme de l'ensemble de travail (WS), 1970}
|
||||
|
||||
\textbf{Phénomène de localisation~:} l'ensemble des pages référencées
|
||||
dépend de \og phases\fg{} dans l'exécution.
|
||||
|
||||
\subsection{Bufferisation}
|
||||
|
||||
Maintenir un ensemble de cadres de pages libres en permanance.
|
||||
Lorsqu'un processus demande un nouveau cadre, on sélectionne une
|
||||
victime, mais on ne la supprime pas tout de suite.
|
||||
|
||||
On attend que le MMU soit inactif pour le faire.\\
|
||||
|
||||
Implémentation grâce à un \og paging daemon\fg.
|
||||
|
||||
\section{Problèmes liés à la conception}
|
||||
|
||||
\subsection{Politiques de sélection des pages}
|
||||
|
||||
Deux politiques sont possibles~:
|
||||
\begin{itemize}
|
||||
\item \textbf{Allocation globale~:} considérer toutes les pages
|
||||
actuellement en mémoire.
|
||||
\item \textbf{Allocation locale~:} lorsque l'on choisit une
|
||||
victime, on va chercher a supprimer une page du processus
|
||||
courant.
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Répartition des cadres de page}
|
||||
|
||||
\begin{itemize}
|
||||
\item \textbf{Allocation équitable~:} chaque processus a un nombre
|
||||
de cadres de pages identiques aux autres processus.
|
||||
\item \textbf{Allocation proportionnelle~:} on alloue un nombre de
|
||||
cadre de page en fonction de la taille du processus.
|
||||
\item \textbf{Allocation mixte~:} on effectue une allocation
|
||||
proportionelle, en regardant aussi la priorité du processus.
|
||||
\item \textbf{Prépagination~:} on commence a allouer les premières
|
||||
pages du processus (_start, main, ...) pour éviter le grand nombre
|
||||
de défaut de page au lancement.
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Autres}
|
||||
|
||||
\textbf{Contrôle de charge~:} gérer \og l'écroulement\fg{} (la somme
|
||||
des ensembles de travail dépasse la capacité
|
||||
mémoire). Swapping/refuser d'en faire plus...\\
|
||||
|
||||
\paragraph{Pages partagées~:} en allocation locale, on peut supprimer une
|
||||
page partagée non utilisé dans un processus donné, mais très utilisée
|
||||
par d'autres processus.
|
||||
|
||||
\paragraph{Structure des programmes~:} la manière dont on organise le
|
||||
code a une incidence sur le pagineur.
|
||||
|
||||
\paragraph{Vérouillage des E/S~:} il faut a tout prix éviter
|
||||
l'éviction d'une page qui est en attente d'une E/S. Pour cela, on
|
||||
utilise le bit verrou.\\
|
||||
On peut aussi utiliser ce bit pour vérouiller les pages d'un programme
|
||||
nouvellement chargé en mémoire.
|
||||
|
||||
\section{Problèmes liés à l'implémentation}
|
||||
|
140
OS/8-FS.tex
Normal file
140
OS/8-FS.tex
Normal file
@ -0,0 +1,140 @@
|
||||
\chapter{Systèmes de fichiers}
|
||||
|
||||
\section{Généralités}
|
||||
|
||||
\begin{itemize}
|
||||
\item Persistande des informations
|
||||
\item Partage d'informations (entre les processus, ...)
|
||||
\end{itemize}
|
||||
|
||||
La notion de fichier apporte une espace de stockage important, un
|
||||
stockage statique de l'information et une indépendance vis-à-vis des
|
||||
processus qui l'utilisent ou l'ont utilisés.
|
||||
|
||||
\subsection{Structure}
|
||||
|
||||
\begin{itemize}
|
||||
\item \textbf{Fichiers~:} unité logique de stockage d'information.
|
||||
\item \textbf{Répertoire~:} organisation logique de l'information.
|
||||
\item \textbf{Partitions~:} organisation de plus haut niveau.
|
||||
\end{itemize}
|
||||
|
||||
On a une vision logique et uniformisée de l'information. Les
|
||||
caractéristiques physiques du stockage font une abstraction des
|
||||
caractéristiques physiques.
|
||||
Les formats, type du système sont choisis par le créateur.
|
||||
|
||||
\subsection{Méthodes d'accès}
|
||||
|
||||
\subsubsection{Accès séquentiel}
|
||||
|
||||
Méthode historique, basé sur le modèle des bandes magnétiques~:
|
||||
pointeur de lecteur/écriture (offset) automatiquement incrémenté. Et
|
||||
des privitives de positionnement (seek).
|
||||
|
||||
\subsubsection{Accès direct/relatif}
|
||||
|
||||
\og Random access\fg, modèle des disques durs.\\
|
||||
|
||||
Les primitives de lecture et d'écriture sont paramétrées par un
|
||||
numéro de bloc relatif. Un fichier est vu comme un enregistrement de
|
||||
blocs de taille fixe.
|
||||
|
||||
\subsubsection{Remarques}
|
||||
|
||||
\begin{itemize}
|
||||
\item Certains systèmes fournissent plusieurs méthodes d'accès,
|
||||
comme IBM.
|
||||
\item Le mode d'accès peut faire partie du type de fichier.
|
||||
\item Il est trivial d'implémenter l'accès séquentiel à partir de
|
||||
l'accès de l'accès direct.
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Table de fichiers (ouverts)}
|
||||
|
||||
Mise en cache des descripteurs de fichiers actuellement utilisés
|
||||
|
||||
\section{Organisation des systèmes de fichiers}
|
||||
|
||||
\subsection{Macro-niveaux d'organisation}
|
||||
|
||||
\begin{itemize}
|
||||
\item \textbf{Partition~:} \og mini-disque\fg (chez IBM), \og
|
||||
volume\fg (chez Mac).\\
|
||||
Selon les systèmes, plusieurs partitions par disques, ou plusieurs
|
||||
disques par partitions.
|
||||
\item \textbf{Répertoire~:} analogue à une table des symboles.
|
||||
Contient des informations sur les fichiers sous-jacents (nom,
|
||||
emplacement, taille, type\ldots).
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Niveaux de répertoires}
|
||||
|
||||
\subsubsection{Niveau 1}
|
||||
|
||||
Structure simpliste d'une unique répertoire.
|
||||
|
||||
On a des problèmes d'unicité des noms (11 caractères pour MS-DOS et
|
||||
255 pour Unix).
|
||||
|
||||
\subsubsection{Niveau 2}
|
||||
|
||||
Un répertoire principal (\og MFD\fg) contient des répertoires
|
||||
utilisateurs (\og UFD\fg). Accès implicite à son propre UFD.
|
||||
|
||||
On voit apparaître la notion de session (login/password).
|
||||
|
||||
\subsubsection{Nommage}
|
||||
|
||||
\paragraph{MS-DOS~:} \verbatim{C:\dupont\test.exe}
|
||||
\paragraph{Unix~:} \verbatim{/var/spool/mail/dupont}
|
||||
\paragraph{VAX-VMS~:} \verbatim{u:[dir1.dir2]foo.com;1}
|
||||
|
||||
\section{Méthode d'allocation}
|
||||
|
||||
\subsection{Allocation contiguë}
|
||||
|
||||
Les fichiers sont stockés par blocs contigus sur le disque.\\
|
||||
|
||||
Le temps de positionnement des têtes est minimal. Accès direct et
|
||||
séquentiel faciles à implémenter.
|
||||
|
||||
Problèmes~: fragmentation interne s'il y a trop d'espace ; pas assez
|
||||
d'espace~: déplacement couteux des fichiers ; pas toujours possible.\\
|
||||
|
||||
Utilisé sur les CD et DVD.
|
||||
|
||||
\subsection{Allocation chaînée}
|
||||
|
||||
Chaque bloc se termine par un pointeur sur le bloc suivant.\\
|
||||
|
||||
Une entrée de répertoire contient un pointeur sur le premier bloc.
|
||||
|
||||
Pas de fragmentation externe, pas de limite de taille. Mais accès
|
||||
direct inefficasse. Au niveau de la fiabilité, la perte d'un pointeur
|
||||
est critique.
|
||||
|
||||
\subsection{File Allocation Table (FAT)}
|
||||
|
||||
Il y a une FAT au début de chaque partition. Il s'agit d'une table
|
||||
indexée par numéros de bloc. Chaque entrée pointe sur le numéro de
|
||||
bloc suivant.
|
||||
|
||||
Une entrée de répertoire contient un pointeur sur le premier bloc.
|
||||
|
||||
\subsection{Allocation indexée}
|
||||
|
||||
Chaque fichier possède un bloc d'index.
|
||||
|
||||
Une entrée de répertoire pointe sur le bloc d'index
|
||||
|
||||
La ie entrée du bloc d'index pointe sur le ue bloc de donnée du
|
||||
fichier.
|
||||
|
||||
La table des i-nodes est de taille proportionnelle au nombre de
|
||||
fichiers.
|
||||
|
||||
Par contre, la fragmentation interne est plus grande qu'avec
|
||||
l'allocation chaînée et un problème de taille des inodes.
|
||||
|
||||
\section{Performances des systèmes de fichiers}
|
171
maths/exos.tex
Normal file
171
maths/exos.tex
Normal file
@ -0,0 +1,171 @@
|
||||
\documentclass[10pt]{report}
|
||||
|
||||
\usepackage[utf8x]{inputenc}
|
||||
\usepackage[frenchb]{babel}
|
||||
\usepackage{ucs}
|
||||
\usepackage{amsmath}
|
||||
\usepackage{amsfonts}
|
||||
\usepackage{amssymb}
|
||||
\usepackage{eurosym}
|
||||
\usepackage{enumerate}
|
||||
|
||||
\begin{document}
|
||||
|
||||
\chapter{Le modèle probabiliste et variables aléatoires}
|
||||
|
||||
\section{Exos}
|
||||
|
||||
\subsection{Exercice 1}
|
||||
|
||||
Un usager du métro effectue régulièrement 100 voyages par mois en 1ère
|
||||
classe. On admet qu'à chaque voyage, cet usager a 1 chance sur 10 d'être
|
||||
contrôlé. On suppose que cet usager fraude systématiquement en voyageant en
|
||||
1ère classe avec un billet de seconde classe.
|
||||
|
||||
La différence entre les prix des billets de 1ère et 2e est de 1 \euro mais à
|
||||
chaque contrôle, l'usager doit payer une amande $A$.
|
||||
|
||||
Soit $X$ le nombre de fois où l'usager est contrôlé pendant un mois.\\
|
||||
|
||||
\begin{enumerate}
|
||||
\item La loi de X~?
|
||||
\item Soit $B$ la variable aléatoire qui donne le bénéfice fait pour l'usage
|
||||
pendant un mois en fraudant.\\
|
||||
Calculer $E(B)$ et en déduire pour quelle condition portant sur $A$
|
||||
l'usager est en moyenne gagnant.
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Correction 1.}
|
||||
$X$ suit $B(n,p)$ $\lbrace^{n=100}_{p=\frac{1}{10}}$
|
||||
|
||||
$$\left[^{P[X=k]=C^k_{100}(0,1)^k(0,9)^{100-k}}_{\forall k=0, 1, ..., n}\right.$$
|
||||
|
||||
\paragraph{Correction 2.}
|
||||
$B$ variable aléatoire bénéfice.
|
||||
|
||||
$$B=n-X\cdot A$$
|
||||
$$E(B)=E(n)-A\cdot E(X)=n-A\cdot n\cdot p=100-10\cdot A$$
|
||||
|
||||
$E$ est linéaire.
|
||||
|
||||
L'usager est gagnant si $E(B)>0\Rightarrow 100-10\cdot A>0\Rightarrow A <
|
||||
10\mathrm{~euros}$
|
||||
|
||||
|
||||
\subsection{Exercice 2}
|
||||
|
||||
Une fabrique produit des tubes électroniques doit en moyenne $1\%$ soit
|
||||
défectueux.
|
||||
|
||||
On suppose que les évènements sont indépendants.
|
||||
|
||||
Un client achète $300$ tubes électroniques. La fabrique garanti ses tubes à
|
||||
$97\%$.
|
||||
|
||||
Soit $X$ le nombre de tubes défectueux, parmi les tubes achetés.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Quelle est la loi de probabilité de $X$~?
|
||||
\item Pour quelle loi peut-on l'approcher~?
|
||||
\item Déterminer la probabilité que le client, après avoir testé ses tubes,
|
||||
revienne à la fabrique pour faire marcher la garantie.
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Correction 1.}
|
||||
$X$ suit $B(n,p)$ $n=300$ et $p=0,01$
|
||||
|
||||
\paragraph{Correction 2.}
|
||||
\subparagraph{Théorème} Loi de poisson
|
||||
$$B(n,p)\longrightarrow^{Loi}_{n\mapsto+\infty}B(\lambda=n\cdot p)$$
|
||||
|
||||
En pratique~:
|
||||
$$\left\lbrace^{n>50}_p<0,1\Longrightarrow B(n,p)\simeq P(\lambda=3)\right.$$
|
||||
|
||||
$$P[X=k]=C^{k}_{300}(0,01)^k(0,99)^{300-k}\simeq
|
||||
e^{-3}\frac{3^k}{k!}\mathrm{~(Loi~de~poisson)}$$
|
||||
|
||||
\paragraph{Correction 3.}
|
||||
|
||||
Le nombre de tubes qui fonctionnent~: $300\times 97\%=291$
|
||||
|
||||
$$P[X>300-291=9]=P[X>9]=1-P[X\leq 9]\simeq
|
||||
1-\sum^{9}_{k=0}e^{-3}\frac{3^k}{k!}\simeq
|
||||
1-e^{-3}\sum^{9}_{k=0}\frac{3^k}{k!}$$
|
||||
|
||||
=> 1 chance sur 1000 pour qu'il revienne
|
||||
|
||||
\subsection{Exercice 3}
|
||||
|
||||
Lors de tests d'accès à un ordinateur central par réseau télématique, on a
|
||||
constaté que $95\%$ des essais permettaient une connexion correcte.
|
||||
|
||||
Une entreprise doit se connecter 4 fois par jour pour la mise à jour de ses
|
||||
fichiers.
|
||||
|
||||
Soit $X$ le nombre d'essais nécessaires pour se connecter 4 fois.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Calculer $P[X=4]$
|
||||
\item Calculer la probabilité de dépasser 6 essais.
|
||||
\item Calculer $E(X)$, $\sigma(X)=\sqrt{V\left(X\right)}$
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Correction 1.}
|
||||
Soit $X$ le nombre d'essaus nécessaires pour observer l'événement $A$ $n$ fois.
|
||||
|
||||
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}=C^{n-1}_{x-1}p^n\cdot
|
||||
p^{x-n}$$
|
||||
|
||||
$$q=1-p=5\%$$
|
||||
|
||||
$X$ suit la loi de Pascal d'ordre $n=4$
|
||||
|
||||
$$p=0,95\qquad P[X=4]=(0,95)^4=0,815$$
|
||||
|
||||
\paragraph{Correction 2.}
|
||||
|
||||
$$P[X>6]=1-P[X\leq 6]=1-\sum_{k=4}^6 P[X=k]$$
|
||||
$$=1-(0,95)^4-C^3_4 (0,95)^4(0,05)-C^3_5 (0,95)^4(0,05)^2\simeq 0,00223$$
|
||||
|
||||
\paragraph{Correction 3.}
|
||||
|
||||
$$E(X)=\frac{n}{p}=\frac{4}{0,95}=4,21$$
|
||||
|
||||
$$V(X)=\frac{n\cdot q}{p^2}\Rightarrow\sigma=\frac{\sqrt{n/cdot
|
||||
q}}{p}=\frac{\sqrt{4\times 0,05}}{0,95}=0,47$$
|
||||
|
||||
|
||||
\subsection{Exercice 4}
|
||||
|
||||
Un médecin envisage d'installer un cavinet de traumatologie dans une station de
|
||||
sports d'hiver pendant la saison de ski.
|
||||
|
||||
Il estime qu'un tel cabinet devient rentable à partir de 10 patients par
|
||||
jour. En moyenne, dans cette station, 5~000 skieurs skient par jour et d'après
|
||||
les statistiques chaque skieur a une probabilité de 0,001 d'être victime d'une
|
||||
mauvaise chute. Soit $X$ le nombre d'accidents en une journée.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Quelle est la loi de $X$.
|
||||
\item Calculer la probabilité que le cabinet soit rentable.
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Correction 1.}
|
||||
|
||||
$X$ suit $B(n,p)$ avec $n=5000$ et $p=0,001$.
|
||||
|
||||
$$\left\lbrace^{n~grand}_{p<0,1}\right.\Rightarrow B(n,p)\simeq P(\lambda=5)$$
|
||||
|
||||
\paragraph{Correction 2.}
|
||||
|
||||
$$P[X\geq 10]=1-P[X\leq 9]\simeq 1-e^{-5}\sum_{k=0}^{9}\frac{5^k}{k!}\simeq 0,968$$
|
||||
|
||||
|
||||
\section{Conseils pour révision}
|
||||
|
||||
Pas de Choleski
|
||||
|
||||
Relaxation,
|
||||
|
||||
Faire 2 exos sur les 3 pour avoir la moyenne
|
||||
\end{document}
|
500
maths/proba.tex
Normal file
500
maths/proba.tex
Normal file
@ -0,0 +1,500 @@
|
||||
\documentclass[10pt]{report}
|
||||
|
||||
\usepackage[utf8x]{inputenc}
|
||||
\usepackage[frenchb]{babel}
|
||||
\usepackage{ucs}
|
||||
\usepackage{amsmath}
|
||||
\usepackage{amsfonts}
|
||||
\usepackage{amssymb}
|
||||
\usepackage{enumerate}
|
||||
|
||||
\begin{document}
|
||||
|
||||
\chapter{Le modèle probabiliste et variables aléatoires}
|
||||
|
||||
\section{Espaces utilisables}
|
||||
|
||||
\subsection{Expériences aléatoires et évènements}
|
||||
|
||||
Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par
|
||||
avance son résultat, et, si répété dans des conditions identiques,
|
||||
elle peut donner lieu à des résultats différents.
|
||||
|
||||
On représente le résultat de cette expérience comme un élément
|
||||
$\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles.
|
||||
|
||||
Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut
|
||||
associer l'ensemble $\Omega$~:
|
||||
|
||||
$$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$
|
||||
$$Card(\Omega)=36$$
|
||||
|
||||
$\Omega$ n'est pas déduit de manière unique de l'expérience mais
|
||||
dépend de l'usage qui doit être fait des résultats.
|
||||
Si l'on convient qu'on ne retiendra de cette expérience que la somme
|
||||
des points affichés.
|
||||
|
||||
Donc $$\Omega'={2,...,12}$$.\\
|
||||
|
||||
Un événement est une proposition logique relative au résultat de
|
||||
l'expérience.
|
||||
|
||||
\paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg.
|
||||
|
||||
|
||||
\subsection{Algèbre des évènements}
|
||||
|
||||
Soit $C$, l'ensemble des évènements à tout élément $A\in C$,
|
||||
$\bar{A}$~:contraire de $A$. Le complémentaire de $A$~:
|
||||
|
||||
$$\bar{A}=C^{A}_{\Omega}$$
|
||||
|
||||
La classe $C$ est définie par trois axiomes~:
|
||||
\begin{enumerate}[(i)]
|
||||
\item $\forall A\in C$, $\bar{A}\in C$
|
||||
\item Pour tout ensemble fini ou dénombrable\footnote{$I$
|
||||
dénombrable~: il existe une application $\varphi$ bijective et
|
||||
$\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots,
|
||||
$A_n$ $\in C\cup A_i\in C$.
|
||||
\item $\Omega\in C$
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Remarque~:} Les trois axiomes impliquent que~:
|
||||
$\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in
|
||||
C$.
|
||||
|
||||
$A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$.
|
||||
|
||||
%$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$
|
||||
|
||||
Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou
|
||||
tribu.
|
||||
|
||||
\paragraph{Définition~:} On appelle espace probabilisable le couple
|
||||
$(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu.
|
||||
|
||||
|
||||
\section{Espace probabilisé}
|
||||
|
||||
\subsection{L'axiomatique de Kolmogorov}
|
||||
|
||||
$$A\longmapsto P(A)\in[0,1]$$
|
||||
|
||||
$$A\in C$$
|
||||
|
||||
\paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$
|
||||
(loi de probabilité) une application~:
|
||||
|
||||
$P: C\longmapsto[0,1]$ vérifiable\\
|
||||
|
||||
$A\longmapsto P(A)$
|
||||
|
||||
\begin{enumerate}[(i)]
|
||||
\item $P(\Omega)=1$
|
||||
\item Pour tout ensemble dénombrable d'événements incompatibles
|
||||
$A_i$, on a~:
|
||||
\end{enumerate}
|
||||
|
||||
$$P(\cup_i A_i)=\Sigma_i P(A)$$
|
||||
|
||||
\paragraph{Propriétés~:}
|
||||
|
||||
\begin{enumerate}[(i)]
|
||||
\item $P(\emptyset)=0$,
|
||||
\item $P(\bar{A})=1-P(A)$,
|
||||
\item $P(A)\leq P(B)$ si $A\in B$,
|
||||
\item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$,
|
||||
\item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$
|
||||
\end{enumerate}
|
||||
|
||||
\subsection{Lois conditionnelles}
|
||||
|
||||
\paragraph{Définition~:} Soit $B\in C/P(B)\neq0$.
|
||||
On appelle probabilité conditionelle de $A$ sachant $B$~:
|
||||
|
||||
$$P(A/B)=\frac{P(A\cap B)}{P(B)}$$
|
||||
|
||||
|
||||
\paragraph{Définition~:} $A$ est indépandant de $B$ si~:
|
||||
$P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$
|
||||
|
||||
\begin{enumerate}[(i)]
|
||||
\item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$
|
||||
\item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot
|
||||
P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$,
|
||||
$M_3$ fabriquent des boulons de même type.
|
||||
|
||||
\begin{itemize}
|
||||
\item $M_1$ sort en moyenne $0,3\%$ boulons défectueux.
|
||||
\item $M_2$ sort en moyenne $0,8\%$ boulons défectueux.
|
||||
\item $M_3$ sort en moyenne $1\%$ boulons défectueux.
|
||||
\end{itemize}
|
||||
|
||||
On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de
|
||||
$M_2$, $150$ de $M_3$.
|
||||
|
||||
On tire un boulon au hasard dans la caisse, il est défectueux. Quelle
|
||||
est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou
|
||||
$M_3$~?\\
|
||||
|
||||
$D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\
|
||||
$P(M_1/D)=0,3\%$\\
|
||||
$P(M_2/D)=0,8\%$\\
|
||||
$P(M_3/D)=1\%$
|
||||
|
||||
$$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$
|
||||
|
||||
$$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$
|
||||
|
||||
$$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$
|
||||
|
||||
$$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$
|
||||
|
||||
\subsection{Variables aléatoires réelles}
|
||||
|
||||
Le concept de variables aléatoires formalise la notion de rgandeur
|
||||
variant selon le résultat d'une expérience aléatoire.
|
||||
|
||||
Considérons le lancé de deux dés parfaitement équilibrés.
|
||||
|
||||
$$\Omega={(1,1);...;(6,6)}$$
|
||||
|
||||
$\Omega$ est muni de la probabilité~:
|
||||
$P(\omega)=\frac{1}{36}\forall\omega\in\Omega$
|
||||
|
||||
Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$
|
||||
|
||||
$$E={2,...,12}$$
|
||||
|
||||
Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit
|
||||
de dénombrer les $\omega$ qui réalisent cette valeur.
|
||||
|
||||
Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$
|
||||
|
||||
Généralement~:
|
||||
|
||||
$$P(S=s)=P({S^{-1}(s)})$$
|
||||
|
||||
Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que
|
||||
$E$ soit probabilisable c'est-à-dire muni d'une tribu $F$.
|
||||
|
||||
\paragraph{Définition~:} Une variable est une application mesurable de
|
||||
$(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est
|
||||
un élément de $C$.
|
||||
|
||||
Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés
|
||||
par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu
|
||||
Borélienne notée $B$.
|
||||
|
||||
$$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$
|
||||
|
||||
\subsubsection{Fonction de répartition}
|
||||
|
||||
\paragraph{Définition~:} La fonction de répartition d'une variable
|
||||
aléatoire $X$ est l'application.
|
||||
|
||||
$F$~: $\mathbb{R}\longmapsto [0,1]$
|
||||
$x\longmapsto F(x)=P[X<x]$
|
||||
|
||||
$$\lbrace^{F est croissante}_{F(-\infty)=0 et F(+\infty)=1x}$$
|
||||
|
||||
\paragraph{Définition~:} une loi de probabilité $P_X$ admet une
|
||||
densité $f$ si pour tout intervalle $I$ de $\mathbb{R}$,
|
||||
$P_X(I)=\int_{T}f(x)dx$
|
||||
|
||||
$$P(a<X<b)=f(x)dx=F(b)-F(a)$$
|
||||
|
||||
\paragraph{Définition~:} La fonction de répartition d'une variable
|
||||
aléatoire $X$ est l'application $$F:\mathbb{R}\longmapsto[0,1]$$
|
||||
$$x\longmapsto F(x)=P(X,x)$$
|
||||
|
||||
\subsection{Moment d'une variable aléatoire}
|
||||
|
||||
\subsubsection{L'espérance mathématique}
|
||||
|
||||
Pour une variable discrète, on définit l'espérance~:
|
||||
|
||||
$$E(X)=\sum_i x_i P[X=x_i]$$
|
||||
|
||||
Dans le cas continue~: $E(X)=\int_\mathbb{R} x\times f(x)dx$ où $f(x)$
|
||||
est la densité de $X$.
|
||||
|
||||
\paragraph{Proposition~:}
|
||||
|
||||
\begin{enumerate}[(i)]
|
||||
\item $E(a)=a \forall a\in\mathbb{R}$
|
||||
\item $E(\alpha X)=\alpha E(x) \forall\alpha\in\mathbb{R}$
|
||||
\item $E(X+Y)=E(X)+E(Y)$
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Définition~:} Soit $X$ une variable aléatoire et $\varphi$
|
||||
une fonction quelconque.
|
||||
|
||||
Cas discret~: $E[\varphi(X)]=\sum_i \varphi(x_i) P[X=x_i]$
|
||||
|
||||
Cas continue~: $E[\varphi(X)]=\int_\mathbb{R} \varphi(x) f(x)dx$
|
||||
|
||||
\subsubsection{La variance}
|
||||
|
||||
On appelle variance de $X$ notée $V(X)$ ou $\sigma$ la quantité.
|
||||
|
||||
$V\left(X\right)=E\left(\left(X-m\right)^2\right)$ où $m=E\left(X\right)$
|
||||
|
||||
Cas discret~: $V\left(X\right)=\sum_i\left(x_i-m\right)^2 P(X=x_i)$
|
||||
|
||||
Cas continue~: $V\left(X\right)=\int_\mathbb{R}\left(x-m\right)^2 f(x)dx$
|
||||
|
||||
$\sigma=\sqrt{V\left(X\right)}$ l'écart-type
|
||||
|
||||
La variance est une mesure de la dispersion de $X$ autour de la
|
||||
moyenne $m=E\left(X\right)$.
|
||||
|
||||
\paragraph{Propriété~:}
|
||||
|
||||
\begin{enumerate}[(i)]
|
||||
\item $V(a)=0$
|
||||
\item $V(\alpha X)=\alpha^2 V(X)\forall\alpha\in\mathbb{R}$
|
||||
\item $V(X+Y)=V(X)+V(Y)$ si $X$, $Y$ indépendantes.
|
||||
\end{enumerate}
|
||||
|
||||
\subsubsection{Formule de König-Hyghans}
|
||||
|
||||
$$V(X)=E(X^2)-E^2(X)$$
|
||||
|
||||
Soient $X$ et $Y$ deux variables~:
|
||||
|
||||
$$V(X+Y)=E\left(X+Y\right)-E^2(X+Y)$$
|
||||
|
||||
$$V(X+Y)=E\left(X^2\right)+E\left(Y^2\right)+2E(X/cdot
|
||||
Y)-E^2(X)-E^2(Y)-2E(X)E(Y)$$
|
||||
|
||||
$$V(X+Y)=V(X)+V(Y)+V(Y)+2E$$
|
||||
|
||||
On appelle covariance de $X$, $Y$~:
|
||||
$$cov(X+Y)=E(X/cdot Y)-E(X)E(Y)$$
|
||||
|
||||
$$V(X+Y)=V(X)+V(Y)+2cov(X, Y)$$
|
||||
|
||||
Si $X$, $Y$ sont indépendantes $\Rightarrow cov(X, Y)=0$
|
||||
|
||||
\section{Lois de probabilité d'usage courant}
|
||||
|
||||
\subsection{Lois discrètes}
|
||||
|
||||
\subsubsection{Loi uniforme}
|
||||
|
||||
$$X={1, 2, ..., n}$$
|
||||
|
||||
$$P[X=k]=\frac{1}{n}\forall k=1, ..., n$$
|
||||
|
||||
$$E(X)=\sum^n_{k=1}k P[X=k]=\frac{1}{n}\sum^n_{k=1}k=\frac{n+1}{2}$$
|
||||
|
||||
$$V(X)=E(X^2)-E(X)$$
|
||||
|
||||
$$E(X^2)=\sum^n_1 k^2 P[X=k]=\frac{1}{n}\sum^n_{k=1}k^2$$
|
||||
|
||||
\paragraph{Rappel~:}
|
||||
|
||||
$$\sum^n_1 k^2=\frac{n(n+1)(2n+1)}{6}$$
|
||||
|
||||
$$E(X^2)=\frac{(n+1)(2n+1)}{6}$$
|
||||
|
||||
$$V(X)=\frac{(n+1)(2n+1)}{6}-\frac{(n+1)^2}{4}=\frac{n^2-1}{12}$$
|
||||
|
||||
\subsubsection{Loi de Bernoulli $B(p)$}
|
||||
|
||||
C\'est la loi d'une varuable aléatoire $X$ pouvant prednre que les
|
||||
deux valeurs 1 ou 0 avec les probabilités $p$ et $1-p$.
|
||||
|
||||
$X$ est la fonction indicatrice d'un évévement $A$ de probabilité $p$
|
||||
|
||||
$$E(X)=\sum_0^1 k P[X=k]=p$$
|
||||
|
||||
$$E(X^2)=\sum_0^1 k^2 P[X=k]=p$$
|
||||
|
||||
$V(X)=p-p^2=p(1-p)=pq$ où $q=1-p$
|
||||
|
||||
\subsubsection{Loi binomiale $B(n, p)$}
|
||||
|
||||
Supposons que l'on répète $n$ fois dans des conditions identiques une
|
||||
expérience aléatoire dont l'issue se traduit par l'apparition (ou la
|
||||
non-apparition) d'un événement $A$ de probabilité $p$. Les résultats
|
||||
de chaque expériences sont indépendants.
|
||||
|
||||
$X$ est le nombre de réalisations de $A$.\\
|
||||
|
||||
Somme indépendante de variable de Bernoulli~:
|
||||
$$X=\sum^n_{i=1}$$
|
||||
|
||||
$$P[X=k]=C^k_n p^k(1-p)^{n-k}$$
|
||||
|
||||
$X_i$ suit $B(p)$
|
||||
|
||||
$$E(X)=\sum^n_{i=1}E(X_i)=np$$
|
||||
|
||||
$$V(X)=\sum^n_{i=1}V(X_i)=np(1-p)=npq$$
|
||||
|
||||
\subsubsection{Loi de Poisson $P(\lambda)$}
|
||||
|
||||
C'est la loi d'une variable aléatoire entière positive qui satisfait à
|
||||
$P\left[X=x\right]=e^{i\lambda}\frac{\lambda^x}{x!}\forall x\in\mathbb{N}$
|
||||
|
||||
$\lambda_i$ paramètre de Poisson.\\
|
||||
|
||||
On obtient la loi de Poisson comme approximation de la loi binomiale
|
||||
$B(n, p)$ avec $n\mapsto\infty$, $p\mapsto 0$ et $np\mapsto\lambda$
|
||||
|
||||
$$C^k_n p^k(1-p)^{n-k}\simeq e^{-np}\times\frac{(np)^k}{k!}\qquad\lambda=np$$
|
||||
|
||||
|
||||
\paragraph{Théorème} Soit $X_n$ une suite de valeurs aléatoires $B(n, p)$
|
||||
telles que $n\mapsto +\infty$ et $p\mapsto 0$ de manière à ce que le produit
|
||||
$n\times p\mapsto \lambda$ (finie), alors $X_n$ converge en loi vers une
|
||||
variuable de Posiion $P(\lambda)$.
|
||||
|
||||
\paragraph{Démonstration}
|
||||
|
||||
$$P[X_n=k]=C^n_k p^k(1-p)^{n-k}=\frac{n!}{k!(n-k!)}p^k(1-p)^{n-k}$$
|
||||
|
||||
$$P[X_n=k]=\frac{n(n-1)(n-1)...(n-k+1)}{k!}p^k(1-p)^n-k$$
|
||||
|
||||
$$P[X_n=k]=\frac{(np)^k}{k!}(1-\frac{1}{n})(1-\frac{2}{n})...
|
||||
(1-\frac{k-1}{n})(1-p)^{n-k}$$
|
||||
|
||||
$$(1-p)^{n-k}=(1-p)^n\times (1-p)^{-k}$$
|
||||
|
||||
$$(1-p)^{-k}\longrightarrow_{p\rightarrow 0} 1$$
|
||||
|
||||
$$np\sim\lambda\Leftrightarrow\frac{\lambda}{n}$$
|
||||
|
||||
$$(1-p)^n\sim(1-\frac{\lambda}{n})^n$$
|
||||
|
||||
Rappel~: $lim_{n/mapsto +\infty}(1+\frac{x}{n})^n=e^x$
|
||||
|
||||
$$C_n^k p^k (1-p)^{n-k}\longrightarrow_{n\mapsto +\infty; p\rightarrow 0}
|
||||
\frac{\lambda^k}{k!}e^{-k+}$$
|
||||
|
||||
\subparagraph{Espèrance}
|
||||
Soit $X$ suit $P(\lambda)$~:
|
||||
|
||||
$$E(X)=\sum_{k=0}^{+\infty}k P[X=k]=\sum_{k=0}^{+\infty}k\cdot e^{-k}
|
||||
\frac{\lambda^k}{k!}$$
|
||||
|
||||
$$E(X)=e^{-k}\sum^{+\infty}_{k=1}\frac{\lambda^{k}}{(k-1)!}=
|
||||
e^{-\lambda}\lambda e^\lambda=\lambda$$
|
||||
|
||||
Rappel~: $$\sum_{k=0}^{+\infty}\frac{X^k}{k!}=e^x$$
|
||||
|
||||
$$V(X)=E(X^2)-E^2(X)$$
|
||||
|
||||
$$E(X^2)=\sum_{k=0}^{+\infty}k^2e^{-\lambda}\frac{\lambda^k}{k!}$$
|
||||
|
||||
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}k\cdot\frac{\lambda^k}{(k-1)!}$$
|
||||
|
||||
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}(k-1+1)\frac{\lambda^k}{(k-1)!}=
|
||||
e^{-\lambda}\sum_{k=2}\frac{\lambda^2}{(k-2)!}+
|
||||
e^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^k}{(k-1)!}$$
|
||||
|
||||
|
||||
$$E(X^2)=e^{-\lambda}\lambda^2e^2+e^{-k}\lambda e^k=\lambda^2+\lambda$$
|
||||
$$V(X)=\lambda^2+\lambda-\lambda^2=\lambda$$
|
||||
|
||||
\subsubsection{Loi hypergéométrique $H(N, n, p)$}
|
||||
|
||||
Soit une population de $N$ individus parmis lesquelles, une proportion $p$
|
||||
($n\cdot p$ individus) possèdent un certain caractère.
|
||||
|
||||
On prélève un échantillon de $n$ individus parmis cette population (tirage sans
|
||||
remise).
|
||||
|
||||
Soit $X$ la variable aléatoire~: le nombre d'individus de l'échantillon
|
||||
possédant la propriété. On dit que $X$ suit la loi hypergéométrique.
|
||||
|
||||
La probabilité de $X$~: $P[X=x]=\frac{C^{x}_{N\cdot p}\cdot
|
||||
C^{n-x}_{N-N\cdot p}}{C^n_N}$
|
||||
|
||||
\paragraph{Remarque} $H(N, n, p)\rightarrow B(n, p)$ quand $N\rightarrow
|
||||
+\infty$ (loi binomiale).
|
||||
|
||||
En pratique, ce résultat est vrai lorsque $\frac{n}{N}<10\%$ ($\frac{n}{N}$ est
|
||||
le taux de sondage).
|
||||
|
||||
$$E(X)=n\cdot p$$
|
||||
|
||||
$$V(X)=\left(\frac{N-n}{N-1}\right)\cdot n\cdot p\cdot (1-p)$$
|
||||
|
||||
\subsubsection{Loi géométrique et loi de Pascal}
|
||||
|
||||
C'est la loi du nombre d'essais nécessaire pour faire apparaître un événement
|
||||
$A$ de probabilité $p$.
|
||||
|
||||
$$P[X=x]=(1-p)^{x-1}\cdot p\qquad\forall x\geq 1$$
|
||||
|
||||
$$1-p=q\qquad P[X=x]=q^{x-1}\cdot p$$
|
||||
|
||||
$$E(X)=\sum^{+\infty}_{x=1}x(1-p)^{x-1}\cdot p=p\cdot\sum^{+\infty}_{x=1}x\cdot q^{x-1}$$
|
||||
|
||||
Rappel~: $\sum^{+\infty}_{k=0} q^k=\frac{1}{1-q}\qquad q>1$
|
||||
|
||||
|
||||
$$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$
|
||||
|
||||
En dérivant~:
|
||||
|
||||
$$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$
|
||||
|
||||
$$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$
|
||||
|
||||
$$V(X)=E(X^2)-E^2(X)$$
|
||||
|
||||
$$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p=
|
||||
p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$
|
||||
|
||||
En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~:
|
||||
|
||||
$$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$
|
||||
|
||||
La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour
|
||||
observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se
|
||||
terminer par $A$.
|
||||
|
||||
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$
|
||||
$$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$
|
||||
|
||||
Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre
|
||||
$p$.
|
||||
|
||||
$$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$
|
||||
$$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$
|
||||
|
||||
\paragraph{Exercice}
|
||||
|
||||
Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi
|
||||
de Poisson $P(3)$.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Calculer le nombre moyen d'appels par minutes ainsi que la variance.
|
||||
\item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute.
|
||||
\item Quelle est la probabilité d'avoir au moins trois appels dans une minute.
|
||||
\end{enumerate}
|
||||
|
||||
\paragraph{Exercice}
|
||||
|
||||
Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang
|
||||
minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage
|
||||
est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage
|
||||
auquels il doit participer pour atteindre son objectif.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Quelle est la loi de probabilité de $X$ et donner sa fonction de
|
||||
répartition.
|
||||
\item Donner le nombre moyen de tirage nécessaires ainsi que la variance.
|
||||
\item Quelle est la probabilité pour qu'il gagne après $n$ tirages.
|
||||
\item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la
|
||||
probabilité pour qu'il gagne au $(n+k)$ième tirage.
|
||||
\end{enumerate}
|
||||
|
||||
\end{document}
|
118
socior.tex
Normal file
118
socior.tex
Normal file
@ -0,0 +1,118 @@
|
||||
\chapter{Méthodologie}
|
||||
|
||||
\section{Les entretiens}
|
||||
|
||||
L'entretien est un des moyens d'une recherche consistant en une
|
||||
technique d'interrogation avec un \textbf{but}.
|
||||
|
||||
Il en existe différente forme~:
|
||||
\begin{itemize}
|
||||
\item Entretien non directif~: une question très large
|
||||
\item Semi-directif
|
||||
\item Directifs ou standardisé~: questionnaires, sondage
|
||||
\end{itemize}
|
||||
|
||||
Support~:
|
||||
\begin{itemize}
|
||||
\item avec expérience,
|
||||
\item avec texte écrit, dessin,
|
||||
\item avec vidéo,
|
||||
\item avec ordinateur.
|
||||
\end{itemize}
|
||||
|
||||
Productions enregistrées~:
|
||||
\begin{itemize}
|
||||
\item Orales,
|
||||
\item orales et gestuelles et contextes (vidéo),
|
||||
\item trace des actions (ordinateur)
|
||||
\end{itemize}
|
||||
|
||||
Lorsque l'on réalise un entretien, sans aucun enregistrement, on ne
|
||||
garde que 20\% de ce que la personne dit.
|
||||
Généralement, on ne fera que valider des hypothèses, sans faire
|
||||
attention à ce que dit la personne.
|
||||
|
||||
\section{Les formes d'interrogation}
|
||||
|
||||
\subsection{Directifs}
|
||||
\begin{itemize}
|
||||
\item Guide d'entretien
|
||||
\item Questions standardisées
|
||||
\item Ordre de progression imposé
|
||||
\item => Approfondir un thème connu (quantitatif)
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Semi-directif}
|
||||
\begin{itemize}
|
||||
\item Schéma d'entretien
|
||||
\item Consigne de départ et grille de thème à aborder
|
||||
\item Pas d'ordre imposé
|
||||
\item => compléter des résultats (qualitatif)
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Non-directif}
|
||||
\begin{itemize}
|
||||
\item Seule contrainte~: la consigne thématique de départ,
|
||||
\item Suit la logique propre de l'interviewé,
|
||||
\item Empathie, acceptation inconditionnelle
|
||||
\end{itemize}
|
||||
|
||||
\og Bonjour, on cherche une entreprise qui a un problème, parce qu'on
|
||||
sera bientôt cadres et nous voudrions les connaître blabla \fg
|
||||
|
||||
|
||||
\section{Techniques de relance}
|
||||
|
||||
\begin{itemize}
|
||||
\item Le silence,
|
||||
\item Hmmm.
|
||||
\item Reprendre des propositions fautes (sans changer les termes,
|
||||
la syntaxe, ...),
|
||||
\item Reposer la question initiale.
|
||||
\item (La reformulation~: « Si je comprends bien, il ... », la
|
||||
personne reprendra pour améliorer le résumé fait).
|
||||
\end{itemize}
|
||||
|
||||
Sur les deux~: un seul parle, l'autre prend des notes. Il ne peut
|
||||
intervenir que si celui qui parle passe à côté de quelque chose de
|
||||
très important.
|
||||
|
||||
Commencer par des questions non engageante~:
|
||||
- Quel est votre nom ?
|
||||
- Dans quel service travaillez-vous ?
|
||||
Puis dans un second temps, ça peut être :
|
||||
- Dessiner un diagramme de l'entreprise par exemple, ...
|
||||
|
||||
\chapter{Les formes du leadership}
|
||||
|
||||
Manager = gestionnaire, Leader : participation volontaire, autocrate :
|
||||
pouvoir absolu.
|
||||
|
||||
\begin{itemize}
|
||||
\item Charismatique~: comme Charles de Gaulle,
|
||||
\item Traditionnelle~: par exemple les rois,
|
||||
\item Rationelle légale (bureaucratique)~: les élections
|
||||
présidentielles française, \ldots
|
||||
\end{itemize}
|
||||
|
||||
On distingue 5 approches du leadership axée sur les contingences~:
|
||||
\begin{itemize}
|
||||
\item \textbf{M1~:} très bas niveau~: connaissent mal le travailw
|
||||
\item \textbf{M2~:} maturité moyenne, maîtrisent peu les exigences
|
||||
du travail mais sont motivés.
|
||||
\item \textbf{M3~:} maturité moyenne/élevée~: maîtrisent les
|
||||
compétences mais sont de moins en moins motivés.
|
||||
\item \textbf{M4~:} maturité élevée : bonne compétences, motivation
|
||||
élevée.
|
||||
\end{itemize}
|
||||
|
||||
\begin{itemize}
|
||||
\item \textbf{S1~:} Directif~: on se centre sur la tâche pas sur la
|
||||
relation.
|
||||
\item \textbf{S2~:} Motivateur ou vendeur~: autant la relation
|
||||
(encouragement) que la tâche (formation).
|
||||
\item \textbf{S3~:} Participatif~: travail d'équipe et nouveaux
|
||||
projets,
|
||||
\item \textbf{S4~:} Délégation~: intervention minimale de
|
||||
durection.
|
||||
\end{itemize}
|
Reference in New Issue
Block a user