Cours copiés au premier semestre

This commit is contained in:
Némunaire 2012-01-30 15:05:18 +01:00
commit 96e4f76a9c
6 changed files with 1135 additions and 0 deletions

143
OS/3-ordonnancement.tex Normal file
View File

@ -0,0 +1,143 @@
\chapter{Ordonnancement des processus}
\section{Généralités}
La durée de cycle d'un processus, c'est la durée moyenne d'un cycle de
Von-Neuman non intérompu (pour des entrées/sorties).
Globalement, pour un ordinateur grand public, la plus grande majorité
des programmes se trouvent être majoritairement tributaire des
entrées/sorties.
\subsection{Ordonnancement et réquisition}
Il existe deux familles d'ordonnanceurs : avec ou sans
réquisitions. On parle alors de système coopératifs ou préemptifs.
Pour commuter, il peut se passer deux choses :
- soit ce n'est pas un choix : le processus s'est bloqué pour une E/S
ou s'est terminé.
- un choix : par exemple lorsqu'un nouveau processus arrive ; passage
des états actifs ou bloqués à l'état prêt.
Les ordonnanceurs sans réquisition ne passe la main à d'autres
processus que dans le cas où un autre processus se bloque.
Dans un système de ce type, on demande au programmeur de placer dans
son code des yield, un appel système pour passer la main à un autre
programme.
Le problème d'un système préemptif c'est la synchronisation (il ne
faudrait pas arrêter un processus en pleine transaction réseau ou
lors d'un appel système, ...)
Pour une horloge à temps fixe est nécessaire pour ce genre de système.
\subsection{Critères d'ordonnancement}
Pour tous les systèmes, les grandes lignes sont~:
\begin{itemize}
\item \textbf{Équité~:} répartition du CPU entre processus différent
(faut-il donner autant de CPU à tous)
\item \textbf{Respect de politique~:} imposer les choix
d'ordonnacement. Regarder que tous les processus respectent bien
les règles d'ordonnancement définies.
\item \textbf{Équilibre~:} le choix de l'ordonnanceur ne doit pas
conduire à un trop grand nombre de périphériques inactifs.
\end{itemize}
Pour un système de traitement par lot, les grandes lignes sont
plutôt~:
\begin{itemize}
\item \textbf{Capacité de traitement/rendement~:} mombre de
processus exécutés par unité de temps.
\item \textbf{Temps de restitution/service~:} délai entre la
soumission d'un processus et sa terminaison (mise en mémoire,
atente en état prêt, attente E/S, exécution)
\end{itemize}
Pour des processus interactifs, les grandes lignes sont~:
\begin{itemize}
\item \textbf{Temps de réponse~:} délai entre la soumission et le
moment où l'oin commence à répondre.\\
Paradoxalement, un processus plus long à s'exécuter peut être
préféré s'il répond plus vite.
\item \textbf{Temps d'attente~:} temps passé en état prêt.\\
C'est évidemment du gachi pour l'utilisateur.
\item \textbf{Proportionnalité~:} aux attentes des utilisateurs.\\
Répondre en fonction des critères de l'utilisateur. (commande
\texttt{nice}).
\end{itemize}
Dans le cas des systèmes temps réels, les deux critères importants
sont~: le respect des dates limites (éviter la perte de données) et la
prédictibilité (pour la stabilité des applications multimédia).
\section{Algorithmes d'ordonnancement}
\subsection{Premier arrivé premier servi}
C'est le premier algorithme à avoir été implémenté, directement issue
du traitement par lot.
Il s'agit d'un algorithme sans réquistion. Il est facile à comprendre
est facile à programmer.
Il y a une file d'attente des processus « prêt ». C'est relativement
optimal et peut couteux~: des simples mises à jour de pointeurs pour
la gestion de la file.
Il est intrinsèquement équitable pour des processus équivalent.
Les problèmes de cet algo sont la grande variance dans les critères
d'ordonnancement ; mais également l'effet d'accumulation~: les petits
processus qui font de nombreux accès aux périphériques perdent
énormément de temps car les périphériques sont inactifs le temps qu'un
processus long s'exécute.
\subsection{Plus court d'abord}
Il s'agit d'un algorithme sans réquisition
C'est le meilleur algo pour avoir un temps d'attente moyen minimal.
Le problème de cet algo est que l'on est pas capable de
l'implémenter, car on est pas capable de calculer la durée du prochain
cycle :D
Cet algo n'est pas adapté pour l'ordonnancement à court terme, mais
reste valable pour les systèmes de traitement par lots.
Étant donné qu'il est optimal, on peut l'utiliser pour benchmarker les
autres types d'ordonnanceurs.
\subsection{Ordonnancement avec priorité}
\subsection{Tourniquet}
Concu spécialement pour le temps partagé.
C'est un FCFS avec réquisition sur une base de quantums (20-50ms).
Il nécesite une horloge pour permettre d'être préamptif.
Il y a quelques précautions à prendre~:
- Le quantum doit être grand par rapport au temps de commutation
- Le quantum ne doit pas être trop grand
\subsection{Files d'attentes multi-niveau}
On découpe la file d'attente des processus prêts en plusieurs files (processus système, interactifs, arrière-plan, ...)
Il est donc possible d'utiliser un algorithme d'ordonnancement différent pour chaque file. On peut également ordonnancer les files entre-elles (priorité fixes,
allocation de tranches de temps, ...)
Il est généralement utilisé conjointement avec un ordinnancement avec feedback (ou recyclage) comme algo de veillissement : il s'agit de la possibilité de
déplacer les processus d'une file d'attente à l'autre. L'implementation est légère.
\subsection{Loterie}
OVNI dans la théorie de l'ordonnancement.
Chaque processus qui arrive dans la liste se voit attribuer un numéro, puis à intervalle régulier, il va choisir un processus aléatoirement.
Il a quelques avantages :
- L'implémentation de priorité est légère : il suffit de lui donner deux tickets d'ordonnanceur ou plus !
\subsection{Ordonnancement temps-réel}

63
OS/7-memoirevirtuelle.tex Normal file
View File

@ -0,0 +1,63 @@
\subsection{Algorithme de l'ensemble de travail (WS), 1970}
\textbf{Phénomène de localisation~:} l'ensemble des pages référencées
dépend de \og phases\fg{} dans l'exécution.
\subsection{Bufferisation}
Maintenir un ensemble de cadres de pages libres en permanance.
Lorsqu'un processus demande un nouveau cadre, on sélectionne une
victime, mais on ne la supprime pas tout de suite.
On attend que le MMU soit inactif pour le faire.\\
Implémentation grâce à un \og paging daemon\fg.
\section{Problèmes liés à la conception}
\subsection{Politiques de sélection des pages}
Deux politiques sont possibles~:
\begin{itemize}
\item \textbf{Allocation globale~:} considérer toutes les pages
actuellement en mémoire.
\item \textbf{Allocation locale~:} lorsque l'on choisit une
victime, on va chercher a supprimer une page du processus
courant.
\end{itemize}
\subsection{Répartition des cadres de page}
\begin{itemize}
\item \textbf{Allocation équitable~:} chaque processus a un nombre
de cadres de pages identiques aux autres processus.
\item \textbf{Allocation proportionnelle~:} on alloue un nombre de
cadre de page en fonction de la taille du processus.
\item \textbf{Allocation mixte~:} on effectue une allocation
proportionelle, en regardant aussi la priorité du processus.
\item \textbf{Prépagination~:} on commence a allouer les premières
pages du processus (_start, main, ...) pour éviter le grand nombre
de défaut de page au lancement.
\end{itemize}
\subsection{Autres}
\textbf{Contrôle de charge~:} gérer \og l'écroulement\fg{} (la somme
des ensembles de travail dépasse la capacité
mémoire). Swapping/refuser d'en faire plus...\\
\paragraph{Pages partagées~:} en allocation locale, on peut supprimer une
page partagée non utilisé dans un processus donné, mais très utilisée
par d'autres processus.
\paragraph{Structure des programmes~:} la manière dont on organise le
code a une incidence sur le pagineur.
\paragraph{Vérouillage des E/S~:} il faut a tout prix éviter
l'éviction d'une page qui est en attente d'une E/S. Pour cela, on
utilise le bit verrou.\\
On peut aussi utiliser ce bit pour vérouiller les pages d'un programme
nouvellement chargé en mémoire.
\section{Problèmes liés à l'implémentation}

140
OS/8-FS.tex Normal file
View File

@ -0,0 +1,140 @@
\chapter{Systèmes de fichiers}
\section{Généralités}
\begin{itemize}
\item Persistande des informations
\item Partage d'informations (entre les processus, ...)
\end{itemize}
La notion de fichier apporte une espace de stockage important, un
stockage statique de l'information et une indépendance vis-à-vis des
processus qui l'utilisent ou l'ont utilisés.
\subsection{Structure}
\begin{itemize}
\item \textbf{Fichiers~:} unité logique de stockage d'information.
\item \textbf{Répertoire~:} organisation logique de l'information.
\item \textbf{Partitions~:} organisation de plus haut niveau.
\end{itemize}
On a une vision logique et uniformisée de l'information. Les
caractéristiques physiques du stockage font une abstraction des
caractéristiques physiques.
Les formats, type du système sont choisis par le créateur.
\subsection{Méthodes d'accès}
\subsubsection{Accès séquentiel}
Méthode historique, basé sur le modèle des bandes magnétiques~:
pointeur de lecteur/écriture (offset) automatiquement incrémenté. Et
des privitives de positionnement (seek).
\subsubsection{Accès direct/relatif}
\og Random access\fg, modèle des disques durs.\\
Les primitives de lecture et d'écriture sont paramétrées par un
numéro de bloc relatif. Un fichier est vu comme un enregistrement de
blocs de taille fixe.
\subsubsection{Remarques}
\begin{itemize}
\item Certains systèmes fournissent plusieurs méthodes d'accès,
comme IBM.
\item Le mode d'accès peut faire partie du type de fichier.
\item Il est trivial d'implémenter l'accès séquentiel à partir de
l'accès de l'accès direct.
\end{itemize}
\subsection{Table de fichiers (ouverts)}
Mise en cache des descripteurs de fichiers actuellement utilisés
\section{Organisation des systèmes de fichiers}
\subsection{Macro-niveaux d'organisation}
\begin{itemize}
\item \textbf{Partition~:} \og mini-disque\fg (chez IBM), \og
volume\fg (chez Mac).\\
Selon les systèmes, plusieurs partitions par disques, ou plusieurs
disques par partitions.
\item \textbf{Répertoire~:} analogue à une table des symboles.
Contient des informations sur les fichiers sous-jacents (nom,
emplacement, taille, type\ldots).
\end{itemize}
\subsection{Niveaux de répertoires}
\subsubsection{Niveau 1}
Structure simpliste d'une unique répertoire.
On a des problèmes d'unicité des noms (11 caractères pour MS-DOS et
255 pour Unix).
\subsubsection{Niveau 2}
Un répertoire principal (\og MFD\fg) contient des répertoires
utilisateurs (\og UFD\fg). Accès implicite à son propre UFD.
On voit apparaître la notion de session (login/password).
\subsubsection{Nommage}
\paragraph{MS-DOS~:} \verbatim{C:\dupont\test.exe}
\paragraph{Unix~:} \verbatim{/var/spool/mail/dupont}
\paragraph{VAX-VMS~:} \verbatim{u:[dir1.dir2]foo.com;1}
\section{Méthode d'allocation}
\subsection{Allocation contiguë}
Les fichiers sont stockés par blocs contigus sur le disque.\\
Le temps de positionnement des têtes est minimal. Accès direct et
séquentiel faciles à implémenter.
Problèmes~: fragmentation interne s'il y a trop d'espace ; pas assez
d'espace~: déplacement couteux des fichiers ; pas toujours possible.\\
Utilisé sur les CD et DVD.
\subsection{Allocation chaînée}
Chaque bloc se termine par un pointeur sur le bloc suivant.\\
Une entrée de répertoire contient un pointeur sur le premier bloc.
Pas de fragmentation externe, pas de limite de taille. Mais accès
direct inefficasse. Au niveau de la fiabilité, la perte d'un pointeur
est critique.
\subsection{File Allocation Table (FAT)}
Il y a une FAT au début de chaque partition. Il s'agit d'une table
indexée par numéros de bloc. Chaque entrée pointe sur le numéro de
bloc suivant.
Une entrée de répertoire contient un pointeur sur le premier bloc.
\subsection{Allocation indexée}
Chaque fichier possède un bloc d'index.
Une entrée de répertoire pointe sur le bloc d'index
La ie entrée du bloc d'index pointe sur le ue bloc de donnée du
fichier.
La table des i-nodes est de taille proportionnelle au nombre de
fichiers.
Par contre, la fragmentation interne est plus grande qu'avec
l'allocation chaînée et un problème de taille des inodes.
\section{Performances des systèmes de fichiers}

171
maths/exos.tex Normal file
View File

@ -0,0 +1,171 @@
\documentclass[10pt]{report}
\usepackage[utf8x]{inputenc}
\usepackage[frenchb]{babel}
\usepackage{ucs}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{eurosym}
\usepackage{enumerate}
\begin{document}
\chapter{Le modèle probabiliste et variables aléatoires}
\section{Exos}
\subsection{Exercice 1}
Un usager du métro effectue régulièrement 100 voyages par mois en 1ère
classe. On admet qu'à chaque voyage, cet usager a 1 chance sur 10 d'être
contrôlé. On suppose que cet usager fraude systématiquement en voyageant en
1ère classe avec un billet de seconde classe.
La différence entre les prix des billets de 1ère et 2e est de 1 \euro mais à
chaque contrôle, l'usager doit payer une amande $A$.
Soit $X$ le nombre de fois où l'usager est contrôlé pendant un mois.\\
\begin{enumerate}
\item La loi de X~?
\item Soit $B$ la variable aléatoire qui donne le bénéfice fait pour l'usage
pendant un mois en fraudant.\\
Calculer $E(B)$ et en déduire pour quelle condition portant sur $A$
l'usager est en moyenne gagnant.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ $\lbrace^{n=100}_{p=\frac{1}{10}}$
$$\left[^{P[X=k]=C^k_{100}(0,1)^k(0,9)^{100-k}}_{\forall k=0, 1, ..., n}\right.$$
\paragraph{Correction 2.}
$B$ variable aléatoire bénéfice.
$$B=n-X\cdot A$$
$$E(B)=E(n)-A\cdot E(X)=n-A\cdot n\cdot p=100-10\cdot A$$
$E$ est linéaire.
L'usager est gagnant si $E(B)>0\Rightarrow 100-10\cdot A>0\Rightarrow A <
10\mathrm{~euros}$
\subsection{Exercice 2}
Une fabrique produit des tubes électroniques doit en moyenne $1\%$ soit
défectueux.
On suppose que les évènements sont indépendants.
Un client achète $300$ tubes électroniques. La fabrique garanti ses tubes à
$97\%$.
Soit $X$ le nombre de tubes défectueux, parmi les tubes achetés.
\begin{enumerate}
\item Quelle est la loi de probabilité de $X$~?
\item Pour quelle loi peut-on l'approcher~?
\item Déterminer la probabilité que le client, après avoir testé ses tubes,
revienne à la fabrique pour faire marcher la garantie.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ $n=300$ et $p=0,01$
\paragraph{Correction 2.}
\subparagraph{Théorème} Loi de poisson
$$B(n,p)\longrightarrow^{Loi}_{n\mapsto+\infty}B(\lambda=n\cdot p)$$
En pratique~:
$$\left\lbrace^{n>50}_p<0,1\Longrightarrow B(n,p)\simeq P(\lambda=3)\right.$$
$$P[X=k]=C^{k}_{300}(0,01)^k(0,99)^{300-k}\simeq
e^{-3}\frac{3^k}{k!}\mathrm{~(Loi~de~poisson)}$$
\paragraph{Correction 3.}
Le nombre de tubes qui fonctionnent~: $300\times 97\%=291$
$$P[X>300-291=9]=P[X>9]=1-P[X\leq 9]\simeq
1-\sum^{9}_{k=0}e^{-3}\frac{3^k}{k!}\simeq
1-e^{-3}\sum^{9}_{k=0}\frac{3^k}{k!}$$
=> 1 chance sur 1000 pour qu'il revienne
\subsection{Exercice 3}
Lors de tests d'accès à un ordinateur central par réseau télématique, on a
constaté que $95\%$ des essais permettaient une connexion correcte.
Une entreprise doit se connecter 4 fois par jour pour la mise à jour de ses
fichiers.
Soit $X$ le nombre d'essais nécessaires pour se connecter 4 fois.
\begin{enumerate}
\item Calculer $P[X=4]$
\item Calculer la probabilité de dépasser 6 essais.
\item Calculer $E(X)$, $\sigma(X)=\sqrt{V\left(X\right)}$
\end{enumerate}
\paragraph{Correction 1.}
Soit $X$ le nombre d'essaus nécessaires pour observer l'événement $A$ $n$ fois.
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}=C^{n-1}_{x-1}p^n\cdot
p^{x-n}$$
$$q=1-p=5\%$$
$X$ suit la loi de Pascal d'ordre $n=4$
$$p=0,95\qquad P[X=4]=(0,95)^4=0,815$$
\paragraph{Correction 2.}
$$P[X>6]=1-P[X\leq 6]=1-\sum_{k=4}^6 P[X=k]$$
$$=1-(0,95)^4-C^3_4 (0,95)^4(0,05)-C^3_5 (0,95)^4(0,05)^2\simeq 0,00223$$
\paragraph{Correction 3.}
$$E(X)=\frac{n}{p}=\frac{4}{0,95}=4,21$$
$$V(X)=\frac{n\cdot q}{p^2}\Rightarrow\sigma=\frac{\sqrt{n/cdot
q}}{p}=\frac{\sqrt{4\times 0,05}}{0,95}=0,47$$
\subsection{Exercice 4}
Un médecin envisage d'installer un cavinet de traumatologie dans une station de
sports d'hiver pendant la saison de ski.
Il estime qu'un tel cabinet devient rentable à partir de 10 patients par
jour. En moyenne, dans cette station, 5~000 skieurs skient par jour et d'après
les statistiques chaque skieur a une probabilité de 0,001 d'être victime d'une
mauvaise chute. Soit $X$ le nombre d'accidents en une journée.
\begin{enumerate}
\item Quelle est la loi de $X$.
\item Calculer la probabilité que le cabinet soit rentable.
\end{enumerate}
\paragraph{Correction 1.}
$X$ suit $B(n,p)$ avec $n=5000$ et $p=0,001$.
$$\left\lbrace^{n~grand}_{p<0,1}\right.\Rightarrow B(n,p)\simeq P(\lambda=5)$$
\paragraph{Correction 2.}
$$P[X\geq 10]=1-P[X\leq 9]\simeq 1-e^{-5}\sum_{k=0}^{9}\frac{5^k}{k!}\simeq 0,968$$
\section{Conseils pour révision}
Pas de Choleski
Relaxation,
Faire 2 exos sur les 3 pour avoir la moyenne
\end{document}

500
maths/proba.tex Normal file
View File

@ -0,0 +1,500 @@
\documentclass[10pt]{report}
\usepackage[utf8x]{inputenc}
\usepackage[frenchb]{babel}
\usepackage{ucs}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{enumerate}
\begin{document}
\chapter{Le modèle probabiliste et variables aléatoires}
\section{Espaces utilisables}
\subsection{Expériences aléatoires et évènements}
Une expérience est qualifiée d'aléatoire, si on ne peut prévoir par
avance son résultat, et, si répété dans des conditions identiques,
elle peut donner lieu à des résultats différents.
On représente le résultat de cette expérience comme un élément
$\omega$ de $\Omega$ (l'univers), ensemble des résultats possibles.
Ainsi à l'expérience aléatoire qui consiste à lancer deux dès, on peut
associer l'ensemble $\Omega$~:
$$\Omega=\lbrace(1,1);(1,2);(1,3);...\rbrace$$
$$Card(\Omega)=36$$
$\Omega$ n'est pas déduit de manière unique de l'expérience mais
dépend de l'usage qui doit être fait des résultats.
Si l'on convient qu'on ne retiendra de cette expérience que la somme
des points affichés.
Donc $$\Omega'={2,...,12}$$.\\
Un événement est une proposition logique relative au résultat de
l'expérience.
\paragraph{Exemple~:} A \og La somme des points supérieurs à 10\fg.
\subsection{Algèbre des évènements}
Soit $C$, l'ensemble des évènements à tout élément $A\in C$,
$\bar{A}$~:contraire de $A$. Le complémentaire de $A$~:
$$\bar{A}=C^{A}_{\Omega}$$
La classe $C$ est définie par trois axiomes~:
\begin{enumerate}[(i)]
\item $\forall A\in C$, $\bar{A}\in C$
\item Pour tout ensemble fini ou dénombrable\footnote{$I$
dénombrable~: il existe une application $\varphi$ bijective et
$\varphi:I\rightarrow\mathbb{N}$} $A_1$, \ldots, $A_i$, \ldots,
$A_n$ $\in C\cup A_i\in C$.
\item $\Omega\in C$
\end{enumerate}
\paragraph{Remarque~:} Les trois axiomes impliquent que~:
$\emptyset\in C$ et $\Omega\cup A_i\in C$. $\bar{\Omega}=\emptyset\in
C$.
$A_i\in C$, $\bar{A_i}\in C\cup\bar{A_i}\in C$.
%$$\bar{\cup_i\bar{A_i}}\in C=\cap_i\bar{\bar{A_i}}\inC=\cap_i A_i\in C$$
Les propriétés définissant ce que l'on appelle un ealgèbre de Boole ou
tribu.
\paragraph{Définition~:} On appelle espace probabilisable le couple
$(\Omega, C)$, où $\Omega$ est l'univers et $C$ est la tribu.
\section{Espace probabilisé}
\subsection{L'axiomatique de Kolmogorov}
$$A\longmapsto P(A)\in[0,1]$$
$$A\in C$$
\paragraph{Définition~:} On appelle probabilité sur $(\Omega, C)$
(loi de probabilité) une application~:
$P: C\longmapsto[0,1]$ vérifiable\\
$A\longmapsto P(A)$
\begin{enumerate}[(i)]
\item $P(\Omega)=1$
\item Pour tout ensemble dénombrable d'événements incompatibles
$A_i$, on a~:
\end{enumerate}
$$P(\cup_i A_i)=\Sigma_i P(A)$$
\paragraph{Propriétés~:}
\begin{enumerate}[(i)]
\item $P(\emptyset)=0$,
\item $P(\bar{A})=1-P(A)$,
\item $P(A)\leq P(B)$ si $A\in B$,
\item $P(A\cup B)=P(A)+P(B)-P(A\cap B)$,
\item $P(\cup_i A_i)\leq \Sigma_i P(A_i)$
\end{enumerate}
\subsection{Lois conditionnelles}
\paragraph{Définition~:} Soit $B\in C/P(B)\neq0$.
On appelle probabilité conditionelle de $A$ sachant $B$~:
$$P(A/B)=\frac{P(A\cap B)}{P(B)}$$
\paragraph{Définition~:} $A$ est indépandant de $B$ si~:
$P(A/B)=P(A)\Leftrightarrow P(A\cap B)=P(A)\cdot P(B)$
\begin{enumerate}[(i)]
\item $$P\left(B/A\right)=\frac{P(A/B)\cdot P(B)}{P(A)}$$
\item $$P\left(B_i/A\right)=\frac{P(A/B_i)\cdot
P(A_i)}{\Sigma_{i}P(A/B_i)\cdot P(B_i)}$$
\end{enumerate}
\paragraph{Exemple~:} Dans une usine, trois machines $M_1$, $M_2$,
$M_3$ fabriquent des boulons de même type.
\begin{itemize}
\item $M_1$ sort en moyenne $0,3\%$ boulons défectueux.
\item $M_2$ sort en moyenne $0,8\%$ boulons défectueux.
\item $M_3$ sort en moyenne $1\%$ boulons défectueux.
\end{itemize}
On mélange $1000$ boulons dans une caisse~: $500$ de $M_1$, $350$ de
$M_2$, $150$ de $M_3$.
On tire un boulon au hasard dans la caisse, il est défectueux. Quelle
est la probabilité qu'il ait été fabriqué par $M_1$ ou $M_2$ ou
$M_3$~?\\
$D$ \og boulon défectueux\fg. On cherche $P(M_1/D)$.\\
$P(M_1/D)=0,3\%$\\
$P(M_2/D)=0,8\%$\\
$P(M_3/D)=1\%$
$$P(M_1/D)=\frac{P(M_1/D)\cdot P(M_1)}{P(D)}$$
$$D=(D\cap M_1)\cup(D\cap M_2)\cup(D\cup M_3)$$
$$P(D)=P(D\cap M_1)+P(D\cap M_2)+P(D\cup M_3)$$
$$P(D)=\Sigma_{i=1}P(D/M)\cdot P(M_i)$$
\subsection{Variables aléatoires réelles}
Le concept de variables aléatoires formalise la notion de rgandeur
variant selon le résultat d'une expérience aléatoire.
Considérons le lancé de deux dés parfaitement équilibrés.
$$\Omega={(1,1);...;(6,6)}$$
$\Omega$ est muni de la probabilité~:
$P(\omega)=\frac{1}{36}\forall\omega\in\Omega$
Soit l'application $S$~: $\Omega\longmapsto E$ $(i,j)\longmapsto i+j$
$$E={2,...,12}$$
Pour obtenir la probabilité d'une valeur quelconque de $S$, il suffit
de dénombrer les $\omega$ qui réalisent cette valeur.
Ainsi, $P(S=5)=P({(1,4);(4,1);(2,3);(3,2)})=\frac{4}{36}=\frac{1}{9}$
Généralement~:
$$P(S=s)=P({S^{-1}(s)})$$
Si $X$ est une application de $(\Omega, C, P)$ dans $E$, il faut que
$E$ soit probabilisable c'est-à-dire muni d'une tribu $F$.
\paragraph{Définition~:} Une variable est une application mesurable de
$(\Omega,C,P)$ de $(E,F)$ l'image réciproque d'un élément de $F$ est
un élément de $C$.
Lorsque $E=R$, on utilise commme tribu la $\alpha$-algèbre engendrés
par les intervalles de $\mathbb{R}$. Cette tribu s'appelle la tribu
Borélienne notée $B$.
$$P_X(B)=P({\omega/X(\omega)\in B})=P({X^{-1}(B)})$$
\subsubsection{Fonction de répartition}
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application.
$F$~: $\mathbb{R}\longmapsto [0,1]$
$x\longmapsto F(x)=P[X<x]$
$$\lbrace^{F est croissante}_{F(-\infty)=0 et F(+\infty)=1x}$$
\paragraph{Définition~:} une loi de probabilité $P_X$ admet une
densité $f$ si pour tout intervalle $I$ de $\mathbb{R}$,
$P_X(I)=\int_{T}f(x)dx$
$$P(a<X<b)=f(x)dx=F(b)-F(a)$$
\paragraph{Définition~:} La fonction de répartition d'une variable
aléatoire $X$ est l'application $$F:\mathbb{R}\longmapsto[0,1]$$
$$x\longmapsto F(x)=P(X,x)$$
\subsection{Moment d'une variable aléatoire}
\subsubsection{L'espérance mathématique}
Pour une variable discrète, on définit l'espérance~:
$$E(X)=\sum_i x_i P[X=x_i]$$
Dans le cas continue~: $E(X)=\int_\mathbb{R} x\times f(x)dx$$f(x)$
est la densité de $X$.
\paragraph{Proposition~:}
\begin{enumerate}[(i)]
\item $E(a)=a \forall a\in\mathbb{R}$
\item $E(\alpha X)=\alpha E(x) \forall\alpha\in\mathbb{R}$
\item $E(X+Y)=E(X)+E(Y)$
\end{enumerate}
\paragraph{Définition~:} Soit $X$ une variable aléatoire et $\varphi$
une fonction quelconque.
Cas discret~: $E[\varphi(X)]=\sum_i \varphi(x_i) P[X=x_i]$
Cas continue~: $E[\varphi(X)]=\int_\mathbb{R} \varphi(x) f(x)dx$
\subsubsection{La variance}
On appelle variance de $X$ notée $V(X)$ ou $\sigma$ la quantité.
$V\left(X\right)=E\left(\left(X-m\right)^2\right)$$m=E\left(X\right)$
Cas discret~: $V\left(X\right)=\sum_i\left(x_i-m\right)^2 P(X=x_i)$
Cas continue~: $V\left(X\right)=\int_\mathbb{R}\left(x-m\right)^2 f(x)dx$
$\sigma=\sqrt{V\left(X\right)}$ l'écart-type
La variance est une mesure de la dispersion de $X$ autour de la
moyenne $m=E\left(X\right)$.
\paragraph{Propriété~:}
\begin{enumerate}[(i)]
\item $V(a)=0$
\item $V(\alpha X)=\alpha^2 V(X)\forall\alpha\in\mathbb{R}$
\item $V(X+Y)=V(X)+V(Y)$ si $X$, $Y$ indépendantes.
\end{enumerate}
\subsubsection{Formule de König-Hyghans}
$$V(X)=E(X^2)-E^2(X)$$
Soient $X$ et $Y$ deux variables~:
$$V(X+Y)=E\left(X+Y\right)-E^2(X+Y)$$
$$V(X+Y)=E\left(X^2\right)+E\left(Y^2\right)+2E(X/cdot
Y)-E^2(X)-E^2(Y)-2E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+V(Y)+2E$$
On appelle covariance de $X$, $Y$~:
$$cov(X+Y)=E(X/cdot Y)-E(X)E(Y)$$
$$V(X+Y)=V(X)+V(Y)+2cov(X, Y)$$
Si $X$, $Y$ sont indépendantes $\Rightarrow cov(X, Y)=0$
\section{Lois de probabilité d'usage courant}
\subsection{Lois discrètes}
\subsubsection{Loi uniforme}
$$X={1, 2, ..., n}$$
$$P[X=k]=\frac{1}{n}\forall k=1, ..., n$$
$$E(X)=\sum^n_{k=1}k P[X=k]=\frac{1}{n}\sum^n_{k=1}k=\frac{n+1}{2}$$
$$V(X)=E(X^2)-E(X)$$
$$E(X^2)=\sum^n_1 k^2 P[X=k]=\frac{1}{n}\sum^n_{k=1}k^2$$
\paragraph{Rappel~:}
$$\sum^n_1 k^2=\frac{n(n+1)(2n+1)}{6}$$
$$E(X^2)=\frac{(n+1)(2n+1)}{6}$$
$$V(X)=\frac{(n+1)(2n+1)}{6}-\frac{(n+1)^2}{4}=\frac{n^2-1}{12}$$
\subsubsection{Loi de Bernoulli $B(p)$}
C\'est la loi d'une varuable aléatoire $X$ pouvant prednre que les
deux valeurs 1 ou 0 avec les probabilités $p$ et $1-p$.
$X$ est la fonction indicatrice d'un évévement $A$ de probabilité $p$
$$E(X)=\sum_0^1 k P[X=k]=p$$
$$E(X^2)=\sum_0^1 k^2 P[X=k]=p$$
$V(X)=p-p^2=p(1-p)=pq$$q=1-p$
\subsubsection{Loi binomiale $B(n, p)$}
Supposons que l'on répète $n$ fois dans des conditions identiques une
expérience aléatoire dont l'issue se traduit par l'apparition (ou la
non-apparition) d'un événement $A$ de probabilité $p$. Les résultats
de chaque expériences sont indépendants.
$X$ est le nombre de réalisations de $A$.\\
Somme indépendante de variable de Bernoulli~:
$$X=\sum^n_{i=1}$$
$$P[X=k]=C^k_n p^k(1-p)^{n-k}$$
$X_i$ suit $B(p)$
$$E(X)=\sum^n_{i=1}E(X_i)=np$$
$$V(X)=\sum^n_{i=1}V(X_i)=np(1-p)=npq$$
\subsubsection{Loi de Poisson $P(\lambda)$}
C'est la loi d'une variable aléatoire entière positive qui satisfait à
$P\left[X=x\right]=e^{i\lambda}\frac{\lambda^x}{x!}\forall x\in\mathbb{N}$
$\lambda_i$ paramètre de Poisson.\\
On obtient la loi de Poisson comme approximation de la loi binomiale
$B(n, p)$ avec $n\mapsto\infty$, $p\mapsto 0$ et $np\mapsto\lambda$
$$C^k_n p^k(1-p)^{n-k}\simeq e^{-np}\times\frac{(np)^k}{k!}\qquad\lambda=np$$
\paragraph{Théorème} Soit $X_n$ une suite de valeurs aléatoires $B(n, p)$
telles que $n\mapsto +\infty$ et $p\mapsto 0$ de manière à ce que le produit
$n\times p\mapsto \lambda$ (finie), alors $X_n$ converge en loi vers une
variuable de Posiion $P(\lambda)$.
\paragraph{Démonstration}
$$P[X_n=k]=C^n_k p^k(1-p)^{n-k}=\frac{n!}{k!(n-k!)}p^k(1-p)^{n-k}$$
$$P[X_n=k]=\frac{n(n-1)(n-1)...(n-k+1)}{k!}p^k(1-p)^n-k$$
$$P[X_n=k]=\frac{(np)^k}{k!}(1-\frac{1}{n})(1-\frac{2}{n})...
(1-\frac{k-1}{n})(1-p)^{n-k}$$
$$(1-p)^{n-k}=(1-p)^n\times (1-p)^{-k}$$
$$(1-p)^{-k}\longrightarrow_{p\rightarrow 0} 1$$
$$np\sim\lambda\Leftrightarrow\frac{\lambda}{n}$$
$$(1-p)^n\sim(1-\frac{\lambda}{n})^n$$
Rappel~: $lim_{n/mapsto +\infty}(1+\frac{x}{n})^n=e^x$
$$C_n^k p^k (1-p)^{n-k}\longrightarrow_{n\mapsto +\infty; p\rightarrow 0}
\frac{\lambda^k}{k!}e^{-k+}$$
\subparagraph{Espèrance}
Soit $X$ suit $P(\lambda)$~:
$$E(X)=\sum_{k=0}^{+\infty}k P[X=k]=\sum_{k=0}^{+\infty}k\cdot e^{-k}
\frac{\lambda^k}{k!}$$
$$E(X)=e^{-k}\sum^{+\infty}_{k=1}\frac{\lambda^{k}}{(k-1)!}=
e^{-\lambda}\lambda e^\lambda=\lambda$$
Rappel~: $$\sum_{k=0}^{+\infty}\frac{X^k}{k!}=e^x$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum_{k=0}^{+\infty}k^2e^{-\lambda}\frac{\lambda^k}{k!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}k\cdot\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\sum_{k=1}^{+\infty}(k-1+1)\frac{\lambda^k}{(k-1)!}=
e^{-\lambda}\sum_{k=2}\frac{\lambda^2}{(k-2)!}+
e^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^k}{(k-1)!}$$
$$E(X^2)=e^{-\lambda}\lambda^2e^2+e^{-k}\lambda e^k=\lambda^2+\lambda$$
$$V(X)=\lambda^2+\lambda-\lambda^2=\lambda$$
\subsubsection{Loi hypergéométrique $H(N, n, p)$}
Soit une population de $N$ individus parmis lesquelles, une proportion $p$
($n\cdot p$ individus) possèdent un certain caractère.
On prélève un échantillon de $n$ individus parmis cette population (tirage sans
remise).
Soit $X$ la variable aléatoire~: le nombre d'individus de l'échantillon
possédant la propriété. On dit que $X$ suit la loi hypergéométrique.
La probabilité de $X$~: $P[X=x]=\frac{C^{x}_{N\cdot p}\cdot
C^{n-x}_{N-N\cdot p}}{C^n_N}$
\paragraph{Remarque} $H(N, n, p)\rightarrow B(n, p)$ quand $N\rightarrow
+\infty$ (loi binomiale).
En pratique, ce résultat est vrai lorsque $\frac{n}{N}<10\%$ ($\frac{n}{N}$ est
le taux de sondage).
$$E(X)=n\cdot p$$
$$V(X)=\left(\frac{N-n}{N-1}\right)\cdot n\cdot p\cdot (1-p)$$
\subsubsection{Loi géométrique et loi de Pascal}
C'est la loi du nombre d'essais nécessaire pour faire apparaître un événement
$A$ de probabilité $p$.
$$P[X=x]=(1-p)^{x-1}\cdot p\qquad\forall x\geq 1$$
$$1-p=q\qquad P[X=x]=q^{x-1}\cdot p$$
$$E(X)=\sum^{+\infty}_{x=1}x(1-p)^{x-1}\cdot p=p\cdot\sum^{+\infty}_{x=1}x\cdot q^{x-1}$$
Rappel~: $\sum^{+\infty}_{k=0} q^k=\frac{1}{1-q}\qquad q>1$
$$f(q)=\sum^{+\infty}_{x=0}q^x=\frac{1}{1-q}$$
En dérivant~:
$$\sum_{x=1}^{+\infty} x\cdot q^{x-1}=\frac{1}{(1-q)^2}$$
$$E\left(X\right)=p\cdot\frac{1}{(1-q)^2}=\frac{1}{p}$$
$$V(X)=E(X^2)-E^2(X)$$
$$E(X^2)=\sum^{+\infty}_{x=1}x^2(1-p)^{x-1}\cdot p=
p\sum^{+\infty}_{x=1}x^2\cdot (1-p)^{x-1}$$
En utilisant la dérivée seconde de $f(q)=\sum^{+\infty}_{n=0}q^x$, on obtient~:
$$V(X)=\frac{q}{p^2}\qquad (q=1-p)$$
La loi de Pascal d'ordre $n$ est la loi du nombre d'essais nécessaires pour
observer $n$ fois un évènement $A$ de probabilité $P$. L'expérience devant se
terminer par $A$.
$$P[X=x]=p\cdot C^{n-1}_{x-1}p^{n-1}\cdot q^{x-n}$$
$$P[X=x]=C^{n-1}_{x-1}p^n\cdot q^{x-n}\qquad\forall x\geq n$$
Donc $X=\sum^{n}_{i=1}X_i$ somme indépendante de lois géométriques de paramètre
$p$.
$$E(X)=\sum^{n}_{i=1}E(X_i)=\frac{n}{p}$$
$$V(X)=\sum^{n}_{i=1}=\frac{n\cdot p}{p^2}$$
\paragraph{Exercice}
Le nombre d'appel que reçoit un standard téléphonique par minute obéït à la loi
de Poisson $P(3)$.
\begin{enumerate}
\item Calculer le nombre moyen d'appels par minutes ainsi que la variance.
\item Quelle est la probabilité d'avoir reçu un appel au cours d'une minute.
\item Quelle est la probabilité d'avoir au moins trois appels dans une minute.
\end{enumerate}
\paragraph{Exercice}
Un individu décide de jouer à un jeu de loto jusqu'à ce qu'il gagne à un rang
minimum qu'il s'est fixé. La probabilité de gain pour ce rang à chaque tirage
est $p$. On note $X$ la variable aléatoire indiquant le nombre de tirage
auquels il doit participer pour atteindre son objectif.
\begin{enumerate}
\item Quelle est la loi de probabilité de $X$ et donner sa fonction de
répartition.
\item Donner le nombre moyen de tirage nécessaires ainsi que la variance.
\item Quelle est la probabilité pour qu'il gagne après $n$ tirages.
\item N'ayant toujours pas gagné à l'issue du $n$ième tirage, calculer la
probabilité pour qu'il gagne au $(n+k)$ième tirage.
\end{enumerate}
\end{document}

118
socior.tex Normal file
View File

@ -0,0 +1,118 @@
\chapter{Méthodologie}
\section{Les entretiens}
L'entretien est un des moyens d'une recherche consistant en une
technique d'interrogation avec un \textbf{but}.
Il en existe différente forme~:
\begin{itemize}
\item Entretien non directif~: une question très large
\item Semi-directif
\item Directifs ou standardisé~: questionnaires, sondage
\end{itemize}
Support~:
\begin{itemize}
\item avec expérience,
\item avec texte écrit, dessin,
\item avec vidéo,
\item avec ordinateur.
\end{itemize}
Productions enregistrées~:
\begin{itemize}
\item Orales,
\item orales et gestuelles et contextes (vidéo),
\item trace des actions (ordinateur)
\end{itemize}
Lorsque l'on réalise un entretien, sans aucun enregistrement, on ne
garde que 20\% de ce que la personne dit.
Généralement, on ne fera que valider des hypothèses, sans faire
attention à ce que dit la personne.
\section{Les formes d'interrogation}
\subsection{Directifs}
\begin{itemize}
\item Guide d'entretien
\item Questions standardisées
\item Ordre de progression imposé
\item => Approfondir un thème connu (quantitatif)
\end{itemize}
\subsection{Semi-directif}
\begin{itemize}
\item Schéma d'entretien
\item Consigne de départ et grille de thème à aborder
\item Pas d'ordre imposé
\item => compléter des résultats (qualitatif)
\end{itemize}
\subsection{Non-directif}
\begin{itemize}
\item Seule contrainte~: la consigne thématique de départ,
\item Suit la logique propre de l'interviewé,
\item Empathie, acceptation inconditionnelle
\end{itemize}
\og Bonjour, on cherche une entreprise qui a un problème, parce qu'on
sera bientôt cadres et nous voudrions les connaître blabla \fg
\section{Techniques de relance}
\begin{itemize}
\item Le silence,
\item Hmmm.
\item Reprendre des propositions fautes (sans changer les termes,
la syntaxe, ...),
\item Reposer la question initiale.
\item (La reformulation~: « Si je comprends bien, il ... », la
personne reprendra pour améliorer le résumé fait).
\end{itemize}
Sur les deux~: un seul parle, l'autre prend des notes. Il ne peut
intervenir que si celui qui parle passe à côté de quelque chose de
très important.
Commencer par des questions non engageante~:
- Quel est votre nom ?
- Dans quel service travaillez-vous ?
Puis dans un second temps, ça peut être :
- Dessiner un diagramme de l'entreprise par exemple, ...
\chapter{Les formes du leadership}
Manager = gestionnaire, Leader : participation volontaire, autocrate :
pouvoir absolu.
\begin{itemize}
\item Charismatique~: comme Charles de Gaulle,
\item Traditionnelle~: par exemple les rois,
\item Rationelle légale (bureaucratique)~: les élections
présidentielles française, \ldots
\end{itemize}
On distingue 5 approches du leadership axée sur les contingences~:
\begin{itemize}
\item \textbf{M1~:} très bas niveau~: connaissent mal le travailw
\item \textbf{M2~:} maturité moyenne, maîtrisent peu les exigences
du travail mais sont motivés.
\item \textbf{M3~:} maturité moyenne/élevée~: maîtrisent les
compétences mais sont de moins en moins motivés.
\item \textbf{M4~:} maturité élevée : bonne compétences, motivation
élevée.
\end{itemize}
\begin{itemize}
\item \textbf{S1~:} Directif~: on se centre sur la tâche pas sur la
relation.
\item \textbf{S2~:} Motivateur ou vendeur~: autant la relation
(encouragement) que la tâche (formation).
\item \textbf{S3~:} Participatif~: travail d'équipe et nouveaux
projets,
\item \textbf{S4~:} Délégation~: intervention minimale de
durection.
\end{itemize}