virli/tutorial/k8s/overview.md

164 lines
6.8 KiB
Markdown
Raw Normal View History

2019-11-26 15:00:39 +00:00
Vue d'ensemble de Kubernetes
2022-02-24 19:43:43 +00:00
----------------------------
2019-11-26 15:00:39 +00:00
2022-11-30 03:33:10 +00:00
*Kubernetes* (prononcé Ku-ber-né-tice[^prononciation-k8s] en grec) est un
système *open source* d'orchestration et de gestion de conteneurs. C'est-à-dire
qu'il se charge de faire coller constamment la liste des conteneurs qu'il voit
vivant aux spécifications qu'on lui aura demandées.
2019-11-26 15:00:39 +00:00
[^prononciation-k8s]: <https://github.com/kubernetes/kubernetes/issues/44308>
2022-11-30 03:33:10 +00:00
Ce projet est l'aboutissement de plus d'une quinzaine d'années
2022-02-24 19:43:43 +00:00
d'expérience de gestion de conteneurs applicatifs chez Google
(rappelons que c'est eux qui ont poussé de nombreuses technologies
dans le noyau Linux, notamment les *cgroups*, ...).
2019-11-26 15:00:39 +00:00
Dans Kubernetes, il n'est pas question d'indiquer comment lancer ses
2021-11-19 23:00:30 +00:00
conteneurs, ni même quels *cgroups* utiliser. On va fournir à l'orchestrateur
des informations, des *spécifications*, qui vont altérer l'état du cluster. Et
c'est en cherchant à être constamment dans l'état qu'on lui a décrit, qu'il va
2019-11-26 15:00:39 +00:00
s'adapter pour répondre aux besoins.
2022-02-24 19:43:43 +00:00
Par exemple, on ne va pas lui expliquer comment lancer des conteneurs
ou récupérer des images ; mais on va lui demander d'avoir 5 conteneurs
`youp0m` lancés, de placer ces conteneurs derrière un load-balancer ;
on pourra également lui demander d'adapter la charge pour absorber les
pics de trafic (par exemple lors du Black Friday sur une boutique),
mais également, on pourra gérer les mises à jour des conteneurs selon
différentes méthodes ...
2019-11-26 15:00:39 +00:00
2022-02-24 19:43:43 +00:00
### Architecture de Kubernetes
2019-11-26 15:00:39 +00:00
![Architecture de Kubernetes](k8s-archi.png)
2022-11-30 03:33:10 +00:00
Un cluster Kubernetes est composé dun (ou plusieurs) nœuds *control-plane*, et
dune série de nœuds *workers*.
2019-11-26 15:00:39 +00:00
2022-11-30 03:33:10 +00:00
Le(s) *control-plane(s)* sont en charge de prendre des décisions globales sur
le déroulement des opérations du cluster : cela va de la détection d'anomalies
sur le cluster ou encore le traiter d'événements et l'organisation de leur
réponse, ...
On retrouve sur ces nœuds centraux les composants suivants :
2019-11-26 15:00:39 +00:00
API HTTP
: On distingue plusieurs API, elles sont toutes utilisées pour communiquer avec
le cluster, pour son administration.
L'ordonnanceur
: Il a la responsabilité de monitorer les ressources utilisées sur chaque nœud
2022-11-30 03:33:10 +00:00
et de répartir les nouveaux conteneurs en fonction des ressources
disponibles.
2019-11-26 15:00:39 +00:00
2022-11-30 03:33:10 +00:00
Les contrôleurs
: Ils vont contrôler l'état des différents composants déployées au sein du
cluster, pour s'assurer d'être dans l'état désiré. Il y a en fait plusieurs
contrôleurs ayant chacun la responsabilité de veiller sur une partie des
objets, ainsi que le `cloud-controller-manager` lorsque le cluster se trouve
chez un hébergeur cloud compatibles.
2019-11-26 15:00:39 +00:00
**`etcd`**
: Il s'agit d'une base de données clef/valeur, supportant la
haute-disponibilité, que Kubernetes emploie comme système de stockage
2021-11-19 23:00:30 +00:00
persistant pour les objets et ses états.
\
2019-11-26 15:00:39 +00:00
2021-11-19 23:00:30 +00:00
Chaque nœud (généralement, le nœud *master* est également *worker*) est utilisé
2022-02-24 19:43:43 +00:00
via deux composants :
2019-11-26 15:00:39 +00:00
`kubelet`
: C'est l'agent qui va se charger de créer les conteneurs et les manager, afin
2022-11-30 03:33:10 +00:00
de répondre aux spécifications demandées par les *control-planes*.
2019-11-26 15:00:39 +00:00
`kube-proxy`
2022-11-30 03:33:10 +00:00
: Ce programme va servir de load-balancer pour se connecter aux conteneurs. Il
se base généralement sur le système de filtrage de paquet du système et est
donc amené à l'altérer.
2019-11-26 15:00:39 +00:00
2022-11-30 03:33:10 +00:00
Sans oublier le moteur de conteneurs (généralement [CRI-O](https://cri-o.io/)),
qui va effectivement se charger de lancer les conteneurs demandés par
`kubelet`.
2021-11-19 23:00:30 +00:00
\
2019-11-26 15:00:39 +00:00
Évidemment, chaque élément de l'architecture est malléable à souhait, c'est la
raison pour laquelle il peut être très difficile de mettre en place une
2022-11-30 03:33:10 +00:00
architecture Kubernetes : avec ou sans haute-disponibilité, avec le bon nombre
de nœuds décideurs, avec un gestionnaire de réseau qui correspond aux besoins,
avec un moteur de conteneur exotique (`rkt`, `ctr`, ...), etc.
### Modèle réseau
Pour Kubernetes, il n'y a qu'un seul gros réseau au sein duquel se retrouve
tous les conteneurs. Il ne doit pas y avoir de NAT, que ce soit entre les
*pods* ou les *nodes*, chacun doit pouvoir contacter n'importe quel autre
élément, sans qu'il y ait de routage.
C'est un modèle assez simpliste au premier abord, mais en raison de la
diversité des infrastructures et des besoins différents de chacun, de
nombreuses extensions viennent compléter ce schéma.
La [spécification
CNI](https://github.com/containernetworking/cni/blob/master/SPEC.md#network-configuration)
(pour Container Network Interface) définit l'interface commune que les plugins
doivent gérer : il s'agit de pouvoir ajouter et configurer une interface, la
supprimer ou de vérifier qu'une interface va bien.
Ainsi, à la création d'un conteneur, Kubernetes va laisser aux plugins CNI le
loisir d'ajouter les interfaces réseaux adéquates, d'allouer l'adresse IP, de
configurer les routes, les règles de pare-feu, ... quelque soit
l'infrastructure et la complexité du réseau utilisé derrière.
\
Terminons en ajoutant qu'un serveur DNS faisant autorité est nécessaire pour
que, de la même manière que Docker, il soit possible d'accéder aux autres
conteneurs via leur nom (sans qu'il ne soit nécessaire de le déclarer sur un
serveur de noms public). Il n'y a pas de projet de porté par Kubernetes pour
cela, mais cette tâche est généralement assurée par
[CoreDNS](https://coredns.io/).
2019-11-26 15:00:39 +00:00
2022-02-24 19:43:43 +00:00
### *Resources*
2019-11-26 15:00:39 +00:00
Avec Docker, nous avons eu l'habitude de travailler avec des objets (images,
2022-11-30 03:33:10 +00:00
containers, networks, volumes, secrets, ...). Au sein de Kubernetes, cela
2019-11-26 15:00:39 +00:00
s'appelle des *resources* et elles sont très nombreuses.
2021-11-19 23:00:30 +00:00
Parmi les plus courantes, citons les types (désignés *Kind* dans l'API, rien à
2022-11-30 03:33:10 +00:00
voir avec le projet `kind` dont on va parler par ailleurs) suivants :
2019-11-26 15:00:39 +00:00
node
2021-11-19 23:00:30 +00:00
: il s'agit d'une machine de notre cluster (elle peut être physique ou
virtuelle).
2019-11-26 15:00:39 +00:00
pod
2022-11-30 03:33:10 +00:00
: un groupe de conteneurs travaillant ensemble. C'est la ressource que l'on
déploie sur un *node*. Les conteneurs au sein d'un *pod* ne peuvent pas être
séparés pour travailler sur deux *nodes* différents.
2019-11-26 15:00:39 +00:00
service
: c'est un point de terminaison (*endpoint*), stable dans le temps, sur lequel
on peut se connecter pour accéder à un ou plusieurs
conteneurs. Historiquement, appelés portails/*portals*, on les retrouve
encore quelques fois désignés ainsi dans de vieux articles.
namespace
2022-11-30 03:33:10 +00:00
: à ne pas confondre avec les *namespaces* Linux. Ici il s'agit d'espaces
nommés que Kubernetes va utiliser pour regrouper des objets ensembles.
2019-11-26 15:00:39 +00:00
secret
: comme `docker secret`, il s'agit d'un moyen de passer des données sensibles à
un conteneur.
2022-02-24 19:43:43 +00:00
Pour voir la liste complète des *resources*, on utilise : `kubectl
2019-11-26 15:00:39 +00:00
api-resources`.
2022-02-24 19:43:43 +00:00
### Pour aller plus loin
2019-11-26 15:00:39 +00:00
2022-02-24 19:43:43 +00:00
* La documentation de Kubernetes : <https://kubernetes.io/docs/>
2022-11-30 03:33:10 +00:00
* Les spécifications CNI : <https://github.com/containernetworking/cni/blob/main/SPEC.md>