Ceci est une ancienne révision du document !
Pacemaker
Pacemaker est un gestionnaire de cluster haute disponibilité. Il est chargé de démarrer , arrêter et superviser les ressources du cluster. Ce projet est supporté par les entreprises Red hat, Novel et Linbit. Un cluster est un groupe de deux ou plusieurs machines.
Pour des services vraiment délicats comme un serveur web il peut être intéressant de configurer deux serveurs webs sur deux machines physiques. Si l'un des deux serveurs tombe en panne pacemaker se chargera de remplacer le serveur défaillant par le deuxième. L'utilisateur ni aura vu que du feu et ne se sera jamais rendu compte que l'un des serveurs était tombé en panne.
Comme l'on peut le voir sur le schéma Pacemaker s'appuie sur les logiciels heartbeat ou corosync pour contrôler les machines. Cependant pacemaker utilise corosync par défaut sous Ubuntu.
Cette interface permet à partir d'un accès ssh d'installer et de configurer le logiciel pacemaker et les logiciels sur lesquels pacemaker se base.
Cette interface est initialement prévu pour mettre en place la technologie de raid réseau drbd. Bien entendu dans notre cas nous n'utiliserons pas cette fonctionnalité.
Il est tout de même conseillé de bien comprendre la configuration en ligne de commande avant d'utiliser cet outil.
Télécharger l'applet java ici.
Pré-requis
- Avoir au minimum deux postes sous ubuntu 10.04 sinon il n'y a pas vraiment d'intérêt à faire un cluster
- Savoir ce qu'est la notion de haute disponibilité
- Avoir des rudiments de connaissances concernant le réseau
Installation
Pour installer ce logiciel, il suffit d'installer le paquet pacemaker.
Configuration
Dans cet exemple nous mettrons en place un cluster de deux machines. Avant de passer à la configuration du cluster il est nécessaire de faire quelques modifications pour que nos deux machines puissent communiquer entre elles.
Voici un tableau de la configuration que nous allons utiliser par la suite:
Nom de poste | Adresse ip | |
---|---|---|
pc 1 | machine1 | 192.168.1.101 |
pc 2 | machine2 | 192.168.1.102 |
Configuration des machines
Modification du nom des machines
Donner des noms à nos deux machines permettra d'avoir une configuration plus lisible dans le futur. (Ne pas utiliser de majuscules pour éviter un bug avec l'interface java)
sudo hostname <nom de machine>
Éditer le fichier /etc/hostname et modifier le nom de la machine
Fermer votre session et reconnectez vous
Éditer le fichier /etc/hosts
sudo vim /etc/hosts
Vous devriez voir un contenu semblable à celui ci (le nom de machine dépend bien sur de votre configuration):
127.0.0.1 localhost 127.0.1.1 ubuntu1
Rajouter ceci:
127.0.0.1 <nom du poste> 192.168.1.101 machine1 192.168.1.102 machine2
Configuration des adresses ip des interfaces
Fixer les adresses ip des machines en suivant cette procédure. Penser à configurer les serveur DNS.
Éditer le fichier /etc/resolv.conf et ajouter ceci:
nameserver <adresse ip serveur dns>
Configuration de la partie exécutive du cluster
Comme je vous l'ai dit précédemment pacemaker s'appuie sur d'autres logiciels pour agir et surveiller les postes heartbeat ou corosync. Dans cette section nous allons permettre aux deux postes de s'envoyer des informations soit par corosync soit par heartbeat.
Configuration de corosync
Création d'une clée d'authentification, cette commande créera le fichier /etc/corosync/authkey.
corosync-keygen
Envoi de ce fichier et modification des droits de ce fichier sur l'autre poste
sudo scp /etc/corosync/authkey nom_utilisateur@machine2:
Sur la machine 2
sudo mv ~/authkey /etc/corosync/authkey sudo chown root:root /etc/corosync/authkey sudo chmod 400 /etc/corosync/authkey
Configuration du fichier /etc/corosync.conf
sudo vim /etc/corosync/corosync.conf
La partie du fichier à modifier est la partie concernant la configuration de l'interface.
interface { # The following values need to be set based on your environment ringnumber: 0 bindnetaddr: 127.0.0.1 mcastaddr: 226.94.1.1 mcastport: 5405 }
Options | Description |
---|---|
ringnumber | Numéro de l'interface, laissez zéro si vous en déclarer une seule |
bindnetaddr | Correspond au réseau configuré sur la carte allant servir pour les tests entre membres |
mcastaddr | Adresse de multicast utilisé pour les tests |
mcast port | Port multicast utilisé |
Activer le démon corosync
vim /etc/default/corosync
Faites la modification suivante
START=yes
Lancement des deux démons sur les deux membres:
/etc/init.d/corosync start
Affichage de l'état du cluster:
sudo crm_mon --one-shot
Le résultat de la commande devrait ressembler à cela:
Last updated: Mon May 3 10:08:55 2010 Stack: openais Current DC: Ha-proxy-master - partition with quorum Version: 1.0.8-2c98138c2f070fcb6ddeab1084154cffbf44ba75 2 Nodes configured, 2 expected votes 0 Resources configured. ============ Online: [ machine1 machine2 ]
Configuration avancée de corosync
Il peut être judicieux de configurer plusieurs interfaces redondantes pour le lien entre les deux postes.
Pour cela il suffit de déclarer une deuxième interface avec le paramètre ringnumber incrémenté, penser à changer l'adresse de multicast et le port de destination, bien que je ne sois pas sur que cela soit indispensable.
interface { ringnumber: 0 bindnetaddr: 192.168.0.0 mcastaddr: 226.94.1.0 mcastport: 5400 } interface { ringnumber: 1 bindnetaddr: 192.168.1.0 mcastaddr: 226.94.1.1 mcastport: 5401 }
Modifier le paramètre rrd_mode
rrd_mode: active
Options | Description |
---|---|
active | Les deux interfaces sont utilisés |
passive | La deuxième est utilisé seulement dans le cas où la première ne fonctionne plus |
Commandes de gestion du cluster
Informations sur l'état du cluster
Afficher l'état du cluster
crm_mon
Options | Explications |
---|---|
-f | permet d'afficher les compteurs d'erreurs durant les migration des ressources |
-1 –one-shot | Affiche l'état à un seul instant et quitte (utile dans les scripts) |
Action sur les postes et les ressources
Accéder à l'interface de configuration du cluster
sudo crm
Commandes | Explications |
---|---|
help | liste les commandes disponibles |
status | affiche l'état du cluster |
end,cd,up | revenir au niveau précédent |
quit,bye,exit | quitter le crm |
Mettre un poste en maintenance
sudo crm node standby
Sortir un poste de maintenance
sudo crm node online
Migrer une ressource vers un autre poste
sudo crm ressource migrate <nom ressource> <nom du poste allant accueillir la ressource>
Annuler la migration de la ressource
sudo crm ressource unmigrate <nom ressource>
Mettre à zéro les compteurs d'échec pour un hôte et une ressource donnés
sud crm resource failcount <nom de la ressource> delete <nom de l'hôte>
Mettre à zéro l'état d'une ressource
sudo crm resource cleanup <nom de la ressource>
Modification de la configuration du cluster
Entrer dans la mode de configuration
sudo crm configure
Modifier la configuration d'un cluster en activité
Crée une copie de la configuration actuelle
sudo crm crm(live)# cib new copy_config
Utiliser la copie de la configuration
crm(live)# cib use copy_config
Entrer dans le mode de configuration
crm(config)# configure
Voir la configuration
crm(config)configure# show
vérifier sa configuration
crm(config)configure# verify
Supprimer une ressource
crm(config)configure# delete <nom de la ressource>
Appliquer la nouvelle configuration au cluster
crm(config)# cib commit copy_config
Configuration de clusters
Cette section regroupe tout les liens vers des tutoriels proposant des configurations de cluster. Si cette documentation vous a permit de comprendre et d'utiliser pacemaker. Il serait intéressant que vous laissiez une trace de la configuration que vous avez réalisé.
Cluster de deux machines
Supervision du cluster
Trap snmp
Pacemaker gère l'envoi de traps snmp. Si quelqu'un à réussit à les utiliser, sa contribution est la bienvenue.
Supervision avec l'agent nrpe
Cette partie s'adresse aux personnes connaissant nagios et l'agent nrpe.
Il est possible de créer un script permettant de savoir si les compteurs d'échec ont été incrémentés.
Création du script dans le répertoire /usr/lib/nagios/plugins/
sudo vim /usr/lib/nagios/plugins/check_pacemaker
Contenu de ce script
héhé
Déclarer le script dans la configuration de l'agent nrpe
Editer le fichier /etc/nagios/nrpe.cfg et rajouter dans la section commands cette ligne
command[check_pacemaker]=/usr/lib/nagios/plugins/check_pacemaker
Désinstallation
Pour supprimer cette application, il suffit de supprimer son paquet. Selon la méthode choisie, le configuration globale de l'application est conservée ou supprimée. Les journaux du système, et les fichiers de préférence des utilisateurs dans leurs dossiers personnels sont toujours conservés.
Voir aussi
- (en) tutoriel officiel
- Basé sur l'article « Using Pacemaker with Lustre ».
Contributeurs principaux : Miam Miam.