OpenStack.fr

OpenStack.fr

vendredi 29 juillet 2011

GlusterFS

Dans la série des annonces, j'oubliais celle de Gluster qui a réalisé une intégration pour OpenStack. Sans bien savoir pour le moment quel est le rôle de ce connecteur GlusterFS (release 3.3) pour OpenStack, cette solution OpenSource de stockage distribué hautement disponible, performante et scalable est intéressante.

En effet, les images opérationnelles (instances) des VM par node-compute physique ou virtuel (cas de XenServer, voire XCP) sont attachés au SGF du noeud qui porte l'hyperviseur (défaut: /usr/lib/nova/images, flag: --instances_path).

A défaut, de mettre en place un espace de données partagé, performant et fortement disponible (NAS+, avec réseau dédié par noeud de 10Gb/s), les fonctionnalités de migration de VM, voire de réplication de type Fault Tolerance, etc. ne seront pas viables. La simplicité de gestion de cet environnement de stockage via GlusterFS apporte une grande plus value à OpenStack.

La mise en oeuvre de GlusterFS est très facile avec des serveurs de stockage sur lesquels sont installés un daemon glusterfsd. Pour exemple, l'environnement OpenStack de test aura, à minima (réplication et migration oblige), 2 serveurs de gestion des espaces de données via GlusterFS et 2 serveurs de calcul, dont l'un des 2 portera les autres services Nova nécessaires. Le mode opératoire à 4 étapes sera grosso-modo, le suivant, à minima de configuration d'optimisation du cluster de fichiers.

1) Connexion aux différents nœuds GlusterFS depuis le 1er noeud de stockage
# gluster peer probe "@IP|name storage-n1"
# gluster peer probe "@IP|name storage-n2"

...

# # vérification depuis node[1|2]-storage

# gluster peer status

2) Création d’un file system (glusterfs) nommé "data-volume" répliqué 2 fois.
# gluster volume create data-images replica 2 transport tcp storage-n1:/glusterlocal storage-n2:/glusterlocal

# gluster volume start data-images

# gluster volume info data-images


3) Création d'un point de montage pour l'espace data-images sur chaque noeud concerné
# mkdir /VM-instances


4) Montage du SG distribué sur chaque noeud, voire sur des clients via GlusterFS client ou FUSE, …
# mount -t glusterfs storage-n[1|2]:/VM-instances /
VM-instances
# # démarrage des services Nova après avoir actualisé le fichier "/etc/nova.config", flag --instances_path


Maintenant, il faut tester la migration de VM à chaud entre 2 nœuds de calcul. Reste des tests à effectuer pour valider les éléments différenciateurs redondance, performance avec benchmarks d'I/O, etc. Ce SGF distribué peut aussi être utilisé pour les images gérées par Glance.

Aucun commentaire:

Enregistrer un commentaire