1 votes

XenServer HA (reprise des machines virtuelles) sans stockage partagé

À l'université de l'Uruguay où je travaille, nous avons 2 IBM BladeCenter S avec 4 lames de serveur chacune. Chaque lame a XenServer 6.2 installé et fonctionne.

Notre idée est d'avoir chaque BladeCenter dans des configurations différentes (connectées) pour avoir une redondance.

Chaque châssis de BladeCenter a un stockage en fibre optique intégré dans le châssis et, a priori, je ne trouve pas comment partager ce stockage avec les autres châssis de BladeCenter.

Aussi, je sais que la méthode de stockage partagé n'est pas la meilleure, car elle implémente un point de panne unique...

Donc, je dois trouver un moyen de mettre en place une haute disponibilité avec XenServer 6.2, sans stockage partagé. J'ai trouvé http://www.halizard.com/, mais je veux connaître d'autres alternatives pour avoir une HA sans stockage partagé.

L'autre chose à laquelle je peux penser, c'est si je peux refléter les stockages par réseau (avec iSCSI), et faire du multipath sur les cibles iSCSI comme 1, ou avoir un iSCSI et un Fibre Channel en multipath (mais je ne sais pas si cela existe). Si cela est possible, l'implémentation de la HA de XenServer fonctionnera.

J'espère que vous pourrez m'aider!

1voto

Asit Points 11

Bonjour Vous pouvez essayer Xen DRBD pour réaliser une haute disponibilité sans stockage partagé...

http://www.drbd.org/users-guide/ch-xen.html

https://github.com/locatrix/xs-pacemaker

-Asit

1voto

Nils Points 7622

Si vous disposez de suffisamment d'espace de stockage local, vous pouvez construire votre propre solution de haute disponibilité iSCSI.

Recette : - drbd > 8.2.x - tgtd

Configurez deux machines virtuelles locales qui répliquent deux LVs l'un sur l'autre en mode dual primaire drbd. Utilisez chaque cible iscsi locale. Sur le serveur XEN, assurez-vous d'utiliser chaque cible en mode actif/passif (pas de rr!).

0voto

RyanH Points 327

Lors du choix d'une solution HA, vous devrez décider du niveau d'indisponibilité (si aucun) acceptable. Cela affectera la complexité de votre configuration.

Je pense que vous avez deux options sans acheter de matériel supplémentaire (avec d'autres permutations) :

  1. "Toujours actif" - DRBD en mode Primaire-Primaire
  2. 5 à 15 minutes d'arrêt - DRBD en mode Primaire-Esclave

Pour la configuration la plus haute disponibilité sans stockage partagé, vous devrez utiliser DRBD en mode primaire-primaire. Cela nécessitera un dispositif STONITH pour éliminer un nœud non-répondeur. Les dispositifs de sauvegarde sur batterie basés sur IP peuvent généralement gérer cette fonction efficacement. Pacemaker et corosync peuvent gérer la mise en service des machines virtuelles et la gestion des ressources.

Les avantages sont que vous pouvez effectuer une migration en direct et l'indisponibilité est théoriquement éliminée.

Les inconvénients de cette configuration sont que si un split-brain se produit (ce qui arrivera), il peut être difficile à réparer, car les données peuvent exister sur les deux nœuds.

Alternativement, si vous acceptez quelques minutes d'arrêt, voici ce que nous utilisons :

  • DRBD en mode Primaire-Secondaire
  • Une pile de stockage composée de MDADM Raid 1 Array -> LVM -> DRBD -> LVM
  • Un script pour mettre en service les ressources en cas d'événement de basculement (administrateur exécute manuellement cela).

Essentiellement, nous avons deux pools LVM de stockage au-dessus de deux tableaux MDADM Raid 1. Ils sont exportés vers DRBD pour effectuer une réplication au niveau du bloc. Ensuite, vous ajoutez LVM au-dessus de DRBD pour permettre des instantanés des machines virtuelles et un accès direct au système de fichiers des machines virtuelles. Pourquoi deux ?

L'idée initiale était de créer une ressource DRBD pour chaque machine virtuelle, de sorte que les machines puissent être déplacées entre les hôtes en fonction de la charge et qu'un hôte ne reste pas inactif. Son administration était difficile, donc deux ressources DRBD de 200 Go chacune étaient un bon compromis. De cette manière, r0 peut être primaire sur node1 et r1 peut être primaire sur node2. Si node1 tombe en panne, nous exécutons notre script "make master" sur node2 et il gère les mappages LVM, définissant DRBD comme primaire pour ces ressources et indiquant à virsh de démarrer toutes les machines. Sur un tableau SSD, je peux arrêter une douzaine de machines virtuelles et les démarrer sur node2 en environ 2-3 minutes.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X