3 votes

DRBD sur LVM ou LVM sur DRBD avec plusieurs disques

J'ai 4 serveurs identiques avec chacun 1+3 SSD pour les données (pas de RAID) + 2x10G & 2x1G net. Je souhaite avoir une configuration NFS active-passive avec une seule exportation. Je vais probablement opter pour 2 clusters, donc 2 serveurs/exports NFS actifs qui seront montés par de nombreux clients (en tant que home dirs) avec autofs, de sorte que le serveur qui détient les données n'est pas important (avoir toujours un cluster en fonctionnement si l'un d'eux est en panne est un plus - mise à niveau/migration/défaillance) ; les deux seront sauvegardés. Je pensais d'abord opter pour CEPH, mais.. :

  • exporter avec NFS et avoir un quota u/g/p je pense que c'est impossible( ?)
  • l'utilisation de cephfs directement à partir des clients complique les choses (isolation, contrôle d'accès, etc.)
  • plus réplique 2 vs 3 = plus de capacité.

Je ne comprends toujours pas quelle est cette relation, ni quels en sont les avantages et les inconvénients :

  1. 1xRessource avec 3x(Volumes < SSD) = 3x rdbd > 1xLV > XFS
  2. 1xRessource avec 1x rdbd < 1LV < 3xSSD = rdbd > [?LV >] XFS [lien]

Je crois que c'est comme avec RAID 0+1 ou 1+0 (avec la différence que ce n'est pas striped) donc l'option (1) est mieux d'avoir des disques individuels répliqués (méta-disques multiples) qu'un volume unique répliqué (méta-disque unique avec probabilité de défaillance), ce qui en cas de défaillance d'un disque est mieux .... Je pense que... Tout dépend de la façon dont une panne de disque est gérée, n'est-ce pas ? D'autres suggestions ou pov ?

4voto

RiGiD5 Points 837

Avec 4 serveurs et tous les disques SSD sans RAID, votre configuration ne demande qu'à être configurée en Ceph à code d'effacement !

  1. Création d'un pool E/C (en supposant que vous ayez déjà un cluster Ceph)

https://subscription.packtpub.com/book/cloud-&-networking/9781784393502/8/ch08lvl1sec89/creating-an-erasure-coded-pool

  1. Services NFS sur le pool fraîchement créé dans le (1) pool E/C

https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/5/html/dashboard_guide/management-of-nfs-ganesha-exports-on-the-ceph-dashboard

Ne pas utiliser DRBD ! Le stockage est inefficace en raison de l'énorme surcharge de réplication et "split brain" est le deuxième nom de DRBD

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X