31 votes

Vitesse d'écriture requise : 1.1GB/s possibilités ?

Nous aurons une machine au travail, qui, au maximum de ses performances, devrait pouvoir pousser 50 ("têtes d'écriture") x 75GB de données par heure. Cela représente une performance de pointe de ~1100MB/s en vitesse d'écriture. Pour obtenir cela de la machine, il faut deux lignes de 10GBi. Ma question est la suivante : quel type de serveur et de technologie peut gérer/stocker un tel flux de données ?

Actuellement, pour le stockage des données, nous travaillons avec ZFS, bien que les vitesses d'écriture n'aient jamais été un problème. (nous ne sommes même pas proches de ces vitesses) ZFS (zfs sur linux) serait-il une option ? Nous avons également besoin de stocker beaucoup de données, le "guide informatique" suggère quelque chose entre 50-75 TB au total. Donc, il ne peut probablement pas y avoir que des SSD, sauf si nous voulons offrir notre premier enfant.

Quelques ajouts basés sur les excellentes réponses :

  • le maximum est de 50x75GB/heure pendant la période de pointe qui est inférieure à 24h (la plupart des probablement <6h)
  • Nous ne nous attendons pas à ce que cela se produise bientôt, mais il est plus probable que nous 5-10x75GB/heure
  • il s'agit d'une machine pré-alpha, mais les exigences devraient être satisfaites (même si de nombreux points d'interrogation sont en jeu).
  • nous utiliserions NFS comme connexion de la machine au serveur
  • disposition : machine génératrice -> stockage (celui-ci) -> (raid 6 sécurisé) -> cluster de calcul
  • donc la vitesse de lecture n'est pas essentielle mais il serait agréable de l'utiliser à partir du cluster de calcul (mais c'est totalement facultatif).
  • il s'agira très probablement de gros fichiers de données (pas beaucoup de petits)

2voto

Joakim Ziegler Points 21

Un peu à l'écart, mais envisagez d'utiliser InfiniBand au lieu de doubles liaisons 10GbE. Vous pouvez obtenir des cartes Infiniband 56Gbps assez bon marché, ou des cartes 100Gbps pour pas trop cher, et sous Linux il est facile d'utiliser NFS avec RDMA sur IB, ce qui vous donnera une latence extrêmement faible et un débit proche de la vitesse de ligne théorique (si votre stockage sous-jacent peut le gérer). Vous n'avez pas besoin d'un commutateur, juste de deux cartes InfiniBand et d'un câble à connexion directe (ou d'un câble InfiniBand en fibre si vous avez besoin de plus longues distances).

Une carte Mellanox à port unique de 56 Gbps (8x PCIe 3.0) comme la MCB191A-FCAT coûte moins de 700 dollars, et un câble de raccordement direct en cuivre de 2 mètres coûte environ 80 dollars.

Les performances seront généralement supérieures à celles du 10GbE dans tous les cas d'utilisation. Il n'y a pas d'inconvénients, sauf si vous devez accéder au serveur à partir de nombreux clients différents qui ne peuvent pas tous utiliser InfiniBand (et même dans ce cas, les commutateurs Mellanox peuvent relier 10GbE et 40GbE à IB, mais cela représente un peu plus d'investissement, bien sûr).

1voto

mzhaase Points 3728

Faire cela avec ZFS est possible, cependant, envisagez d'utiliser FreeBSD car FreeBSD a une pile réseau plus rapide. Cela permettrait d'atteindre 100 GBit sur une seule machine.

1100 MBps, c'est beaucoup, mais il est réaliste d'y parvenir en utilisant uniquement des disques durs ordinaires. Vous dites que vous avez besoin de 75 To d'espace, vous pourriez donc utiliser 24 disques durs de 8 To en miroir. Cela vous donnerait une vitesse d'écriture de 12x celle d'un disque unique et une vitesse de lecture de 24x. Puisque ces disques ont une vitesse d'écriture supérieure à 100 MBps, cela devrait facilement être capable de gérer la bande passante. Veillez à ne pas prendre de disques SMR, car ils ont une vitesse d'écriture beaucoup plus lente.

ZFS crée des sommes de contrôle pour chaque bloc. Cette opération est implémentée en mode monofil. En tant que tel, vous devez avoir un CPU avec une fréquence d'horloge raisonnablement rapide pour ne pas bloquer.

Cependant, les détails exacts de la mise en œuvre dépendent énormément des détails.

1voto

pozcircuitboy Points 21

Nous avons mis en place une carte réseau 10G qui transmet des données à un cluster Gluster par le biais de leur client Fuse. Il faut un peu de réglage, mais vous n'imaginez pas les performances qu'il peut atteindre depuis la version 3.0.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X