6 votes

Grand système de fichiers?

Supposez que l'on dispose de 100 machines (chacune avec un disque dur de 2 To), toutes connectées en réseau.

Existe-t-il un moyen (sous Linux) d'unir cet espace disque combiné de 200 To dans un seul dossier, qui peut être partagé via NFS entre toutes les machines du réseau?

En suivant cette voie, toutes les machines pourront lire/écrire dans le même dossier, et de cette manière, les E/S seront réparties de manière égale entre elles. Est-ce une bonne idée si l'on a besoin d'un grand système de fichiers pour stocker des centaines de To de données? (note : les données seront divisées en de nombreux fichiers plus petits, d'une taille d'environ 500 Go chacun).

Existe-t-il une solution clé en main (de préférence open source) qui permette de réaliser cela?

0 votes

"I/O sera réparti également entre eux" -- Gardez à l'esprit qu'une solution distribuée nécessitera une bande passante entre les serveurs distribués (par exemple, l'hôte 1 devra avoir une certaine connaissance de l'activité provenant de l'hôte 2 à l'hôte 100). Cette bande passante n'est pas négligeable.

1voto

automatonic Points 2830

Ceph est une autre solution, bien que pas encore prête pour la production. http://ceph.newdream.net/wiki/Main_Page

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X