4 votes

Quel protocole de stockage utiliser pour le stockage ESX ?

Quelle méthode de connexion de stockage faut-il préférer pour connecter des serveurs ESX à un serveur de stockage partagé avec des liaisons 10GbE ?

Concrètement, j'ai 2 serveurs ESX pour VMware ESX et un serveur pour le stockage partagé.

Le serveur de stockage est 2 x Xeon E5504 2GHz, 24GB RAM, 12xSSD + 12xSATA et RAID sauvegardé par batterie. Les serveurs ESX sont à peu près les mêmes, mais avec 2 petits disques SAS.

Tous les serveurs ont des adaptateurs 10GbE connectés comme ceci : enter image description here

J'ai une licence pour ESX 3.5 mais, à des fins de test, j'utilise actuellement ESXi 4.1. Le serveur de stockage fonctionne sous Windows 7 à des fins de test.

Je connais au moins 3 méthodes :

 1. ISCSI
 2. NFS
 3. FCoE

Laquelle recommanderiez-vous de choisir et pourquoi ?

0 votes

Il peut être utile de savoir quelle marque de stockage ou quel système d'exploitation vous utilisez pour votre serveur de stockage. Les capacités du protocole peuvent varier d'un fournisseur à l'autre.

0 votes

@Cakemox : Il a dit "Le serveur de stockage fonctionne sous Windows 7 à des fins de test."

0 votes

Il s'agit d'un serveur Supermicro 2U 24 baies avec deux Supermicro AOC-STGN-i2S 10GbE NICs. Le système d'exploitation est Win7 pour le moment mais il peut être n'importe quoi.

3voto

Chopper3 Points 99341

Pas de "si", pas de "mais" - si vous avez la possibilité d'utiliser FCoE 10Gbps et que votre configuration s'est avérée stable, alors c'est la meilleure solution et la plus efficace. seulement le chemin à parcourir.

C'est encore assez récent, mais les gains d'efficacité sont énormes par rapport à iSCSI, et NFS est tout simplement "différent".

Sachez toutefois que vous devez être à jour avec ESX/ESXi 4.1U1 pour obtenir les meilleures performances/stabilité de FCoE et que la liste des NICs/CNAs 10Gb supportés est assez limitée, mais en dehors des systèmes Infiniband, je n'ai jamais vu de telles performances partagées. Je suis en train de migrer tous mes FC vers FCoE, même si cela ne sera pas terminé avant plus d'un an en raison des volumes impliqués.

0 votes

Si vous disposez de la FCOE, vous n'avez pas à y réfléchir, vous la mettez en œuvre.

0 votes

J'ai trouvé un livre blanc sur le support 10gbe de ESX 3.5 : vmware.com/pdf/10GigE_performance.pdf . Il est dit que ESX 3.5 U1 est bon. Est-ce vraiment le cas ?

0 votes

10Gb oui, FCoE sur 10Gb non.

2voto

silviud Points 2667
NFS   - is file level storage and is the slowest - routable 
FCoE  - best performance but only if you use it locally into 
        a stub network (is not routable)  
ISCSI - very good performance but adds a bit of complexity - 
        on the flip side is routable

2voto

Hyppy Points 15356

Si votre objectif est la facilité d'utilisation, vous pouvez envisager NFS. Il présente un surcoût de performance médiocre (-~5% de débit global, +~20% de CPU lié au stockage) par rapport au FC.

Voici une comparaison entre NFS, iSCSI et FC dans un environnement de 4 Gb et 10 Gb :

http://blogs.netapp.com/virtualstorageguy/2010/01/new-vmware-and-netapp-protocol-performance-report.html

0 votes

FCoE est très différent de FC cependant Hyppy

0 votes

FCoE enveloppe FC dans une trame ethernet. À part quelques optimisations de bas niveau concernant la gestion de la latence pour imiter le comportement natif de FC, je ne vois pas quelle est la différence significative. FCoE ne surpasse pas FC cependant, donc les comparaisons sont toujours valables du point de vue de la ligne de base.

0 votes

Je me demande combien de CPU NFS FCoE et ISCSI consomment réellement. En pourcentage absolu.

0voto

Jay Points 86

Je ne suis pas sûr que cela s'applique à votre environnement, mais je peux partager avec vous la façon dont le nôtre est actuellement configuré.

Tout d'abord, nous utilisons exclusivement l'iSCSI pour le stockage partagé et nous le faisons fonctionner sur des liaisons réseau redondantes de 1 Go. Nous avons actuellement 4 hôtes ESXi dans un châssis IBM BladeCenter.

Chaque hôte possède deux disques internes placés dans une matrice miroir qui stocke l'installation ESX de base.

Ces hôtes partagent tous un stockage ESX centralisé sur une paire de nœuds HP LeftHand iSCSI SAN, ce qui a permis de réduire la complexité de la gestion du SAN, car le système d'exploitation SAN sur ces nœuds gère les allocations de disques en interne pour chaque LUN et les déplace pour assurer une redondance maximale lorsque le cluster SAN lui-même change.

Simplement, nous avons opté pour iSCSI parce que c'était la méthode par défaut pour nos nouveaux nœuds SAN, mais je ne pouvais pas imaginer adopter une autre approche à ce moment-là. Nous n'avons eu aucune panne au cours des derniers mois et nous faisons fonctionner toute notre infrastructure SAP (DEV/TEST/PROD et les bases de données associées) sur ces quatre machines.

Nous espérons que cela vous donnera un aperçu d'une autre architecture utilisant iSCSI et ESX.

0voto

growse Points 7740

Je n'ai aucune expérience de l'utilisation de Windows 7 comme serveur de stockage, mais j'ai un petit environnement VM que j'utilise avec NFS sur Solaris, et cela fonctionne très bien. Très facile à mettre en place et à configurer, et les performances sont plutôt bonnes. J'ai également quelques partages iSCSI via COMSTAR, et les performances sont similaires.

Cakemox a raison cependant, ce n'est pas parce que j'obtiens de bons résultats avec NFS sur Solaris que NFS est adapté à une solution basée sur Windows. Vous trouverez peut-être un meilleur support dans le domaine de l'iSCSI.

Quant à FCoE, je ne pensais pas qu'il était pris en charge par vSphere/ESX ?

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X