J'ai un MegaRAID SAS 9361-8i avec 2x 240GB SATA 6Gbps SSD en RAID1, 4x 10TB SAS 12Gbps HDD en RAID6 et 4x 480GB SATA 6 Gbps SSD en RAID5 :
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID1 Optl N 223.062 Go dflt N N dflt N N
0 0 - - - RAID1 Optl N 223.062 Go dflt N N dflt N N
0 0 0 8:2 13 DRIVE Onln N 223.062 Go dflt N N dflt - N
0 0 1 8:5 16 DRIVE Onln N 223.062 Go dflt N N dflt - N
1 - - - - RAID6 Optl N 18.190 To enbl N N dflt N N
1 0 - - - RAID6 Optl N 18.190 To enbl N N dflt N N
1 0 0 8:0 9 DRIVE Onln N 9.094 To enbl N N dflt - N
1 0 1 8:1 11 DRIVE Onln N 9.094 To enbl N N dflt - N
1 0 2 8:3 10 DRIVE Onln N 9.094 To enbl N N dflt - N
1 0 3 8:4 12 DRIVE Onln N 9.094 To enbl N N dflt - N
2 - - - - RAID5 Optl N 1.307 To dflt N N dflt N N
2 0 - - - RAID5 Optl N 1.307 To dflt N N dflt N N
2 0 0 8:6 14 DRIVE Onln N 446.625 Go dflt N N dflt - N
2 0 1 8:7 17 DRIVE Onln N 446.625 Go dflt N N dflt - N
2 0 2 8:9 15 DRIVE Onln N 446.625 Go dflt N N dflt - N
2 0 3 8:10 18 DRIVE Onln N 446.625 Go dflt N N dflt - N
-----------------------------------------------------------------------------
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW Yes NRWBD - ON 223.062 Go VD0
1/1 RAID6 Optl RW Yes RWBD - ON 18.190 To VD1
2/2 RAID5 Optl RW Yes NRWBD - ON 1.307 To VD2
---------------------------------------------------------------
---------------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------------
8:0 9 Onln 1 9.094 To SAS HDD N N 512B HUH721010AL5200 U -
8:1 11 Onln 1 9.094 To SAS HDD N N 512B HUH721010AL5200 U -
8:2 13 Onln 0 223.062 Go SATA SSD N N 512B Micron_5100_MTFDDAK240TCC U -
8:3 10 Onln 1 9.094 To SAS HDD N N 512B HUH721010AL5200 U -
8:4 12 Onln 1 9.094 To SAS HDD N N 512B HUH721010AL5200 U -
8:5 16 Onln 0 223.062 Go SATA SSD N N 512B Micron_5100_MTFDDAK240TCC U -
8:6 14 Onln 2 446.625 Go SATA SSD N N 512B Micron_5100_MTFDDAK480TCC U -
8:7 17 Onln 2 446.625 Go SATA SSD N N 512B Micron_5100_MTFDDAK480TCC U -
8:9 15 Onln 2 446.625 Go SATA SSD N N 512B Micron_5100_MTFDDAK480TCC U -
8:10 18 Onln 2 446.625 Go SATA SSD N N 512B Micron_5100_MTFDDAK480TCC U -
---------------------------------------------------------------------------------------
Tester la vitesse d'écriture sur ces VDs :
# lvcreate -ntest1 -L32G vg /dev/sda
# lvcreate -ntest2 -L32G vg /dev/sdb
# lvcreate -ntest3 -L32G vg /dev/sdc
# for i in 1 2 3; do sleep 10; dd if=/dev/zero of=/dev/vg/test$i bs=128M count=256 oflag=direct; done
34359738368 octets (34 Go, 32 GiB) copiés, 120.433 s, 285 Mo/s (test1/VD 0)
34359738368 octets (34 Go, 32 GiB) copiés, 141.989 s, 242 Mo/s (test2/VD 1)
34359738368 octets (34 Go, 32 GiB) copiés, 26.4339 s, 1.3 Go/s (test3/VD 2)
# for i in 1 2 3; do sleep 10; dd if=/dev/vg/test$i of=/dev/zero bs=128M count=256 iflag=direct; done
34359738368 octets (34 Go, 32 GiB) copiés, 35.7277 s, 962 Mo/s (test1/VD 0)
34359738368 octets (34 Go, 32 GiB) copiés, 147.361 s, 233 Mo/s (test2/VD 1)
34359738368 octets (34 Go, 32 GiB) copiés, 16.7518 s, 2.1 Go/s (test3/VD 2)
Exécution de dd en parallèle :
# sleep 10; for i in 1 2 3; do dd if=/dev/zero of=/dev/vg/test$i bs=128M count=256 oflag=direct & done
34359738368 octets (34 Go, 32 GiB) copiés, 28.1198 s, 1.2 Go/s (test3/VD 2)
34359738368 octets (34 Go, 32 GiB) copiés, 115.826 s, 297 Mo/s (test1/VD 0)
34359738368 octets (34 Go, 32 GiB) copiés, 143.737 s, 239 Mo/s (test2/VD 1)
# sleep 10; for i in 1 2 3; do dd if=/dev/vg/test$i of=/dev/zero bs=128M count=256 iflag=direct & done
34359738368 octets (34 Go, 32 GiB) copiés, 16.8986 s, 2.0 Go/s (test3/VD 2)
34359738368 octets (34 Go, 32 GiB) copiés, 35.7328 s, 962 Mo/s (test1/VD 0)
34359738368 octets (34 Go, 32 GiB) copiés, 153.147 s, 224 Mo/s (test2/VD 1)
Les valeurs pour VD 0 et VD 1 sont abyssales, et ce qui est remarquable, VD 2 avait des valeurs similaires aux autres jusqu'à ce que je le supprime et le recrée, ce que je ne peux pas faire avec les autres car ils contiennent des données.
La seule limite que je peux expliquer facilement est la vitesse de lecture de VD 2, qui est environ trois fois la vitesse de liaison SATA - ce qui est logique pour un RAID5 avec quatre disques. La vitesse de lecture de VD0 est un peu en dessous de deux fois la vitesse de liaison SATA, cela pourrait être soit une limitation du support, soit une interrogation non optimale des requêtes dans un RAID1, mais les deux resteraient acceptables.
Les autres chiffres n'ont aucun sens pour moi. Le contrôleur est évidemment capable de traiter les données plus rapidement, et la performance parallèle n'est pas significativement différente de l'examen des volumes de manière isolée, ce qui suggère également qu'il ne choisit pas un chemin de données limité.
Mon interprétation de la situation est que la création des volumes à partir du BIOS au lieu du StorCLI leur a donné une configuration sous-optimale. Comparer la sortie de storcli /c0/v0 show all
et storcli /c0/v2 show all
ne montre aucune différence inexpliquée, donc ma crainte est que l'erreur se trouve quelque part plus profondément dans la pile.
- Y a-t-il un piège de configuration ou un bug connu qui expliquerait ce comportement ?
- Y a-t-il un outil pour analyser les configurations en cas de goulot d'étranglement, ou, à défaut,
- Puis-je somehow export des valeurs de configuration internes pour me permettre de les comparer entre les volumes ?