J'ai un RAID5 de 7 x 14 To dans ma station de travail avec Centos 7. La semaine dernière, l'un des disques a été marqué comme défectueux par SMART (/dev/sde). J'ai utilisé mdadm pour marquer ce disque comme défectueux et pour le retirer de la matrice et ... longue histoire courte ... J'ai fini par retirer le mauvais disque !
Maintenant, j'ai Centos en mode d'urgence (mon système d'exploitation réside sur un disque en dehors de la matrice) et je suis capable d'exécuter mdadm pour analyser la matrice. Il semble que ma matrice /dev/md127 soit inactive et que tous les disques soient marqués comme disques de secours.
cat /proc/mdstat
Personalities :
md127 : inactive sdc[6](S) sdf[9](S) sdg[10](S) sde[8](S) sdd[7](S) sdb[5](S) sdh[11](S)
95705752576 blocks super 1.2
unused devices: <none>
Pour une raison quelconque, ici, il est affiché comme raid0 :
mdadm -D /dev/md127
/dev/md127:
Version : 1.2
Raid Level : raid0
Total Devices : 7
Persistence : Superblock is persistent
State : inactive
Working Devices : 7
Name : c103950:127
UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Events : 539502
Number Major Minor RaidDevice
- 8 16 - /dev/sdb
- 8 32 - /dev/sdc
- 8 48 - /dev/sdd
- 8 64 - /dev/sde
- 8 80 - /dev/sdf
- 8 96 - /dev/sdg
- 8 112 - /dev/sdh
Et quand j'examine les disques individuels :
mdadm -E /dev/sdb
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352blea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 136b95a5:1589d83d:bdb059dd:e2e9e02f
Update Time : Thu Jul 15 12:47:37 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: 4e727166 - correct
Events : 539502
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : AAAA..A ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sdc
/dev/sdc:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 64cac230:bc1e2bf5:65323067:5439f101
Update Time : Thu Jul 15 12:47:37 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: ecd93778 - correct
Events : 539502
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 6
Array State : AAAA..A ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sdd
/dev/sdd:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 2dd7e6d6:6c035b33:0072796b:d3685558
Update Time : Thu Jul 15 12:47:37 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: 2bda98d - correct
Events : 539502
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAAA..A ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sde
/dev/sde:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : active
Device UUID : 8e6bd6de:15483efa:82c1917d:569ee387
Update Time : Thu Jul 13 10:30:54 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: c050eb4 - correct
Events : 539489
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 4
Array State : AAAAAAA ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sdf
/dev/sdf:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 93452dc8:3fba28ce:c7d33d00:7c1838fd
Update Time : Thu Jul 15 12:47:37 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: e995ceb8 - correct
Events : 539502
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : AAAA..A ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sdg
/dev/sdg:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 48fe7b1b:751e6993:4eb73b66:a1313185
Update Time : Thu Jul 15 12:47:37 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: f81be84f - correct
Events : 539502
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 3
Array State : AAAA..A ('A'== active, '.' == missing, 'R' == replacing)
******
mdadm -E /dev/sdh
/dev/sdh:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6f44e2c:352b1ea0:bd25d626:cac0177c
Name : c103950:127
Creation Time : Thu Jul 26 12:21:27 2018
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 27344500736 sectors (13038.87 GiB 14000.38 GB)
Array Size : 82033502208 KiB (78233.24 GiB 84002.31 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before-264112 sectors, after-0 sectors
State : clean
Device UUID : 80448326:c8b82624:a8e31b97:18246b58
Update Time : Thu Jul 15 12:04:35 2021
Bad Block Log : 512 entries available at offset 32 sectors
Checksum: 9800dd88 - correct
Events : 539497
Layout left-symmetric
Chunk Size : 512K
Device Role : Active device 5
Array State : AAAA.AA ('A'== active, '.' == missing, 'R' == replacing)******
/dev/sde est le disque défectueux, tandis que le /dev/sdh est celui que j'ai retiré par erreur. Remarquez la différence dans les événements et les moments de mise à jour. Je veux maintenant réassembler la matrice et je me demande quelle est la manière la plus sûre de le faire.
Aidez-nous ! Merci de votre lecture.
1 votes
Oh Super, vous avez eu Raid ZERO - restaurer la sauvegarde, bien joué :-)
2 votes
Pouvez-vous essayer avec
mdadm --incremental /dev/sd[abcdfgh]
?1 votes
Mdadm devrait vous éviter de commettre une erreur, tant que vous n'utilisez PAS la fonction
--force
. C'est l'utilisation de--force
où les gens ont des problèmes. Vous cherchez à assembler la matrice en incluant le disque que vous avez retiré, mais sans le disque que vous--fail
de l'entreprise. Alors vous allez--re-add
la volonté que vous--fail
une fois que la matrice est en place et fonctionne. Vous aurez besoin de faire fonctionner le réseau. Je suis d'accord avec @shodanshok, vous pourriez être en mesure d'utiliser simplement l'assemblage incrémentiel pour être de nouveau opérationnel.0 votes
Merci pour vos réponses. --incremental semble être exactement ce dont j'ai besoin mais j'ai toujours peur qu'il essaie de le construire en tant que Raid0 car c'est ce qu'il montre maintenant quand je vérifie avec mdadm --D. Puis-je faire "mdadm --incremental --level=5 /dev/sd[abcdfgh]" ? ou dois-je faire "mdadm --create --verbose /dev/md127 --level=5 /dev/sdb /dev/sdc /dev/sdd /dev/sdf /dev/sdg /dev/sdh" ?
2 votes
Je pense
--incremental
ne permet pas de spécifier le niveau de raid. Quoi qu'il en soit, les superblocs de vos disques durs semblent décrire correctement une matrice raid5.--incremental
( sans forcer quoi que ce soit) pour démarrer le tableau.0 votes
J'ai utilisé "mdadm --stop /dev/md127" et j'ai ensuite pu exécuter "mdadm --incremental" sur chacun de mes six bons disques mais il est toujours indiqué "not enough to start". Lorsque j'exécute "mdadm --D /dev/md127", c'est toujours la même chose, tout est vide et je pense que c'est un raid0.
0 votes
Qu'en est-il de "mdadm --assemble /dev/md127 /dev/sdb /dev/sdc /dev/sdd /dev/sdf /dev/sdg /dev/sdh" ? Pensez-vous que cela puisse fonctionner ? Puis-je spécifier le niveau de raid ici aussi ?