Ok - quelque chose me turlupinait à propos de votre problème, alors j'ai démarré une VM pour plonger dans le comportement qui devrait être attendu. J'en viens à ce qui me chiffonnait dans une minute, mais laissez-moi d'abord vous dire ceci :
Sauvegardez ces disques avant de tenter quoi que ce soit !
Vous avez peut-être déjà fait des dégâts au-delà de ce que la resynchronisation a fait ; pouvez-vous clarifier ce que vous vouliez dire quand vous avez dit :
Selon les suggestions, j'ai nettoyé les superblocs et recréé le tableau avec l'option --assume-clean mais sans succès.
Si vous avez exécuté un mdadm --misc --zero-superblock
alors vous devriez vous en sortir.
Quoi qu'il en soit, récupérez de nouveaux disques et récupérez les images actuelles exactes de ces disques avant de faire quoi que ce soit qui puisse encore écrire sur ces disques.
dd if=/dev/sdd of=/path/to/store/sdd.img
Ceci étant dit il semble que les données stockées sur ces choses soient étonnamment résistantes aux resynchronisations intempestives. Continuez à lire, il y a de l'espoir, et c'est peut-être le jour où je vais atteindre la limite de longueur des réponses.
Le meilleur scénario
J'ai créé une machine virtuelle pour recréer votre scénario. Les disques ne font que 100 Mo, donc je n'attendrais pas une éternité à chaque resynchronisation, mais cela devrait être une représentation assez précise.
Construit le tableau de façon aussi générique et par défaut que possible - 512k chunks, disposition symétrique à gauche, disques dans l'ordre des lettres rien de spécial.
root@test:~# mdadm --create /dev/md0 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Jusqu'ici, tout va bien ; créons un système de fichiers, et mettons-y des données.
root@test:~# mkfs.ext4 /dev/md0
mke2fs 1.41.14 (22-Dec-2010)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=512 blocks, Stripe width=1024 blocks
51000 inodes, 203776 blocks
10188 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=67371008
25 block groups
8192 blocks per group, 8192 fragments per group
2040 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@test:~# mkdir /mnt/raid5
root@test:~# mount /dev/md0 /mnt/raid5
root@test:~# echo "data" > /mnt/raid5/datafile
root@test:~# dd if=/dev/urandom of=/mnt/raid5/randomdata count=10000
10000+0 records in
10000+0 records out
5120000 bytes (5.1 MB) copied, 0.706526 s, 7.2 MB/s
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Ok. Nous avons un système de fichiers et des données ("data" dans le texte anglais). datafile
et 5 Mo de données aléatoires avec ce hachage SHA1 dans le fichier de données. randomdata
) sur elle ; voyons ce qui se passe lorsque nous faisons une re-création.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[2] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
La resynchronisation s'est terminée très rapidement avec ces disques minuscules, mais elle a eu lieu. Donc, voici ce qui m'embêtait tout à l'heure ; ton fdisk -l
sortie. N'ayant pas de table de partition sur le md
n'est pas du tout un problème, c'est attendu. Votre système de fichiers réside directement sur le faux périphérique de bloc, sans table de partition.
root@test:~# fdisk -l
...
Disk /dev/md1: 208 MB, 208666624 bytes
2 heads, 4 sectors/track, 50944 cylinders, total 407552 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
Oui, pas de table de partition. Mais...
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
Système de fichiers parfaitement valide, après une resynchronisation. Donc c'est bon, vérifions nos fichiers de données :
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Solide - pas de corruption de données du tout ! Mais ceci avec exactement les mêmes paramètres, donc rien n'a été mappé différemment entre les deux groupes RAID. Laissons tomber ce truc avant d'essayer de le casser.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
Prendre un peu de recul
Avant d'essayer d'y mettre fin, expliquons pourquoi il est difficile de le faire. Le RAID 5 fonctionne en utilisant un bloc de parité qui protège une zone de la même taille que le bloc sur chaque autre disque de la matrice. La parité ne se trouve pas uniquement sur un disque spécifique, elle est répartie uniformément sur les disques afin de mieux répartir la charge de lecture sur les disques en fonctionnement normal.
L'opération XOR pour calculer la parité ressemble à ceci :
DISK1 DISK2 DISK3 DISK4 PARITY
1 0 1 1 = 1
0 0 1 1 = 0
1 1 1 1 = 0
Ainsi, la parité est répartie sur les disques.
DISK1 DISK2 DISK3 DISK4 DISK5
DATA DATA DATA DATA PARITY
PARITY DATA DATA DATA DATA
DATA PARITY DATA DATA DATA
Une resynchronisation est généralement effectuée lors du remplacement d'un disque mort ou manquant ; elle est également effectuée sur mdadm create
pour s'assurer que les données sur les disques correspondent à ce que la géométrie du RAID est supposée être. Dans ce cas, le dernier disque dans la spécification de la matrice est celui qui est "synchronisé" - toutes les données existantes sur les autres disques sont utilisées pour la synchronisation.
Ainsi, toutes les données du "nouveau" disque sont effacées et reconstruites, soit en créant de nouveaux blocs de données à partir de blocs de parité pour ce qui aurait dû être là, soit en créant de nouveaux blocs de parité.
Ce qui est cool, c'est que la procédure pour ces deux choses est exactement la même : une opération XOR sur les données du reste des disques. Dans ce cas, le processus de resynchronisation peut avoir dans sa configuration qu'un certain bloc devrait être un bloc de parité, et penser qu'il construit un nouveau bloc de parité, alors qu'en fait il recrée un ancien bloc de données. Ainsi, même s'il pense c'est de construire ça :
DISK1 DISK2 DISK3 DISK4 DISK5
PARITY DATA DATA DATA DATA
DATA PARITY DATA DATA DATA
DATA DATA PARITY DATA DATA
...c'est peut-être juste une reconstruction DISK5
de la mise en page ci-dessus.
Il est donc possible que les données restent cohérentes même si la matrice est mal construite.
Lancer un singe dans les travaux
(pas une clé, le singe entier)
Test 1 :
Faisons le tableau dans le mauvais ordre ! sdc
entonces sdd
entonces sdb
..
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdc1 /dev/sdd1 /dev/sdb1
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdb1[3] sdd1[1] sdc1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Ok, c'est très bien comme ça. Avons-nous un système de fichiers ?
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
Non ! Pourquoi cela ? Parce que même si toutes les données sont là, elles sont dans le mauvais ordre ; ce qui était auparavant 512KB de A, puis 512KB de B, A, B, et ainsi de suite, a maintenant été mélangé en B, A, B, A. Le disque ressemble maintenant à du charabia pour le vérificateur de système de fichiers, il ne fonctionnera pas. La sortie de mdadm --misc -D /dev/md1
nous donne plus de détails ; cela ressemble à ceci :
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 49 1 active sync /dev/sdd1
3 8 17 2 active sync /dev/sdb1
Alors que ça devrait ressembler à ça :
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1
Donc, c'est très bien comme ça. On a écrasé tout un tas de blocs de données avec de nouveaux blocs de parité cette fois. Re-créer, avec le bon ordre maintenant :
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
Neat, il y a toujours un système de fichiers là ! Tu as toujours des données ?
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Succès !
Test 2
Ok, changeons la taille des morceaux et voyons si cela nous permet d'obtenir de la casse.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=64 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
Ouais, ouais, c'est foutu quand c'est réglé comme ça. Mais, pouvons-nous récupérer ?
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Succès, encore !
Test 3
C'est celui dont je pensais qu'il tuerait les données à coup sûr - faisons un algorithme de mise en page différent !
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --layout=right-asymmetric --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 1 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
Superblock has an invalid journal (inode 8).
Effrayant et mauvais - il pense avoir trouvé quelque chose et veut le réparer ! Ctrl + C !
Clear<y>? cancelled!
fsck.ext4: Illegal inode number while checking ext3 journal for /dev/md1
Ok, crise évitée. Voyons si les données sont toujours intactes après avoir resynchronisé avec la mauvaise disposition :
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Succès !
Test 4
Prouvons aussi rapidement que la mise à zéro des superblocs n'est pas nuisible :
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Ouais, pas de problème.
Test 5
Lançons-y tout ce que nous avons. Les 4 tests précédents, combinés.
- Mauvais ordre des dispositifs
- Taille incorrecte des morceaux
- Algorithme de mise en page erroné
- Superblocs mis à zéro (nous le ferons entre les deux créations)
En avant !
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=64 --level=5 --raid-devices=3 --layout=right-symmetric /dev/sdc1 /dev/sdd1 /dev/sdb1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdb1[3] sdd1[1] sdc1[0]
204672 blocks super 1.2 level 5, 64k chunk, algorithm 3 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
Le verdict ?
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 13/51000 files, 17085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
Wow.
Il semble donc qu'aucune de ces actions n'ait corrompu les données de quelque manière que ce soit. J'ai été assez surpris par ce résultat, franchement ; je m'attendais à des chances modérées de perte de données lors du changement de taille des morceaux, et à une perte certaine lors du changement de disposition. J'ai appris quelque chose aujourd'hui.
Alors Comment puis-je obtenir mes données ?
Toutes les informations dont vous disposez sur l'ancien système vous seraient extrêmement utiles. Si vous connaissez le type de système de fichiers, si vous avez d'anciennes copies de votre /proc/mdstat
avec des informations sur l'ordre des lecteurs, l'algorithme, la taille des morceaux et la version des métadonnées. Les alertes e-mail de mdadm sont-elles configurées ? Si c'est le cas, trouvez-en une ancienne ; sinon, vérifiez les points suivants /var/spool/mail/root
. Vérifiez votre ~/.bash_history
pour voir si votre construction originale est là-dedans.
Donc, la liste des choses que vous devriez faire :
- Sauvegarder les disques avec
dd
avant d'entreprendre quoi que ce soit !
- Essayez de
fsck
le md actuel, actif - il se peut que vous ayez juste construit dans le même ordre qu'avant. Si vous connaissez le type de système de fichiers, c'est utile ; utilisez ce type de système de fichiers spécifique. fsck
Outil. Si l'un de ces outils propose de réparer quelque chose, ne le laissez pas faire à moins d'être sûr qu'il a réellement trouvé le système de fichiers valide ! Si un fsck
propose de réparer quelque chose pour vous, n'hésitez pas à laisser un commentaire pour demander s'il vous aide vraiment ou s'il est sur le point de détruire vos données.
- Essayez de construire le tableau avec des paramètres différents. Si vous avez un ancien
/proc/mdstat
Dans le cas contraire, vous êtes dans le noir - essayer tous les différents ordres de disques est raisonnable, mais vérifier toutes les tailles de morceaux possibles avec tous les ordres possibles est futile. Pour chacun, fsck
pour voir si vous obtenez quelque chose de prometteur.
Donc, c'est ça. Désolé pour le roman, n'hésitez pas à laisser un commentaire si vous avez des questions, et bonne chance !
note de bas de page : moins de 22 000 caractères, soit 8 000+ de moins que la limite de longueur.
1 votes
Peut-être qu'un jour les gens comprendront pourquoi le RAID5 est une idée terrible. En attendant, 1) les gens perdront des données. 2) Nous aurons des questions comme celles-ci.
12 votes
@Tom O'Connor ... parce qu'il est clair que le RAID5 est à blâmer pour les erreurs de l'utilisateur :rolleyes :
2 votes
Avec un peu de chance, la réponse de Shane peut sauver les données, mais, encore une fois, cela prouve que le RAID seul n'est pas la meilleure solution de stockage. Il faut aussi des sauvegardes. (mais +1 pour la question et la réponse épique qui en résulte)
4 votes
Je sais qu'on le répète souvent, mais le raid n'est pas une solution de sauvegarde . Il faut vraiment faire passer le message.