J'ai 4 disques RAID-5ed pour créer md0, et 4 autres disques RAID-5ed pour créer md1. Ils sont ensuite combinés via LVM pour créer une partition.
Il y a eu une coupure de courant pendant mon absence, et quand je suis revenu, il semblait qu'un des disques de md1 était désynchronisé - mdadm continuait à dire qu'il ne pouvait trouver que 3 des 4 disques. La seule chose que j'ai pu faire pour que quelque chose se passe était d'utiliser mdadm --create
sur ces quatre disques, puis laissez-le reconstruire la matrice. Cela m'a semblé être une mauvaise idée, mais aucun des éléments que j'avais n'était critique (même si cela prendrait un certain temps pour tout récupérer), et un fil Si cela a détruit toutes mes données, je suppose que vous pouvez arrêter de lire et me le dire.
Après avoir attendu quatre heures pour que la matrice se reconstruise, md1 semblait bien (je suppose), mais le lvm se plaignait de ne pas pouvoir trouver un périphérique avec le bon UUID, probablement parce que md1 a changé d'UUID. J'ai utilisé le pvcreate
y vgcfgrestore
commandes comme documenté aquí . La tentative d'exécution d'un lvchange -a y
sur elle, cependant, me donne un resume ioctl failed
message.
Y a-t-il un espoir pour moi de récupérer mes données, ou ai-je tout gâché ?
Mon LV a été mis en place de façon linéaire. Il semble que je devrais être en mesure de récupérer au moins les données de md0 en utilisant quelque chose comme TestDisk . Cependant, exemples montrent des partitions LVM listées dans TestDisk, alors que je ne vois que sda,sdb,etc. et md0 et md1.
[$]> lvdisplay
--- Logical volume ---
LV Name /dev/VolGroup/lvm
VG Name VolGroup
LV UUID b1h1VL-f11t-TGJv-ajbx-4Axn-wi89-fReUKu
LV Write Access read/write
LV Status suspended
# open 0
LV Size 6.14 TiB
Current LE 1609648
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:0
[$]> lvchange -ay /dev/VolGroup/lvm
device-mapper: reload ioctl failed: Invalid argument