2 votes

Reconstruction de LVM après une restauration RAID

J'ai 4 disques RAID-5ed pour créer md0, et 4 autres disques RAID-5ed pour créer md1. Ils sont ensuite combinés via LVM pour créer une partition.

Il y a eu une coupure de courant pendant mon absence, et quand je suis revenu, il semblait qu'un des disques de md1 était désynchronisé - mdadm continuait à dire qu'il ne pouvait trouver que 3 des 4 disques. La seule chose que j'ai pu faire pour que quelque chose se passe était d'utiliser mdadm --create sur ces quatre disques, puis laissez-le reconstruire la matrice. Cela m'a semblé être une mauvaise idée, mais aucun des éléments que j'avais n'était critique (même si cela prendrait un certain temps pour tout récupérer), et un fil Si cela a détruit toutes mes données, je suppose que vous pouvez arrêter de lire et me le dire.

Après avoir attendu quatre heures pour que la matrice se reconstruise, md1 semblait bien (je suppose), mais le lvm se plaignait de ne pas pouvoir trouver un périphérique avec le bon UUID, probablement parce que md1 a changé d'UUID. J'ai utilisé le pvcreate y vgcfgrestore commandes comme documenté aquí . La tentative d'exécution d'un lvchange -a y sur elle, cependant, me donne un resume ioctl failed message.

Y a-t-il un espoir pour moi de récupérer mes données, ou ai-je tout gâché ?


Mon LV a été mis en place de façon linéaire. Il semble que je devrais être en mesure de récupérer au moins les données de md0 en utilisant quelque chose comme TestDisk . Cependant, exemples montrent des partitions LVM listées dans TestDisk, alors que je ne vois que sda,sdb,etc. et md0 et md1.

[$]> lvdisplay
  --- Logical volume ---
  LV Name                /dev/VolGroup/lvm
  VG Name                VolGroup
  LV UUID                b1h1VL-f11t-TGJv-ajbx-4Axn-wi89-fReUKu
  LV Write Access        read/write
  LV Status              suspended
  # open                 0
  LV Size                6.14 TiB
  Current LE             1609648
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           254:0

[$]> lvchange -ay /dev/VolGroup/lvm
  device-mapper: reload ioctl failed: Invalid argument

4voto

jdb Points 155

Je crains qu'en combinant deux disques (RAID) en un volume LVM, puis en supprimant et en recréant l'un de ces disques, vous ayez perdu vos données. Si vous avez utilisé le striping LVM, elles ont définitivement disparu, puisque tous les autres morceaux de vos fichiers étaient sur ce disque. Avec le mode linéaire, vous pourrez peut-être récupérer une partie de vos fichiers avec un logiciel de récupération de disque.

Dommage, car votre configuration de base est judicieuse. Grâce au RAID5, vous auriez dû pouvoir accéder au volume même avec un disque manquant. J'aurais suggéré une sauvegarde avant le "mdadm --create"...

1voto

jonathanserafini Points 1728

La prochaine fois, vous avez deux options ... soit vous essayez manuellement d'assembler le raid en utilisant mdadm --assemble au lieu de --create. Ou vous pouvez utiliser "ckraid" de façon similaire à la vérification du système de fichiers, mais pour les matrices raid 5. ( Le Linux Software Raid How-To mentionne cette dernière option ).

Personnellement, si vous utilisez un Raid SW sans onduleur, je choisirais Raid 10 plutôt que 5 ou 6, car il devrait être plus tolérant aux problèmes d'alimentation.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X