Wiederherstellung eines PV und VG auf UX 500P nach Neukonfiguration des NAS möglich?

  • Ich habe eine Erweiterungsbox UX-500P an einem TS-563 hängen. Das TS-563 musste ich neu aufsetzen. Auf beiden existiert(e) ein RAID 5 mit 5 HDs. Es gab vor dem neu Aufsetzen des TS einen Speicherpool mit zwei Volumes (eines auf dem TS, eines auf dem UX). Unmittelbar vor der neu Aufsetzen wurden Daten vom Volume 1 (TS) auf Volume 2 (UX) verschoben. Die Verzeichnisse waren Freigabeverzeichnisse.


    Leider konnte ich vorab nicht die Box "sicher trennen".


    Nach dem neu Aufsetzen des TS gibt es logischerweise einen neuen Speicherpool und ein Volume... wie schaffe ich es, das UX möglichst unter Erhalt der Daten einzubinden?


    Ich habe hier schon gesucht und auch die Dinge aus dem Thread ([gelöst] SingleDisk mounten auf selbem NAS) mit den Tipps von Dr_Mike versucht... das RAID existiert ("md2") und wird mit lvmdiskscan als "LVM physical volume" angezeigt. Ein pvscan liefert allerdings nur das neu angelegte Volume auf der TS zurück. Gibt es eine Möglichkeit, das PV wieder herzustellen? Werden mit "pvcreate" alle Daten gelöscht?


    In einem Artikel des Linux Journal ("Recovery of RAID and LVM2 Volumes") wird beschrieben, wie man ein ehemaliges Volume Group Configuration File, aus dem LVM2 header auf der HD auslesen kann. Dies funktioniert auch, sodass die alte PV-ID und auch die restlichen Daten der ehemaligen VG vorhanden sind. Hilft das?


    Vielen Dank im Voraus

    Christoph

  • Ich habe "ein wenig" weitergearbeitet und einen Zwischenerfolg! :)


    Allerdings bin ich noch nicht am Ziel... :(


    Nochmals die Ausgangslage

    (ich hoffe, dass ich alle erforderlichen Daten liefere... sonst bitte melden!)


    TS-563 mit UX-500P; QTS 4.3.4.0695


    A)

    Ausgangslage vor den "Schwierigkeiten":

    - ein Speicherpool, 2 Volumes

    - 1. Volume auf TS-563 (Thick)

    - 2. Volume auf UX-500P (Thick)


    Das TS-563 musste ich auf Werkseinstellungen zurücksetzen. Das UX-500P wurde vorher jedoch nicht entladen, sondern die Verbindung getrennt.


    B)

    nach dem Zurücksetzen auf Werkseinstellung:

    - ein Speicherpool, 1 Volume (Thick) leer

    - UX-500P erkannt, jedoch in der QTS-Oberlfäche als "Frei" gekennzeichnet


    C)

    was ich zwischenzeitlich gemacht habe:

    1. cat /proc/mdstat => gesehen, dass kein RAID vorhanden, also...
    2. mdadm /dev/md2 -AfR /dev/sdg3 /dev/sdh3 /dev/sdi3 /dev/sdj3 /dev/sdk3 => RAID 5 wieder erstellt
    3. unter /mnt/HDA_ROOT/.config/lvm/archive eine alte lvm Definition von vor der Wiederherstellung herausgesucht
    4. weiterhin mir mit pvdisplay, vgdisplay, lvdisplay, pvscan, vgscan, lvscan und lvmdiskscan einen Überblick über das lvm-System verschafft
    5. aus der alten Konfigurationsdatei die Daten des zweiten Volumes (alte UUID etc) rausgelesen und mit den aktuellen Daten aus  /mnt/HDA_ROOT/.config/lvm/backup/vg1 "gemischt" und in "vg1_mix" abgespeichert
    6. zwischenzeitlich mit der drbd-Definition gekämpft, da in der alten Konfigurationsdatei ein physical volume "drbd2" mit gleicher UUID wie das RAID md2 war (so, wie es auch für das zurückgesetzte RAID auf der TS-563 existiert)
    7. mit "vgcfgrestore -f vg1_mix --force vg1" die volume group mit dem physical volume "drbd2" und dem locigal volume "lv2" wieder hergestellt
    8. ... ich glaube da waren noch einige Zwischenschritte, die ich im Moment aber nicht mehr im Detail nachvollziehen kann - sorry!

    Ergebnis:

    1. in der GUI taucht das UX-500P als Thick-Volume im Speicherpool mit Daten auf:
      GUI01.PNG

      GUI02.PNG
    2. allerdings befindet sich der Status auf "Entladen"

    Mein Lösungsansatz, mittels

    lvchange - a y /dev/mapper/vg1-lv2


    liefert:

    Code
    #lvchange - a y /dev/mapper/vg1-lv2
    
      device-mapper: reload ioctl on (252:9) failed: No data available

    ein "dmesg | tail" liefert:

    Code
    #dmesg | tail
    
    [ 2892.227852] device-mapper: table: 252:9: thick: Couldn't open thin internal device
    [ 2892.235424] device-mapper: ioctl: error adding target to table

    aktuelle Checks liefern:

    Code
    #pvscan
    
      PV /dev/drbd1   VG vg1             lvm2 [21.80 TiB / 0    free]
      PV /dev/drbd2   VG vg1             lvm2 [29.07 TiB / 5.21 GiB free]
      Total: 2 [50.87 TiB] / in use: 2 [50.87 TiB] / in no VG: 0 [0   ]
    Code
    #vgscan
    
      Reading all physical volumes.  This may take a while...
      Found volume group "vg1" using metadata type lvm2
    Code
    #lvscan
    
      ACTIVE            '/dev/vg1/lv544' [144.00 GiB] inherit
      ACTIVE            '/dev/vg1/tp1' [50.66 TiB] inherit
      inactive          '/dev/vg1/lv2' [30.00 TiB] inherit
      ACTIVE            '/dev/vg1/lv1' [21.59 TiB] inherit

    Vor dem Erstellen der obigen Dokumentation hatte es ich sowohl ein "/etc/init.d/init_lvm.sh" als auch mit einem Neustart versucht.


    Eine sich anschließende Frage wird nach dem Beheben des obigen Problems kommen:

    • unter "/share" gibt es ein Verzeichnis "CACHEDEV1_DATA"
    • dort befinden sich die Verzeichnisses des TS-563
    • die des UX-500P lagen und "CACHEDEV2_DATA" (es gibt noch die nun ins Leere laufenden links im share-Verzeichnis
    • es müsste doch somit das lv2 auf dieses Verzeichnis gemapped werden... richtig?


    Ich danke schon mal im Voraus für die Unterstützung und hoffe, dass meinen bisherigen Bemühungen (die ja von einem gewissen Erfolg gekrönt sind) nicht umsonst waren und sich das Volumen "aktivieren" lässt.


    Gruß

    Christoph


    GUI01.PNGGUI02.PNG

  • Ergänzend zur Liste oben habe ich Folgendes ausgeführt:

    1. vgmknodes -vvv vg1
    2. /etc/init.d/init_lvm.sh

    Ergebnis:

    • die oben dargestellte Situation mit der Auflistung des Volumes in der GUI mit dem Status "Entladen"
    • unter /dev/mapper/ taucht kein cachedev2" auf und auch kein /dev/mapper/vg1-lv2...

    Ich glaube mittelerweile verstanden zu haben, dass es im Moment am fehlenden /dev/mapper/cachedev2 etc. liegt...


    dmsetup ist wohl die Lösung... nur mit welchen Parametern? create ist klar, aber dann? Es sollte ja zur "alten" Konfiguration passen... wo finde ich die Werte für tables oder ähnliches?


    Mit Dank im Voraus
    Christoph


    PS: Ist mein Problem zu trivial oder zu komplex oder schreibe ich zu viel oder zu wenig oder "falsch", dass ich keine Reaktion erhalten?
    Ich habe versucht (versuche noch) mein Problem mit Recherche hier und überhaupt zu lösen... bin ja auch schon weiter gekommen, merke aber, dass der eine oder andere Tipp an richtiger Stelle helfen würde.

    Und aktuell bin ich echt am Ende des Verstehens angekommen...

    Einmal editiert, zuletzt von kcn ()

  • Hallo dr_mike,

    danke für die Antwort.

    Die Funktion war von Anfang an ausgegraut... wahrscheinlich durch das neu Aufsetzen des NAS, da ja dann der Speicherpool neu war. Zu Beginn wurde auf der Box weder ein RAID noch ein Volume angezeigt... die Platten waren in der GUI (Übersicht - Speicher) in dunkelrot (Frei) angezeigt!

    Gibt es keine Möglichkeit, mit einem dmsetup mit "richtigen" Parametern, die beispielsweise den vorhandenen conf-Dateien entnommen werden können, das device-mapping herzustellen? Ich denke es liegt daran.

    Dass die Daten noch vorliegen, kann man m.E. an der richtigen Kapazität des RAID und des belegten Speichers erkennen.

    Wenn ich an die Daten komme (irgendwie), könnte ich sie umkopieren und die Box neu aufsetzen... so der Plan.

    Vielen Dank für den Lösungsansatz. Deine Hilfe im Beitrag hat schon sehr geholfen... zumindest Hoffnung gemacht. Dort war jedoch das mapping vorhanden, auch wenn ich anhand der posts nicht nachvollziehen kann warum.

    Gruß

    Christoph