Festplatten nach auswerfen angeblich leer wie wieder einhängen ?

  • Hallo,


    kurze Vorgeschichte zum TS-531P. Habe 3 Platten mit statischem Volumen aus dem System entfernt und habe Platten aus einem anderen NAS eingebaut.

    Die Platten konnte ich mit der Funktion wiederherstellen am Anfang wieder einbinden. Nach einem Neustart wurden die Platten allerdings als leer erkannt die Farbe wechselte von Blau nach Lila.

    Ich habe mal mit Putty geschaut die Festplatten werden dort auch als leer erkannt allerdings wenn ich mir so die Partitionen anschaue scheint alles da zu sein. Habe von Linux wenig Ahnung deshalb wäre es schön wenn jemand mal über das Logfile schauen könnte und mir erklären könnte wie ich die wieder zum laufen bekomme.


    Viele Grüße

    Thomas

  • Sind alle 5 HDDs aus dem anderen NAS?

    In was für einem NAS waren die HDDs vorher, Modell und Firmware?

    Welche FW ist auf dem TS-531?


    Aktuell sehe ich nur ein Raid1 für die Datenpartitionen (md1), der Rest sind Raids für das System.

    Ein wenig genauer musst Du schon sagen, was Du gemacht hast.


    Gruss

  • Hallo,


    Danke schonmal für die Antwort. Gemacht wurde folgendes. Platten aus einem 2ten aber defekten baugleichen Ts-531 ausgebaut. Eingerichtet wurden die Platten noch mit einer QTS 4er oder sogar vielleicht 3er Version, weiß ich aber nicht mehr und habe dann noch Updates bis zur ersten 5er Version eingespielt.


    Die Daten von dem funktionierenden TS-531 sind auf einem TS-653D kopiert worden, danach habe ich das TS-531 mit den Festplatten in Slot 1 und 2 die im Raid1 sind neu aufgesetzt. Verwendet habe die Aktuelle Version 5.0.0.1986.

    Habe danach im laufenden Betrieb die Platten aus dem defekten NAS eingesetzt, mit der Funktion "wiederherstellen" wurden die Platten mit dem Volumen eingebunden.

    Die richtige Kapazität wurde angezeigt, allerdings wurde kein Freigabeordner angezeigt, den Freigabeordner habe ich ersteinmal nur bei der 10TB in Slot 4 manuell hinzugefügt. Der Verzeichnissinhalt wurde mir auch richtig angezeigt.

    Habe dann sofort die 10 TB von Slot 4 auf die in Slot 1 und 2 (RAID1) kopiert. Nach dem kopieren wollte ich das NAS in einem anderen Raum stellen, habe das dann heruntergefahren, umgestellt und wieder hochgefahren. Nach dem das NAS hochlaufen ist, wurden mir die Platten als leer angezeigt. Die 10TB in Slot 4 hatte ich zwischendurch wieder raus da die Platte eh kopiert bzw. leer war. Das Festplattenraid in Slot 1 und 2 läuft ganz normal. Jetzt hoffe ich mal das ich die Daten von der 8 TB Slot 3 und der 10 TB Slot 5 wieder hinbekomme.

  • Also zusammengefasst:

    Es sind in Summe 3 NAS beteiligt:


    1. NAS TS-531 defekt

    2. NAS TS-531 ok

    3. NAS TS-653 ok


    Daten von 2 auf 3 kopiert, dann 2 mit Raid1 neu aufgesetzt (mit den HDDs, die schon drin waren?)

    HDDs von 1 gezogen und in 2 gesteckt, dann ist es normal, das die Freigaben noch nicht vorhanden sind. Die hast Du manuell erstellt, das ist korrekt, danach Daten von HDD Slot 4 auf das Raid1 kopiert.


    NAS 2 heruntergefahren und HDD Slot 4 entfernt, nach Hochfahren werden Slot 3 und 5 als leer angezeigt.


    Es ist immer schlecht, Platten im ausgeschalteten Zustand zu verändern, es sei denn, alle Platten werden getauscht.

    Kannst Du im jetzigen Zustand in der Verwaltungen die "Wiederherstellen" Option auswählen?


    Gruss

  • Die "Wiederherstellung" hatte ich auch schon versucht, er meldet jetzt das kein Volume vorhanden ist und weiter passiert auch nichts.

    Deswegen habe ich mich per SSH mit Putty eingeloggt um mir erstmal eine Übersicht zu verschaffen. Da mir aber die richtigen Linux Kenntnisse fehlen habe erstmal nur geschaut und noch nichts weiter unternommen.

  • Das ist wohl ein Fall für die LVM Gurus, da muss ich mich erst noch etwas einfuchsen.


    Gruss

  • Dann werde ich mal abwarten. Habe mir das gestern noch mal angeschaut aber im Augenblick noch großes ?


    Die Festplatten waren einzel im statischen Volumen eingebunden und dementsprechen war für jede Festplatte ein eigener Raid Eintrag vorhanden. Mal schauen wie ich da weiterkomme.


    Im Moment suche ich mir Beiträge raus die mit "init_lvm.sh" zusammenhängen.

    Einmal editiert, zuletzt von big-maec ()

  • Hallo,


    wenn die HDDs noch mit einer QTS3-Version eingerichtet wurden, handelt es sich um Legacy-Volumes und noch keine LVM-Daten. Da hilft Dir init_lvm.sh leider nichts.


    Der Vorteil bei Legacy-Volumes ist, dass Du diese relativ einfach mit einem Mount-Befehl wieder einbinden kannst.


    Dazu musst Du als erstes die Mountpoints unter /share wieder anlegen. Bei Legacy-Volumes hießen die MD0_DATA usw.


    Also schau mal mit ls /share/ nach, welche Mountpoints schon da sind. Dann mit mkdir /share/MDx_DATA die fehlenden Mountpoints wieder anlegen, wobei das x durch eine fortlaufende Zahl ersetzt werden muss.


    Dann würde ich mal die 3 folgenden Partitionen wieder einbinden: sdc3, sdd3, sde3

    Dazu folgende Befehle absetzen:


    Code
    mkdir /share/MD1_DATA
    mkdir /share/MD2_DATA
    mkdir /share/MD3_DATA
    mount -t ext4 /dev/sdc3 /share/MD1_DATA
    mount -t ext4 /dev/sdd3 /share/MD2_DATA
    mount -t ext4 /dev/sde3 /share/MD3_DATA

    Nun erst mal mit ls /share/MD1_DATA usw. für jede Platte schauen, ob die Daten wieder da sind.

  • Hi,


    habe es gerade mal an einer Festplatte ausprobiert. Leider bekomme ich einen Fehler.





    Wenn ich die mal über einen Adapter an den USB Port stecke bekomme ich folgende Information.



    Festplatte.jpg

  • Bei Legacy-Volumes hießen die MD0_DATA usw.

    Nein, das ist falsch. So heissen nur die Mountpoints der RAID. Für einzelne Platten heißen sie HDA_DATA, HDB_DATA, ...etc.


    Die oben angegebenen NAS haben ausschliesslich HAL-FW und damit keine legacy Volumes. Hier ist also das volle LVM Programm nötig bzw. ein Versuch mit /etc/init.d/init_lvm.sh möglich.

  • Hallo,

    das werde ich am Wochenende mal ausprobieren, vorher werde ich noch einige Daten von Drive 1 sicher. Mal schauen wie es läuft.



    Hallo,

    hat leider nicht funktioniert siehe Logfile.


    Einmal editiert, zuletzt von big-maec ()

  • Hallo,


    funktioniert auch leider nicht mit init_lvm.sh. Es werden immer noch die 3 Festplatten als leer angezeigt.



    Wenn ich verschiedenen Befehle benutze, erscheinen auch nur Daten von den beiden Festplatten die im RAID1 sind. Der Rest ist nicht so wirklich da.






    Ich habe nochmal ein bisschen herumexperimentiert mit einer leeren Festplatte und die neu im System eingerichtet. Danach einfach mal on the fly auf einer anderen Platte gewechselt.

    Wie es kommen musste, war danach ein Fehler da, habe dann mal das Script init_lvm.sh ausgeführt. Das Script hat mir dann aber von dem Einzellaufwerk alle Einträge und Verzeichnisse aus dem System gelöscht.



    Einmal editiert, zuletzt von big-maec ()

  • Ich denke mal, nach den ganzen Hin- und Her-Aktionen wird da nichts mehr zu retten sein.

    Da hilft dann nur noch Neuaufsetzen und Backup zurückspielen.

  • Hi,

    nein kann ich nicht machen da ich mich mit LVM weiter beschäftigen möche. Bin mir aber noch nicht ganz sicher wie ich das von Hand, Schritt für Schritt hinbekomme.

    Was ich bis jetzt gemacht habe:

    Putty und Winscp installiert und mir das System mal genauer angeschaut bzw. Backups von Config, Backup und Archiv Dateien gemacht. Mich mit einigen Befehlen auseinandergesetzt: blkid, vgs -o+devices, lvs -o+devices, pvcreate, vgcfgrestore usw. die lvm_config gelesen.


    Gefunden habe ich im Verzeichnis "/etc/config/lvm/archive/

    " 4 Dateien Qnap System \mnt\HDA_ROOT\.config\lvm\archive\vg289_00061-1324643956.vg" inkl. der Metadaten von den 2 Festplatten die nicht mehr eingebunden werden.


    Als Beispiel habe ich mal den Code von einer beliebigen Festplatte angehangen:


    Mir ist noch nicht ganz klar welche Reihenfolge ich einhalten muss um die LVM Daten bezüglich PV, VG und LV wieder herzustellen.


    Bisherige Versuche schlugen fehl weil mir noch nicht klar ist welche Reihenfolge ich einhalten muss. Wäre schön wenn mir jemand bei den ersten Schritten helfen könnte ?


    Einmal editiert, zuletzt von big-maec ()

  • So, bin wieder einen Schritt weiter. Das Problem das ich habe lässt sich jederzeit im NAS reproduzieren. Wenn man ein Volumen entfernt und das NAS neu startet, wird die Platte danach als Leer erkannt. Weil nach dem entfernen aus dem System auf der Festplatte was geändert oder sogar gelöscht wird. Hier sollte Qnap mal den Vorgang in dem QTS überprüfen und gegebenenfalls nachbessern.


    Wenn die Platte als Leer erkannt wurde, sind immer von /dev/sdx3 einige Daten weg oder beschädigt unter anderem auch der Super Block, UUID usw. so das die Platte nicht mehr wiederhergestellt (eingebunden) werden kann. Die Partition ist auf der Festplatte aber noch zu finden.


    Mein jetziger Plan ist /dev/sdx3 zu reparieren, da der Super-Block wohl ein Backup hat in verschiedenen Blöcken hat versuche ich den wieder aus den Backup Blöcken wiederherzustellen. Habe mir dafür eine Platte zum üben angefertigt, da es ja ein leichtes ist den Fehler zu reproduzieren. :(


    Falls das jemand schonmal gemacht hat, darf er sich ruhig melden. :)



    Im Moment suche ich auch noch fsck? Gefunden heißt e2fsck


    Code
    [~] # e2fsck -p -C 0 /dev/sda3
    e2fsck: Bad magic number in super-block while trying to open /dev/sda3
    /dev/sda3:
    The superblock could not be read or does not describe a valid ext2/ext3/ext4
    filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
    filesystem (and not swap or ufs or something else), then the superblock
    is corrupt, and you might try running e2fsck with an alternate superblock:
        e2fsck -b 8193 <device>
     or
        e2fsck -b 32768 <device>

    2 Mal editiert, zuletzt von big-maec () aus folgendem Grund: Korrektur

  • Hallo noch mal,


    wäre es nicht viel einfacher, die Platten neu zu initialisieren und das Backup einzuspielen?