Raid Recovery Problem

  • Hallo!
    Ich habe/hatte ein QNAP 419 P+ mit 4 Seagate Barracuda ST 3000 DM 001 3,5 3000GB ST3000DM001 Festplatten im Raid 5 laufen.
    Vorgestern hatte ich das NAS über den QFinder runterfahren lassen. Als ich es gestern wieder gestartet habe, war mein Raid-Verbund nicht mehr aktiv und ich konnte nicht mehr auf meine Daten zugreifen. Das NAS gab mir per eMail die Warnung "The system was not shut down properly last time.". Ich verstehe nicht, wie das NAS darauf kommt. Was habe ich verkehrt gemacht?
    Das Wiederherstellen des Raid bricht jeweils nach ca. einer Minute ab. "RAID Recovery failed".
    Das NAS zeigt an, dass alle vier Platten in Ordnung sind.
    Ich habe hier im Forum zwar schon ähnliche Themen gefunden, jedoch konnte mir bisher keines weiterhelfen.
    Was kann ich tun? Hat jemand eine Idee? Ich habe keine Datenbackup o.ä.
    Vielen Dank!

  • Ohweh.


    Ohne Datenbackup Du ich mich mit Ratschlägen schwer. Auf eigenen Gefahr kann ich Dir daher nur sagen, was ich in dieser Situation erstmal tun würde:


    Alle 4 Platten in der Sektion "logische Datenträger" der Datenträgerverwaltung mit "Jetzt prüfen" checken. Dann erneut einen Wiederherstellungsversuch unternehmen.
    Schlägt dies fehl, in der Sektion "physische Datenträger" alle Platten auf BAD BLOCKs scannen. Dann erneut einen Wiederherstellungsversuch unternehmen.
    Schlägt dies fehl, NAS runterfahren, alle Platten ziehen und wieder neu einsetzen, neu starten. Dann erneut einen Wiederherstellungsversuch unternehmen.
    Schlägt dies fehl, wieder ins Forum kommen und suchen/erklären lassen, wie das RAID über ssh/Konsolenbefehle wieder gemounted werden kann.
    Schlägt dies fehl, jeweils eine Platte aus dem Verbund ziehen. Dann erneut einen Wiederherstellungsversuch unternehmen.
    Schlägt dies fehl, würde ich versuchen, die FW erneut aufzuspielen. Dann erneut einen Wiederherstellungsversuch unternehmen.
    Schlägt dies fehl, gingen mir langsam die Ideen aus.


    GLG GBD

  • geh auf die console vom NAS.


    guck mal mit cat /proc/mdstat
    da sollte sowas ähnliches wie unten rauskommen:


    Code
    md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]      8786092608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]      bitmap: 4/11 pages [16KB], 131072KB chunkmd4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [4/4] [UUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[3] sdd1[2] sdb1[1]      530048 blocks [4/4] [UUUU]      bitmap: 0/65 pages [0KB], 4KB chunk



    dann schau mal was dieser command ausgibt:


    [~] # mdadm --detail /dev/md0


    poste mal deine ausgaben hier.
    mfg

    2 Mal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • poste auch mal welche firmware du hast.

  • Also erstmal vielen Dank für die vielen Antworten!
    Das Prüfen der einzelnen Platten hatte ich schon gestern beginnen lassen. Eine Platte ist bereits fertig (Smart-Info = gut). Die anderen Drei laufen noch ...
    Meine Firmaware ist die 3.6er.


    Folgendes Ergebnis habe ich mit dem Cat-Befehl bekommen:

    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdb4[3] sdd4[2] sdc4[1]      458880 blocks [4/4] [UUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdb1[3] sdd1[2] sdc1[1]      530048 blocks [4/4] [UUUU]      bitmap: 0/65 pages [0KB], 4KB chunk


    unused devices: <none>


    Was soll mir das sagen?


    Der mdadm-Befehl hat folgendes ergeben:

    Code
    [~] # mdadm --detail /dev/md0
    mdadm: md device /dev/md0 does not appear to be active.


    Kann damit jemand etwas anfangen?


    Vielen Dank noch einmal!

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • uups,


    das Array /dev/md0 fehlt :(


    jetzt wird´s kompliziert ...


    versuch mal folgendes:


    taucht da auch kein /dev/md0 auf ???

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • Mittlerweile wurden alle 4 Platten nach fehlerhaften Blöcken gescannt. Smart-Info sagt jeweils = "gut".
    Jedoch kallpt das Wiederherstellen des Raids immer noch nicht ...


    Der o.g. Cat-Befehl hat folgendes Ergebnis gebracht:

    Code
    [~] # cat /etc/mtab
    /proc /proc proc rw 0 0
    none /dev/pts devpts rw,gid=5,mode=620 0 0
    sysfs /sys sysfs rw 0 0
    tmpfs /tmp tmpfs rw,size=32M 0 0
    none /proc/bus/usb usbfs rw 0 0
    /dev/sda4 /mnt/ext ext3 rw 0 0
    /dev/md9 /mnt/HDA_ROOT ext3 rw 0 0
    tmpfs /.eaccelerator.tmp tmpfs rw,size=32M 0 0


    Ich werde echt irre! Was tun?

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • wird immer böser :(


    sag mal, wieso hast du das NAS über den finder runtergefahren und nicht übers webinterface bzw. am knopf vorne ???



    es sieht so aus als dass das raid-5 deleted wurde.



    wenn wir den superblock finden, könnten wir mit mdadm --assemble das hinkriegen - möglicherweise ...

  • Ich wusste nicht dass es ein Problem ist mit dem Finder geben kann?!?
    Wie kann man denn den Superblock finden? Was muss ich tun?
    Danke noch einmal.

  • Ich habe nun das NAS heruntergafahren, alle 4 Platten einmal entfernt und wieder zurückgesteckt und das NAS dann neu gestartet. Das Raid-Recovering schlägt immer noch fehl.
    Hat noch irgendjemand eine Idee? Z.B. wie oben beschrieben das mounten per SSH oder wie kann ich z.B. den "superblock" finden und was kann ich damit machen?
    Ich bin dankbar für jede Hilfe!

  • okay,
    was sagt denn das command fdisk -l



    auch kannst mal folgendes versuchen:


    mdadm --examine /dev/sda3


    probier das examine mit allen 4 platten(partitionen) sda3 sdb3 sdc3 sdd3 und poste mal die ausgabe.


    bei mir schauts so aus:



    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • Also, der FDISK-Befehl gibt folgendes aus:


    Code
    [~] # fdisk -lYou must set cylinders.You can do this from the extra functions menu.Disk /dev/sda: 0 MB, 0 bytes255 heads, 63 sectors/track, 0 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sda1               1      267350  2147483647+  ee  EFI GPTPartition 1 has different physical/logical beginnings (non-Linux?):     phys=(0, 0, 1) logical=(0, 0, 2)Partition 1 has different physical/logical endings:     phys=(1023, 254, 63) logical=(267349, 89, 4)Disk /dev/sda4: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/sda4 doesn't contain a valid partition tableYou must set cylinders.You can do this from the extra functions menu.Disk /dev/sdb: 0 MB, 0 bytes255 heads, 63 sectors/track, 0 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1               1      267350  2147483647+  ee  EFI GPTPartition 1 has different physical/logical beginnings (non-Linux?):     phys=(0, 0, 1) logical=(0, 0, 2)Partition 1 has different physical/logical endings:     phys=(1023, 254, 63) logical=(267349, 89, 4)You must set cylinders.You can do this from the extra functions menu.Disk /dev/sdc: 0 MB, 0 bytes255 heads, 63 sectors/track, 0 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdc1               1      267350  2147483647+  ee  EFI GPTPartition 1 has different physical/logical beginnings (non-Linux?):     phys=(0, 0, 1) logical=(0, 0, 2)Partition 1 has different physical/logical endings:     phys=(1023, 254, 63) logical=(267349, 89, 4)You must set cylinders.You can do this from the extra functions menu.Disk /dev/sdd: 0 MB, 0 bytes255 heads, 63 sectors/track, 0 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdd1               1      267350  2147483647+  ee  EFI GPTPartition 1 has different physical/logical beginnings (non-Linux?):     phys=(0, 0, 1) logical=(0, 0, 2)Partition 1 has different physical/logical endings:     phys=(1023, 254, 63) logical=(267349, 89, 4)Disk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md4: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md4 doesn't contain a valid partition table


    Nun die anderen Befehle:

    Code
    [~] # mdadm --examine /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : ba6b97d6:dbf6af6b:51dc8894:dc0c9060           Name : 0  Creation Time : Tue Feb 21 21:05:33 2012     Raid Level : raid5   Raid Devices : 4  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 17572185216 (8379.07 GiB 8996.96 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : active    Device UUID : b7c1b27f:d71e6eff:a0ef4fff:28c0e0b4    Update Time : Fri Jun 15 18:10:09 2012       Checksum : ca62e2c3 - correct         Events : 268326         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 0 (0, failed, 2, 3, 1)   Array State : Uuuu 1 failed


    Code
    [~] # mdadm --examine /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x2     Array UUID : ba6b97d6:dbf6af6b:51dc8894:dc0c9060           Name : 0  Creation Time : Tue Feb 21 21:05:33 2012     Raid Level : raid5   Raid Devices : 4  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 17572185216 (8379.07 GiB 8996.96 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectorsRecovery Offset : 2 sectors          State : active    Device UUID : 335bfff4:01e6e8bc:ef4d9e29:1dca4bb7    Update Time : Fri Jun 15 18:10:09 2012       Checksum : 29e3abb5 - correct         Events : 268326         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 4 (0, failed, 2, 3, 1)   Array State : uUuu 1 failed



    Code
    [~] # mdadm --examine /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : ba6b97d6:dbf6af6b:51dc8894:dc0c9060           Name : 0  Creation Time : Tue Feb 21 21:05:33 2012     Raid Level : raid5   Raid Devices : 4  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 17572185216 (8379.07 GiB 8996.96 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : active    Device UUID : 61e69fcc:4fc250d3:5a3cc32a:2a873869    Update Time : Fri Jun 15 18:10:09 2012       Checksum : cafdbea2 - correct         Events : 268326         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 2 (0, failed, 2, 3, 1)   Array State : uuUu 1 failed



    Helfen diese Ausgaben irgendetwas zu erkennen?

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Code Block hinzugefügt.

  • yep, super !


    also die platten melden sich noch.


    dann bau das array wieder folgendermassen zusammen:


    mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3


    wenn das nicht geht bitte ausgabe posten, dann kommt der nächste command :)


    und bitte !!! das kann dauern, NICHT das Terminalfenster schliessen, sonst kann es sein, dass du den assemble-prozess abschiesst...

  • Folgendes Ergebnis:


    Code
    [~] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
    mdadm: failed to RUN_ARRAY /dev/md0: Input/output error


    Scheinbar nicht das erhoffte, oder?

  • Hallo Ihr beide,


    toll das ihr euch helft, aber seit so gut und nutz die Codeblocks,....dann wird das hier ein wenig übersichtlicher


    Danke

  • Ich hatte mich bei o.g. Befehl als "admin" über SSH angemeldet. Hätte ich mich evtl. als "root" anmelden müssen? Das dumme ist nur: Sobald ich den Benutzernamen "root" in putty eingebe, sagt mir das Programm, dass die Verbindung beendet wurde. Ich bekomme so nicht einmal die Chance ein Kennwort einzugeben. Kapiere ich irgendwie nicht ...



    ---Edit---


    dmesg ergibt folgendes:


    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Doppelte Beiträge vermeiden, siehe Forenregeln!

  • also, die SDB3 schaut etwas komisch aus, die hat als einzige einen recovery offset von 2 sectoren


    zieh die mal raus


    und probier mal wieder einen


    mdadm --assemble /dev/md0 /dev/sda3 /dev/sdc3 /dev/sdd3


    btw: anmelden immer mit admin, nicht root

  • Oh man, ich wollte gerade schon schreiben, dass das auch keinen Erfolg brachte:
    [~] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdc3 /dev/sdd3
    mdadm: device /dev/md0 already active - cannot assemble it


    Aber das "already active" hat mich dann doch nachdenklich gemacht und siehe da: Alles ist wieder da!
    mcric, erstmal vielen, nein tausendfachen Dank für Deine Hilfe und die Zeit, die Du Dir genommen hast. Aber zwei Fragen habe ich noch:
    1.) Bedeutet das jetzt, dass die zweite Festplatte bei mir defekt ist? Das NAS hat immer gesagt, alle Platten sind in Ordnung.
    2.) Wie kann ich per Webinterface das NAS ausschalten? Entweder ich bin blind, oder es gibt da keine Funktion. Nur deshalb habe ich ja den Finder zum Ausschalten genommen.

  • 1.) Beim Prüfen am NAS wurde nur die logische Struktur getestet (Datenträgerverwaltung/Fehlerhafte Blöcke...) , aber nicht die RAID-Funktionalität
    die Zweite Platte dürfte ein Problem haben, oder hatte ein Problem. Am Besten ist, diese Platte an einen anderen Rechner zu hängen und alle Partitionen zu löschen, ABER ERST NACHDEM sichergestellt ist, dass Dein verbliebenes RAID wieder lesbar ist und Du Deine Daten gesichert hast !!!


    2.) Ausschalten bei Systemadministration / Energieverwaltung /Herunterfahren



    Nochwas: Hast Du auch gecheckt ob das Raid wieder gemounted ist :


    mount


    da muss ein Eintrag kommen wie /dev/md0 on /share/MD0_DATA type ..........


    und bitte gib nochmal die Ausgabe von folgenden Command her:


    mdadm --detail /dev/md0