RAID 5 (md0) kann nicht mehr gemountet werden

  • Hallo liebe Community,


    ich habe gestern festgestellt, dass mein TS-410
    - grün blinkt (alle 0,5 Sekunden)
    - im Netzwerk nicht mehr unter richtigem Namen auftaucht
    - und die Netzwerk Shares nicht mehr erreichbar sind
    Grund für die Probleme könnte ein Stromausfall vor ein paar Tagen gewesen sein.


    Ein Neustart hat nichts geholfen, auch ein Firmware Update (3.5.2 Build 1126T) nicht.


    Ich habe 3 Platten als RAID 5 konfiguriert und es lief über 2 Jahre super und ohne Probleme.


    Über die WebGUI erscheint bei "RAID Management":
    RAID 5 Disk Volume: Drive 1 2 3 -- No Not active The operation(s) you can execute: - Recover
    --> Aber wenn ich dann auf "RECOVER" klicke, passiert garnichts


    Ich habe gestern Nacht noch sehr viele Post gelesen und versucht die Lage über SSH zu klären, aber bisher ohne Erfolg. Es scheint als könnte md0 nicht mehr gemountet werden.


    cat /proc/mdstat liefert

    Code
    [/] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md13 : active raid1 sda4[0] sdc4[2] sdb4[1]      458880 blocks [4/3] [UUU_]      bitmap: 41/57 pages [164KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[2] sdb1[1]      530048 blocks [4/3] [UUU_]      bitmap: 65/65 pages [260KB], 4KB chunkunused devices: <none>


    Mit mdadm --assemble --scan
    konnte ich md0 wieder starten:

    Code
    [/] # mdadm --assemble --scan   mdadm: /dev/md0 has been started with 3 drives.


    dann sieht mdstat so aus (fehlt nicht auch noch md4?):

    Code
    [/] # cat /proc/mdstat       Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sda3[0] sdc3[2] sdb3[1]      1950387200 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]md13 : active raid1 sda4[0] sdc4[2] sdb4[1]      458880 blocks [4/3] [UUU_]      bitmap: 41/57 pages [164KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[2] sdb1[1]      530048 blocks [4/3] [UUU_]      bitmap: 65/65 pages [260KB], 4KB chunkunused devices: <none>


    mdadm --detail /dev/md0 liefert:

    Code
    [/] # mdadm --detail /dev/md0/dev/md0:        Version : 00.90.03  Creation Time : Thu Nov 12 20:57:23 2009     Raid Level : raid5     Array Size : 1950387200 (1860.03 GiB 1997.20 GB)  Used Dev Size : 975193600 (930.02 GiB 998.60 GB)   Raid Devices : 3  Total Devices : 3Preferred Minor : 0    Persistence : Superblock is persistent    Update Time : Fri Jan 13 07:02:11 2012          State : clean Active Devices : 3Working Devices : 3 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           UUID : 615666f7:6e473554:9787dc90:34566cec         Events : 0.10    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3


    e2fsck -pf /dev/md0 lief erst nicht wegen eines Memory Allocation Problems, das ich aber mit einem zusätzlichen USB Stick und Swap File beheben konnte...
    Als es dann funktionierte, lief es 20-30 Minuten und gab dann folgendes aus:

    Code
    [/] # e2fsck -pf /dev/md0                                     /dev/md0: 91615/121905152 files (19.4% non-contiguous), 79194189/487596800 blocks


    Aber danach wie auch schon zuvor liefert mount -o ro /dev/md0 /mnt/md0:

    Code
    [/] # mount -o ro /dev/md0 /mnt/md0mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so


    das erwähnte dmesg | tail liefert dann noch:


    Die Platten sind alles als "Good" markiert. Auch ein "degraded" Raid ist mir nicht aufgefallen, ich denke, dass die Platten passen...
    Ich weiß nicht mehr weiter und bin etwas verzweifelt, da sich auf den Platten natürlich einige wichtige Dateien befinden, die ich nicht gebackupt habe...


    Ich wäre Euch sehr sehr dankbar, wenn Ihr mir weiterhelfen könntet.

  • Nach weiterer Recherche habe ich heraus gefunden, dass

    Code
    mount -o ro /dev/md0 /mnt/md0


    versucht, /dev/md0 als ext3 zu mounten.
    Andere Nutzer haben beschrieben, dass das falsch ist und dass man "-t ext4" probieren soll.
    Das hat für mich auch funktioniert! :thumb:


    Ich kann also mittlerweile /dev/md0 wieder mounten und meine Daten auf eine externe Platte sichern...
    Die Swap Partition /dev/md4 kann ich zwar mit

    Code
    mdadm --assemble /dev/md4 /dev/sda2 /dev/sdb2 /dev/sdc2


    auch erstellen und mit mkswap und swapon wieder als swap definieren, aber nach einem Reboot liefert dmesg trotzdem das:

    Code
    [  149.810000] Unable to find swap-space signature
    [  161.970000] Unable to find swap-space signature
    [  168.160000] md: md0 stopped.
    [  169.230000] md: md0 stopped.
    [  171.820000] md: md0 stopped.
    [  174.400000] Unable to find swap-space signature
    [  177.370000] md: md0 stopped.
    [  181.400000] md: md0 stopped.


    Irgendwelche Ideen?


    Falls nicht, werd ich wahrscheinlich nach der Datensicherung das NAS komplett zurücksetzen, ein neues RAID aufsetzen und dann die Daten wieder drauf kopieren...


    Wie es zu dieser Situation gekommen ist, verstehe ich aber immer noch nicht...

  • Hi,


    alles richtig gemacht. Prima :thumb:
    Ich setze nach so etwas generell nachher das NAS neu auf. Sicher iss sicher...


    Grüsse, David

  • Hi David,


    danke für Deine Bestätigung...
    Hab's jetzt nochmal neu aufgesetzt und alles passt wieder...


    Und ne Backup HDD hab ich jetzt auch :)


    Schönen Abend noch...

  • Wollte an dieser Stelle den "Postern" hier mal ein dickes Danke sagen. Die Anleitung/Vorgehensweise hier hat mir meine Daten heute nach dem RAID Crash gerettet. :thumb: **10


    (QNAP TS509-PRO 4*1TB Platte und RAID5)

  • Bei mir schlug die Migration von RAID1 zu RAID5 nach 99% fehlt. Mit den Hinweisen hier konnte ich das RAID wieder zum laufen bekommen. Bei mir wurde ebenfalls die Partitionstabelle nicht erkannt. Mit mount -t ext4 ... ging es dann wieder.


    Danke! :thumb: