TS-451: RAID-5 weg!

  • Hallo,
    ich bitte um eure Hilfe bei folgendem Problem: Mein derzeitiges Raid besteht aus 4 x 4 TB WD Wd40EFRX. Da der Speicherplatz nun zur Neige geht wollte ich eine Kapazitätserweiterung durchführen. Die habe ich bei anderen QNAP NAS' bereits öfter durchgeführt und es gab keine Probleme.
    Nur diese Mal wurde beim einstecken der ersten neuen HDD ( 5TB WD50EFRX) die dritte HD in der NAS als fehlend gekennzeichnet und die Erweiterung brach ab.
    Nun habe ich die NAS neu gestartet und dabei die vorher verwendete 4TB HDD wieder in den ersten Slot gesteckt. Nun steht der Status des Raid auf Fehler (ERR_GENERIC")! Mit SSH komme ich auf die NAS. Was kann ich nun machen?
    Angaben zum System: Neuseste FW (4.1.1 2014-11-01)


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]      530112 blocks super 1.0 [2/2] [UU]      bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdd4[25] sdc4[24] sdb4[1]      458880 blocks super 1.0 [24/4] [UUUU____________________]      bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[0] sdd1[25] sdc1[24] sdb1[1]      530048 blocks super 1.0 [24/4] [UUUU____________________]      bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>


    Code
    [~] # fdisk -lDisk /dev/sda: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sda1               1      267350  2147483647+  ee  EFI GPTDisk /dev/sdc: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdc1               1      267350  2147483647+  ee  EFI GPTDisk /dev/sdb: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1               1      267350  2147483647+  ee  EFI GPTDisk /dev/sdd: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdd1               1      267350  2147483647+  ee  EFI GPTDisk /dev/sde: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylindersUnits = cylinders of 256 * 512 = 131072 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sde1               1          41        5244   83  Linux/dev/sde2   *          42        1922      240768   83  Linux/dev/sde3            1923        3803      240768   83  Linux/dev/sde4            3804        3936       17024    5  Extended/dev/sde5            3804        3868        8304   83  Linux/dev/sde6            3869        3936        8688   83  LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytes


    Code
    [~] # mdadm --examine --scan
    ARRAY /dev/md/9  metadata=1.0 UUID=95fff832:9807b3ce:714752e2:12ae5660 name=9
    ARRAY /dev/md/256  metadata=1.0 UUID=d1e889b5:39e9691e:d78af25d:f4c22bf7 name=256
       spares=2
    ARRAY /dev/md/1  metadata=1.0 UUID=1af2444c:4777463d:f524576d:30230f35 name=1
    ARRAY /dev/md/13  metadata=1.0 UUID=6d9b5242:6ae4473d:3eb0785c:098327da name=13
    ARRAY /dev/md/321  metadata=1.0 UUID=4a84df11:ad2ceab8:992e5874:f4cc4494 name=321
    [~] #


    Von Linux habe ich leider keine Ahnung. Ich habe jedoch schon begriffen, dass mdadm hier mein Freund sein könnte. Dennoch habe ich die Befürchtung, etwas falsch zu machen und bitte daher um Hilfestellung. Soweit ich denke, sind die Daten noch vorhanden und die Disks "clean". Wahrscheinlich müssen die Disks assembled werden. ich bin mir auch deshalb nicht sicher, weil ich früher MD0_DATA als Pfad hatte und nun CACHEDEV1_DATA was wohl auf die verwendung vom neuen (?) LVM-Manager hinweist. (?)

  • Ein md0 existiert offenbar nicht.
    ergänzende Informationen:

  • Zitat von "Nordstern"

    Ein md0 existiert offenbar nicht.


    Richtig! Hat auch nie existiert. Wenn, müsste es md1 sein. Dies ist aber nur PV von cachedev1.

  • Kurze Rückmeldung von mir. Gelöst wurde das Problem, indem sich ein Techniker von QNAP aufgeschaltet hat. Hiernach war eine Migration auf die 4 x 5TB WD50EFRX möglich (jeweil HDD rund 10h) . Nach einem Neustart des Systems war das RAID5 jedoch erneut wieder nicht ansprechbar. ;(
    Nach einem Update von Firmware 4.1.1 auf 4.1.2 funktionierte das Wiederhestellen der Volumes jedoch wieder (vorher kam an dieser Stelle die Fehlermeldung "ERR_GENERIC") und auch nach einem Neustart wurde das RAID5 wieder eingebunden.


    Danke an Dr. Mike für die geleistete Hilfestellung!