TS-459 Pro II - Firmwareupgrade auf 4.2.6 (20190730) -> RAID 5 (4 Platten) - zwei Platten davon entladen

  • Hallo,


    vielleicht kann mir hier jemand helfen.

    Nach dem Update heute auf 4.2.6 (20190720) kommt mein NAS mit der Meldung hoch, dass mein RAID 5 nicht mehr funktioniert. Zwei der vier Platten sind auch "entladen". Wie kann ich hier meine Daten retten (Backup ist zwar vorhanden - monatlich - aber aus Platzmangel nur die wichtigsten Daten).


    Was mich auch verwirrt, ist folgender Output, der ständig RAID1 erwähnt:




    Grüße

    Quince

    Einmal editiert, zuletzt von Quince ()

  • Hallo,


    md4, md9 u. md13 sind Systempartitionen vom NAS, die jeweils als RAID1 über zwei HDDs gespiegelt sind.


    Welche HDDs (Hersteller/Modell) werden verwendet?

    Du könntet mal alle HDDs mit dem Diagnose-Tool des HDD-Herstellers in/an einem PC testen.


    Hattest du vor dem FW-Update dein NAS neu gestartet?

    Hast du ein manuelles oder automatisches FW-Update durchgeführt?

    Falls das Update automatisch erfolgte, dann könntest du das FW-Update noch mal manuell drüber installieren.


    Weißt du noch, welche FW-Version vorher installiert war.

  • Ich habe 4x die WD40EFRX installiert

    Firmware vorher war die 4.2.6 (20190629). Ich habe jetzt mal die letzte verfügbare (vor der aktuellen) auf der QNAP Homepage eingespielt und jetzt sieht es noch schlechter aus (siehe Anhang)


    Jetzt existieren angeblich die Disk3 und Disk4 nicht mehr.


    Update: Auch nach dem erneuten manuellen Einspielen der aktuellen FW bleibt es so wie vorher. Disk3 steht als "Nicht initialisiert" da und Disk4 wird gar nicht mehr erkannt.


    Update 2: Mit dem Konfigfile ist auch was faul


    Code
    [~] # mdadm --assemble --scan
    mdadm: No arrays found in config file
    [~] #

    Update 3: Ich weiß nicht genau wie, aber jetzt ist es wieder wie bei der ersten Fehlermeldung. Disk3 und Disk4 sind "entladen" aber jetzt wieder sichtbar:



    Allerdings weiß ich immer noch nicht, wie ich den RAID5 jetzt repariere.



    Update 5: Habe jetzt folgendes versucht

    Die Datei /etc/config/mdadm.conf manuell erstellt:


    Code
    [~] # cat /etc/config/mdadm.conf
    ARRAY /dev/md0 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3
    
    [~] # mdadm --assemble --run --force --update=resync /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
    mdadm: /dev/md0 has been started with 4 drives.
    [~] # cat /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
    md0 : active raid5 sdc3[0] sdb3[3] sda3[2] sdd3[1]
    11716348608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
    [>....................]  resync =  0.1% (5734072/3905449536) finish=688.2min speed=94429K/sec

    Mal schauen, ob das was hilft...