funktioniert RAID 6 nach Firmware flashen noch?

  • Hallo,
    Ich habe ein TS-669 pro mit 5x 3TB HDDs als RAID 6. Nach einem Stromausfall und einem anschließenden RAID resync (30 Stunden) hat das TS sich aufgehangen. Das Gerät konnte ich nur noch ausschalten und dann ist es im Status SYSTEM BOOTING stehen geblieben. Ohne die HDDs ließ sich das TS aber erfolgreich starten. Der QNAP Helpdesk hat mir dazu geraten die aktuelle Firmware 4.0.5 zu flashen mit Hilfe des Artikels Firmware recovery aus dem QNAP wiki.
    Über den Umweg eines Fullimage mit update auf 4.0.3 läuft das TS jetzt wieder. Eine erste Konfiguration konnte ich nur mit einer Festplatte vornehmen, die ich noch übrig hatte.


    Was muss ich jetzt machen, um die fünf HDDs wieder einzusetzen ohne einen totalen Datenverlust zu erleiden?


    Gruß Peter

  • Hallo,
    Wieso musstest du die Firmware flashen, wenn das NAS ohne Platten erfolgreich startet? Dann liegt naemlich kein Problem mit der Firmware im Flash vor, sondern die Firmware auf den Platten ist beschaedigt.


    Du muesstest nun die Platten wieder genau in die gleichen Bays wie zuvor einbauen, damit das RAID wieder funktioniert. Da aber ein Problem mit der Firmware auf den Platten vorliegt, wird es nicht funktionieren.


    Das waere jetzt ein Fall, wo du dein Backup nutzen solltest, um wieder an die Daten zu kommen.

  • Keine Ahnung warum der Helpdesk im Chat mir dazu geraten hat. Ich hatte betont, dass ohne Platten die TS läuft. Hat aber auch was positives, da ich jetzt weiß wie ein Firmware recovery funktioniert.


    Also wird auf den eingebauten Platten auch ein Firmware bzw. eine Konfiguration abgelegt? Reicht es da nicht aus, die Platten wieder einzubauen und ein Firmware recovery durchzuführen (ich weiß ja jetzt wie es geht)? Was passiert dabei denn mit dem Raid?


    Da ich keine vollständige Datensicherung mehr habe, versuche ich eine Lösung zu finden, das Raid6 noch zu retten.


    Peter


    --- EDIT ---


    Die TS läuft ja bereits. Reicht es nicht die Test HD drin zu lassen und die 5x HDDs zusätzlich einzubauen. Erkennt die TS das Raid6 dann automatisch?

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Doppelte Beiträge vermeiden, siehe Forenregeln! Bitte den "Ändern"-Button benutzen!

  • Hallo,
    Ja, die Firmware liegt einmal im Flash des NAS und einmal auf den Platten.
    Daher gibt es auch manchmal Fehlermeldungen, dass z.B. die Firmwareversionen nicht uebereinstimmeb oder das die Firmware auf den Platten beschaedigt ist.
    Letzteres ist vermutlich bei dir der Fall, nur dass die Firmware so stark beschaedigt ist, dass das NAS nicht mehr booten kann.
    Du koenntest nun versuchen, die RAID Platten ins NAS einzubauen und zu hoffen, dass das NAS startet und das RAID erkennt.
    Dabei ist es vorallem wichtig, dass die Reihenfolge der Platten eingehalten wird.
    Allerdings kann hier keine Erfolgsgarantie dafuer gegeben werden und im schlimmsten Fall koennten alle Daten weg sein.

  • Ich habe es oben nur kurz angedeutet. Zu Testzwecken habe ich eine neue Festplatte eingebaut und als Single Drive initialisiert. Hilft es diese drin zu haben, wenn ich die 5x HDDs des Raid wieder einsetze oder sollte ich die TestHDD besser rausnehmen?

  • Hallo,
    Wenn du diese ausbaust, wird das NAS vermutlich wieder das gleiche Problem wie zuvor haben, dass es nicht booten kann.
    Auch das Recovery hat nichts daran geaendert, da ja nur die gleiche Firmware ueber die vermutlich unbeschadete Firmware im Flashspeicher drueber installiert wurde.
    Dennoch koenntest du einmal versuchen, das NAS nur mit den RAID Platten unter Beruecksichtigung der urspruenglichen Plattenreihenfolge zu starten.


    Wenn dies nichts hilft, kannst du versuchen, die Testplatte wieder einzubauen. Dabei solltest du diese wieder in den Schacht einbauen, in dem sie zuvor auch schonmal drin war.
    Die RAID Platten dann wieder unter Beruecksichtigung der Plattenreihenfolge verbauen.


    Falls das NAS nun nicht startet, wirst du entweder versuchen muessen, das RAID an einem Linux-PC zu mounten oder die Platten an einen professionellen Datenrettungsdienst uebergeben.

  • Ich habe jetzt die Firmware 4.0.3 installiert. Welche es genau vorher war, weiß ich leider nicht. Ich glaube aber, dass es die 4.0.1 war. Ich habe die TS seit Feb/Mrz 2013 und seitdem die Firmware nicht aktualisiert.


    Könnten die unterschiedlichen Firmwares ein Problem sein?

  • Ja, aus unterschiedlichen Firmwareversionen koennte sich ein Problem ergeben. Daher wuerde ich an deiner Stelle versuchen, dass NAS mit der eingebauten Testplatte auf die 4.0.1 zu downgraden, bevor du die RAID-Platten einbaust.

  • Ja, das klingt ganz vernueftig.
    An deiner Stelle wuerde ich zuerst die Firmware auf die 4.0.1 downgraden, damit diese mit der Version auf den Platten uebereinstimmt.
    Ansschliessend die verlinkte Anleitung ausprobieren.

  • Nach der Weboberfläche zu urteilen, muss es anscheinend doch eine 3.8er Firmware gewesen sein. Ich habe jetzt auf 3.8.3 0426 downgegradet. Befürchte aber, dass das auch nicht die identische Version wie auf den Festplatten des Raids ist. Naja, schaun mer mal...


    --- EDIT ---


    Ein kurzer Zwischenstand. Ich habe mich an die Anleitung gehalten und über eine ssh Sitzung folgendes erhalten:


    Der erste Aufruf von config_util hat in etwa folgendes angezeigt. Leider habe ich die Anzeige nicht mehr, so dass die Zeilen nicht zu 100% richtig sind.

    Code
    [~] # config_util 1Start to mirror ROOT part...config_util: HD1 config Match serial_no of HD1.config_util: HD2 config Match serial_no of HD2.config_util: HD3 config Match serial_no of HD3.config_util: HD4 config Match serial_no of HD4.config_util: HD5 config Match serial_no of HD5.mdadm: /dev/md9 has been started with 2 drive (out of 5).... /dev/sdc1 has been added... /dev/sdd1 has been added... /dev/sde1 has been addedMirror of ROOT succeeded.


    Danach wurde kein prompt angezeigt, sondern die Sitzung blieb in der Anzeige stehen. Mit einer zweiten ssh Sitzung habe ich diese erste ssh Sitzung gekillt.
    Allerdings scheint gerade ein Raid Resync stattzufinden:

    Code
    [~] # cat /proc/mdstat 
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
    md9 : active raid1 sde1[6](S) sdd1[7](S) sdc1[8](S) sdb1[0] sda1[2]
          530048 blocks [6/2] [U_U___]
          [==========>..........]  resync = 51.1% (271488/530048) finish=442.1min speed=9K/sec
          bitmap: 59/65 pages [236KB], 4KB chunk
    
    
    unused devices: <none>


    Wobei mich wundert, dass dort etwas von "active raid1" steht, obwohl die Platten als Raid6 konfiguriert waren.


    Aber irgendwas ist wahrscheinlich mit der Platte 2 nicht in Orndungn, da die LED ab und an rot leuchtet, dann mal wieder grün und wenn's Laune macht auch mal grün blinkt. Die anderen HDDs leuchten alle fleißig dauerhaft grün.


    Ich warte jetzt erstmal die Nacht ab und schaue ob as Resync beendet wurde, um dann mit dem nächsten Befehl aus dem Howto "storage_boot_ini 1" weiter zu machen.

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Doppelte Beiträge vermeiden, siehe Forenregeln! Bitte den &quot;Ändern&quot;-Button benutzen!

  • Inzwischen funktioniert alles wieder.


    Mit Hilfe der Anleitung How to fix a corrupted firmware konnte ich das Raid6 im herabgesetzten Zustand wiederherstellen. Im Verlaufe des HowTos ist anscheinend ein 10stündiges Raid Resync ausgeführt worden währenddessen die Platte 2 zeitweise als defekt angezeigt wurde. Zum Ende des Resync wurde diese Platte dann aber wieder als 'gut' angezeigt. Die Platte habe ich zur Sicherheit aus dem Schacht genommen und werde sie durch eine neue ersetzen.


    Allerdings sind während der vorgeschlagenen Prozedur des Howtos zwei sicherlich unerwünschte Verhalten aufgetreten. Jeweils nach dem Aufruf der Befehle 'config_util 1' und 'storage_boot_init 1' ist mir kein Prompt mehr angezeigt worden. Ich musste die SSH Sitzung dazu killen :(


    Weiß eigentlich jemand was diese Befehle genau bewirken? (QNAP scheint ja eine eigene Linux Distribution zu verwenden, die das Linux Software Raid mit mdadm und parted verwendet.)


    Gruß,
    Peter