RAID 6 inactive nach Firmwareupdate (3.5) oder "Optware ipkg

  • Hallo Zusammen,


    gestern Abend wollte ich "Optware ipkg" auf meinem TS419P installieren und ein update auf Firmware 3.5
    Habe "Optware ipkg" über die Oberfläche installiert, während der download für die Firmware lief.
    Zuerst hatte ich das Paket als ZIP über die Oberfläche hochgeladen und versucht zu installieren.
    Die Installtion brach ab. Danach habe ich das ZIP entpackt und das File selbst hochgeladen.
    Diesmal funktionierte die Installation laut WEB-Oberfläche. Ich bin dann in die Optionen von dem Package gegangen und habe es enabled.
    Alles laut Oberflächt total okay. Danach wollte ich ein "ipkg update" auf der shell machen und habe gemerkt, dass es nicht funktioniert --> ipkg: command not found.
    Demnach war wohl bei der Installtion irgendwas schief gegangen.
    Hab mir dabei nichts schlimmes gedacht und wollte den startschuß für das update auf die 3.5er Firmware von qnap geben, in der Hoffung, dass danach ipkg sauber zu installieren ist.
    Hab dann gemerkt, dass das Firmwareupdate schon drin war und es wurden mir auch keine Fehler angezeigt. Ich wurde gefragt, ob ich neu starten möchte. Dies habe ich dann gemacht und wollte dann wieder ipkg installieren. Dies klappte dann nicht mehr.
    Hab dann ein wenig gesucht und wollte von Hand installieren, wobei ich gemerkt hatte, dass in "/share/MD0_DATA" nichts als ein Ordner ".locks" ist.
    Dann habe ich eine ebene höher gesehen, dass alles Links invalid sind :(


    >>> Ergebnis: Das RAID ist "not active" <<<


    Kann echt nicht verstehen, wie das RAID ohne jeden Fehler auf "not active" gehen kann. Die Platten sind alle okay.


    Hier das SystemLog:


    Hier der Festplattenstatus:
    Current Disk Volume Configuration: Physical Disks


    Zitat

    Disk Model Capacity Status Bad Blocks Scan SMART Information
    Drive 1 WDC WD20EARS-00MVWB051.0 1863.02 GB Ready Scan now Good
    Drive 2 WDC WD20EARS-00MVWB051.0 1863.02 GB Ready Scan now Good
    Drive 3 WDC WD20EARS-00MVWB051.0 1863.02 GB Ready Scan now Good
    Drive 4 WDC WD20EARS-00MVWB051.0 1863.02 GB Ready Scan now Good


    Hier der RAID-Status:
    Current Disk Volume Configuration
    Disk/ Volume|Total Size|Bitmap|Status|Description
    RAID 6 Disk Volume: Drive 1 2 3 4 | -- | No | Not active | The operation(s) you can execute: - Recover



    Habe inzwischen auch gesehen, dass die Platten zwar das Testlabor bei QNAP bestanden haben, aber es negative Erfahrungen bei Kunden gibt. Fazit von QNAP: not recommend --> Aber dennoch auf der Kompatibilitätsliste.



    Was kann ich machen? Wie kann ich das Raid wieder aktivieren? Brauch zumindest irgendwie die Daten.



    Vielen Dank für Eure Hilfe


    Gruß
    Marc

    Einmal editiert, zuletzt von Terz () aus folgendem Grund: CODE Blocks hinzugefügt

  • Hi Marc,


    die Platten stehen auf der not recommed Liste, weil genau das immer mal passiert war.


    Lasse Dir mal ein:

    Code
    cat /proc/mdstat


    Code
    fdisk -l


    und

    Code
    dmesg


    ausgeben.


    Grüsse, David

  • Hi David,


    danke für Deine Antwort. Heißt das, dass ich auf jedenfall nachdem ich die Daten wiederhabe, neue Platten kaufen muss?


    Hier das Ergebnis der Abfragen:



    Hoffe Du kannst mir noch irgendwie helfen...


    Viele Grüße und nochmals Danke für die Unterstützung
    Marc

    Einmal editiert, zuletzt von Terz () aus folgendem Grund: CODE Blocks hinzugefügt

  • Hi Marc,


    also der md0 ist net aktiv. Warum das so ist kann ich via dmesg nicht erkennen, weil der iSCSI Dienst da gerade das Log vollschreibt.


    Die 4 Platten sind aber da. Probiere es mal mit einen reboot.
    Wenn es dann immer noch nicht da ist. Erst einmal mit einem simplen:

    Code
    mdadm --assemble /dev/md0 /dev/sd[abcd]3


    und schaue danach mal, was

    Code
    cat /proc/mdstat

    ausgibt / ob es dann einen MD0 gibt / oder was es ausgibt.


    Ich bin allerdings gleich erst einmal für heute weg. Den abendlichen Abend einläuten ^^
    Also. Vor einem FW Update immer ein Backup machen. Wenn man das immer macht, dauert´s auch nicht lange.
    Die Platten könnten langfristig (wenn es das nicht schon ist) zum Problem werden.


    Entweder abwarten bis se wirklich alle ausfallen oder "mal allmählich" wechseln.


    Grüsse, David

  • Hi David,


    danke für Deine Antwort, werde mich wohl auch gleich hinhauen, da ich morgen früh raus muss.


    reboot ohne erfolg...


    hatte dann das eingegeben, hatte wohl deine anweisung falsch verstanden:

    unused devices: <none>


    Hoffe wir/du bekommst das noch hin, werde dann deinen Rat befolgen und nach und nach die platten tauschen.


    Schönen Abend
    Gruß
    Marc

  • Hi Marc,


    das war schon richtig so:

    Code
    mdadm --assemble /dev/md0 /dev/sd[abcd]3


    ist selbiges wie deines jedoch in der schreibweise verkürzt ;)


    Code
    mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument


    Puh.


    Glaube das müsste ich mir selbst mal bei ´ner TV Session angucken. Kenne ich so bisher noch nicht.
    Ich sende Dir mal ´ne PM.


    Grüsse, David

  • Hi David,


    vielen Dank für Deine Hilfe!!!


    Für alle anderen --> Die Lösung war ein downgrade auf Version 3.4.4 Build0718


    Jetzt ist das Raid wieder da :)


    Vielen Dank und Gruß
    Marc