Fehler Systemstart nach Update Firmware 4.1 TS-419P II

  • Hallo zusammen,


    ich hab nach dem versuchten Update auf 4.1 ein riesiges Problem.
    Nach einem "normalen" Neustart, der ganze 2 Stunden dauerte habe ich jetzt folgende Situation:


    QNAP TS-419P II
    RAID5
    4 PLatten
    IP Ping ok
    Putty Verbindung ok
    Weboberfläche geht nicht


    Es werden ganze drei (1-3) von vier PLatten rot angezeigt.
    Die vom Techsupport von QNAP haben immer noch nicht reagiert...


    Hier gibt es hoffentlich einen, der weiss was er tut, um mir hier aus der Patsche zu helfen...


    ich könnt heulen, wenn ich (viel zu spät) an meine Daten denke. _hurted:


    Gruss

  • Leider nein. Aber leiste beruflich selber IT-Support. Also mit ein paar guten Anweisungen sollte es zu machen sein.

  • Gut. Im Puttyfenster mit der linken Maustaste markierter Text wird sofort beim loslassen der Maustaste in die Zwischenablage Kopiert. Mit der rechten Maustaste wird der Inhalt der Zwischenablage in die Befehlszeile kopiert und alles versucht auszuführen, was ein Return-Code am Ende hat. Sei also bitte vorsichtig mit der rechten Maustaste im Putty.


    Kopiere nun den gesamten Code in der folgenden Box und füge ihn per Rechtsklick ins Puttyfenster ein. Anschliessend die darauf folgende Ausgabe mit der linken Maustaste markieren und hier in einem Codeblock einfügen.
    Script ausgeborgt von PWilson im QNAP-Forum:

  • Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Code Block hinzugefügt, siehe Forenregeln!

  • Ok, dein Update ist fehlgeschlagen. Laut deiner Aussage solltest du jetzt 4.1.0 drauf haben. In der Konfiguration steht jedoch 4.0.7.
    Demnach dürftest du ein Gemisch aus neuem Kernel und alten Kernel-Modulen auf deinem NAS haben.
    Poste bitte das Ergebnis von

    Code
    dmesg


    Vergiss den Codeblock nicht. ;)

  • Genau das Ergebnis hatte ich erwartet.
    Swap ist noch nicht da. Mal schauen,was da los ist. Jedes Kommando bitte in einem eigenen Codeblock posten

    Code
    mdadm -D /dev/md4
    mdadm -E /dev/sda2
    mdadm -E /dev/sdb2
    mdadm -E /dev/sdc2
    mdadm -E /dev/sdd2
  • Code
    [~] # mdadm -D /dev/md4mdadm: md device /dev/md4 does not appear to be active.


    Code
    [~] # mdadm -E /dev/sda2/dev/sda2:          Magic : a92b4efc        Version : 00.90.00           UUID : 3a786c54:6defb3b7:52585a1f:01faae67  Creation Time : Sat May 24 12:57:08 2014     Raid Level : raid1  Used Dev Size : 530048 (517.71 MiB 542.77 MB)     Array Size : 530048 (517.71 MiB 542.77 MB)   Raid Devices : 2  Total Devices : 4Preferred Minor : 4    Update Time : Sun Jul 27 11:01:20 2014          State : clean Active Devices : 2Working Devices : 4 Failed Devices : 0  Spare Devices : 2       Checksum : 4d59bf53 - correct         Events : 0.719521      Number   Major   Minor   RaidDevice Statethis     0       8        2        0      active sync   /dev/sda2   0     0       8        2        0      active sync   /dev/sda2   1     1       8       18        1      active sync   /dev/sdb2   2     2       8       34        2      spare   /dev/sdc2   3     3       8       50        3      spare   /dev/sdd2[~] #


    Code
    [~] # mdadm -E /dev/sdb2/dev/sdb2:          Magic : a92b4efc        Version : 00.90.00           UUID : 3a786c54:6defb3b7:52585a1f:01faae67  Creation Time : Sat May 24 12:57:08 2014     Raid Level : raid1  Used Dev Size : 530048 (517.71 MiB 542.77 MB)     Array Size : 530048 (517.71 MiB 542.77 MB)   Raid Devices : 2  Total Devices : 4Preferred Minor : 4    Update Time : Sun Jul 27 11:01:20 2014          State : clean Active Devices : 2Working Devices : 4 Failed Devices : 0  Spare Devices : 2       Checksum : 4d59bf65 - correct         Events : 0.719521      Number   Major   Minor   RaidDevice Statethis     1       8       18        1      active sync   /dev/sdb2   0     0       8        2        0      active sync   /dev/sda2   1     1       8       18        1      active sync   /dev/sdb2   2     2       8       34        2      spare   /dev/sdc2   3     3       8       50        3      spare   /dev/sdd2[~] #


    Code
    [~] # mdadm -E /dev/sdc2/dev/sdc2:          Magic : a92b4efc        Version : 00.90.00           UUID : 3a786c54:6defb3b7:52585a1f:01faae67  Creation Time : Sat May 24 12:57:08 2014     Raid Level : raid1  Used Dev Size : 530048 (517.71 MiB 542.77 MB)     Array Size : 530048 (517.71 MiB 542.77 MB)   Raid Devices : 2  Total Devices : 4Preferred Minor : 4    Update Time : Sun Jul 27 11:01:20 2014          State : clean Active Devices : 2Working Devices : 4 Failed Devices : 0  Spare Devices : 2       Checksum : 4d59bf71 - correct         Events : 0.719521      Number   Major   Minor   RaidDevice Statethis     2       8       34        2      spare   /dev/sdc2   0     0       8        2        0      active sync   /dev/sda2   1     1       8       18        1      active sync   /dev/sdb2   2     2       8       34        2      spare   /dev/sdc2   3     3       8       50        3      spare   /dev/sdd2[~] #



    Da steht überall RAID1 drin... das macht mich nervös. Es sollte doch ein RAID 5 sein. Argg..

  • Zitat von "jedo"

    Da steht überall RAID1 drin... das macht mich nervös. Es sollte doch ein RAID 5 sein. Argg.


    Dat passt schooo!! Alle Systempartitionen werden per RAID1 über alle Platten gespiegelt.


    Dann flicken wir mal das Swap zusammen

    Code
    mdadm -Avf /dev/md4 /dev/sda2 /dev/sdb2 /dev/sdc2 /dev/sdd2

  • Nur 2 Drives?
    Hab ich schon Danke gesagt? DANKE!!!

  • Zitat von "jedo"

    Hab ich schon Danke gesagt? DANKE!!!


    Noch sind wir nicht erfolgreich am Ende. ;)


    Zitat von "jedo"

    Nur 2 Drives?


    Jap!

    Zitat von "jedo"
    Code
    mdadm: /dev/md4 has been started with 2 drives and 2 spares.


    Das ist die Erklärung. ;)


    Nun ein Blick auf die System-RAID's und Swap aktivieren

    Code
    cat /proc/mdstat
    swapon /dev/md4
  • So, nun kommen wir zum eigentlichen Problem - dem Update. Sollte bei einem der Befehle ein Fehler angezeigt werden, dann nicht weiter machen und die Ergebnisse bis dahin hier posten.


  • Das passt alles.

  • Der erste mag nicht...


    Code
    [/mnt/HDA_ROOT/update] # umount /mnt/update
    umount: /mnt/update: not found
    [/mnt/HDA_ROOT/update] #
  • Das ist korrekt, wenn update nicht gemountet war. Das Gleiche gilt für den nächsten Befehl, wenn das Verzeichnis nicht existiert und ist kein Fehler.