Raid 5 nach Firmwareupdate 4.1.1 unmounted/entladen

  • Liebe Gemeinde,


    ich habe jetzt schon einige Zeit nach möglichen Beiträgen zu meinem Problem gesucht. Leider entweder nichts oder keine passende Antwort gefunden. Meine Situation:
    Ich habe ein TS-439 mit 4 Platten 1GB mit dem ich auch eigentlich sehr zufrieden bin. Ab und an ein Firmwareupdate und ich freu mich übr das Produkt.
    Leider ist nach dem letzten Firmwareupdate auf 4.1.1 etwas schief gelaufen. Das Update selbst lief gut und ich kam und komme auch auf die Weboberfläche. Nur ist mein Raid 5 entladen. Die Platten sind da und die Smart-Info zeigt "Gut". Das TS fordert mihc auf Check File System durchzuführen, aber die Funktion ist ausgegraut...


    Dann habe ich mich an die Problemsuche gemacht und auch mit putty und mit Hilfe einiger Beiträge versucht mehr raus zu bekommen oder das Raid wieder ans Laufen zu bekommen. Jetzt bin ich aber kein Linux-Meister und tue mich da doch echt schwer. Hinzu kommt, dass meine Daten ohne Backup - ja bin selbst schuld - auf diesen Platten sind!!!


    Ich wende mich nun mit den Logs an Euch in der Hoffnung das Ihr mir hier weiterhelfen könnt oder mich an einen Beitrag verweisen könnt der mir weiterhelfen kann:


    Code
    login as: adminadmin@192.168.6.96's password:[~] # config_util 1Start to mirror ROOT part...config_util: HD1 config Match serial_no of HD1.config_util: HD2 config Match serial_no of HD2.config_util: HD3 config Match serial_no of HD3.config_util: HD4 config Match serial_no of HD4.mdadm: /dev/md9 assembled from 1 drive - need all 4 to start it (use --run to in                 sist).mdadm: stopped /dev/md9mdadm: /dev/md9 has been started with 1 drive (out of 4).Mirror of ROOT succeeded.[~] # storage_boot_init 1storage_boot_init 1 ...[~] # mdadm: /dev/sda2 appears to be part of a raid array:    level=raid1 devices=2 ctime=Wed Dec 10 20:23:04 2014mdadm: array /dev/md4 started.storage_boot_init 2storage_boot_init 2 ...mdadm: /dev/md0 has been started with 3 drives (out of 4).BusyBox v1.01 (2014.09.01-17:31+0000) multi-call binaryUsage: renice priority pid [pid ...]Changes priority of running processes. Allowed priorities rangefrom 20 (the process runs only when nothing else is running) to 0(default priority) to -20 (almost nothing else ever gets to run).storage_boot_init.c: Start raid device /dev/md0 successfullymd0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]storage_boot_init.c:     /dev/md0 is active.storage_boot_init.c: Check filesystem on /dev/md0.storage_boot_init.c:     Cannot mount /dev/md0.storage_boot_init.c: check_last_degrade_error...[~] # mdadm -E /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 00.90.00           UUID : 54855dd8:e445bba3:498fde59:28eb9595  Creation Time : Tue Sep 16 20:08:32 2014     Raid Level : raid5  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)     Array Size : 2925580608 (2790.05 GiB 2995.79 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Update Time : Wed Dec 10 20:54:05 2014          State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1  Spare Devices : 1       Checksum : 3735de44 - correct         Events : 0.48800         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     0       8        3        0      active sync   /dev/sda3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       0        0        3      faulty removed   4     4       8       51        4      spare   /dev/sdd3[~] # mdadm -E /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 00.90.00           UUID : 54855dd8:e445bba3:498fde59:28eb9595  Creation Time : Tue Sep 16 20:08:32 2014     Raid Level : raid5  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)     Array Size : 2925580608 (2790.05 GiB 2995.79 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Update Time : Wed Dec 10 20:54:05 2014          State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1  Spare Devices : 1       Checksum : 3735de56 - correct         Events : 0.48800         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     1       8       19        1      active sync   /dev/sdb3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       0        0        3      faulty removed   4     4       8       51        4      spare   /dev/sdd3[~] # mdadm -E /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 00.90.00           UUID : 54855dd8:e445bba3:498fde59:28eb9595  Creation Time : Tue Sep 16 20:08:32 2014     Raid Level : raid5  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)     Array Size : 2925580608 (2790.05 GiB 2995.79 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Update Time : Wed Dec 10 20:54:05 2014          State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1  Spare Devices : 1       Checksum : 3735de68 - correct         Events : 0.48800         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     2       8       35        2      active sync   /dev/sdc3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       0        0        3      faulty removed   4     4       8       51        4      spare   /dev/sdd3[~] # mdadm -E /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 00.90.00           UUID : 54855dd8:e445bba3:498fde59:28eb9595  Creation Time : Tue Sep 16 20:08:32 2014     Raid Level : raid5  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)     Array Size : 2925580608 (2790.05 GiB 2995.79 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Update Time : Wed Dec 10 20:54:05 2014          State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1  Spare Devices : 1       Checksum : 3735de76 - correct         Events : 0.48800         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     4       8       51        4      spare   /dev/sdd3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       0        0        3      faulty removed   4     4       8       51        4      spare   /dev/sdd3[~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]                 2925580608 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]                 [>....................]  recovery =  4.3% (42879260/975193536) finish=241.4min speed=64344K/secmd4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]                 530048 blocks [2/2] [UU]md9 : active raid1 sdc1[3] sdb1[1] sda1[0] sdd1[2]                 530048 blocks [4/4] [UUUU]                 bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>[~] # mount /dev/md0 /share/MD0_DATA -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3mdadm: another array by this name is already running.[~] # mdadm -S /dev/md0mdadm: stopped /dev/md0[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3mdadm: /dev/sda3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdb3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdc3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdd3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: array /dev/md0 started.[~] # mount /dev/md0 /share/MD0_DATA -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so[~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] sda3[0]                 2925580800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]                 530048 blocks [2/2] [UU]


    und dann noch mal folgendes versucht:



    Und jetzt weiß ich nicht mehr weiter!!!
    Ach ja und ein wenig suaer bin ich auch... auf mich weil ich kein Backup habe... und auch auf Qnap, weil ich dieses Verhalten nach einem FW-Update als qualitativ unvollendet halte. Das darf eigentlich nicht passieren, zumal das Update empfohlen wurde...


    Jetzt danke ich erstmal im Voraus für Eure Hilfe!!!!


    MfG
    Michel

  • Hallo,
    Ich habe seit heute das gleiche Problem, nur hat das Update der Firmware auch nicht funktioniert.


    Wie kann ich denn das RAID wieder herstellen ?


    Wie kann ich mich denn überhaupt mich da drauf schalten um ein Report zu erstellen ?


    Ich hoffe mir kann jemand helfen, habe da wichtige Daten drauf wie alle alten Bilder und so. :(


    Danke euch schon jetzt.

  • 1) putty downloaden.
    2) ip adresse eingeben und mit Admin Daten anmelden
    3) Befehle meiner Log entnehmen... oder besser nach einer entsprechenden Anleitung Verfahren. .. dein Fehler ist anders als meiner....
    Google mal nach qnap how to fix a brocken raid.... mich hat der Artikel nicht wirklich weiter gebracht... aber ich bin auch kein Linux Spezialist. ...


    --- ModEdit ---


    So habe heute morgen noch mal die TS-439 runtergefahren. Platten raus. Hochgefahren. Platten nacheinander wieder rein.


    Dann folgendes versucht....


    Code
    login as: adminadmin@192.168.6.96's password:[~] # config_util 1Start to mirror ROOT part...config_util: HD1 config Match serial_no of HD1.config_util: HD2 config Match serial_no of HD2.config_util: HD3 config Match serial_no of HD3.config_util: HD4 config Match serial_no of HD4.mdadm: /dev/md9 has been started with 4 drives.Mirror of ROOT succeeded.[~] # storage_boot_init 2storage_boot_init 2 ...mdadm: /dev/md0 has been started with 4 drives.BusyBox v1.01 (2014.09.01-17:31+0000) multi-call binaryUsage: renice priority pid [pid ...]Changes priority of running processes. Allowed priorities rangefrom 20 (the process runs only when nothing else is running) to 0(default priority) to -20 (almost nothing else ever gets to run).storage_boot_init.c: Start raid device /dev/md0 successfullymd0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]storage_boot_init.c:     /dev/md0 is active.storage_boot_init.c: Check filesystem on /dev/md0.storage_boot_init.c:     Cannot mount /dev/md0.storage_boot_init.c: check_last_degrade_error...


    Was sagt mir das eigentlich ...ich hatte mal gelsen ich solle schnell meine Daten über einen FTP-Client sichern. Aus dem Ordner Share/MD0_Data... da finde ich aber nix!


    Habe dann folgendes durchgeführt:



    Jetzt rätsel ich weiter.... Gibt es eine Chance Daten zu retten????

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Doppelte Beiträge vermeiden, siehe Forenregeln! Bitte den &quot;Ändern&quot;-Button benutzen!

  • Hallo, nach ca. 3 Stunden im Internet, habe ich herausgefunden dass ich zwei fehler auf meiner QNAP habe.


    Alle Platten sind laut meiner QNAP OK:
    Siehe Bild "QNAP_Bild_1"


    1) eine Platte hat sich aus meinem RAID entfernt, warum auch immer:
    Siehe Bild: "QNAP_Bild_2"


    2) meine restlichen Platten haben Ihre Reinefolge vertauscht.
    Siehe Bild: "QNAP_Bild_3"


    Hier ein sehr guter Link, was man bei verschiedenen Problemen machen soll.
    "http://qnapsupport.net/?page_id=1336"



    Meine frage, was muss ich als erstes tun, HDD wieder einbinden oder Reinefolge der Festplatten wieder richten ????


    Danke für eure Hilfe und hoffe der Link hilft euch auch etwas weiter.

  • Zitat von "michel777"

    Gibt es eine Chance Daten zu retten????


    Ich fürchte - Nein!
    Bis hierher:

    Zitat von "michel777"
    Code
    [~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]                 2925580608 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]                 [>....................]  recovery =  4.3% (42879260/975193536) finish=241.4min speed=64344K/secmd4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]                 530048 blocks [2/2] [UU]md9 : active raid1 sdc1[3] sdb1[1] sda1[0] sdd1[2]                 530048 blocks [4/4] [UUUU]                 bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>

    sah noch alles gut aus. Das RAID hatte einen Rebuild gestartet. Dann hast Du den Kardinalsfehler begangen und das RAID gestoppt und mit der Option --assume-clean neu erstellt.

    Zitat von "michel777"
    Code
    [~] # mdadm -S /dev/md0mdadm: stopped /dev/md0[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3mdadm: /dev/sda3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdb3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdc3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdd3 appears to be part of a raid array:    level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: array /dev/md0 started.


    Das hat dazu geführt, dass das jetzige RAID mit 2925580800 blocks

    Code
    [~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]                 2925580800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

    eine andere Grösse hat als das vorherige mit 2925580608 blocks.

    Code
    # more /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
    md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]
                     2925580608 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
                     [>....................]  recovery =  4.3% (42879260/975193536) finish=241.4min speed=64344K/sec

    Somit ist da mit einfachen Mitteln nichts mehr zu machen. Hier könnte höchstens noch ein professioneller Datenrettungsdienst helfen.



    Zitat von "Tom.E"

    Hallo, nach ca. 3 Stunden im Internet, habe ich herausgefunden dass ich zwei fehler auf meiner QNAP habe.


    Ein paar Minuten hätten gereicht, um zumindest grundlegende Infos zu geben. ---> http://forum.qnapclub.de/viewtopic.php?f=242&t=29924

  • Hallo,
    Sorry ich Habe noch keine Erfahrung was Ihr denn für Informationen braucht, aber ich werde mal mit dem anfangen was ich Beantworten kann.


    - NAS-Modell: TS-412
    - NAS-Firmwareversion, Build-Date: Version4.0.2 Build (wo bekomme ich das denn her ?)
    - Festplattenanzahl x Festplattentyp: 4x Western Digital WD20EARx-00PASB051.0 Kapazität: 1863.02 GB
    - Festplattenkonfiguration: RAID5
    - Volumeverschlüsselung aktiviert ja/nein: nein
    - Netzwerkschnittstellenkonfiguration: Einzelschnittstelle über LAN
    - Netzwerkbasisanschluss der NAS: Router/1000Mbit
    - WLAN/DLAN Verbindungen von/zur NAS ja/nein: WLAN über Router
    - angeschlossene externe Geräte: keine


    Weitere nützliche Angaben:
    - was steht im Systemereignisprotokoll der NAS seit kurz vor der Störung:
    Nach einem von mir versuchten Update ist es mir aufgefallen, das ich keinen zugriff mehr auf meine Daten habe.
    Ich kann aber im Netzwerk Share noch alle Ordner sehen.


    - welches Betriebssystem wird genutzt: WIN 8.1
    - welcher Webbrowser wird genutzt: Habe es über Firewfox und über IE versucht.


    - wann und wie genau wurde die Firmware der NAS zuletzt upgedatet:
    1) über update Funktion der QNAP
    2) File welches ich aus dem Internet (QNAP-Seite) gedownlodet habe.


    - welche letzten Aktionen wurden auf der NAS vorgenommen, bevor die Störung auftrat / entdeckt wurde
    Update Versuch der QNAP.


    Falls ihr nicht mehr ohne weiteres Zugriff auf die Daten der NAS habt:
    - ist ein aktuelles Backup der Daten der NAS vorhanden
    leider nein


    - ist ein aktuelles Backup der Systemeinstellungen der NAS vorhanden
    nein, wie kann ich eines erstellen ?


    Ich hoffe das und beine letzten Bilder können euch einen Überblick verschaffen.


    Danke euch für eure Zeit und Hilfe.

  • Zitat von "Tom.E"

    Build (wo bekomme ich das denn her ?)


    Wird z.B. im QFinder angezeigt.

    Zitat von "Tom.E"

    - Festplattenkonfiguration: RAID5


    Ganz sicher?? Laut deiner Bilder müsstest Du RAID0 haben.


    Was sagt das Systemlog bezüglich FW-Update?

  • Wie kommst du denn darauf das ich Raid0 haben sollte ?
    Ich hatte es so weit ich mir noch bekannt mit Raid5 aufgesetzt.
    Wo kann ich denn diese Information her bekommen ?
    Denn du bringst mich gerade ans Zweifeln.


    Kann ich das mit Putty durch einen Befehl sehen ?


    Danke für deine schnellen Antworten.


    --- ModEdit ---


    Hier noch mehr Informationen.


    Ich habe auch gesehen, dass der Name der QNAP nicht mehr der von mir vergebene Name ist. :(

  • Zitat von "Tom.E"

    Denn du bringst mich gerade ans Zweifeln.


    Nun, Du hast es schon selbst herausgefunden. ;)


    Steht in dem Systemlog irgendwo um den 05. - 08.12 etwas mit Shellschock-Fix?

  • Zitat von "dr_mike"

    Steht in dem Systemlog irgendwo um den 05. - 08.12 etwas mit Shellschock-Fix?


    Diesen Fehler kann ich nicht in dem Log finden.



    Kannst du mir bitte erklären, wie ich das reparieren kann ?
    Denn ich habe echt keinen Plan. :(
    Oder sind die Daten weg ?
    Gruss
    Tom