RAID-5 nach defekter HDD "Nicht aktiv"

  • Hallo,
    erstmal Info's vorab:
    An meinem QNAP TS-859 PRO+ mit 8 HDD's a 2 TB habe ich folgende Konfiguration.
    HDD 1 bis 6 bilden das RAID-5-Array
    HDD 7 Global Hotspare
    HDD 8 Als einfache HDD zum zweitsichern von Daten meines PC's
    (Die Nummern der HDD's entsprechen /sind die Bezeichnungen der Laufwerksschächte.)


    nun zu meinem Problem:
    HDD 4 ist ausgefallen, d.h. Totalschaden. Das NAS hat sie folgerichtig gar nicht mehr erkannt/erkennen können.
    Die globale Hotspare, also HDD 7, ist nicht automatisch für die defekte HDD 4 eingesprungen. (Sollte sie das überhaupt automatisch machen?)


    Der Status des Raid-5:
    Datenträger: RAID 6-Datenträger: Laufwerk 1 2 3 6 5 HDD 4 fehlt also auch hier
    Dateisystem: -
    Gesamtgröße: -
    Freiche Größe: -
    Staus: Nicht aktiv


    Mein erster Lösungsansatz:
    In der RAID-Verwaltung die Aktion "wiederherstellen" ausführen.
    Funktionierte leider nicht...
    Ergebnis:
    [RAID5 Disk Volume: Drive 1 2 3 6 5] RAID Recovery failed: Not enough devices to start the array.


    Da die TS-859 PRO+ die Global Hotspare weder von alleine noch per manuellem Wiederherstellungversuch per Menüfunktion für das
    rebuilden des RAID-5 verwenden wollte, ich auf der anderen Seite aber keine entsprechende HDD "zur Hand" hatte, habe ich das NAS
    heruntergefahren und die defekte HDD 4 durch die Global Hotspare, also HDD 7, ersetzt.
    Anschließend habe ich das NAS wieder hochgefahren und abermals:
    In der RAID-Verwaltung die Aktion "wiederherstellen" ausführen.
    Funktionierte leider wieder nicht...
    Ergebnis:
    [RAID5 Disk Volume: Drive 1 2 3 6 5] RAID Recovery failed: Not enough devices to start the array.


    Mittlerweile habe ich mir eine neue HDD besorgt.
    -> HDD 7 wieder als Global Hotspare, die nagelneue als HDD 4.
    Dann wieder:
    In der RAID-Verwaltung die Aktion "wiederherstellen" ausführen.
    Funktionierte leider wieder nicht...
    Ergebnis:
    [RAID5 Disk Volume: Drive 1 2 3 6 5] RAID Recovery failed: Not enough devices to start the array.


    Momentaner Status:
    Alle HDD's OK - aber dennoch kommt beim wiederherstellen der Fehler [RAID5 Disk Volume: Drive 1 2 3 6 5] RAID Recovery failed: Not enough devices to start the array. - obwohl ja alle Laufwerke wieder vorhanden sind und funktional.


    Was ist zu tun? Was kann ich machen?


    Schon mal im Vorfeld eurer Hilfe, (wie ich hoffe), Vielen Dank.


    Tom

  • Hallo,
    die Firmware ist 4.2.0, welche Build kann ich nich sagen. Wo sehe ich das?


    Festplatten sind Western Digital - 2 TB. Nicht die Server-Edition sondern die GreenEdition.


    Hier mal ein Auszug:


    Das Nas war auch zwischenzeitlich ausgeschaltet vom 09. bis zum 21.11.2015
    Vorher war der Festplattencheck (08.11.2015) noch OK - dann hat der guten alten HDD4 die Auszeit nicht so gut getan...



    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Code Block hinzugefügt, siehe Forenregeln!

  • Das sieht doch fast nach einem Hardware-Defekt an Schacht 4 aus .....

  • walli1212
    Nein, Platten sind Verschleißteile und können auch kaputt gehen.


    Zitat von "Thomas123_2000"

    Festplatten sind Western Digital - 2 TB. Nicht die Server-Edition sondern die GreenEdition.

    Das ist keine Typ-Angabe. Aber ich vermute mal, diese Platten stehen nicht auf der Kompatibilitätsliste.


    Zitat von "Thomas123_2000"

    dann hat der guten alten HDD4 die Auszeit nicht so gut getan...

    Leider steht nichts dazu im Log, aber ich gehe davon aus, das wenigstens eine weitere Platte ihren Geist aufgegeben hat oder deren RAID-Infoblocks beschädigt wurde/n.

  • Mannomann.


    Natürlich ist HDD 4 ausgefallen. Das ist doch unstrittig und steht ausführlich im ersten Post...


    Eine weitere HDD ist NICHT ausgefallen. Was sind das bloß für Spekulationen...


    Und ja, sie stehen nicht auf dem Kompatibilitätsliste.


    Und?


    Wenn man ein wenig googelt, sind ähnliche Fehler haufenweise auch mit HDD's aufgetreten, die auf der Kompatibilitätsliste standen.
    Also es darauf schieben zu wollen, ist ein bissel schwach.

  • Zitat von "dr_mike"

    walli1212
    Nein, Platten sind Verschleißteile und können auch kaputt gehen.


    Das ist mir bekannt. Dennoch wüßte ich gerne, ob die neuen Platten in Slot 4 überhaupt erkannt werden.


    Zitat von "dr_mike"

    aber ich gehe davon aus, das wenigstens eine weitere Platte ihren Geist aufgegeben hat oder deren RAID-Infoblocks beschädigt wurde/n.


    Und wieso läuft das System dann? Mit zwei fehlenden Platten im Raid5 wäre ja wohl Exitus.

  • Hallo,
    die neue HDD wird in Slot 4 einwandfrei erkannt. Ich kann sie als "Global Hotspare" nutzen oder als Standalone oder was einem noch so damit einfällt...


    Nur gehörte sie doch ursprünglich zum RAID-5-Array, warum jetzt nicht mehr?
    Und wie bekomme ich sie wieder zum RAID-5-Array?

  • Zitat von "Thomas123_2000"

    Natürlich ist HDD 4 ausgefallen. Das ist doch unstrittig

    Das bezweifle ich auch nicht. Ich hätte meinen Satzbau anders machen sollen. So war er missverständlich. Besser wäre gewesen: Ich gehe davon aus, das wenigstens eine weitere Platte ihren Geist aufgegeben hat oder deren RAID-Infoblocks beschädigt wurde/n, aber leider steht nichts dazu im Log. ;)


    Zitat von "Thomas123_2000"

    Eine weitere HDD ist NICHT ausgefallen. Was sind das bloß für Spekulationen...

    Keine Spekulationen sondern Ergebnis deiner Fehlermeldung:

    Zitat von "Thomas123_2000"

    [RAID5 Disk Volume: Drive 1 2 3 6 5] RAID Recovery failed: Not enough devices to start the array.

    Bedeutet, dass mehr als eine Platte Probleme macht - nicht physisch aber zumindest von der Datenintegrität.


    Zitat von "walli1212"

    Und wieso läuft das System dann?

    Das System befindet sich in Partition 1 und 4 in einem RAID1. Das läuft auch noch, wenn nur noch eine funktionierende Platte vorhanden ist.

    Zitat von "walli1212"

    Mit zwei fehlenden Platten im Raid5 wäre ja wohl Exitus.

    Für die Daten ja - dies ist ja auch eingetreten.

    Zitat von "Thomas123_2000"

    Nur gehörte sie doch ursprünglich zum RAID-5-Array, warum jetzt nicht mehr?

    Nein, als "Global Hotspare" ist sie keinem RAID zugeosdnet.

    Zitat von "Thomas123_2000"

    Und wie bekomme ich sie wieder zum RAID-5-Array?

    Wenn von den ursprünglichen 6 Platten wenigstens 5 für das RAID funktional zur verfügung stehen. Dies scheint jedoch nicht der Fall zu sein.
    Das kanns du Prüfen über

    Code
    mdadm -E /dev/sd[abcdef]3 
    cat /proc/mdstat

    Du kannst auch mal die Ausgabe von dmesg posten.

  • Hi, hier die Ausgaben:


    Code
    [~] # mdadm -E /dev/sd[abcdef]3/dev/sda3:          Magic : a92b4efc        Version : 00.90.00           UUID : 4e61c27a:e8c6b596:1e930a4b:18b1df1d  Creation Time : Wed May  9 22:59:22 2012     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 11711673600 (11169.12 GiB 11992.75 GB)   Raid Devices : 7  Total Devices : 6Preferred Minor : 0    Update Time : Tue Nov 24 12:34:24 2015          State : clean Active Devices : 6Working Devices : 6 Failed Devices : 1  Spare Devices : 0       Checksum : 32161570 - correct         Events : 0.2419065         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     0       8        3        0      active sync   /dev/sda3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3   4     4       8       83        4      active sync   /dev/sdf3   5     5       8       67        5      active sync   /dev/sde3   6     6       0        0        6      faulty removed/dev/sdb3:          Magic : a92b4efc        Version : 00.90.00           UUID : 4e61c27a:e8c6b596:1e930a4b:18b1df1d  Creation Time : Wed May  9 22:59:22 2012     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 11711673600 (11169.12 GiB 11992.75 GB)   Raid Devices : 7  Total Devices : 6Preferred Minor : 0    Update Time : Tue Nov 24 12:34:24 2015          State : active Active Devices : 6Working Devices : 6 Failed Devices : 1  Spare Devices : 0       Checksum : 32161581 - correct         Events : 0.2419065         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     1       8       19        1      active sync   /dev/sdb3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3   4     4       8       83        4      active sync   /dev/sdf3   5     5       8       67        5      active sync   /dev/sde3   6     6       0        0        6      faulty removed/dev/sdc3:          Magic : a92b4efc        Version : 00.90.00           UUID : 4e61c27a:e8c6b596:1e930a4b:18b1df1d  Creation Time : Wed May  9 22:59:22 2012     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 11711673600 (11169.12 GiB 11992.75 GB)   Raid Devices : 7  Total Devices : 6Preferred Minor : 0    Update Time : Tue Nov 24 12:34:24 2015          State : active Active Devices : 6Working Devices : 6 Failed Devices : 1  Spare Devices : 0       Checksum : 32161593 - correct         Events : 0.2419065         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     2       8       35        2      active sync   /dev/sdc3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3   4     4       8       83        4      active sync   /dev/sdf3   5     5       8       67        5      active sync   /dev/sde3   6     6       0        0        6      faulty removedmdadm: No md superblock detected on /dev/sdd3./dev/sde3:          Magic : a92b4efc        Version : 00.90.00           UUID : 4e61c27a:e8c6b596:1e930a4b:18b1df1d  Creation Time : Wed May  9 22:59:22 2012     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 11711673600 (11169.12 GiB 11992.75 GB)   Raid Devices : 7  Total Devices : 6Preferred Minor : 0    Update Time : Tue Nov 24 12:34:24 2015          State : active Active Devices : 6Working Devices : 6 Failed Devices : 1  Spare Devices : 0       Checksum : 321615b9 - correct         Events : 0.2419065         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     5       8       67        5      active sync   /dev/sde3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3   4     4       8       83        4      active sync   /dev/sdf3   5     5       8       67        5      active sync   /dev/sde3   6     6       0        0        6      faulty removed/dev/sdf3:          Magic : a92b4efc        Version : 00.90.00           UUID : 4e61c27a:e8c6b596:1e930a4b:18b1df1d  Creation Time : Wed May  9 22:59:22 2012     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 11711673600 (11169.12 GiB 11992.75 GB)   Raid Devices : 7  Total Devices : 6Preferred Minor : 0    Update Time : Tue Nov 24 12:34:24 2015          State : active Active Devices : 6Working Devices : 6 Failed Devices : 1  Spare Devices : 0       Checksum : 321615c7 - correct         Events : 0.2419065         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     4       8       83        4      active sync   /dev/sdf3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3   4     4       8       83        4      active sync   /dev/sdf3   5     5       8       67        5      active sync   /dev/sde3   6     6       0        0        6      faulty removed[~] #


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md8 : active raid1 sdh2[8](S) sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]                 530128 blocks super 1.0 [2/2] [UU]md13 : active raid1 sda4[0] sdd4[7] sdh4[6] sdg4[5] sdf4[4] sde4[3] sdc4[2] sdb4[1]                 458880 blocks [8/8] [UUUUUUUU]                 bitmap: 1/57 pages [4KB], 4KB chunkmd9 : active raid1 sda1[0] sdd1[7] sdh1[6] sdg1[5] sdf1[4] sde1[3] sdc1[2] sdb1[1]                 530048 blocks [8/8] [UUUUUUUU]                 bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>[~] #


  • Poste bitte mal noch die Ausgabe von

    Code
    mdadm -E /dev/sdg3


    Ich hoffe, du hast die HDD7 nicht zwischenzeitlich formatiert oder andere Änderungen dran vorgenommen.

  • Hi,
    ich habe mittlerweile das Raid-5 gelöscht, da es nicht mehr zu retten war.
    Ist schon ärgerlich, da definitiv nur ein Platte ausgefallen war und eine Global Hotspare vorhanden... aber sei's drum.


    Nun habe ich mit 7 HDD's (HDD1-7) ein RAID-6 angelegt und HDD8 läuft weiterhin als Einzeldisk, wie vorher.


    Aber warum habe ich immer noch md8,md9 und md13?


    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Quote durch Codeblock ersetzt

  • Zitat von "Thomas123_2000"


    Aber warum habe ich immer noch md8,md9 und md13?


    Das sind Subraids, welche RAID informationen beinhalten. Wie von dr_mike angesprochen befinden die sich auf allen HDDs im RAID1.


    Achso und Nachtrag: Ich hab bereits desöfteren beobachtet, dass wenn eine (bei den Beobachtungen DM Platten von Seagate) "Desktop"-HDD bei der NAS ausfällt, eine zweite auch schnell aussteigt (auch wenn sie nicht gleich "offensichtlich" auf der GUI dementsprechend gekennzeichnet wird).
    Wie dr_mike schon erwähnt hat, ich vermute hier auch mindestens eine zweite defekte HDD, denn eine HDD im RAID5 darf normalerweiße aussteigen, sonst wär das ja total sinnlos.

  • Hui, alle diese Schilderungen verfestigen hier den Eindruck, daß gerade noch RAID1 (und am besten noch ohne Speicherpool/Volumes = nackertes Standard-SoftRAID mit zwei notfalls anderweitig problemlos lesbaren Platten ext3/4, also Firmware < 4.x...) halbwegs solide ist, aber alle höheren RAID-Level zwar theoretisch ruhig schlafen lassen sollen, aber wenn der Fall eintritt, wofür man sie haben wollte (Redundanz für Plattenschaden) im Hinblick auf nahtlosen Weiterbertrieb ziemlich häufig in einem ultimativen Desaster enden. Gnade demjenigen, der dann kein hinreichend frisches Backup hat (evtl. mühsam bei einem großen RAID-Volume, das man nicht mehr einfach regelmäßig auf eine einzelne Riesenplatte wegsichern kann) und v.a. genügend Zeit zum Neuaufsetzen seiner Kiste hat.. bis da wieder alles so läuft wie vorher.. _hurted: .


    Bei mehreren RAID1 ist ja als Backupkonzept je RAID1-Verbund eine eigene mindestens gleichgroße externe Platte das naheliegendste...

    Einmal editiert, zuletzt von MatthiasM ()

  • Das Problem in vielen RAID5-Systemen ist hausgemacht .... alle Platten gleich alt,
    vom gleichen Hersteller und aus der gleichen Serie .... steigt eine Platte wegen
    Altersschwäche aus ist die Wahrscheinlichkeit relativ hoch, das bei dem Rebuild
    die nächste stirbt, vorallem dann, wenn das System "Live" bleibt.


    Daher ist es sinnvoll, bereits bei der Installation unterschiedliche Hersteller und
    unterschiedliche Serien zu verwenden, und die Platten vorzeitig auszutauschen,
    noch bevor die erste sich verabschiedet hat.


    Da ich auch (wider besseres Wissen) die gleiche Serie verbaut habe, fliegt die
    erste Platte nach 9 Monaten raus; danach immer alle 3 Monate eine weitere.


    Am liebsten hätte ich ein RAID61, das geht aber nicht mit einer 4Bay .....

  • Hi,
    wollte noch mal auf die "Subraid's" (md8,md9,md13) zu sprechen kommen.


    Wo kommen die denn her? Ist das ein Zeichen, das trotz Löschen des RAID-5 und Neuanlegen eines RAID-6 das QNAP immer noch "strubbelig" ist und Rückstände hat, die eigentlich nich da sein sollten? Falls ja, wie bekomme ich das System wieder clean?


    Klärt mich doch dahingehend bitte mal auf.


    Ich habe das NAS nagelneu gekauft, und noch nie war ein RAID-1 drauf. Nur ein RAID-5, eine Global Hotspare und eine einzelne Platte.

  • Benutze doch bitte auch mal die Forensuche. Allein zu md9 gibt es über 170 Beiträge. In Verbindung mit System immerhin noch über 80 Beiträge.

  • Hast recht, habe die Forensuche bemüht und gut.


    Vielen Dank an alle, die mir geholfen haben.
    Hat aber nichts gebracht (RAID war nicht wiederherstellbar, obwohl nur eine HDD ausgefallen war) außer der Erkenntnis, das das QNAP recht unsicher zu sein scheint, was auch die Vielzahl der ähnlichen Fragen bzgl. fehlerhafter RAID untermauert.
    Ich werde mir wohl zwei 8-TB-HDD's zulegen, die sich regelmäßig synchronisieren. Hat den positiven Effekt der Stromersparnis und macht nicht so viel Ärger.


    Tschau und nochmals Danke an alle.