[RAID5 Disk Volume: Drive 1 2 3 4] Drive 1 failed.

  • Hallo,
    ein ähnliches Problem wurde bereits beschrieben und beantwortet. Deshalb bin ich jetzt auch hier gelandet. Ich bin nicht sicher, ob ich einfach eine - wie vom qnap Benutzerservice vorgeschlagen - "defekte" Festplatte im HotSwap Verfahren herausnehme (neu formatiere) und einfach wieder einschiebe. Dies in der Hoffnung, dass sich das Raid5 wieder neu aufbaut.


    Bitte um Rat!


    Folgende Infos:




    Vielen Dank für die Hilfe!!!!


    MS

    2 Mal editiert, zuletzt von Terz () aus folgendem Grund: CODE Block hinzugefügt, Thema verschoben

  • Hi,


    ja. die 1. Disk mal mit nullen löschen und schauen ob ein defekt vorliegt. (Meist ist das so).
    Dann die Disk 1 einfach tauschen.


    Grüsse, David

  • Hallo!
    Nun habe ich allen Mut zusammen genommen und die erste HD, die den Read/Write Error hatte herausgenommen und komplett mit Nullen überschrieben. Ergebnis: Pass; also keine Fehler.
    Habe daraufhin die Platte wieder in den Slot geschoben. Das Log hatte nach dem vorherigen Herausnehmen dies richtig protokolliert. Also die Platte rein und ?
    Status für alle 4 HDs (reale Festplatten): Ready. Dann weiter:


    Bei der Angabe der aktuellen Datenträgerkonfiguration (Logische HD) und nachdem ich auf Prüfen der aktuellen Datenträgerkonfiguration gedrückt folgende Angabe:
    ----------
    Datenträger Dateisystem Gesamtgröße Freie Größe auswählen
    RAID 5-Datenträger: Laufwerk 2 3 4 EXT4 8313.05 GB 4119.02 GB Im herabgesetzten Modus
    ----------


    Also HD 1 wird noch nicht automatisch erkannt, geschweige denn das Raid 5 wieder aufgebaut.


    Syslog-Anzeige:
    Typ Datum Uhrzeit Benutzer Quellen-IP Computername Inhalt
    2011-11-06 04:53:11 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4] Examination completed.
    2011-11-06 04:48:39 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4] Start examination.
    2011-11-05 14:33:11 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4] RAID device in degraded mode.
    2011-11-05 14:33:10 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4] Drive 1 removed.
    2011-11-05 14:33:00 System 127.0.0.1 localhost Drive 1 plugged out.




    Auf die Daten ansich kann ich noch zugreifen.


    WAS MUSS ICH JETZT TUN? die Hilfetext helfen hier leider überhaupt nicht weiter, auch das Online Tutoria auchl nicht


    Vielen Dank für die weitere Unterstützung!!!


    MS

  • ...ja, dass hilft weiter. Allerdings sagt mein NAS folgendes:


    [Frage: sollte ich vielleicht einfach die NAS runter und wieder hochfahren?]

    /root$ mdadm -w /dev/md0
    mdadm: failed to set writable for /dev/md0: Device or resource busy
    /root$ mdadm -D /dev/md0
    /dev/md0:
    Version : 01.00.03

    Creation Time : Sat Aug 13 08:01:45 2011
    Raid Level : raid5
    Array Size : 8786092608 (8379.07 GiB 8996.96 GB)
    Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)
    Raid Devices : 4
    Total Devices : 3
    Preferred Minor : 0
    Persistence : Superblock is persistent


    Update Time : Sun Nov 6 10:00:02 2011
    State : clean, degraded
    Active Devices : 3
    Working Devices : 3
    Failed Devices : 0
    Spare Devices : 0


    Layout : left-symmetric
    Chunk Size : 64K


    Name : 0
    UUID : 73ca41bc:005e6e23:6e606c1b:5a3cae56
    Events : 354961


    Number Major Minor RaidDevice State
    0 0 0 0 removed
    1 8 19 1 active sync /dev/sdb3
    2 8 35 2 active sync /dev/sdc3
    3 8 51 3 active sync /dev/sdd3
    /root$ mdadm --add /dev/md0 /dev/sda3
    mdadm: Cannot open /dev/sda3: No such device or address



    Danke für die Unterstützung.

  • Hi,


    als aller erstes solltest Du von Deinen wichtigsten Daten ein Backup haben, egal wo.. auf dem PC oder sonstwo..


    Erst dann weitermachen !


    Tomas

  • ...ich würde gern weitermachen, nur lässt mich das NAS nicht. Aktueller Status ist wie folgt unverändert:


    - HD 1 ist wieder in dem Gehäuse, nach dem es mit Nullen überschrieben wurde
    - HD 1 ist bereit und ohne Fehler
    - Der Raid Verbund ist: RAID5 Disk Volume: Drive 1 2 3 4] RAID device in degraded mode.
    - aktuelle Datenträgerkonfiguration: Logische Datenträgermeldet: RAID 5-Datenträger: Laufwerk 2 3 4
    - es felhlt im System Log irgendwie die Meldung, dass HD 1 "plugged in" wurde
    - Am NASfür HD 1 blinkt kontinuierlich in schneller Folge die rote Lampe
    - im Menu Raid-Verwaltung läßt sich keine Auswahl treffen; Festplatte hinzufügen oder wiederherstellen z.B.


    ICH BIN RATLOS. :(


    wer hilft mir bloss weiter?????


    Gruß


    Markus

  • Hi,


    Wenn Du die Platte mit "NULLEN" beschrieben hast, würde ich danach einfach mal neustarten.


    Alternativ müsstest Du halt die Partitionen manuell anlegen, und die Platte manuell in die einzelnen verbünde heben….
    Ich denke, dass Du dir das sparen kannst ;)


    Grüsse, David

  • Danke für die Antwort; aber leider folgendes:


    ich habe neu hochgefahren und: die gleiche Situation, physisch wird HD 1 erkannt und ready aber ich kann sie nicht dem RAID Verbund wieder hinzufügen, weil die Befehle nicht nicht "wollen"; automatisch schon einmal garnicht.


    - mdadm -w /dev/md0; wird mit Fehlermeldung quittiert, da "Resource busy", also funktioniert der folgende Befehl auch nicht:
    - mdadm --add /dev/md0 /dev/sda3


    (siehe auch mein Beitrag 4)


    ich finde dass schon sehr befremdlich; da fällt das RAID aus, eine HD muss getauscht werden und der normal Ablauf funktioniert nicht; ich mein deshalb habe ich doch RAID 5 gewählt, oder?


    Wie stelle ich denn das an was Du vorschlägst:


    "Alternativ müsstest Du halt die Partitionen manuell anlegen, und die Platte manuell in die einzelnen verbünde heben"


    Ich würde das gerne tun!!!!


    Kann man die Platte vielleicht auch über die NAS formatieren oder neu partitionieren ohne die anderen funktionsfähigen HDs zu gefährden?


    David, ich freue mich auf deine Antwort!


    Gruß


    MS

  • Hi,


    was sagt denn der Support zu dem Fall ? Hast Du dazu eine Info bekommen ?
    Würde ich in jedem Falle nachhaken...


    Ggf. auch noch im Englischen Forum..


    Tomas

  • Hi,


    das ganze geht. Aber auch nur, wenn die Platten nicht GPT partitioniert sind. Also über 2TB HDD's.
    Hier erkläre ich es mal für fdisk (max 2TB Platten).
    Für über 2TB müsste man anstatt fdisk, parted nutzen und dann halt mit parted GPT Tabellen nutzen.


    (Eigentlich relativ gleiches verfahren / bis auf die Kommandos ;)


    Code
    fdisk -lu


    Ob wirklich noch keine Partitionen auf der sda sind.


    Und dann kannst Du dir schon einmal die Partitionierung der "anderen platte aufschreiben.
    z.B. hier bei mir der SDB:

    Code
    Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1              40     1060289      530125   83  Linux/dev/sdb2         1060296     2120579      530142   83  Linux/dev/sdb3         2120584  3906011969  1951945693   83  Linux/dev/sdb4      3906011976  3907007999      498012   83  Linux


    Hier musst Du Dir die "start" + "End" Sektoren jeder partition merken.
    Also:
    Partition 1 = start: 40 bis 1060289
    Partition 2 = start: 1060296 bis 2120579
    Partition 3 = start: 2120584 bis 3906011969
    Partition 4 = start: 3906011976 bis 3907007999


    Dann legst Du via:

    Code
    fdisk -u /dev/sda


    4 primäre partitionen an und tippeltet immer die Partitionen Der "sdb" (welche wir uns ja gemerkt haben) ein.
    Zum Schluss noch speichern und beenden.


    Jetzt prüfst Du die sda & sdb Platte noch einmal (Ob die Sektoren auch übereinstimmen).
    Also:

    Code
    fdisk -lu /dev/sda


    und

    Code
    fdisk -lu /dev/sdb


    z.B. Es geht darum eventuelle Tippfehler zu vermeiden, was sehr wichtig ist!.


    Wenn die sda jetzt auch 4 Partitionen hat und die Sektoren passen, dann prüfst Du mit:
    cat /proc/mdstat, welche Partition zu welchem Block device gehören und fügst die dann hinzu.
    Bei mir würde es so aussehen (müsste es eigentlich auch bei Dir, aber sicher iss sicher):

    Code
    mdadm --manage  /dev/md0 --add  /dev/sda3


    Code
    mdadm --manage  /dev/md2 --add  /dev/sda2


    Code
    mdadm --manage  /dev/md13 --add  /dev/sda4


    Code
    mdadm --manage  /dev/md9 --add  /dev/sda1


    Danach sollte ein sync stattfinden, den Du via

    Code
    cat /proc/mdstat


    prüfen kannst.


    Grüsse, David

  • ...vielen Dank für die Antworten!!


    Bevor ich das Vorgehen starte, noch folgendes:


    - ist das NAS ggf. behindert mit dem Wiederaufbau des RAID zu starten, weil es den Service nicht stoppen kann? (Fehler-> resource busy...) Es ist ja so, dass ich immer noch auf die Daten zugreifen kann und in Windows 7 habe ich ja die Laufwerke gemapped. Also wie macht man das System "nicht busy"? :?:


    - "wenn die Platten nicht GPT partitioniert sind" Wie kann ich das herausfinden? Ich habe 4 3TB Platten von WD eingesetzt und über die Benutzerschnittstelle selbst eingerichtet.


    - die HD1 hat ja noch Partitionen. Habe ich ja gesehen, als ich mit nullen überschrieben habe. Wenn ich recht erinnere sind es zwei, eine große für die primär-Daten und eine kleinere für die Raid-Daten.


    Der Umgang mit dem Benutzerservice bringt nichts, denke ich. Die Sache ist zu kompliziert. Die Zeit für einen Dialog wird man dort nicht nicht aufbringen wollen. ...und Hinweise auf die Dokumentation bringen mich nicht weiter (wie geschehen bei meiner ersten Anfrage) :x


    Gruß
    markus

  • Hi,


    Du versuchst nirgends den Verbund anzuhalten ;)
    Du versucht es mit dem write mode, auf dem ich nicht eingehe, weil Du es so nicht machen musst ^^ Wahrscheinlich im Web gefunden ;)


    Du kannst / musst aber nicht den md0 unmounten.


    4x 3TB Platten. Also ist die Platte schon über 2TB. Dann ist se GPT partitioniert.

    Code
    fdisk -l


    Zeigt Dir das auch an. Halt nur 1 Partition, weil es mit GPT noch nicht kann. Also musst Du parted nutzen.


    Moment ;)
    Wenn die Platte 1 (sda) noch partitionen hat, dann probiere es mal mit:

    Code
    dd if=/dev/zero of=/dev/sda bs=1024k count=1


    Damit sind alle partitionsinfos & der Superblock weg. Nach dem "NULLEN" sollte eigentlich nix mehr da sein.


    Das was ich hier beschreibe macht so ja auch die FW ^^
    Die kochen auch nur mit Wasser und erfinden das RAD nicht neu ;)
    Wenn Du in parted bist, hast Du eigentlich auch eine gute Hilfe (ist da ja beschrieben).


    Grüsse, David

  • Danke für die Antwort; ich bin nicht versiert genug, verstehe dich leider nicht ganz :(


    Was sagt das System?


    das hier bringt folgender Befehl: fdisk -lu


    Code
    Disk /dev/md6 doesn't contain a valid partition tableDisk /dev/md0 doesn't contain a valid partition tableDisk /dev/sdb: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylinders, total 5860533168 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1               1  4294967295  2147483647+  ee  EFI GPTDisk /dev/sdc: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylinders, total 5860533168 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdc1               1  4294967295  2147483647+  ee  EFI GPTDisk /dev/sdd: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylinders, total 5860533168 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdd1               1  4294967295  2147483647+  ee  EFI GPTDisk /dev/sdx: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylinders, total 1007616 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdx1              32        4351        2160   83  Linux/dev/sdx2            4352      488959      242304   83  Linux/dev/sdx3          488960      973567      242304   83  Linux/dev/sdx4          973568     1007615       17024    5  Extended/dev/sdx5          973600      990207        8304   83  Linux/dev/sdx6          990240     1007615        8688   83  LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylinders, total 1060096 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md6: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylinders, total 1060096 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md0: 8996.9 GB, 8996958830592 bytes2 heads, 4 sectors/track, -2098444144 cylinders, total 17572185216 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/sda: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylinders, total 5860533168 sectorsUnits = sectors of 1 * 512 = 512 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sda1              40     1060289      530125   83  Linux/dev/sda2         1060296     2120579      530142   83  Linux


    ------------------------------------------------------------------------------------------------


    das hier bringt folgender Befehl: fdisk -l


    /root$ fdisk -l


    ------------------------------------------------------------------------------------------------------


    Leider verstehe ich nicht wie ich den parted Befehl nutzen soll......und inwieweit dieser den fdsik ersetzt


    Sorry für mangelndes Verständnis :oops:

  • ICH GEBE AUF.


    Offensichtlich ist mein Problem so kompliziert, dass mir niemand mehr helfen kann oder ich bin zu doof die gebotenen Hinweise auch anzuwenden.


    Da es sich nur um den Ausfall einer einzelnen Disk in einem RAID 5 gehandelt hat, der laut Produktbeschreibung leicht sich hätte beheben lassen sollen, lässt sich meine Sicht der Dinge leicht erraten; ich überlasse es aber gern den Lesern dieses Beitrags ihr eigenes Urteil zu bilden.


    Ciao


    Markus

  • Hi Markus,


    ich mache das hier nicht Hauptberuflich, wir alle Supporten hier während der Freizeit. ;) Von User -> zu User.
    Du müsstest das ganze einfach nur via parted (nicht fdisk) machen, weil Du über 2TB HDD's hast. parted ist eigentlich relativ einfach zu verstehen, beim aufrufen erhält man eine Hilfe über alle Funktionen. ;)


    Grüsse, David

  • Hallo zusammen,
    ich hatte das Problem auch das er beim wechsel von 2TB auf 3TB das Raid nicht wiederherstellen wollte und einfach abgebrochen hat. Ich habe jetzt die neuen Festplatten unter Windows in GBT Datenträger konvertiert ohne Sie zu Formatieren und auf einmal hat er Sie ohne zu meckern angenommen und das Raid wiederhergestellt. Vielleicht funktioniert das bei euch auch.