Beiträge von dhem

    Auch das Vertrauen in ein Gerät spielt hier eine Rolle.
    Natürlich kann es sein, dass 3 neue (originalverpackte) Platten defekt waren. Auch kann es sein, dass 3 (von 6) sich im Betrieb befindliche Platten (hier: 2,5,6 in dieser Reihenfolge) defekt werden.
    Aber nicht beides gleichzeitig und nicht alles an einem Tag :o


    In die TS-879U-RP kommen natürlich frische Platten rein, ich denke hier wieder an WD RE4, diesmal mit 3TB das Stück.
    Eventuell ein RAID6 mit Hot-Spare, aber das muss ich mir noch durch den Kopf gehen lassen.


    Grüße

    Hallo Gorilla,


    deswegen "defekt" unter Anführungszeichen.
    Das Gerät hatte zuletzt keinerlei Platten mehr angenommen oder wahlweise als defekt gekennzeichnet und wird somit keinesfalls mehr in den Produktiveinsatz gehen.
    Dennoch werde ich versuchen, die Kiste evtl. für andere, weniger kritischere Zwecke einzusetzen.


    Jetzt wird erst mal was neues bestellt. Vermutlich eine TS-879U-RP, die dann auch sauber im Schrank Platz findet.


    Grüße

    Hallo,


    ich hatte leider keinen Erfolg.
    Gott sei Dank hatten wir ein aktuelles Backup der wichtigsten Daten.
    Zusätzlich konnte ich alle bisweilen nicht gesicherten Daten noch wegkopieren (RAID degraded read-only, lesender Zugriff war also noch möglich).


    Die "defekte" NAS wird nun ersetzt.
    Damit zeigt sich wieder: der einzige Ersatz für ein Backup ist ein zweites Backup.


    Grüße

    Hallo Leute!


    Bei mir brennt gerade der Hut, vielleicht kann mir jemand helfen.
    Habe hier eine TS-659 Pro, Firmware 3.3.2 Build 0819T mit 6x WD RE4 (2TB, WD2003FYYS). Konfig. ist RAID5 + 1 Hot Spare.
    Gestern wurde eine HDD (Drive 2) defekt, Rebuild fing an, Spare-HDD (Drive 6) ist eingesprungen - so weit, so gut.


    Leider wurde das Rebuild unterbrochen, da Drive 5 nachts einen Fehler gab:
    [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Error occurred while accessing Drive 5.
    Die NAS war heute früh nicht erreichbar. Web Interface lies sich nicht öffnen, Tasten am Gerät funktionieren nicht (klassisch aufgehängt, würde ich sagen).


    Nach ca. 5 sekündigem Drücken des Power-Buttons waren alle Lichter aus, nach einem Reboot konnte ich wieder problemlos ins Interface einsteigen.
    Drive 6 (eigentlich Hot-Spare) leuchtete nun rot.
    Ich habe Drive 6 gegen eine neue, baugleiche WD RE4 getauscht, Rebuild lief aber nicht (LED grün), Fehler:
    System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Add drive 6 to volume 1 failed.


    Nach einem sauberen Reboot leuchtet nun die eigentlich defekte HDD, Drive 2, rot.


    Als ich diese tauschte (gegen eine neue RE4), wurde sie ebenfalls nicht ins RAID eingebunden (LED grün), gleiche Fehlermeldung (Add drive 2 to volume 1 failed).
    Nach einem weiteren Reboot (habe auch versucht, die Platten offline einzubauen) scheint Drive 2 wieder rot und meldet
    Disk Read/Write Error (trotz neuer HDD)


    Beide Platten habe ich auch testweise an einen PC angeschlossen:
    Ich sah die von QNAP angelegten Partitionen (kleinere EXT3, ...), habe testweise mit Acronis Disk Director alle Partionen gelöscht und bereinigt, aber die NAS bindet sich auch dann nicht ins RAID ein.


    Aktueller Zustand ist - und somit höchste Eisenbahn:
    RAID 5 Disk Volume: Drive 1 3 4 5 EXT4 7329.24 GB 4315.41 GB In degraded mode Read only , Failed Drive(s): 5


    Somit scheint auch Drive 5 ein Problem zu haben, die Shares sind nur mehr lesend erreichbar.
    Aktuell lasse ich einen Bad Block Scan über Drive 6 laufen, dauert wohl noch einige Stunden.


    Letzte, interessante Fehlermeldung, kurz vor dem Bad Block Scan nach Einlegen einer neuen HD in Slot 6 (bei ausgeschaltetem Zustand)
    08:22:30 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Rebuilding skipped.
    08:22:27 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Start rebuilding.


    SMART-Werte sind bei allen (auch bei der eigentlich defekten HD vor dem Tausch) auf "good".
    Ich werd nicht schlau draus. Die NAS will die neuen HDDs nicht haben und markiert sie abwechselt als "gut", "rot leuchtet" oder nimmt sie aus anderen Gründen nicht ins RAID auf.


    cat /proc/mdstat:



    Jemand Tipps?


    add:
    Screenshot hinzugefügt.