Hallo Leute!
Bei mir brennt gerade der Hut, vielleicht kann mir jemand helfen.
Habe hier eine TS-659 Pro, Firmware 3.3.2 Build 0819T mit 6x WD RE4 (2TB, WD2003FYYS). Konfig. ist RAID5 + 1 Hot Spare.
Gestern wurde eine HDD (Drive 2) defekt, Rebuild fing an, Spare-HDD (Drive 6) ist eingesprungen - so weit, so gut.
Leider wurde das Rebuild unterbrochen, da Drive 5 nachts einen Fehler gab:
[RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Error occurred while accessing Drive 5.
Die NAS war heute früh nicht erreichbar. Web Interface lies sich nicht öffnen, Tasten am Gerät funktionieren nicht (klassisch aufgehängt, würde ich sagen).
Nach ca. 5 sekündigem Drücken des Power-Buttons waren alle Lichter aus, nach einem Reboot konnte ich wieder problemlos ins Interface einsteigen.
Drive 6 (eigentlich Hot-Spare) leuchtete nun rot.
Ich habe Drive 6 gegen eine neue, baugleiche WD RE4 getauscht, Rebuild lief aber nicht (LED grün), Fehler:
System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Add drive 6 to volume 1 failed.
Nach einem sauberen Reboot leuchtet nun die eigentlich defekte HDD, Drive 2, rot.
Als ich diese tauschte (gegen eine neue RE4), wurde sie ebenfalls nicht ins RAID eingebunden (LED grün), gleiche Fehlermeldung (Add drive 2 to volume 1 failed).
Nach einem weiteren Reboot (habe auch versucht, die Platten offline einzubauen) scheint Drive 2 wieder rot und meldet
Disk Read/Write Error (trotz neuer HDD)
Beide Platten habe ich auch testweise an einen PC angeschlossen:
Ich sah die von QNAP angelegten Partitionen (kleinere EXT3, ...), habe testweise mit Acronis Disk Director alle Partionen gelöscht und bereinigt, aber die NAS bindet sich auch dann nicht ins RAID ein.
Aktueller Zustand ist - und somit höchste Eisenbahn:
RAID 5 Disk Volume: Drive 1 3 4 5 EXT4 7329.24 GB 4315.41 GB In degraded mode Read only , Failed Drive(s): 5
Somit scheint auch Drive 5 ein Problem zu haben, die Shares sind nur mehr lesend erreichbar.
Aktuell lasse ich einen Bad Block Scan über Drive 6 laufen, dauert wohl noch einige Stunden.
Letzte, interessante Fehlermeldung, kurz vor dem Bad Block Scan nach Einlegen einer neuen HD in Slot 6 (bei ausgeschaltetem Zustand)
08:22:30 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Rebuilding skipped.
08:22:27 System 127.0.0.1 localhost [RAID5 Disk Volume: Drive 1 2 3 4 5 Hot Spare Disk: 6] Start rebuilding.
SMART-Werte sind bei allen (auch bei der eigentlich defekten HD vor dem Tausch) auf "good".
Ich werd nicht schlau draus. Die NAS will die neuen HDDs nicht haben und markiert sie abwechselt als "gut", "rot leuchtet" oder nimmt sie aus anderen Gründen nicht ins RAID auf.
cat /proc/mdstat:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active (read-only) raid5 sda3[0] sde3[4] sdd3[3] sdc3[2]
7807782400 blocks level 5, 64k chunk, algorithm 2 [5/4] [U_UUU]
md6 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[5](F) sda2[1] sdf2[0]
530048 blocks [2/2] [UU]
md13 : active raid1 sdf4[3](S) sda4[0] sde4[4](S) sdd4[5](S) sdc4[2] sdb4[1]
458880 blocks [3/3] [UUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdf1[5] sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
530048 blocks [6/6] [UUUUUU]
bitmap: 1/65 pages [4KB], 4KB chunk
unused devices: <none>
Alles anzeigen
Jemand Tipps?
add:
Screenshot hinzugefügt.