Hallo,
bin komplett neu hier, habe bereits seit 2009 ein QNAP TS 509 Pro
darin verbaut sind 5 x SAMSUNG HD103UJ 1AA0 in einem RAID 6 Verbund, welches aktuell "Nicht aktiv" ist.
Zur Vorgeschichte:
Angefangen hat es mit einem Stromausfall vor einigen Wochen.
dann kam vor kurzen folgende Meldung:
[RAID6 Disk Volume: Drive 1 2 3 4 5] Recovering journal.
Failed to synchronize the time from NTP server.
Drive 5 plugged out.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 5 has been removed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Volume is in degraded mode.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 5 has been added into Volume 1.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start rebuilding.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Rebuilding skipped.
Der Prozess wurde immer wieder abgebrochen bis dann irgendwann folgende Mitteilung kam.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 1 has been removed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 1 failed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] RAID device is inactive.
Failed to synchronize the time from NTP server.
er zeigt dann permanent an das Laufwerk 1 Defekt sei und signalisierte es mit einer roten LED, Laufwerk 5 schien nicht mehr das Problem zu sein !?
hatte dann einen Scan probiert:
er zeigte fehlerhafte blocks an und brach ab!
hab dann eine neue HDD bestellt (1TB) und diese per HOTSWAP aus dem System genommen um ein REBUILD zu starten.
Drive 1 plugged out.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Hot-remove drive 1 failed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Volume is in degraded mode.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 1 has been added into Volume 1.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start rebuilding.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Rebuilding skipped.
Danach folgte nun eine Überraschung!
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 2 has been removed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Volume is in degraded mode.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Drive 2 failed.
hatte versucht das System neu zu starten, in der Hoffnung, dass er es nochmal probiert.. und landete dann hier:
um Auszuschließen, das weitere Platten defekt sind habe ich daraufhin bei allen Platten einen Bad Block Scan durchgeführt, der scheinbar problemlos verlief.
also tauschte ich die 2 Platte ebenfalls aus, in der Hoffnung, dass ein Rebuild initialisiert werden würde?!
[RAID6 Disk Volume: Drive 1 2 3 4 5] Add drive 2 to Volume 1 failed.
[RAID6 Disk Volume: Drive 1 2 3 4 5] RAID device is inactive.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start examination.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Examination failed.
Bevor ich die 1. Platte ausgebaut hatte( bzw. er den Fail 1. HDD anzeigte) konnte ich einen Teil der Daten noch retten/kopieren. Jetzt sehe ich zwar die Ordner habe aber kein Zugriff mehr auf die Daten!
bin mit meinem Latein etwas am Ende! und bitte dringend um Hilfe oder Erklärung, ob man hier noch irgendwas retten kann, gern auch gegen Bezahlung/Nachricht per PM.
Die Daten sind mehr als wichtig!
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
530048 blocks [2/2] [UU]
md13 : active raid1 sda4[0] sdb4[4] sde4[3] sdd4[2] sdc4[1]
458880 blocks [5/5] [UUUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdb1[0] sda1[4] sde1[3] sdd1[2] sdc1[1]
530048 blocks [5/5] [UUUUU]
bitmap: 0/65 pages [0KB], 4KB chunk
md0 : inactive sdd3[2](S) sdb3[7](S) sde3[6](S) sda3[5](S) sdc3[3](S)
4875968000 blocks
Alles anzeigen
need HELP !!
Edit: habe jetzt nochmal zum Test alle alten Raid Platten ( in der richtigen Reihenfolge) eingebaut und das System zeigt alle Platten auf "Bereit" ohne Fehlermeldung und SMART-INFO "GUT"
lädt aber den Raid nicht er ist immer noch "NICHT AKTIV"
eine Überprüfung schlägt fehl:
System started.
[RAID6 Disk Volume: Drive 1 2 3 4 5] RAID device is inactive.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start examination.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start examination.
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
530048 blocks [2/2] [UU]
md13 : active raid1 sdb4[4] sda4[0] sdc4[1] sde4[3] sdd4[2]
458880 blocks [5/5] [UUUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdb1[4] sda1[0] sdc1[1] sde1[3] sdd1[2]
530048 blocks [5/5] [UUUUU]
bitmap: 2/65 pages [8KB], 4KB chunk
md0 : inactive sdd3[2] sde3[6](S) sdc3[3]
2925580800 blocks
mdadm --assemble --force /dev/md0 /dev/sd[abcde]1
mdadm: cannot open device /dev/sda1: Device or resource busy
mdadm: /dev/sda1 has no superblock - assembly aborted
[~] # mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 00.90.00
UUID : 657f2676:6f908a28:e1ad1109:3bc5b13e
Creation Time : Mon Sep 22 13:45:44 2008
Raid Level : raid1
Used Dev Size : 530048 (517.71 MiB 542.77 MB)
Array Size : 530048 (517.71 MiB 542.77 MB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 9
Update Time : Sat Sep 25 23:55:04 2021
State : active
Internal Bitmap : present
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 45dd81b3 - correct
Events : 0.34473
Number Major Minor RaidDevice State
this 0 8 1 0 active sync /dev/sda1
0 0 8 1 0 active sync /dev/sda1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 65 3 active sync /dev/sde1
4 4 8 17 4 active sync /dev/sdb1
Alles anzeigen
EDIT2:
habe jetzt noch ein wenig rumprobiert im Putty und bin auf etwas gestoßen..
mdadm --examine /dev/sde3
/dev/sde3:
Magic : a92b4efc
Version : 00.90.00
UUID : 7e5b38a3:020b89b3:eb20a1a9:1a384d35
Creation Time : Mon Sep 22 13:49:11 2008
Raid Level : raid6
Used Dev Size : 975193600 (930.02 GiB 998.60 GB)
Array Size : 2925580800 (2790.05 GiB 2995.79 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Update Time : Sat Sep 25 13:50:14 2021
State : clean
Active Devices : 2
Working Devices : 4
Failed Devices : 2
Spare Devices : 2
Checksum : 1332fe71 - correct
Events : 0.4508
Chunk Size : 64K
Number Major Minor RaidDevice State
this 6 8 67 6 spare /dev/sde3
0 0 0 0 0 removed
1 1 0 0 1 faulty removed
2 2 8 51 2 active sync /dev/sdd3
3 3 8 35 3 active sync /dev/sdc3
4 4 0 0 4 faulty removed
5 5 8 3 5 spare /dev/sda3
6 6 8 67 6 spare /dev/sde3
[~] # mdadm --assemble --force /dev/md0 /dev/sd[cde]3
mdadm: /dev/md0 assembled from 2 drives and 1 spare - not enough to start the array.
[~] # mdadm --assemble --force /dev/md0 /dev/sdd3
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.
[~] # mdadm --assemble --force /dev/md0 /dev/sd[acde]3
mdadm: forcing event count in /dev/sda3(0) from 4298 upto 4508
mdadm: /dev/md0 has been started with 3 drives (out of 5) and 1 spare.
[RAID6 Disk Volume: Drive 1 2 3 4 5] Start rebuilding.
Alles anzeigen
volume status "Entladen"
ich schau mal was passiert.. leg mich erstmal schlafen!