Hallo zusammen,
nachdem wir seit einer Woche dir kuriosesten Fehler mit unserer TS-469Pro haben, siehe hier SMB Zugriff und andere kuriose Fehler, ist gestern Nachmittag das RAID ausgefallen. Leider kann ich in dem Beitrag keine neue Antwort anhängen sondern nur editieren. Wir vermuten im Zuge der autom. RAID-Bereinigung. Kurios ist, dass die Qnap meldet, dass 2 HDDs angeblich ausgefallen wären, aber es keinerlei Hinweise hierauf gibt (siehe Bilder). Das RAID läuft nicht, und lässt sich auch nicht wiederherstellen. Kurios ist, dass die QNAP gestern Vormittag kurz angezeigt hat, dass angeblich HDD3 entfernt wurde, die Meldung verschwand aber wieder. Die HDDs wurden, wie bereits in dem anderen Post beschrieben, alle mit dem WD Diagnostics Tool getestet - Keine Auffälligkleiten. Ich habe bei der QNAP über SSH mal die mdadm -E /dev Staties abgefragt. Hier ist auffällig, dass bei 3/4 der Stauts-Level RAID 1 statt RAID 5 ist.
Hier der Log:
[~] # mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 88bda7c3:d3bb9a31:1d648b82:bac48096
Name : 9
Creation Time : Wed Jul 30 20:28:29 2014
Raid Level : raid1
Raid Devices : 24
Avail Dev Size : 1060224 (517.77 MiB 542.83 MB)
Array Size : 530112 (517.77 MiB 542.83 MB)
Super Offset : 1060232 sectors
State : clean
Device UUID : 5f1a562c:eb9df263:f8f5b0b6:c6bbf059
Internal Bitmap : -8 sectors from superblock
Update Time : Fri Apr 30 12:13:12 2021
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : d68eae0 - correct
Events : 10548470
Device Role : Active device 0
Array State : AAAA.................... ('A' == active, '.' == missing, 'R' == replacing)
[~] # mdadm -E /dev/sda2
/dev/sda2:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 0c1755e6:00a1c3fd:41a36866:5e0ce777
Name : 256
Creation Time : Fri Apr 30 11:50:34 2021
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1060248 (517.79 MiB 542.85 MB)
Array Size : 530112 (517.77 MiB 542.83 MB)
Used Dev Size : 1060224 (517.77 MiB 542.83 MB)
Super Offset : 1060264 sectors
Unused Space : before=0 sectors, after=24 sectors
State : clean
Device UUID : 9f08ef5f:3292425b:f4465e54:b573c8da
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Apr 30 11:50:35 2021
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 17357021 - correct
Events : 2
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
[~] # mdadm -E /dev/sda3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 5fb0bacc:e6246497:c27640c9:9b52b42d
Name : 1
Creation Time : Thu Jul 31 05:28:30 2014
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 5830678848 (5560.57 GiB 5970.62 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : 538573ab:b647b2b5:e2d122e7:5020ce2c
Update Time : Thu Apr 29 14:42:35 2021
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : e4968c2b - correct
Events : 18718
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
[~] # mdadm -E /dev/sda4
/dev/sda4:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 6cee014b:82b13974:f7273b06:c71f0c15
Name : 13
Creation Time : Wed Jul 30 20:28:35 2014
Raid Level : raid1
Raid Devices : 24
Avail Dev Size : 1060256 (517.79 MiB 542.85 MB)
Array Size : 458880 (448.20 MiB 469.89 MB)
Used Dev Size : 917760 (448.20 MiB 469.89 MB)
Super Offset : 1060272 sectors
Unused Space : before=0 sectors, after=142504 sectors
State : clean
Device UUID : a9821b24:4b91d919:944380f2:666790b9
Internal Bitmap : -8 sectors from superblock
Update Time : Fri Apr 30 12:09:36 2021
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 2216ef02 - correct
Events : 88267
Device Role : Active device 0
Array State : AAAA.................... ('A' == active, '.' == missing, 'R' == replacing)
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sda4[24] sdd4[27] sdc4[26] sdb4[25]
458880 blocks super 1.0 [24/4] [UUUU____________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sda1[24] sdd1[27] sdc1[26] sdb1[25]
530112 blocks super 1.0 [24/4] [UUUU____________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
Alles anzeigen
Von den wichtigesten Daten ist ein Backup vorhanden. Neue HDDs habe ich auch bestellt und bereits erhalten. Die Frage ist, liegt es an der QNAP, Firmware oder doch einer oder mehrerer HDDs? Wir haben bei QNAP zwar ein Ticket erstellt und sollten den Log schicken, allerdings soll die Bearbeitung aktuell recht lange dauern.