Hallo Zusammen,
nach einem Neuaufsetzen mit 8x4TB (Seagate freigegeben in der Kompatibilitätsliste) mit zwei Datenträgern als RAID6 meldet eines der Volume den Status entladen, vermutlich entstanden durch Probleme der Rücksicherung des alten Volumes von einer am NAS angeschlossenen 500GB USB Festplatte.
Das NAS lief mit 8x2TB 6 Jahre ohne Probleme und jetzt das Problem.
Leider habe ich keine Erfahrung mit Linux und konnte demnach mit dem Handling in anderen Threads beschrieben nicht viel anfangen.
Eine Firmware Update von 4.2.6 2018/07/11 auf 4.2.6 2018/08/29 brachte keinen Erfolg.
Ein Ticket habe ich beim QNAP Support noch nicht aufgemacht.
Wie kann das Volume gerettet und vor allen das Problem für die Zukunft vermieden werden ?
Für Eure Hilfe im Voraus vielen Dank.
Gruß
Dirk
QNAP_TS859Pro+_Raid_entladen_01.png
Update:
Nachfolgend der Raid und den Blockdevice Status:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi path]
md0 : active raid6 sde3[0] sdh3[3] sdg3[2] sdf3[1]
7810899072 blocks super 1.0 level 6, 64k chunk, algorithm 2 [4/ 4] [UUUU]
md1 : active raid6 sdd3[3] sdc3[2] sdb3[1]
7810899072 blocks super 1.0 level 6, 64k chunk, algorithm 2 [4/ 3] [_UUU]
md8 : active raid1 sda2[0](S) sdh2[8] sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S ) sdc2[3](S) sdb2[2]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sda4[0] sdf4[7] sdh4[6] sdg4[5] sdd4[4] sde4[3] sdc4[2] sdb4 [1]
458880 blocks [8/8] [UUUUUUUU]
bitmap: 1/57 pages [4KB], 4KB chunk
md9 : active raid1 sda1[0] sdf1[7] sdh1[6] sdg1[5] sdd1[4] sde1[3] sdc1[2] sdb1[ 1]
530048 blocks [8/8] [UUUUUUUU]
bitmap: 0/65 pages [0KB], 4KB chunk
unused devices: <none>
[~] # cat /proc/partitions
major minor #blocks name
8 48 3907018584 sdd
8 49 530125 sdd1
8 50 530142 sdd2
8 51 3905449693 sdd3
8 52 498012 sdd4
8 32 3907018584 sdc
8 33 530125 sdc1
8 34 530142 sdc2
8 35 3905449693 sdc3
8 36 498012 sdc4
8 16 3907018584 sdb
8 17 530125 sdb1
8 18 530142 sdb2
8 19 3905449693 sdb3
8 20 498012 sdb4
8 0 3907018584 sda
8 1 530125 sda1
8 2 530142 sda2
8 3 3905449693 sda3
8 4 498012 sda4
8 112 3907018584 sdh
8 113 530125 sdh1
8 114 530142 sdh2
8 115 3905449693 sdh3
8 116 498012 sdh4
8 96 3907018584 sdg
8 97 530125 sdg1
8 98 530142 sdg2
8 99 3905449693 sdg3
8 100 498012 sdg4
8 64 3907018584 sde
8 65 530125 sde1
8 66 530142 sde2
8 67 3905449693 sde3
8 68 498012 sde4
8 80 3907018584 sdf
8 81 530125 sdf1
8 82 530142 sdf2
8 83 3905449693 sdf3
8 84 498012 sdf4
65 112 503808 sdx
65 113 2160 sdx1
65 114 242304 sdx2
65 115 242304 sdx3
65 116 1 sdx4
65 117 8304 sdx5
65 118 8688 sdx6
9 9 530048 md9
9 13 458880 md13
9 8 530128 md8
9 1 7810899072 md1
9 0 7810899072 md0
Alles anzeigen
Anscheinend fehlt im RAID md1 die Platte sda3. Vielleicht ist das das Problem.