Ich habe 4x die WD40EFRX installiert
Firmware vorher war die 4.2.6 (20190629). Ich habe jetzt mal die letzte verfügbare (vor der aktuellen) auf der QNAP Homepage eingespielt und jetzt sieht es noch schlechter aus (siehe Anhang)
Jetzt existieren angeblich die Disk3 und Disk4 nicht mehr.
Update: Auch nach dem erneuten manuellen Einspielen der aktuellen FW bleibt es so wie vorher. Disk3 steht als "Nicht initialisiert" da und Disk4 wird gar nicht mehr erkannt.
Update 2: Mit dem Konfigfile ist auch was faul
Update 3: Ich weiß nicht genau wie, aber jetzt ist es wieder wie bei der ersten Fehlermeldung. Disk3 und Disk4 sind "entladen" aber jetzt wieder sichtbar:
[~] # fdisk -l
Disk /dev/sdb: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdc: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdd: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sda: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 267350 2147483647+ ee EFI GPT
Alles anzeigen
Allerdings weiß ich immer noch nicht, wie ich den RAID5 jetzt repariere.
Update 5: Habe jetzt folgendes versucht
Die Datei /etc/config/mdadm.conf manuell erstellt:
[~] # cat /etc/config/mdadm.conf
ARRAY /dev/md0 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3
[~] # mdadm --assemble --run --force --update=resync /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: /dev/md0 has been started with 4 drives.
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sdc3[0] sdb3[3] sda3[2] sdd3[1]
11716348608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 0.1% (5734072/3905449536) finish=688.2min speed=94429K/sec
Mal schauen, ob das was hilft...