Hallo zusammen,
erst einmal ein Hallo in die Runde!
Ich habe einen Fehler den ich mit der Dokumentation vom QNAP Support nicht mehr gelöst bekomme.
Hintergrund.
Ich habe mein Storage getauscht und hab jetzt eine QNAP TS-879 Pro diese ersetzt das Altsystem Qnap TS-453 Pro 4G.
Die Daten auf der alten QNAP wurden bereits durch zurücksetzen des Storages gelöscht.
Folgende Schritte wurden durchgeführt:
- Migration der Daten von Alt auf Neu
- Ab hier QNAP TS-879 Pro. Nachdem alles von Speicherpool 1 auf Speicherpool 2 synchronisiert wurde habe ich die HDD in Schacht 8 getauscht. (Geplante Speichererweiterung.) Im laufendem Betrieb.
- Einen Tag später und nach der Synchronisierung der HDD 8 habe ich die HDD5 gezogen und wollte diese tauschen. Im laufendem Betrieb.
- Ab hier Fehler auf dem NAS.
- Datenträger Status HDD8:
pasted-from-clipboard.png
- Ich habe die ausgebaute Platte wieder als HDD 5 ins Storage eingefügt.
- Platte 5 ist nicht mehr im Speicherpool 1 Datenträger Status HDD5:
pasted-from-clipboard.png
- Leider bekomme ich hier wie in der oben genannten Doku nicht die Möglichkeit das Raid neu einzurichten bzw es zu aktivieren.
Option ausgegraut:
pasted-from-clipboard.png
Speicherpool 2 sieht da besser aus:
Ich habe bereits per SSH Abfragen zu dem Raid Satus gemacht mit folgenden Ergebnissen:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md2 : active raid5 sdh3[0] sdb3[3] sdd3[2] sde3[1]
8760933888 blocks super 1.0 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
md322 : active raid1 sda5[7](S) sdb5[6](S) sdd5[5](S) sdc5[4](S) sdf5[3](S) sde5[2](S) sdh5[1] sdg5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sda2[7](S) sdb2[6](S) sdd2[5](S) sdc2[4](S) sdf2[3](S) sde2[2](S) sdh2[1] sdg2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdf4[0] sdb4[25] sdd4[5] sde4[24] sdh4[4] sdg4[3] sdc4[2] sda4[26]
458880 blocks super 1.0 [24/8] [UUUUUUUU________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdf1[0] sdb1[27] sdd1[26] sde1[25] sdh1[24] sdg1[3] sdc1[2] sda1[28]
530112 blocks super 1.0 [24/8] [UUUUUUUU________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Alles anzeigen
[~] # mdadm -E /dev/sd[abcd]3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0xa
Array UUID : 49472376:0f57d7b1:2c33e4a7:5477019a
Name : 1
Creation Time : Wed Sep 2 17:15:41 2020
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 15608143240 (7442.54 GiB 7991.37 GB)
Array Size : 8760933888 (8355.08 GiB 8971.20 GB)
Used Dev Size : 5840622592 (2785.03 GiB 2990.40 GB)
Super Offset : 15608143504 sectors
Recovery Offset : 5586994128 sectors
Unused Space : before=0 sectors, after=9767520904 sectors
State : clean
Device UUID : 5db52bc1:5f7bcae9:7af4af88:5fac0e89
Update Time : Sat Sep 23 11:53:37 2023
Bad Block Log : 512 entries available at offset -8 sectors - bad blocks present.
Checksum : 81af448b - correct
Events : 5600
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 876450cc:0aa67afe:9c1829c4:f3131e62
Name : 2
Creation Time : Mon Jun 5 12:20:11 2023
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5840623240 (2785.03 GiB 2990.40 GB)
Array Size : 8760933888 (8355.08 GiB 8971.20 GB)
Used Dev Size : 5840622592 (2785.03 GiB 2990.40 GB)
Super Offset : 5840623504 sectors
Unused Space : before=0 sectors, after=904 sectors
State : clean
Device UUID : c7ba83a8:d1e604e2:54992ff5:fae78b9d
Update Time : Sat Sep 23 12:59:34 2023
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 953eaccb - correct
Events : 311
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 3
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x8
Array UUID : 49472376:0f57d7b1:2c33e4a7:5477019a
Name : 1
Creation Time : Wed Sep 2 17:15:41 2020
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5840623240 (2785.03 GiB 2990.40 GB)
Array Size : 8760933888 (8355.08 GiB 8971.20 GB)
Used Dev Size : 5840622592 (2785.03 GiB 2990.40 GB)
Super Offset : 5840623504 sectors
Unused Space : before=0 sectors, after=904 sectors
State : clean
Device UUID : d1f27380:b9b06079:06daa087:eabc5d07
Update Time : Sat Sep 23 11:53:37 2023
Bad Block Log : 512 entries available at offset -8 sectors - bad blocks present.
Checksum : 7469dc7d - correct
Events : 5600
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 876450cc:0aa67afe:9c1829c4:f3131e62
Name : 2
Creation Time : Mon Jun 5 12:20:11 2023
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5840623240 (2785.03 GiB 2990.40 GB)
Array Size : 8760933888 (8355.08 GiB 8971.20 GB)
Used Dev Size : 5840622592 (2785.03 GiB 2990.40 GB)
Super Offset : 5840623504 sectors
Unused Space : before=0 sectors, after=904 sectors
State : clean
Device UUID : cb8316e9:c3ac6354:9e979ef1:89247825
Update Time : Sat Sep 23 12:59:34 2023
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : cc8b7698 - correct
Events : 311
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
Alles anzeigen
Hier noch die SMART Werte der beiden HDD´s:
HDD8
Leider bin ich im Bereich Storage nicht so tief drin und wollte fragen ob wie das wieder hinbekommen, dass das System wieder läuft und die Daten wieder im Zugriff sind.
Viele liebe Grüße
Alex