Hallo Forum,
zur Ausgangslage:
NAS-Modell: TS-453mini
Firmware-Version: 4.3.6.0993
4 Single Disks - kein Raid (ich habe meine Gründe, Backups sind vorhanden)
Zuletzt hatte ich nach einem Stromausfall immer wieder das Problem, dass die Systemplatte nicht clean war und mir das NAS alle paar Tage abstürzte.
Also habe ich die Systemplatte gemäß https://itler.net/qnap-nas-zur…en-vollstaendig-loeschen/ mit
fdisk -d all /dev/sdc bearbeitet, die anderen drei Platten entfernt und das NAS nur mit der Systemplatte gestartet und neu initialisiert + Import des letzten Konfig-Backups.
Anschließend habe ich das NAS mit den restlichen Platten neu gestartet und wollte diese mit "Wiederherstellen" frisch einbinden (inkl. der Daten).
Für 2 von 3 Platten hat das wunderbar geklappt, nur eine Platte macht Zicken!
Ich sehe die Platte zwar im Speichermanager unter "Speicher -> Datenträger/VJBOD", aber weder unter "Storage"Snapshots" noch unter "Übersicht -> Speicher".
Im Putty sehe ich mit df, dass die fehlende Platte im Gegensatz zu den anderen nicht gemountet ist.
Passend dazu gibt es auch keinen Eintrag zur Platte in /etc/mtab
Manuell mounten mit
funzt nicht:
Die üblichen Tools sehen für mich sauber aus:
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md4 : active raid1 sda3[0]
1943559616 blocks super 1.0 [1/1] [U]
md3 : active raid1 sdb3[0]
1943559616 blocks super 1.0 [1/1] [U]
md2 : active raid1 sdc3[0]
3897063616 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdd3[0]
240099264 blocks super 1.0 [1/1] [U]
md322 : active raid1 sda5[2](S) sdb5[1] sdc5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sda2[2](S) sdb2[1] sdc2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md321 : active raid1 sdd5[0]
8283712 blocks super 1.0 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdd4[0] sda4[32] sdb4[33] sdc4[34]
458880 blocks super 1.0 [32/4] [UUUU____________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdd1[0] sda1[32] sdb1[33] sdc1[34]
530048 blocks super 1.0 [32/4] [UUUU____________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Alles anzeigen
...wobei md2 bzw. sdc3 die fehlende Platte ist.
mdadm -E /dev/sd[abcd]3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 1691478e:406b6dfe:0673ce26:b8ce8bd1
Name : 4
Creation Time : Mon Dec 21 20:39:50 2015
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 1943559616 (1853.52 GiB 1990.21 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=272 sectors
State : clean
Device UUID : dd320841:6649fecc:79049997:4a6f6431
Update Time : Sat Jul 27 01:30:11 2019
Checksum : 6fc3978e - correct
Events : 982
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 7b509c5f:f6e9e9a7:d15b05e4:20c73ae5
Name : 3
Creation Time : Tue Jul 10 20:11:40 2018
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 1943559616 (1853.52 GiB 1990.21 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : db8164cd:66747edc:3fe4b28e:4a8497ad
Update Time : Sat Jul 27 01:30:11 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : cf78c37e - correct
Events : 101
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Name : 2
Creation Time : Mon Jul 9 10:14:50 2018
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
Array Size : 3897063616 (3716.53 GiB 3990.59 GB)
Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB)
Super Offset : 7794127504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : 562458fd:dd6879de:29d92dcb:b56a3a23
Update Time : Sat Jul 27 00:48:33 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : f0cc45b5 - correct
Events : 113
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 2c81f67e:080095e6:9890d048:6d56a177
Name : 1
Creation Time : Mon Jul 22 11:47:52 2019
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 480198624 (228.98 GiB 245.86 GB)
Array Size : 240099264 (228.98 GiB 245.86 GB)
Used Dev Size : 480198528 (228.98 GiB 245.86 GB)
Super Offset : 480198888 sectors
Unused Space : before=0 sectors, after=352 sectors
State : clean
Device UUID : 551087f5:d7db0fef:ec08bb4e:2c88ce89
Update Time : Sat Jul 27 01:47:30 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 9c5f0ca4 - correct
Events : 20
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
Alles anzeigen
md_checker
Welcome to MD superblock checker (v1.4) - have a nice day~
Scanning system...
HAL firmware detected!
Scanning Enclosure 0...
RAID metadata found!
UUID: 2c81f67e:080095e6:9890d048:6d56a177
Level: raid1
Devices: 1
Name: md1
Chunk Size: -
md Version: 1.0
Creation Time: Jul 22 11:47:52 2019
Status: ONLINE (md1) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
1 /dev/sdd3 0 Active Jul 27 01:47:57 2019 21 A
===============================================================================
RAID metadata found!
UUID: 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Level: raid1
Devices: 1
Name: md2
Chunk Size: -
md Version: 1.0
Creation Time: Jul 9 10:14:50 2018
Status: ONLINE (md2) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
2 /dev/sdc3 0 Active Jul 27 00:48:33 2019 113 A
===============================================================================
RAID metadata found!
UUID: 7b509c5f:f6e9e9a7:d15b05e4:20c73ae5
Level: raid1
Devices: 1
Name: md3
Chunk Size: -
md Version: 1.0
Creation Time: Jul 10 20:11:40 2018
Status: ONLINE (md3) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
3 /dev/sdb3 0 Active Jul 27 01:30:11 2019 101 A
===============================================================================
RAID metadata found!
UUID: 1691478e:406b6dfe:0673ce26:b8ce8bd1
Level: raid1
Devices: 1
Name: md4
Chunk Size: -
md Version: 1.0
Creation Time: Dec 21 20:39:50 2015
Status: ONLINE (md4) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
4 /dev/sda3 0 Active Jul 27 01:30:11 2019 982 A
===============================================================================
Alles anzeigen
mdadm -D /dev/md2
/dev/md2:
Version : 1.0
Creation Time : Mon Jul 9 10:14:50 2018
Raid Level : raid1
Array Size : 3897063616 (3716.53 GiB 3990.59 GB)
Used Dev Size : 3897063616 (3716.53 GiB 3990.59 GB)
Raid Devices : 1
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Sat Jul 27 00:48:33 2019
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : 2
UUID : 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Events : 113
Number Major Minor RaidDevice State
0 8 35 0 active sync /dev/sdc3
Alles anzeigen
Derzeit läuft der FS-Check auf defekte Blöcke auf der "fehlenden" Platte, bisher fehlerfrei.
Hat jemand eine Ahnung, wie ich das Volume wieder sauber eingehängt bekomme?
Vielen Dank!!!
Nachtrag: Die Ausgaben von testparm und less /dev/sdc3 passen aufgrund der Zeichenbeschränkung leider nicht mehr rein, folgen dann später...