Der init_lvm.sh dürfte nur auf HAL Firmware funktionieren, bei Legacy Geräten habe ich den noch nicht gefunden.
Von was für einem NAS reden wir eigentlich, im Titel ist es ein TS 859, im Thread ein TS 879?
Mir ist während eines Rebuilds auch mal ein NAS rebootet, das war mit Sicherheit ein FW Bug, denn das NAS hängt an einer USV. Zufällig war ich auch gerade anwesend und es gab keinen Stromausfall. Da das NAS mit dieser FW aber sowieso alle 2-4 Tage ohne erkenntlichen Grund rebootet hat, habe ich es in den Ruhstand geschickt.
Ich habe zusammengefasst, wie ich das Raid bei mir wieder herstellen konnte. Du musst das auf Deine Konfiguration anpassen.
Gruss
Ausgangssituation:
TS859 Pro, Raid5 (Disks 1-7) Disk 8 Hot spare
Disk 1 fiel aus, Disk 8 (Hot spare) springt ein, Rebuild startet.
Irgendwann währen des Rebuilds brebootet das NAS :(.
Danach war das Raid "offline"
[~] # md_checker
Welcome to MD superblock checker (v1.4) - have a nice day~
Scanning system...
Legacy Firmware Detected!
Scanning disks...
RAID metadata found!
UUID: 3e553e2f:9b6be76c:bf90ef24:8c1aca80
Level: raid5
Devices: 7
Name: md0
Chunk Size: 64K
md Version: 1.0
Creation Time: Jan 27 10:16:22 2018
Status: OFFLINE
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
8 /dev/sdh3 0 Rebuild May 29 13:27:03 2018 44547 Uuuuuuu
2 /dev/sdb3 1 Active May 29 13:27:03 2018 44547 uUuuuuu
3 /dev/sdc3 2 Active May 29 13:27:03 2018 44547 uuUuuuu
4 /dev/sdd3 3 Active May 29 13:27:03 2018 44547 uuuUuuu
5 /dev/sde3 4 Active May 29 13:27:03 2018 44547 uuuuUuu
6 /dev/sdf3 5 Active May 29 13:27:03 2018 44547 uuuuuUu
7 /dev/sdg3 6 Active May 29 13:27:03 2018 44547 uuuuuuU
===============================================================================
+++ Versuch das Raid online zu nehmen +++
[~] # mdadm -AfR /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3
mdadm: no recogniseable superblock on /dev/sda3
mdadm: /dev/sda3 has no superblock - assembly aborted
+++ Versuch mit der aktuellen Konfiguration (Disk 8) schlug ebenfalls fehl (Input/output error) +++
+++ deshalb Versuch das Raid ohne die defekte Disk 1 zu starten -> Erfolg +++
[~] # mdadm -AfR /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3
mdadm: /dev/md0 has been started with 6 drives (out of 7).
[~]# mdadm --detail /dev/md0
/dev/md0:
Version : 01.00.03
Creation Time : Sat Jan 27 10:16:22 2018
Raid Level : raid5
Array Size : 17572185216 (16758.14 GiB 17993.92 GB)
Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)
Raid Devices : 7
Total Devices : 6
Preferred Minor : 0
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue May 29 16:12:20 2018
State : active, degraded
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 0
UUID : 3e553e2f:9b6be76c:bf90ef24:8c1aca80
Events : 44551
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 8 51 3 active sync /dev/sdd3
4 8 67 4 active sync /dev/sde3
5 8 83 5 active sync /dev/sdf3
6 8 99 6 active sync /dev/sdg3
+++ Die defekte Disk 1 wird nun erneut zugefügt und der Rebuild startet !? +++
+++ Allerdings zeigte die GUI das Raid besteht aus Disk 2-8! +++
[~] # mdadm /dev/md0 --add /dev/sda3
mdadm: added /dev/sda3
[~]# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sda3[7] sdb3[1] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2]
17572185216 blocks super 1.0 level 5, 64k chunk, algorithm 2 [7/6] [_UUUUUU]
[>....................] recovery = 0.0% (241796/2928697536) finish=1009.2min speed=48359K/sec
bitmap: 6/11 pages [24KB], 131072KB chunk
md8 : active raid1 sda2[0](S) sdh2[8] sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S) sdc2[3](S) sdb2[2]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sda4[4] sdh4[14] sdg4[13] sdf4[12] sde4[11] sdd4[10] sdc4[9] sdb4[8]
458880 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 1/8 pages [4KB], 32KB chunk
md9 : active raid1 sda1[15] sdb1[8] sdh1[14] sdg1[13] sdf1[12] sde1[11] sdd1[10] sdc1[9]
530112 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 0/9 pages [0KB], 32KB chunk
unused devices: <none>
+++ Der Rebuild dauerte ca. 16h, danach war das Raid wieder online. Laut GUI immer noch Disk 2-8, laut CLI Disk 1-7! +++
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sda3[7] sdb3[1] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2]
17572185216 blocks super 1.0 level 5, 64k chunk, algorithm 2 [7/7] [UUUUUUU]
bitmap: 0/11 pages [0KB], 131072KB chunk
md8 : active raid1 sda2[0](S) sdh2[8] sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S) sdc2[3](S) sdb2[2]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sda4[4] sdh4[14] sdg4[13] sdf4[12] sde4[11] sdd4[10] sdc4[9] sdb4[8]
458880 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 0/8 pages [0KB], 32KB chunk
md9 : active raid1 sda1[15] sdb1[8] sdh1[14] sdg1[13] sdf1[12] sde1[11] sdd1[10] sdc1[9]
530112 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 0/9 pages [0KB], 32KB chunk
unused devices: <none>
+++ NAS manuell neu gestartet, es startet ein neuer Rebuild, diesmal auf Disk 8. GUI und CLI sind jetzt dergleichen Meinung :) ! +++
[~] # mdadm --detail /dev/md0
/dev/md0:
Version : 01.00.03
Creation Time : Sat Jan 27 10:16:22 2018
Raid Level : raid5
Array Size : 17572185216 (16758.14 GiB 17993.92 GB)
Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)
Raid Devices : 7
Total Devices : 7
Preferred Minor : 0
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed May 30 08:40:21 2018
State : active, degraded, recovering
Active Devices : 6
Working Devices : 7
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 0% complete
Name : 0
UUID : 3e553e2f:9b6be76c:bf90ef24:8c1aca80
Events : 60901
Number Major Minor RaidDevice State
7 8 115 0 spare rebuilding /dev/sdh3
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 8 51 3 active sync /dev/sdd3
4 8 67 4 active sync /dev/sde3
5 8 83 5 active sync /dev/sdf3
6 8 99 6 active sync /dev/sdg3
[~] #
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sdh3[7] sdb3[1] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2]
17572185216 blocks super 1.0 level 5, 64k chunk, algorithm 2 [7/6] [_UUUUUU]
[>....................] recovery = 0.1% (3967872/2928697536) finish=3965.4min speed=12292K/sec
bitmap: 6/11 pages [24KB], 131072KB chunk
md8 : active raid1 sdh2[8](S) sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sda4[4] sdc4[9] sdd4[10] sde4[11] sdf4[12] sdg4[13] sdh4[14] sdb4[8]
458880 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 1/8 pages [4KB], 32KB chunk
md9 : active raid1 sda1[15] sdh1[14] sdg1[13] sdf1[12] sde1[11] sdd1[10] sdc1[9] sdb1[8]
530112 blocks super 1.0 [8/8] [UUUUUUUU]
bitmap: 0/9 pages [0KB], 32KB chunk
unused devices: <none>
[~] #
+++ Nach diesem Rebuild war das Raid wieder ok. +++
Alles anzeigen