Mit mdadm -D /dev/md9 die vorhandenen Platten anzeigen lassen. Gleiches dann auch für md13
Ich bin da recht unbedarft und hätte daher gern eine kurze Bestätigung, dass ich nichts falsch mache
Hier die Auswertung:
Code
/etc/config$ mdadm -D /dev/md9
/dev/md9:
Version : 1.0
Creation Time : Mon Nov 2 18:12:44 2020
Raid Level : raid1
Array Size : 530048 (517.71 MiB 542.77 MB)
Used Dev Size : 530048 (517.71 MiB 542.77 MB)
Raid Devices : 64
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Nov 16 16:09:24 2020
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Name : 9
UUID : 330019a0:7e7333e7:2e1fa9e2:cd11fc07
Events : 70642
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
64 8 33 2 active sync /dev/sdc1
65 8 49 3 active sync /dev/sdd1
8 0 0 8 removed
Alles anzeigen
Code
/etc/config$ mdadm -D /dev/md13
/dev/md13:
Version : 1.0
Creation Time : Mon Nov 2 18:13:09 2020
Raid Level : raid1
Array Size : 458880 (448.20 MiB 469.89 MB)
Used Dev Size : 458880 (448.20 MiB 469.89 MB)
Raid Devices : 64
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Nov 16 15:53:11 2020
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Name : 13
UUID : 2606436c:17bc53a0:131b6bc2:4600bcfd
Events : 3132
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
64 8 36 2 active sync /dev/sdc4
65 8 52 3 active sync /dev/sdd4
8 0 0 8 removed
Alles anzeigen
Passen die Größen (~500 und ~450MB)?
Sind die md9 und md13 immer so bennant oder könnte es da unterschiede geben?
Meine Konstellation ist:
2xSSD RAIS 1 für System (Schacht 1+2)
2xHDD RAID1 für Daten (Schacht 3+4)
md_checker zeigt das:
Code
RAID metadata found!
UUID: f20326f0:58566224:9467549d:c317a13c
Level: raid1
Devices: 2
Name: md1
Chunk Size: -
md Version: 1.0
Creation Time: Nov 2 19:08:42 2020
Status: [1;32mONLINE[1;0m (md1) [UU]
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
===============================================================================================
NAS_HOST 2 /dev/sdb3 0 [0;94mActive[0m Nov 16 16:15:32 2020 18 AA
NAS_HOST 1 /dev/sda3 1 [0;94mActive[0m Nov 16 16:15:32 2020 18 AA
===============================================================================================
RAID metadata found!
UUID: 13a9efeb:bee3e232:bff4119e:29794152
Level: raid1
Devices: 2
Name: md2
Chunk Size: -
md Version: 1.0
Creation Time: Nov 3 05:53:52 2020
Status: [1;32mONLINE[1;0m (md2) [UU]
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
===============================================================================================
NAS_HOST 3 /dev/sdc3 0 [0;94mActive[0m Nov 16 03:30:46 2020 1126 AA
NAS_HOST 4 /dev/sdd3 1 [0;94mActive[0m Nov 16 03:30:46 2020 1126 AA
===============================================================================================
Alles anzeigen
D.h.:
/dev/sda + /dev/sdb sind die beiden SSDs (Port 1+2),
/dev/sdc + /dev/sdd die beiden HDDs (Port 3+4)
Soweit korrekt?
Zusammen bräuchte ich dann diese Befehle zum Trennen des System-Raid für die HDDs:
Code
mdadm /dev/md9 --fail /dev/sdc1
mdadm /dev/md9 --fail /dev/sdd1
mdadm /dev/md13 --fail /dev/sdc4
mdadm /dev/md13 --fail /dev/sdd4
Ist das so korrekt?
Vielen Dank fürs Prüfen