Hallo zusammen,
ich besitze eine qnap ss-ec2479u-sas-rp mit Grundshelf + 4 Erweiterungshelfs. Jede Einheit ist eine RAIDgrupe mit jeweils einem RAID6, und diese sind zusammengefasst zu einem Storagepool. Ich habe in zwei verschiedenen RAIDgruppen, jeweils eine Platte gewechselt, da diese defekt war. Nachdem Plattentausch wurd kein Rebuild angestoßen und nach ein bisschen googlen habe ich gefunden, dass es evtl. an der Firmware liegt, da in der aktuellen Releases der neuen FW geschrieben wird, dass es Probleme beim Platten erkennen geht.
Daraufhin wollte ich ein FW Update machen, jedoch wurde ich von meinem Qnapsystem darauf hingewiesen, dass ich vorher ein Neustart machen soll, da die Uptime schon relativ lange ist. Nach dem Neustart war auf einmal eine RAIDgruppe inaktiv, aber alle Platten haben einen "grünen Status".
Daurahin bin ich unter Storage/Snapshots --> Verwalten --> RG5 ausgewählt --> Wiederherstellen gegangen, jedoch erscheint dann die Meldung
bzw.
Leider sonst ohne weitere Details.
Folgendes habe ich per Putty probiert:
MD_Checker
Scanning Enclosure 4...
RAID metadata found!
UUID: edfd2ef0:837b047d:f9771f82:becfce94
Level: raid6
Devices: 15
Name: md5
Chunk Size: 512K
md Version: 1.0
Creation Time: Jul 4 14:29:19 2019
Status: OFFLINE
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
1 /dev/sdbv3 0 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
2 /dev/sdcg3 1 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
3 /dev/sdcf3 2 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
4 /dev/sdck3 3 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
16 /dev/sdch3 4 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
5 /dev/sdbw3 4 Active Jul 4 21:08:05 2019 89 AAAARAAAAAAAAAA
6 /dev/sdcb3 5 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
7 /dev/sdce3 6 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
8 /dev/sdcj3 7 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
9 /dev/sdbx3 8 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
10 /dev/sdca3 9 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
11 /dev/sdcd3 10 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
-------------- 11 Missing -------------------------------------------
-------------- 12 Missing -------------------------------------------
14 /dev/sdbz3 13 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
15 /dev/sdcc3 14 Active Oct 8 16:21:40 2019 69396 AAAAAAAAAAA..AA
===============================================================================
WARNING: Duplicate device detected for #(4)!
Alles anzeigen
[~] # cat /proc/mdstat
HIer finde ich mein MD5 RAIDset gar nicht mehr.
Habt Ihr Ideen, wie ich wieder darauf zugreifen kann?
Grüße,
Martin
+++++++++++++++++++NACHTRAG ++++++++++++++++++
Ich habe mittels folgenden Befehlen die RAIDGruppe online bekommen.
[~] # mdadm -AfR /dev/md5 /dev/sdbv3 /dev/sdcg3 /dev/sdcf3 /dev/sdck3 /dev/sdch3 /dev/sdbw3 /dev/sdcb3 /dev/sdce3 /dev/sdcj3 /dev/sdbx3 /dev/sdca3 /dev/sdcd3 /dev/sdbz3 /dev/sdcc3
mdadm: failed to get exclusive lock on mapfile - continue anyway...
mdadm: /dev/md5 has been started with 13 drives (out of 15).
Danach:
[~] # /etc/init.d/init_lvm.sh
done
Danach war die RG wieder und bekomme folgende Outputs:
[~] # mdadm --misc --detail /dev/md5
/dev/md5:
Version : 1.0
Creation Time : Thu Jul 4 14:29:19 2019
Raid Level : raid6
Array Size : 7489384448 (7142.43 GiB 7669.13 GB)
Used Dev Size : 576106496 (549.42 GiB 589.93 GB)
Raid Devices : 15
Total Devices : 13
Persistence : Superblock is persistent
Update Time : Sun Oct 13 18:56:35 2019
State : clean, degraded
Active Devices : 13
Working Devices : 13
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : 5
UUID : edfd2ef0:837b047d:f9771f82:becfce94
Events : 69404
Number Major Minor RaidDevice State
0 68 147 0 active sync /dev/sdbv3
1 69 67 1 active sync /dev/sdcg3
2 69 51 2 active sync /dev/sdcf3
3 69 131 3 active sync /dev/sdck3
15 69 83 4 active sync /dev/sdch3
5 68 243 5 active sync /dev/sdcb3
6 69 35 6 active sync /dev/sdce3
7 69 115 7 active sync /dev/sdcj3
8 68 179 8 active sync /dev/sdbx3
9 68 227 9 active sync /dev/sdca3
10 69 19 10 active sync /dev/sdcd3
22 0 0 22 removed
24 0 0 24 removed
13 68 211 13 active sync /dev/sdbz3
14 69 3 14 active sync /dev/sdcc3
[~] # cat /proc/mdstat md5
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md5 : active raid6 sdbv3[0] sdcc3[14] sdbz3[13] sdcd3[10] sdca3[9] sdbx3[8] sdcj3[7] sdce3[6] sdcb3[5] sdch3[15] sdck3[3] sdcf3[2] sdcg3[1]
7489384448 blocks super 1.0 level 6, 512k chunk, algorithm 2 [15/13] [UUUUUUUUUUU__UU]
Alles anzeigen