Hallo erfahrene User,
nachdem in meinem QNAP (Raid5 mit 3 Platten) eine Festplatte auszusteigen drohte (SMART Error) habe ich diese versucht nach der Anleitung von QNAP (https://www.qnap.com/en/how-to…ulty-disk-in-a-raid-group) zu ersetzen. Dieses ist jedoch leider fehlgeschlagen (der Rebuild ist immer bei 99%) hängen geblieben. Beim "frustierten" Ausschalten des NAS (TS-431P2-G1) habe ich anscheinend zu lange den Powerknopf gedrückt, auf jeden Fall sind alle Benutzereinstellungen verschwunden. Sprich keine Nutzer, keine Ordner etc mehr sichtbar. Nach einem weiteren "normalen" Reboot bzw. nach dem beschriebenen nacheinander Einhängen der Platten (in verwegenen Hoffnung dass sich einfach wieder alles einstellt) ist nun auch kein Speicherpool mehr zu sehen und somit auch kein Thin-Volume ...
Nach einiger Recherche habe ich den Weg über SSH auf das NAS gefunden und folgenden Zustand entdeckt :
sudo md_checker
Welcome to MD superblock checker (v2.0) - have a nice day~
Scanning system...
RAID metadata found!
UUID: 31e7ac10:a0799902:1bb4fa29:0c8d66e1
Level: raid5
Devices: 3
Name: md1
Chunk Size: 512K
md Version: 1.0
Creation Time: Sep 9 18:06:04 2019
Status: OFFLINE
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
==================================================================================
NAS_HOST 2 /dev/sdc3 0 Active Sep 26 23:10:58 2023 577312 A.A
---------------------------------- 1 Missing -------------------------------------------
NAS_HOST 3 /dev/sdb3 2 Active Sep 26 23:10:58 2023 577312 A.A
==================================================================================
Alles anzeigen
FRAGE: wie bekomme ich das RAID wieder online ? bekomme ich den Thin-Pool wieder "sichtbar" bzw aufgebaut (über die SSH bzw Console) ? wie bekomme ich eine dritte Platte zusätzlich wieder in das Raid integriert, um hier auch einen rebuild des Raid starten zu können ?
Die übrigen RAID Parameter (aber das ist wohl Cache bzw SWAP)
sudo cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdc5[3](S) sdb5[2] sda5[0]
6702656 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sdc2[3](S) sdb2[2] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdc4[129] sdb4[128] sda4[0]
458880 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdc1[129] sdb1[128] sda1[0]
530048 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
Alles anzeigen
Die Platten bzw. Laufwerke sehen folgendermaßen aus:
sudo mdadm --examine /dev/sd* | grep -E "(^\/dev|UUID)"
mdadm: No md superblock detected on /dev/sda3.
/dev/sda:
/dev/sda1:
Array UUID : de9e6072:6bdc70ac:bc3ad9f7:25792c47
Device UUID : 639e9195:d7d748ac:235d2d7d:1067f18f
/dev/sda2:
Array UUID : 52c025e6:e0792063:7a57e4ba:2b744d7d
Device UUID : e38a7abf:e0ca1bd7:6f0a6654:741bea1f
/dev/sda4:
Array UUID : ea8749d4:f814527e:68f9f729:471c5102
Device UUID : 993722b3:c2270775:a15b6be9:fa54c77b
/dev/sda5:
Array UUID : 8de1d005:e7250722:71d15dc2:a39a2b24
Device UUID : c0261c78:1c8e6906:a3a12a72:2c2efb60
/dev/sdb:
/dev/sdb1:
Array UUID : de9e6072:6bdc70ac:bc3ad9f7:25792c47
Device UUID : c3581788:43dd1b36:f4ee807b:c8faf278
/dev/sdb2:
Array UUID : 52c025e6:e0792063:7a57e4ba:2b744d7d
Device UUID : 78bf6446:27a42f76:1f8ee8cc:f4575513
/dev/sdb3:
Array UUID : 31e7ac10:a0799902:1bb4fa29:0c8d66e1
Device UUID : 55b2a80d:efb0ddc2:59ae3932:2886a492
/dev/sdb4:
Array UUID : ea8749d4:f814527e:68f9f729:471c5102
Device UUID : df87ec2d:1ebae213:afb635ab:3f11b4fd
/dev/sdb5:
Array UUID : 8de1d005:e7250722:71d15dc2:a39a2b24
Device UUID : 46f53ff0:cf491f9a:90008133:5b45e9eb
/dev/sdc:
/dev/sdc1:
Array UUID : de9e6072:6bdc70ac:bc3ad9f7:25792c47
Device UUID : 2a4e4992:2d4dea8a:eed8628a:4ec6f3ed
/dev/sdc2:
Array UUID : 52c025e6:e0792063:7a57e4ba:2b744d7d
Device UUID : 391e02c7:179fc3bb:2fc1bfed:c63efc30
/dev/sdc3:
Array UUID : 31e7ac10:a0799902:1bb4fa29:0c8d66e1
Device UUID : bb6beab4:394ab780:2bfc2a71:55d7f097
/dev/sdc4:
Array UUID : ea8749d4:f814527e:68f9f729:471c5102
Device UUID : 71240336:6e606731:029ae6ad:f766d696
/dev/sdc5:
Array UUID : 8de1d005:e7250722:71d15dc2:a39a2b24
Device UUID : 414d8121:6cd067e0:9117d957:0054958e
/dev/sdd:
Alles anzeigen
Leider erschöpfen sich meine mdadm Kenntnisse bisher auch nur auf "Googlism"
Habe auch schon ein Ticket bei QNAP aufgemacht, aber da kam die Antwort ich möge doch bitte über das HelpDesk Tool Diagnoseprotokolle einreichen (was ist auch gemacht habe, aber still ruht der See ..)
Ach ja und bevor die Frage kommt : das Backup auf externen Festplatte war/ist buggy, ich weiß : kein Backup, keine Gnade .. aber vielleicht hat ja noch jemand einen Rat für mich. Bevor ich mir mit falschen mdadm befehlen die Daten endgültig zerstöre.
VIELEN DANK für jeden hilfreichen Tip