Noch zur Info.
Der QNAP Support konnte das RAID wieder herstellen.
Sodass ich meine Daten lesen und weg kopieren konnte.
Ein Rebuild war jedoch nicht möglich, da die zweite Platte über den SMART Grenzwerten war.
Noch zur Info.
Der QNAP Support konnte das RAID wieder herstellen.
Sodass ich meine Daten lesen und weg kopieren konnte.
Ein Rebuild war jedoch nicht möglich, da die zweite Platte über den SMART Grenzwerten war.
Ich versteh nicht wie das passieren konnte. Wir hatten eine defekte Platte, die wir getauscht haben.
Mit einer defekten kommt ein RADI 5 doch klar. Dafür ist es da.
Ich werde wohl die repo neu machen....
Mod: Unnötiges Volltextzitat gekürzt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
Habt ihr ein Backup?
Bitte erst meinen Post genau lesen, bevor man klugscheißt! Die Qnap ist unser Backup repository. Soll ich ein Backup vom Backup machen?
Auch ist keine Platine kaputt. Und Experimente haben wir schon gar nicht gemacht, wir haben nur die Anweisung des offiziellen QNAP Support befolgt.
Außerdem frage ich gerade nach euren wirkluch guten kenntnissen. Bitte in zukunft so unqualifizierte kommentare einfach sein lassen und den Mund halten wenn man selbst keine Ahnung hat!
Mod: Unnötiges Volltextzitat gekürzt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
Auf dem Screenshot ist die Ausgabe des mdadm Befehls auch nicht zu sehen.
Die Ausgabe des mdadm Befehls ist in der der zweiten und dritten zeile des screenshots.
Mod: Unnötiges Volltext-/Direktzitat entfernt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
[~] #
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi path]
md322 : active raid1 sde5[6](S) sdg5[5](S) sdh5[4](S) sda5[3](S) sdd5[2](S) sdb5 [1] sdc5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sde2[6](S) sdg2[5](S) sdh2[4](S) sda2[3](S) sdd2[2](S) sdb2 [1] sdc2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdc4[0] sde4[7] sdg4[6] sdh4[4] sda4[3] sdd4[2] sdb4[1]
458880 blocks super 1.0 [24/7] [UUUUU_UU________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdc1[0] sde1[7] sdg1[6] sdh1[4] sda1[3] sdd1[2] sdb1[1]
530048 blocks super 1.0 [24/7] [UUUUU_UU________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
[~] #
[~] # md_checker
Welcome to MD superblock checker (v2.0) - have a nice day~
Scanning system...
RAID metadata found!
UUID: 83314110:97634da6:ce2b1a67:ea95770a
Level: raid5
Devices: 8
Name: md1
Chunk Size: 64K
md Version: 1.0
Creation Time: Sep 22 21:26:18 2015
Status: OFFLINE
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
===============================================================================================
NAS_HOST 1 /dev/sdc3 0 Active Nov 23 15:34:00 2022 636 AAAAAAAA
NAS_HOST 2 /dev/sdb3 1 Active Nov 23 15:34:00 2022 636 AAAAAAAA
NAS_HOST 3 /dev/sdd3 2 Active Nov 23 15:34:00 2022 636 AAAAAAAA
NAS_HOST 4 /dev/sda3 3 Rebuild Nov 23 15:34:00 2022 636 AAAAAAAA
NAS_HOST 5 /dev/sdh3 4 Active Nov 23 15:34:00 2022 636 AAAAAAAA
---------------------------------- 5 Missing -------------------------------------------
NAS_HOST 7 /dev/sdg3 6 Active Nov 23 15:34:00 2022 636 AAAAAAAA
NAS_HOST 8 /dev/sde3 7 Active Nov 23 15:34:00 2022 636 AAAAAAAA
===============================================================================================
[~] #
Alles anzeigen
Hallo zusammen, ich benötige dringed eure Hilfe.
Seit 4 Wochen ist unsere QNAP Unbrauchbar weil eine Platte im RAID 5 kaputt gegangen ist. (8 Bay NAS)
Wir waren vor Ort und haben die Platte gegen eine neue baugleiche getauscht.
Danach hat die QNAP NICHT automatisch ein Rebuild des RAID gestartet. Wir haben mehrere neustarts versucht und auch als Spare konnte man die Platte nicht einstellen.
Wir haben dann den QNAP Support eingeschaltet, der uns die Anweisung gab, folgende Befehle einzutippen.
mdadm -AfR /dev/md1 /dev/sd[dcbagfe]
/etc/init.d/init_lvm.sh
(output siehe screenshot)
Danach wurde die neue Platte als Spare erkannt, jedoch ist der Pool verschwunden und komplett weg!!!
Wir haben seitdem keine weiteren Schirtte gemacht, der pool muss ja noch da sein, (wir haben nichts formatiert) wird jedoch nicht mehr angezeigt.
Der support wollte eine Fernwartung machen jedoch konnte ich diesen Fernzugriff nicht einrichten.
Seitdem ist stille. Der support braucht immer mehre Tage zum antworten.
Wir sind eine Firma und auf diese QNAP angewiesen, da sie unser Backup repository ist.
Wenn wir jetzt den Pool neu machen und die Backups neu starten, brauchen wir mehrere Tage.
Hatte jemand schon mal einen ähnlichen Fall und kann uns helfen?
mit freundlichen Grüßen
Sebastian