Also QNAP Support hat reingeschaut und meinte, das Problem sei bekannt und habe damit zutun, das es seit Volume ein Firmware-Upgrade gab, das die anderen Partitionen auf den HDDs anders handhabt und durch den Ausfall versucht wurde es auf den neuen Stand wiederherzustellen.
Zum fixen habe ich für den 5.8. n Online-Termin mit dem Support.
Beiträge von Mr.Spock91
-
-
Mod: Unnötiges Volltext-/Direktzitat entfernt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
Das sollte die Cache-SSD im M.2 Slot 2 sein...
Der Qnap-Support meinte dazu folgendes:
Zitat von QNAP SupportEnde Mai 2022 wurde uns ein Problem mit den Festplatten Einschüben gemeldet. Die Toleranz für die Löcher war zu großzügig gewählt, es wurde um etwa 0,5 Millimeter falsch gebohrt. Dadurch rutschen die Festplatten im Betrieb teilweise leicht heraus, was zu diesem Problem führt.
Bitte teilen Sie mir Ihre postalische Anschrift, eine E-Mail Adresse und eine Telefonnummer mit, damit wir eine RMA erstellen und Ihnen die Lösung (s. Anhang) zukommen lassen können. Natürlich werden Folien für alle Einschübe geliefert, Sie müssen nichts tun oder versenden. Die Lieferung dauert etwa eine Woche.
Folgende Kriterien sollten erfüllt sein:
* Nas/Gehäuse wurde vor dem 31.5.2022 ausgeliefert
* 3 Festplatten fallen innerhalb eines Jahres aus verschiedenen Slots
* Festplatten sind gesund und werden durch 3rd Party Tools wie Seatools von Windows oder Mac überprüft
* Festplattenkapazität größer als 6T
Ich sehe zwar nicht, das dies den Zuordnungsfehler erzeugt, aber auch interressant zu wissen...
-
Sorry, jetzt erst rausbekommen, das man der "orginal Admin" sein muss um das zu machen... (der war halt deaktiviert...)
Code
Alles anzeigenRAID metadata found! UUID: 0ad31603:346255f5:dbfbc574:4b2a7b58 Level: raid1 Devices: 1 Name: md2 Chunk Size: - md Version: 1.0 Creation Time: Apr 9 14:14:43 2022 Status: ONLINE (md2) [U] =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 2 /dev/sda3 0 Active Jul 26 00:19:23 2024 651 A =============================================================================================== RAID metadata found! UUID: 4ffa61ef:77e7b0b3:7c763268:115abd98 Level: raid6 Devices: 8 Name: md1 Chunk Size: 512K md Version: 1.0 Creation Time: Oct 23 19:58:46 2020 Status: ONLINE (md1) [UUUUU___] =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 3 /dev/sdl3 0 Active Jul 21 19:37:38 2024 68705 AAAAAA.. NAS_HOST 4 /dev/sdm3 1 Active Jul 21 19:37:38 2024 68705 AAAAAA.. NAS_HOST 5 /dev/sdb3 2 Active Jul 21 19:37:38 2024 68705 AAAAAA.. NAS_HOST 6 /dev/sdi3 3 Active Jul 21 19:37:38 2024 68705 AAAAAA.. NAS_HOST 7 /dev/sdk3 4 Active Jul 21 19:37:38 2024 68705 AAAAAA.. NAS_HOST 8 /dev/sdh3 5 Active Jul 21 19:37:38 2024 68705 AAAAAA.. ---------------------------------- 6 Missing ------------------------------------------- NAS_HOST 10 /dev/sdc3 7 Rebuild Jul 20 11:23:06 2024 61929 AAAAAAAA ===============================================================================================
Da nur bei einer Platte "Missing" steht und bei der anderen "Rebuild" interpretiere ich mal, dass er was tut und das Volume nicht fucked ist, weil es im Redundanz-Rahmen ist?
Finde es aber interessant das gerade HDD-Slot 7 "Missing" ist, der einzige der als Gut und Vorhanden in der Reihe angezeigt wurde...hier noch die Auswertung von: mdadm --detail /dev/md1:
Code
Alles anzeigen/dev/md1: Version : 1.0 Creation Time : Fri Oct 23 19:58:46 2020 Raid Level : raid6 Array Size : 70253558784 (66999.01 GiB 71939.64 GB) Used Dev Size : 11708926464 (11166.50 GiB 11989.94 GB) Raid Devices : 8 Total Devices : 7 Persistence : Superblock is persistent Update Time : Sun Jul 21 19:37:38 2024 State : active, FAILED, Rescue Active Devices : 5 Working Devices : 6 Failed Devices : 1 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : 1 UUID : 4ffa61ef:77e7b0b3:7c763268:115abd98 Events : 68705 Number Major Minor RaidDevice State 0 8 179 0 active sync /dev/sdl3 1 8 195 1 active sync /dev/sdm3 2 8 19 2 active sync /dev/sdb3 3 8 131 3 active sync /dev/sdi3 4 8 163 4 active sync /dev/sdk3 5 8 115 5 faulty /dev/sdh3 12 0 0 12 removed 14 0 0 14 removed 8 8 67 - spare /dev/sde3
-
Da kommt leider nur
CodeWelcome to MD superblock checker (v2.0) - have a nice day~ /usr/bin/md_checker: line 25: /mnt/HDA_ROOT/md_backup_2024-07-26_01.34.24: Permission denied Scanning system...
Zum (Hardware)-Defekt:
Ich vermute die Stromversorgung, da der Fehler eine ganze Reihe (HDD 5-8) zufällig disconnected (und reconnected) sind, die Backplane hat nach einem Urlaub im Ofen aber alle Slots wieder dauerhaft erkannt. Ein Serverwechsel ist aber in mittlerer Zukunft geplant.
-
Hallo in die Runde,
nach einer defekten Backplane (TS-1273U) wird eine von acht Festplatten des RAID-6 als Fehlerhaft erkannt (Datenträgerzugriffsverlauf(I/O)).(eine Ersatz-HDD liegt daneben, wenn ich sie insetze kann aber das Raid nicht wiederhergestellt werden sagt er.)
Das Volume ist "Heruntergestuft" und in der Übersicht werden 3 HDDs als "Kein Mitglied" angezeigt (die mit Fehler und 2 weitere).
Ich habe soweit das "RAID wiederherstellen", das er vorgeschlagen hat, angeklickt, seit dem macht er glaube ich irgendwas (Rein von der Lüfterdrehzahl her), zeigt aber keine Aktivität/Status an.
Ein Backup vom meisten ist vorhanden, aber leider nicht von allem.
Mir ist nicht klar was ich hier tun kann / soll, weil ich die Ursache des Problems nicht verstehe und auch nicht warum manche HDDs kein Mitglied in dem RAID mehr sein sollen.Anbei ein Screenshot des Speicherpools. Ich wäre für konstruktive Vorschläge sehr dankbar,
LG Nico