ich liebe eure lösungsorientierte Unterstützung, die keinerlei Besserwisserei beinhaltet... Läuft wieder, vielen Dank für eure Belehrungen
Beiträge von thorsin
-
-
Mea culpa!
FSC830 "Wie" ist eine gute Frage. Es ging halt irgendwann nicht mehr... Ob es zwischendrin mal keinen Strom hatte kann ich nicht sagen. Aktiv getan habe ich nichts. Was natürlich bei den Temperaturen aktuell möglich ist, ist, dass es einfach ein bisschen warm war und eine der Platten sich gedacht hat "muss mal kurz pause machen"... einzige für mich sinnvolle Erklärung (und: nein, das NAS steht im Arbeitszimmer nicht in einem Klimatisierten Serverschrank...)
--- äh, fast vorhanden es sind keine backup relevanten Daten drauf (zumindest nix, wofür ich 21TB S3 Platz bezahlen würde...), nur welche bei denen es blöd wäre, wenn sie weg sind. Wenn man das Raid retten kann wäre es schick, ansonsten setze ich es neu auf. Da es für mich aber "nur" nach einer zerschossenen config aussieht, die man fixen können sollte würde ich den weg des Datenerhalts durchaus bevorzugen ;-).
gforce TS-453A / Firmware ist die aktuelle Beta 4.4.1.0998 / 4x die gleiche Seagate Platte
Update: habe seit Neuinstallation der FW das LVM nicht mehr angezeigt. Sprich: in der GUI werden mir nur noch die 4 einzelnen Platten angezeigt, das LVM ist aber weg und ich könnte ein neues aufsetzen (was ich natürlich tunlichst vermeiden werde).
md_checker kennt das array md1 aber noch.
Weitere Info:
Code
Alles anzeigen[~] # mdadm --examine /dev/sd[abcd]3 >> raid.status [~] # cat raid.status /dev/sda3: Magic : a92b4efc Version : 1.0 Feature Map : 0x0 Array UUID : 58110d42:d147b4ea:af186268:4c3d9d94 Name : 1 Creation Time : Fri Feb 17 12:29:00 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 15608143240 (7442.54 GiB 7991.37 GB) Array Size : 23412214272 (22327.63 GiB 23974.11 GB) Used Dev Size : 15608142848 (7442.54 GiB 7991.37 GB) Super Offset : 15608143504 sectors Unused Space : before=0 sectors, after=648 sectors State : active Device UUID : 258a7186:e2f3c948:042185eb:792fbca1 Update Time : Tue Jul 23 06:31:23 2019 Bad Block Log : 512 entries available at offset -8 sectors Checksum : cc6b76f0 - correct Events : 2498900 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : AAA. ('A' == active, '.' == missing, 'R' == replacing) /dev/sdb3: Magic : a92b4efc Version : 1.0 Feature Map : 0x0 Array UUID : 58110d42:d147b4ea:af186268:4c3d9d94 Name : 1 Creation Time : Fri Feb 17 12:29:00 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 15608143240 (7442.54 GiB 7991.37 GB) Array Size : 23412214272 (22327.63 GiB 23974.11 GB) Used Dev Size : 15608142848 (7442.54 GiB 7991.37 GB) Super Offset : 15608143504 sectors Unused Space : before=0 sectors, after=648 sectors State : active Device UUID : 03e977b8:3d94967c:8766777f:800f4179 Update Time : Wed Jul 24 07:35:00 2019 Bad Block Log : 512 entries available at offset -8 sectors Checksum : 9db7fc1a - correct Events : 2498901 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 1 Array State : AAA. ('A' == active, '.' == missing, 'R' == replacing) /dev/sdc3: Magic : a92b4efc Version : 1.0 Feature Map : 0x0 Array UUID : 58110d42:d147b4ea:af186268:4c3d9d94 Name : 1 Creation Time : Fri Feb 17 12:29:00 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 15608143240 (7442.54 GiB 7991.37 GB) Array Size : 23412214272 (22327.63 GiB 23974.11 GB) Used Dev Size : 15608142848 (7442.54 GiB 7991.37 GB) Super Offset : 15608143504 sectors Unused Space : before=0 sectors, after=648 sectors State : active Device UUID : b079a5c2:117731bd:352475e8:fac461d6 Update Time : Sat Jul 27 15:25:48 2019 Bad Block Log : 512 entries available at offset -8 sectors Checksum : aea145a1 - correct Events : 2498901 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : A.A. ('A' == active, '.' == missing, 'R' == replacing) /dev/sdd3: Magic : a92b4efc Version : 1.0 Feature Map : 0x0 Array UUID : 58110d42:d147b4ea:af186268:4c3d9d94 Name : 1 Creation Time : Fri Feb 17 12:29:00 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 15608143240 (7442.54 GiB 7991.37 GB) Array Size : 23412214272 (22327.63 GiB 23974.11 GB) Used Dev Size : 15608142848 (7442.54 GiB 7991.37 GB) Super Offset : 15608143504 sectors Unused Space : before=0 sectors, after=648 sectors State : active Device UUID : 4c5fd9bc:d968ccec:95f4222b:97bfa44a Update Time : Sun Jul 21 17:48:43 2019 Bad Block Log : 512 entries available at offset -8 sectors Checksum : 8f5e2a74 - correct Events : 2435917 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 3 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) [~] #
Code[~] # mdadm -A /dev/md1 /dev/sd[abcd]3 mdadm: failed to get exclusive lock on mapfile - continue anyway... mdadm: ignoring /dev/sdc3 as it reports /dev/sdb3 as failed mdadm: /dev/md1 assembled from 2 drives - not enough to start the array.
Update 2:
nachdem mich
Code
Alles anzeigen[~] # md_checker Welcome to MD superblock checker (v2.0) - have a nice day~ Scanning system... RAID metadata found! UUID: 58110d42:d147b4ea:af186268:4c3d9d94 Level: raid5 Devices: 4 Name: md1 Chunk Size: 512K md Version: 1.0 Creation Time: Feb 17 12:29:00 2017 Status: ONLINE (md1) [UUU_] =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 1 /dev/sda3 0 Active Aug 2 12:57:19 2019 2498900 AAA. NAS_HOST 2 /dev/sdb3 1 Active Aug 2 12:57:19 2019 2498901 AAA. NAS_HOST 3 /dev/sdc3 2 Active Aug 2 12:57:19 2019 2498901 AAA. NAS_HOST 4 /dev/sdd3 3 Active Jul 21 17:48:43 2019 2435917 AAAA ===============================================================================================
das "Last Update" von /dev/sdd3 stutzig gemacht hat, habe ich mir das mal genauer angeschaut:
Code
Alles anzeigenmdadm -D /dev/md1 /dev/md1: Version : 1.0 Creation Time : Fri Feb 17 12:29:00 2017 Raid Level : raid5 Array Size : 23412214272 (22327.63 GiB 23974.11 GB) Used Dev Size : 7804071424 (7442.54 GiB 7991.37 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Update Time : Fri Aug 2 12:57:19 2019 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : 1 UUID : 58110d42:d147b4ea:af186268:4c3d9d94 Events : 2498901 Number Major Minor RaidDevice State 4 8 3 0 active sync /dev/sda3 1 8 19 1 active sync /dev/sdb3 5 8 35 2 active sync /dev/sdc3 6 0 0 6 removed
und festgestellt, dass die vierte Platte irgendwie aus dem RAID geflogen ist. Mit Hilfe von:
dann hinzugefügt und siehe da: Das RAID fängt mit der Synchronisierung an.
Note beside: ich musste das RAID mit mdadm --assemble --force /dev/md1 /dev/sd[abcd]3 vorher zum einhängen zwingen. Daher weiss ich noch nicht inwiefern die Daten jetzt nach dem Sync noch vorhanden sind. Da aber eh nichts kritisches dabei war bin ich nicht böse wenn es schiefgeht...
-
Hi Jungs und Mädels,
ich habe mir offensichtlich irgendwie das RAID zerschossen und wäre euch mega dankbar für den ein oder anderen Hint... Alle Platten sind in der GUI unter SMART Status als "Gut" deklariert. Die Ausgabe von md_checker wie folgt:
Code
Alles anzeigen[/share] # md_checker Welcome to MD superblock checker (v2.0) - have a nice day~ Scanning system... RAID metadata found! UUID: 58110d42:d147b4ea:af186268:4c3d9d94 Level: raid5 Devices: 4 Name: md1 Chunk Size: 512K md Version: 1.0 Creation Time: Feb 17 12:29:00 2017 Status: OFFLINE =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 1 /dev/sda3 0 Active Jul 23 06:31:23 2019 2498900 AAA. NAS_HOST 2 /dev/sdb3 1 Active Jul 24 07:35:00 2019 2498901 AAA. NAS_HOST 3 /dev/sdc3 2 Active Jul 27 15:25:48 2019 2498901 A.A. NAS_HOST 4 /dev/sdd3 3 Active Jul 21 17:48:43 2019 2435917 AAAA ===============================================================================================
/etc/config/mdadm.conf existiert nicht... Für mich als Noob sieht es so aus, als hätte sdc falsche Infos zum Array State weshalb sich das RAID nicht initialisieren lässt. Bin aber kein RAID Experte, daher ist das von hier an bei mir nur noch raten...