Danke, ich werde mal schauen, wie weit ich komme. Dir noch einen schönen Abend
Beiträge von Kanzleramt
-
-
Kriege nur diese Meldungen zurück:
Code[~] # storage_util –sys_startup Try `storage_util --help' for more information. [~] # storage_util –sys_startup_p2 Try `storage_util --help' for more information.
Edit: War ein Copy & Paste - Thema, musste aus "-" "--" machen
Beide Befehle sind durchlaufen, ohne Rückmeldung > Moment, anscheinend ging die SSH-Session verloren, ich habe noch mal neu verbunden:Code
Alles anzeigen[~] # storage_util --sys_startup Detect disk(8, 80)... ignore non-root enclosure disk(8, 80). Detect disk(8, 48)... dev_count ++ = 0Detect disk(8, 16)... dev_count ++ = 1Detect disk(8, 64)... dev_count ++ = 2Detect disk(8, 32)... dev_count ++ = 3Detect disk(8, 0)... dev_count ++ = 4Detect disk(8, 80)... ignore non-root enclosure disk(8, 80). Detect disk(8, 48)... Detect disk(8, 16)... Detect disk(8, 64)... Detect disk(8, 32)... Detect disk(8, 0)... [~] # storage_util --sys_startup_p2 sys_startup_p2:got called count = -1 [~] #
-
Ich meine irgendwo gelesen zu haben, dass man die Config-Datei neu bauen muss..., aber ich schaue mal, ob ich was zum Speicherort finde
Hier könnte auch was hilfreiches stehen: https://forum.qnap.com/viewtopic.php?p=224731#p296810 -
Jetzt komme ich wieder rein, musste known_hosts löschen. > So behebst du den "Warning: Remote Host Identification Has Changed" Fehler (kinsta.com)
Das RAID ist nach dem Neustart wieder offlineCode
Alles anzeigenRAID metadata found! UUID: ff0ccf0f:28076c3d:023c0354:4e1dc2ff Level: raid10 Devices: 4 Name: md0 Chunk Size: 64K md Version: 1.0 Creation Time: Aug 31 10:29:57 2017 Status: OFFLINE =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 1 /dev/sda3 0 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 2 /dev/sdb3 1 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 3 /dev/sdc3 2 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 4 /dev/sdd3 3 Active Jun 9 11:42:27 2022 9043 AAAA =============================================================================================== RAID metadata found! UUID: 00e044c1:4b5cb1c8:4ef910d6:d2393db7 Level: raid1 Devices: 1 Name: md1 Chunk Size: - md Version: 1.0 Creation Time: Sep 4 15:15:34 2017 Status: OFFLINE =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 5 /dev/sde3 0 Active Jun 9 10:37:23 2022 413 A ===============================================================================================
Hätte ich einen Rebuilding-Prozess anstoßen sollen? > linux - How do I reactivate my MDADM RAID5 array? - Super User
Evtl. so: -
pfff, ich komm grad nicht mehr drauf, muss erst mal eine Lösung suchen
Code@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@ @ WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED! @ @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@ IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY! Someone could be eavesdropping on you right now (man-in-the-middle attack)! It is also possible that a host key has just been changed. The fingerprint for the RSA key sent by the remote host is SHA256:F9JmblablablaTfV3S9tlg7at20hKpE. Please contact your system administrator.
-
Ja, es ist wieder diese blöde Seite, ich komme partout nicht auf die Login-Seite, wie man sie kennt
CAT1-Platten? Keine Ahnung was Du meinst. Ich habe das NAS nackt bestellt und die Platten rein, die jetzt drin sind...
Hier steht irgendwas von manuellem Filecheck > Rescue a QNAP NAS "Unmounted" RAID Volume (neurotechnics.com) und vorhin hat es ja
Update Time : Thu Jun 9 11:59:13 2022State : clean, degraded
ausgespuckt. Soll ich diesen Check erst mal machen, sinngemäß mit md0 -
Ich starte mal durch, befürchte aber, dass ich wieder bei dieser "Start Smart Installation"-Seite lande, let's see...
-
Verstehe, danke. Hier der Output:
Jetzt schaut es so aus:Code
Alles anzeigen# md_checker Welcome to MD superblock checker (v2.0) - have a nice day~ Scanning system... RAID metadata found! UUID: ff0ccf0f:28076c3d:023c0354:4e1dc2ff Level: raid10 Devices: 4 Name: md0 Chunk Size: 64K md Version: 1.0 Creation Time: Aug 31 10:29:57 2017 Status: ONLINE (md0) [UUU_] =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 1 /dev/sdb3 0 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 2 /dev/sdc3 1 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 3 /dev/sdd3 2 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 4 /dev/sde3 3 Active Jun 9 11:42:27 2022 9043 AAAA =============================================================================================== RAID metadata found! UUID: 00e044c1:4b5cb1c8:4ef910d6:d2393db7 Level: raid1 Devices: 1 Name: md1 Chunk Size: - md Version: 1.0 Creation Time: Sep 4 15:15:34 2017 Status: OFFLINE =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 5 /dev/sdf3 0 Active Jun 9 10:37:23 2022 413 A =============================================================================================== # mdadm --detail /dev/md0 /dev/md0: Version : 1.0 Creation Time : Thu Aug 31 10:29:57 2017 Raid Level : raid10 Array Size : 7810899072 (7449.05 GiB 7998.36 GB) Used Dev Size : 3905449536 (3724.53 GiB 3999.18 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Thu Jun 9 11:59:13 2022 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 64K Name : 0 UUID : ff0ccf0f:28076c3d:023c0354:4e1dc2ff Events : 9580 Number Major Minor RaidDevice State 0 8 19 0 active sync set-A /dev/sdb3 1 8 35 1 active sync set-B /dev/sdc3 2 8 51 2 active sync set-A /dev/sdd3 6 0 0 6 removed
-
Kann irgendwas dabei kaputtgehen?
-
-
Code
Alles anzeigenPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md322 : active raid1 sdf5[0] 7235136 blocks super 1.0 [2/1] [U_] bitmap: 1/1 pages [4KB], 65536KB chunk md256 : active raid1 sdf2[4](S) sde2[3](S) sdd2[2](S) sdc2[1] sdb2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk unused devices: <none>
-
Hi,
danke für das Feedback. Ich bin jetzt erst mal über ssh drauf und sehe, dass das RAID offline ist
Code
Alles anzeigen[~] # df -h Filesystem Size Used Available Use% Mounted on none 400.0M 299.0M 101.0M 75% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 64.0M 120.0K 63.9M 0% /tmp tmpfs 7.8G 0 7.8G 0% /dev/shm tmpfs 16.0M 0 16.0M 0% /share /dev/sda5 7.8M 28.0K 7.8M 0% /mnt/boot_config tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export cgroup_root 7.8G 0 7.8G 0% /sys/fs/cgroup tmpfs 24.0M 120.0K 23.9M 0% /smb_tmp tmpfs 64.0M 52.5M 11.5M 82% /tunnel_agent [~] # qcli_storage -d Enclosure Port Sys_Name Type Size Alias Signature Partitions Model NAS_HOST 1 /dev/sdb HDD:free 3.64 TB -- QNAP 4 Seagate ST4000VM000-1F3168 NAS_HOST 2 /dev/sdc HDD:free 3.64 TB -- QNAP 4 Seagate ST4000VM000-1F3168 NAS_HOST 3 /dev/sdd HDD:free 3.64 TB -- QNAP 4 Seagate ST4000VM000-1F3168 NAS_HOST 4 /dev/sde HDD:free 3.64 TB -- QNAP 4 Seagate ST4000VM000-1F3168 [~] # md_checker Welcome to MD superblock checker (v2.0) - have a nice day~ Scanning system... AID metadata found! UUID: ff0ccf0f:28076c3d:023c0354:4e1dc2ff Level: raid10 Devices: 4 Name: md0 Chunk Size: 64K md Version: 1.0 Creation Time: Aug 31 10:29:57 2017 Status: OFFLINE =============================================================================================== Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State =============================================================================================== NAS_HOST 1 /dev/sdb3 0 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 2 /dev/sdc3 1 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 3 /dev/sdd3 2 Active Jun 9 11:59:13 2022 9580 AAA. NAS_HOST 4 /dev/sde3 3 Active Jun 9 11:42:27 2022 9043 AAAA =============================================================================================== [System] Model = TS-X63 Internal Model = TS-X63 Server Comment = NAS Server Version = 5.0.0 Build Number = 20220531 Number = 2055 Time Zone = Europe/London Enable Daylight Saving Time = TRUE Workgroup=NAS
Gibt es ein ssh-Kommando, um es wieder online zu setzen und um dann z.B. einen Filesystemcheck und eine Wiederherstellung des RAID zu starten?
-
Hallo Zusammen,
mein NAS zickt und ich habe keine Ahnung warum. Die letzten fünf Jahre war es eigentlich anstandslos gelaufen. Nach dem Neustart lande ich beim Login-Versuch über den Browser nicht wie gewohnt auf der Login Seite. Irgendwie startet mein NAS in einen Willkommensbildschirm und möchte entweder ein Zurücksetzen auf Werkseinstellung (= kein Datenverlust) oder eine neue Initialisierung (= Datenverlust). Nach Zurücksetzen auf Werkseinstellung kommt aber wieder diese Willkommensseite mit den gleichen Optionen.
Afaik müsste ein RAID10 drauf laufen (Disks 1-4). Disk 5 ist eine Backup-Platte, über die ich per Hybrid Backup die Daten aus dem RAID sichere. Leider kann ich die Backup-Daten aber über externen Zugriff auf OSX nicht finden. Vermutlich werden die inkrementell anderweitig und versteckt weggesichert.Ist das Jemandem von Euch auch schon mal passiert?
-
Lieben Dank an VaexX, mein Puls ist wieder auf Normalstufe..., Thema erledigt & Backup wird jetzt eingerichtet...
-
Blöderweise nicht, vielleicht kriegen wir das Problem morgen mit etwas Hilfe gelöst. Scheint wohl an den Superblocks zu liegen und das - aus welchen Gründen auch immer - bei der Migration aus "zwei" Raid1-Gruppen mit je 2 Devices auf dem Quell-NAS "eine" Raid10-Gruppe auf dem Ziel-NAS mit vier Devices generiert wurde.
Leider lässt sich die neue Gruppe bzw. das neue Volume nicht mehr mounten bzw. aktivieren. Sollte hoffentlich alles gut gehen, werde ich den fünften Einschub im NAS für eine Backup-Platte nutzen.
Derweil, heute Nacht, versuche ich über USB die Platten direkt an den Mac anzuschließen und ein Recovery durchzuführen. Aktuell habe ich EaseUS als Tool im Auge. Könnt Ihr was Besseres empfehlen, welches vielleicht die ganze Ordnerstruktur zurücksichert?
Besten Dank,
Andreas
Edit: Frage nach einem Tool hat sich erledigt, habe diesen Beitrag gefunden: [Howto] NAS HDD mit Windows lesen / Recovery / Undelete
-
Hast eine PN bzw. eine Chatnachricht...
-
Hallo Zusammen,
hier herrscht gerade ein mittelschweres Chaos! Ich wollte vom TS-421 (A) auf TS-563 (B) migrieren (beide aktuelle Firmware) und habe, gemäß der Migrationsanleitung von qnap vier Festplatten analog ihrer Reihenfolge auf (A) in (B) gesteckt.
Auf A waren zwei Raid1-Gruppen (Gruppe 0 und 1) zu je 4TB. Nachdem B hochgefahren war, finde ich nur noch Gruppe 0 mit 8 TB Kapazität, aber nicht mehr die Verzeichnisse der Gruppe 1, obwohl der verbleibende, freie Speichef genauso hoch ist, wie vor der Migration der beiden Gruppen.
Jetzt ist meine Befürchtung, dass die Daten der Gruppe 1 verloren sind. Habt Ihr Tipps, wie ich die Daten retten bzw. Gruppe 1 wiederherstellen kann?
Beste Grüße,
Andreas