Beiträge von BertholdBrecht

    Sehr geehrte Damen und Herren,


    ich hatte Hybrid Backup auf der ersten Platte installiert. Diese ist aber nicht mehr lesbar, weil sie eine Volumengruppe mit einem anderen jetzt kaputten Datenträger bildete. Nun sind offenbar die durch Hybrid Backup angelegten Daten auch nicht mehr lesbar, womit ein Totalverlust droht. Kann mir jemand bitte dabei helfen.

    Ich verwende ein QNap NAS TS-453A mit ursprünglich 2x 6TB WD Red,1x 10TB Seagate, 1x 8TB Seagate, In 2 Volumengruppen mit ursprünglich 3 log Volumen. Die Platten waren jeweils einzeln in einem RAID1. Ich habe zwar die 1. Platte wieder eingehängt und entschlüsselt. E2fsck (über SSH) läuft aber schon einen ganzen Tag und ich weis nicht, was dann übrig bleibt.


    Ich werde wohl mit meiner Datensicherungslösung weg von NAS zu normalen Rechnern migrieren, da ich mir kein zweites NAS daneben stellen kann, wie es hier im Forum als Mindeststandard für gesicherte Daten angesehen wird. Schön finde ich aber, das QNap basal auf Standard-Linux-Lösungen (Softwareraid, LVM, LUKS) setzt. Ich hoffe immer noch, dasz ich irgendwann die ganzen Protokolle und Besonderheiten von QTS verstehe und meine Originaldaten lesen kann.

    Das es bei mir solange gedauert hat, lag daran, dass mit den zusätzlich eingehängten Platten im meinen Linuxrechner, das Netzteil abgeraucht ist. Es ist ja ein ständig laufender Server, mit dem kleinstmöglichen Netzteil.


    Ich hätte ein Recover-Szenario durchspielen können. Habe mit HybridBackup auf die anderen Platten abgelegt, die eine eigene Volumengruppe bilden. Da ist aber nichts zu finden. HybridBackup startet nicht, weil die App-Daten wohl auf LV1 gelegen haben

    Ich will lieber den Schlüsseldienst beauftragen, anstatt das Haus neu zu bauen. Bitte, ein bis'chen Konsole und ssh kann ich auch noch lernen. Ich habe mich in LVM etwas eingelesen.


    Ich habe Zugriff über ssh aufs NAS. Dort finden sich die Datei vg1, die offenbar die Volumengruppe (VG) 1 betrifft, die vom Ausfall des 2. phys. Volumens (pv) betroffen ist.

    Dort werden offenbar die Physikal Extends (pe) dargestellt. Die lv1, welche die Daten enthält, umfasst folgendes:

    Code
    start_extent = 0
    extent_count = 917504 # 3.5 Terabytes

    die anderen lv sind deutlich kleiner, so dasz ich von der Richtigkeit des Volumens ausgehe.

    Das pv0 der Volumengruppe erstreckt sich aber über:

    Code
    pe_start = 2048
    pe_count = 1428360 # 5.44876 Terabytes

    Die zweite Platte pv1 ist genau so groß.

    Ich darf daher annehmen, dasz die PE's des LV1 allein auf pv0 liegen.

    Die zweite Platte hatte ich beim Aufbau des NAS später eingehängt, soweit ich mich erinnere.

    Die Platte in Schlitz1 (pv0) habe ich wieder eingehängt habe. Anschließend:

    01.txt 02.txt

    Ich habe mir das namentlich passende ausgesucht:

    03.txt

    Wenn ich mich recht entsinne, lag die Datei vg1 und vg1 im Ordner Backup (siehe Anhang).

    Auch beigefügt ist die Datei lvm.conf aus /etc/lvm/ (lvm.conf.txtvg1.txt). Soweit zur Gefechtsfelderkundung.


    ich habe mir nach: https://www.linux-howto.info/mount-qnap-encrypted-volume/

    die Schlüssel für die Datenträger umgerechnet und den Datenträger eingehängt, hernach entschlüsselt.

    Dann geht es ans einhängen. Was ist aber einzuhängen?

    04.txt

    cachedev3 ist die zweite VG und intakt. Dazu gehören auch die Geräte der pv3 und 4 über drbd3 und 4. Die höchste Stufe der Platte in Schlitz1 ist drbd1 (?)

    es läuft ohne Fehler ab. Man musz beim Aktivieren der VG mit partial die Unfehlbarkeit ausräumen.

    Code
    # vgchange vg1 -a y --activationmode partial
    PARTIAL MODE. Incomplete logical volumes will be processed.
    Found duplicate PV 0tWf8TraJHf2nSNm0Z46d5UwTX1sm7ju: using /dev/drbd1 not /dev/md1
    Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
    WARNING: Device for PV KChQPt-FHCp-LjaD-2Omc-vd7L-iAZL-yEYUxx not found or rejected by a filter.
    4 logical volume(s) in volume group "vg1" now active

    für --activationmode gibt es anstelle der Option 'partial' noch 'degraded'. Mir ist nicht klar, was der Unterschied ist. Dann:

    Code
    [/mnt/HDA_ROOT/.config/lvm] # cryptsetup luksOpen /dev/vg1/lv1 schlitz1
    Enter passphrase for /dev/vg1/lv1:

    ohne Fehlermeldung.

    Hier taucht dann das logische Volumen 1 'lg1'

    mit der richtigen Benennung 'DataVol1' auf,

    was den Voreinstellungen entspricht.

    der Datenträger soll eingehängt werden.

    Dazu ein neues Verzeichnis:

    Code
    # mkdir neuMED (neu Mein encrypteder Datentraeger)

    Der Datentraeger soll eingehängt werden:

    Code
    # mount -t ext4 -o ro /dev/mapper/schlitz1 /mnt/neuMED
    mount: wrong fs type, bad option, bad superblock on /dev/mapper/schlitz1,
    missing codepage or other error
    In some cases useful info is found in syslog - try
    dmesg | tail or so
    (readonly!)

    Dort bin ich damit hängen geblieben.

    Wahrscheinlich ist das sehr diffus, ein Denkfehler.

    Kann mir bitte jemand auf die Sprünge helfen. Vielleicht bekommen wir sogar eine allgemein verständliche Anleitung hin.

    Dann: 05.txt

    Ich habe die Platte gerade noch am Linuxrechner um den Inhalt zu spiegeln. Ich muss wegen der Fehlermeldung bzw des Screenshot Speichermanager das abbrechen und erst mal umbauen. Ich schick das gleich nach.


    Vorerst soviel, ich wollte nie RAID haben. habe es auch nie eingestellt. Demnach wird es wohl eine Raidgruppe sein.


    hier nun die Bildschirmschuesse

    NAS_ControlpanelUebersicht_2021-03-17_10-19.png

    NAS_Datentraeger_2021-03-17_10-19.pngNAS_Speicher_2021-03-17_10-19.pngNAS_StorageSnapshot_VerwaltungVolumes_2021-03-17_10-20.pngNAS_StorageSnapshots_2021-03-17_10-20.png

    Hallo zusammen,


    nachdem mir die sich gegenseitig sichernden Rechner wegen gleichzeitig aussteigender Intel-Sandybridge-Controler ausgestiegen sind und ein heilloses Daten-Durcheinander hinterließen, wollte ich mal alles richtig machen... (ich war schon vor Spectre und Meltdown geheilt).


    habe mir also vor Jahren (2018) ein

    >>>>>>>>> TS-453A <<<<<<<<<<<<<<

    gekauft und es so nach und nach mit Festplatten beschickt. Ich glaube, dasz daher auch die eigenartige Konstruktion kommt, die mir nun virtuell auf die Füße fällt, mit der spitzen Kante voran, Au.


    Also es sind im Schacht 1 und 2 zwei baugleiche WD Rot 6TB.

    Die 1. Platte ist <<<<verschlüsselt>>>>.

    Jede Platte/Schacht bildet für sich ein RAID1. Ich weis nicht mehr warum, ich glaube ohne RAID ging es nicht.

    Beide bilden den Speicherpool1.

    Darauf gibt es zwei Volumen.


    Schacht 3 und 4 haben eine 8TB und eine 10TB Platte von Seagate. Darauf habe ich, soweit ich mich erinnere, alle Daten nochmals als Backup, mit entsprechender tägl. Versionierung


    Mir ist Schacht 2 ausgestiegen. (Sektoren waren ausgefallen Smart 197 von 200). Es gab eine Meldung. Speichervolumen degradiert, konnte aber noch auf alle Daten zugreifen, die ja auf der ersten Platte liegen. Ich hatte die 2. Platte dann ausgebaut in der Hoffnung, dasz sich der Speicherpool 1 dann erholt. Konnte aber die 2. Platte nicht vom Speicherpool lösen. Sie wurde immer als defekt angezeigt. Habe es wieder eingebaut. Fehlersuche, keine Besserung. Inzwischen ist die 2. Platte so kaputt, sie klackert, dass sie nicht mehr erkannt wird.


    Interessant ist sicherlich auch der Grund.Beim Ausbau der 2. Platte fand ich seitlich dicke Staubflusen. Sie war gefühlt schon recht warm. Das System hatte ich auf Temperaturwarnung mit Voreinstellung gelassen. Ich denke, dasz das 55°C waren. Nun habe ich auf 48°C reduziert. Die Platte 2 war eigentlich Reserve, nur wenige Daten drauf, Thick-Volumen mit 1TB, der Rest leer (daher auch die Annahme zum Hitzetod). Das System gab keine Hitzewarnung aus!!!


    Da die Platten in 1 und 2 eigene RAIDs bildeten, wollte ich die 2. Platte ausbauen und ersetzen, konnte aber den Speicherpool nicht auflösen, so dasz nun auch die erste Platte nicht mehr lesbar ist, obwohl sie technisch ohne Probleme ist.


    Ich kann jetzt ja alles einfach neu machen und die Daten von Schacht 3/4 holen. Ich musz dann aber die ganzen Einstellungen (Pfade, Freigaben) neu machen. Daher die Hoffnung, irgendwie an Platte 1, die voll intakt ist, heran zu kommen, so dasz ich die Datenstrukturen auf die neue Platte Seagate 10TB kopieren kann.


    Dazu habe ich sie an einen Linuxrechner angeschlossen und mit dd if=/dev/sdg ... begonnen, die Daten in ein Image zu schreiben. Ich habe aber in Yast-Partitionierer schon gesehen, das dort kein normales Dateisystem drauf ist. Eigentlich gehören die Strukturen doch zum RAID1?


    Code
    /dev/sdg         5,46 TiB (usb 0x174c ASMT ASMT 2105)

    (über Festplattengehäuse mit USB-Kabel angeschlossen)

    Code
    /dev/sdg1       0,51 GiB   Windows Daten Partition
    /dev/sdg2       0,51 GiB   Windows Daten Partition
    /dev/sdg3       5,45 TiB   Teil von 1_0
    /dev/sdg4       0,51 GiB   Windows Daten Partition
    /dev/sdg5       7,97 GiB   Windows Daten Partition

    Wie kommt ich da strukturiert heran? <------------------- Frage


    Code
    # cryptsetup luksOpen /dev/sdg3 naspl1
    Gerät »/dev/sdg3« ist kein gültiges LUKS-Gerät.

    Noch ein paar Gedanken zur Struktur und zum Zweck. Das NAS ist nur für die Familie die erste Adresse. Fürs Büro habe ich einen Server, dessen Sicherungen auf dem NAS liegen. Zudem hat das NAS ein Verzeichnis, an welches der Scanner angeschlossen ist, weil das NAS ja stets angeschaltet ist.

    Daher musz ich keinen Regelbetrieb aufrechterhalten. Wenn es ein paar Tage klemmt, ist's in Ordnung, daher brauche ich kein RAID (weder für Performance noch für Redundanz). Redundanz erhalte ich durch die Platten an Schacht 3/4. Die sind übers Netzwerk nicht zu erreichen (Kryptotrojaner sollen es so schwerer haben). Bei RAID wäre Alles im Zugriff von außen.

    Ist langsam, reicht aber und hält unabhängig und flexibel, ...eigentlich jedenfalls, ...dachte ich, ...heul.


    Danke für Eure Hilfe

    und Gruß

    Hallo,

    habe auf mein NAS LogicalDoc installiert. Bei der ersten Benutzung muss man offenbar noch die Verbindung zur Datenbank einrichten.

    Das habe ich versucht. Ich habe root und das entsprechende Passwort eingegeben. Beim ersten Mal war über PhpMyAdmin die leere Datenbank LogicalDoc angelegt. Der Prozess brach aber nach einer Weile ab mit einer Fehlermeldung. Bei späteren Versuchen war in der MariaDB keine Änderung aufgefallen. Ich habe es dann auch über die von LogicalDoc.com erhältliche Version probiert, ohne Erfolg.

    Code
    ----------------------------------------------------------------
    500 Internal Server Error The call failed on the
    server, see server log for details
    OK
    ----------------------------------------------------------------

    Ich habe leider noch nicht die Logs gefunden.

    PhpMyAdmin

    - Server: Localhost via UNIX socket

    - Server-Typ: MariaDB

    - Server-Verbindung: SSL wird nicht verwendet

    - Server-Version: 5.5.57-MariaDB - MariaDB Server

    - Protokoll-Version: 10

    - Benutzer: root@localhost

    - Server-Zeichensatz: cp1252 West European (latin1)


    - Apache

    - Datenbank-Client Version: libmysql - mysqlnd 5.0.11-dev - 20120503 - ...

    - PHP-Erweiterung: mysqli curl mbstring

    - PHP-Version: 5.6.38

    Auf dem NAS habe ich die Linux Station installiert und eingeschaltet.

    Darauf habe ich Ubuntu 18... installiert

    Nach der Installation habe ich das Ubuntu gestartet. Die Oberfläche wird nicht über HDMI, sondern die Webseite im Firefox angezeigt.

    Den Link dazu gibt es im Control Panel -->Applications -->Hybrid Desk Station --> Abschnitt Linux Station, Knopf Settings

    Mir geht es nicht unbedingt darum, die Linux Station zu steuern, sondern vom Netzwerk auf Kodi zuzugreifen, ohne vorher das NAS irgendwie umzustellen.


    Das Ubuntu brauch ich eigentlich nicht. Ich will Kodi als Dienst auf dem NAS haben, so das man über die Webseite Kodi aufrufen kann (Kodi: Einstell--> Dienste-->Steuerung http... oder uPnP-DLNA).


    Im Moment, jedenfalls wie ich es derzeit verstehe, muss ich die Linux Station mit Ubuntu aufrufen und dann Kodi starten. Die Anmeldung an Ubuntu muss offen bleiben. Mit Kodi, das wohl nur im Vordergrund bleiben kann, kann ich Ubuntu auch nicht sperren. Damit kann jeder an das Ubuntu ran, der Netzwerkzugriff hat. Ich mach da sicher irgendetwas falsch.

    Bei Hybridstation ist das im Prinzip genau so.


    ---------------------

    Ich will hier noch die Meldung nachschieben, die mir die Linux Station zeigt, wenn ich den Admin aus des NAS-Verwaltung abmelde:

    You have been logged out of the NAS. Close the remote desktop browser, log in to the NAS, and reopen the remote desktop from Linux Station.


    Retry


    Wenn also... ha, jetzt hab ichs, habe es eben auch probiert: Das Kodi-Webinterface bleibt erreichbar auch wenn die Linux Station nicht mehr übers Webinterface erreichbar ist.

    - Es wird also beim Abmelden von der NAS Verwaltung nicht die Linux Station mit Ubuntu geschlossen, sondern nur deren Remote Desktopverbindung.

    - die Linux Station mit Ubuntu und Kodi laufen weiter.

    - Kodi spannt einen eigenen Webserver auf, über den Kodi unabhängig vom Remotedesktop der Linux Station erreichbar ist.

    Ich würde den Teil als erledigt betrachten, wenn nicht jemand Verbesserungsvorschläge hat.

    Hallo Liebe QNapper,

    ich habe mein Nas nun schon einige Zeit und komme damit auch gut zurecht. Nun habe ich neben meinem Arbeitsrechner auch noch einen Server für schwerere Lasten stehen. Wollte das eine Boxenpaar auf den Schreibtisch für beide Rechner erreichbar machen. Hatte an uPNP/DLNA und das NAS als Renderer (DMR) gedacht. Von WIndows habe ich das schon hinbekommen. Beim Linux ist auch Licht in Sicht. Nebenbei möchte ich auch ein DigitRadio an der Studioanlage als DMR über upnp dlna ansteuern.


    Gut, nun zum ersten wichtigeren Problem:

    Ich habe das Kodi auf der Linux Station installiert Ubuntu 18, weil ich das vor längerem auch auf einem Rechner hatte, bis mir die Intel SSD-Controller alles vaporisiert hatten.

    Das funktioniert auch gut, nur wenn ich dann die Webseite des NAS abschalte, schaltet sich auch die Ubuntuwebseite mit Kodi ab.
    Kann man das auch ohne NAS-Anmeldung am Laufen halten. Der Webserver mit zwei Webseiten wird sicherlich mehr Resourcen schlürfen als mit nur einer zeitweilig angemeldeten Webseite.

    Kann es andernfalls sein, das ich eine falsche Auffassung zur Grundidee der Linux Station habe?


    Das zweite Problem ist, das ich das DigitRadio nicht in Kodi zu sehen bekomme. Vom WIndowsrechner habe ich das schon bedient. Ich habe da schon angehakt, das Kodi nach upnp/dlna Geräten suchen soll. Bei den Ausgabegeräten werden zwei Pulseaudioserver (einer mit analog) und 2x HDMI angegeben. Im upnp-dlna Kapitel habe ich alles eingeschaltet, nur die Untertitelsuche nicht. DIe tut doch sicher nichts zur Sache?


    Alles steht in einem Netz (.../24). Es klemmt Switch (ich glaube Level2+) mit Portbündelung dazwischen, an dem zwei RJ45 je zum Server und zum Nas führen. Das DigitRadio ist über WLan dabei.


    Danke für Hilfe und Grüße