Beiträge von tuxflo

    Mit entsetzen musste ich gestern feststellen, dass die LED meiner TS 251+ rot leuchtet und mir im Webinterface angezeigt wird, das mein Festplatte im Zustand "Abnormal" ist. Scheinbar wurde die HDD jetzt vom NAS automatisch Read-Only gemountet und die Daten sind noch verfügbar. Ich habe nun direkt eine neue Platte (WD Red, 3TB) bestellt und wollte nun mal nachfragen, wie ich am elegantesten die Daten von der "abnormalen" Platte die nur 2TB groß ist auf die neue 3TB Platte bekomme. Mir wäre es wichtig, das auch meine Konfigurationsdaten der Container/Linux Station erhalten bleiben.


    Soll ich die Migration auf dem NAS direkt durchführen oder lieber die Platten in einen anderen Rechner hängen?
    Reicht es die Daten via rsync zu kopieren oder muss mit dd oder ähnlichem ein Abbild erzeugt werden (falls ja, wie erweiter ich dann die Größe auf 3TB)?


    Vielen Dank im vorraus,
    Flo

    Bei Seafile mag das ja noch stimmen, aber BTSync hat eben einen "nicht Cloudansatz", sprich die Daten werden nur von PC zu PC (oder in deinem Fall von PC zu NAS) synchronisiert/übertragen.

    ja, denn der Name liftoff/gateone:latest steht für das Image. Damit du auf den Container zugreifen kannst musst du die Container ID nehmen. In deinem Beispiel also:
    docker exec -it 258227d3b616644f913fb5b361cc6b51b51e7fe0f441103a2a2e6a92d849a424 /bin/bash

    Naja ich nutze das Internet und die offizielle Docker reference Seite (https://docs.docker.com/v1.8/reference/commandline/cli/)
    Zu LXC kann ich gar nichts sagen, da ich bis auf die Linus Station damit noch nichts zu tun hatte.


    Ich würde den Container einfach starten und dann der Einfachheit halber das Terminal der Container Station nutzen. Falls du doch den exec Befehl nutzen willst, teste mal statt liftoff/gateone die ID des Containers. Die kannst du dir mit docker ps anzeigen lassen.

    #startet normal, taucht auch (2x) in der ContainerStation auf, wovon einer läuft (fervent_curie)

    In dem angehangenen Screenshot steht aber bei runnig eine 0, also startet der nicht normal. Geb den run Befehl mal noch den Parameter -d mit, damit der Conatainer auch weiterläuft, oder hast du den bewusst mit Ctrl+C abgebrochen?

    Den netstat Befehl kannst du entweder über das Container Terminal der Container Station aufrufen, oder du startest dir via docker exec -it liftoff/gateone:latest /bin/bash eine bash Sitzung innerhalb des Containers.

    Dann muss vermutlich wirklich noch etwas an den LAN Einstellungen des Containers vorgenommen werden. Bei mir klappt das Verbinden auf die Lokale IP Adresse auch nicht. Auf andere Geräte im LAN kann ich mich jedoch problemlos anmelden.
    Ich habe mich gerade nochmal schlau gemacht und bin auf dieses Issue gestoßen: https://github.com/docker/docker/issues/1143
    dort wird soweit erklärt dass es an der IP Adresse des Containers liegt. Weiter unten taucht der Befehl


    Bash
    netstat -nr | grep '^0\.0\.0\.0' | awk '{print $2}'

    auf mit dem man die IP des Hosts ermitteln kann.
    Ein kurzer Test ob ich mich auf diese IP verbinden kann war erfolgreich, ich kam ohne Probleme auf das NAS.

    Ich melde mich lokal immer über die DynDNS Adresse an, da das bei mir immer geklappt hat, habe ich mich noch nicht mit weiteren Details/Freigaben beschäftigt. In 80% der Fälle nutze ich den Dienst um mich auf "fremde" Server zu verbinden.

    ja das stimmt natürlich, ich hatte die Ports nicht mehr so genau im Kopf.docker run -p 553:8000 liftoff/gateone:latest sollte dir den Port 553 des NAS auf den Port 8000 des Containers binden.

    naja du musst zumindest die Portweiterleitung vom Container zum Host angeben, sonst kommst du nicht auf den Webservice. Stell also bei der Containererstellung eine Portweiterleitung von 553 nach 553 ein, oder starte den Container über die Kommandozeile mit: docker run -p 553:553 liftoff/gateone. Dann sollte der Zugriff klappen.

    Die Anwendung selbst läuft als Webdienst. Du musst also nur in einem Browser deiner Wahl die URL mit dem entsprechenden Port (den du beim Erstellen des Conainers gemappt hast) aufrufen. Zum Beispielhttps://IP_DES_NAS:553wenn du beim erstellen des Containers den Port 553 auf den von GateOne bereitgestellten Port 553 gemappt hast.

    Ja, diese "erweiterten Funktionen" funktionieren in der Container Station noch nicht unbedingt gut. Auch das Ändern von Ordnerfreigaben ist soweit ich weiß nicht möglich.
    Der workarround ist die entsprechenden Container einfach über die Kommandozeile zu starten. Einmal gestartet, können diese dann über die Container Station zumindest angehalten/neugestartet werden.

    Ich glaube für die GateOne spezifischen Sachen sollte ein neuer Thread aufgemacht werden, da das hier sonst zu unübersichtlich wird.
    Ich habe in meinem Backupskript nochmal nachgeschaut: die Jobdefinitionen sind in der Datei /etc/config/qsync/extdrv.conf ersichtlich. Ein dort gespeicherter Job kann dann z.B. via
    qsync -J:Job66 -C:/etc/config/qsync/extdrv.conf ausgeführt werden.

    muss nur das Script von dem Container aus erreichbar machen. ContainerStation hat ja so ein Terminal integriert...

    naja ja und nein. Wenn du innerhalb eines Containers das Skript starten würdest, würde es auch nur in dem Container laufen und du müsstest also alle entsprechenden Verzeichnisse die du im Backup sichern möchtest in den Container reichen, was vermutlich etwas zu umständlich ist.
    GateOne hätte ja nur die Aufgabe übernommen dich per SSH direkt auf das NAS zu bringen.


    Das Starten der Backups läuft wie gesagt über den Befehl qsync. Dort musst du dann mit dem Parameter -J die ID des in der WebGUI erstellten Backupjobs angeben. Wie man die am Besten identifiziert weiß ich leider auch nicht mehr aus dem Kopf.

    Du kannst dir Seafile oder BTSync mal anschauen. BTSync gibt es als offiziellen qpkg von Qnap und läuft bei mir schon seid ca. 1,5 Jahren ohne Probleme unter Windows 7/10, diversen Linux Distributionen und Android.