Beiträge von trebur

    Hallo ,

    bin gerade dabei auf QTS 51.xx zu migrieren und eine docker Applikationen auf Contaner Station 3 zu testen hier musste ich schon mal feststellen das es kein docer-compose mehr gibt und ein symbolischer Link


    ln -s /lib/container-station/wrapper/usr-bin-elf* docker-compose


    hilft da nicht weiter hat da jemand eine Lösung ?


    Eine weitere frage im Container Station 3 gibt es die Möglichkeit in Applications eine yml Datei auszuführen aber bei „Create application --> Upload –> local QNAP Device“ zeigt er mir nicht alle Verzeichnisse an weis da jemand rat ? Ich hab alle Verzeichnisse freigegeben auf die ich zugreifen möchte und kann sie auch im Finder(mac) oder explorer(windows) mounten auch sichern geht über HBS3 Nur bei „Select a Docker Compose File“ taucht das Verzeichnis nicht auf ?

    Hallo,

    kennt jemand eine Methode wie man die Backup- und Synchronisationsjobs von HBS3 vernünftig Dokumenieren kann. So was ein CVS Export oder ähnliches wäre hilfreich. Screenschots sind hier nur eine Notlösung. Gerade wenn man von enen auf einen anderen Server umzieht bzw. nach einem Crash wieder restauriert etc... :?:

    Hallo Zusammen,

    ich hatte auch die Probleme mit DNS Auflösung...

    habe deshalb ein ticket bei QNAP eröffnet das ist die Antwort

    Zitat von QNAP Support

    vielen Dank für Ihre Nachricht. Bitte IP v6 in der Konfiguration der benutzten Schnittstelle deaktivieren
    -> Netzwerk & virtueller Switch -> Schnittstellen -> drei Punkte -> Konfiguration
    bzw.
    -> Netzwerk & virtueller Switch -> virtueller Switch -> drei Punkte -> konfigurieren
    Dies ist ein Problem in der aktuellen Firmware an einer Behebung wird bereits gearbeitet.

    nachdem ich das durchgeführt habe läuft wieder alles... durchstarten ist nicht notwendig. Wichtig auch bei virtuellen Switchen muss das IPV6 deaktiviert werden....

    tja.. wäre eine Lösung wenn ich beim Sicherungsmanager geblieben wäre ... bin aber nicht. Bei HBS3 gibt es keine Möglichkeit ein RTRR Job remote zu Triggern. So zumindest die Aussage von QNAP.

    Wenn man sich die Prozessliste bei einem Backup anschaut findet man auch keinen Prozess der das Backup durchführt. Es gibt nur eine Reihe von Server Prozesse die irgendwie getriggert werden.

    Was nicht verstehe ist

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Die Zitat Funktion des Forums richtig nutzen

    Mein Backup NAS startet über den Zeitplan Dienst, beginnt mit dem Backup Job und fährt später wieder herunter.

    meinst du fährst den Backup server hoch und startest du auf dem Aktiven Server dein Backup ? Das Problem ist bei der Vorgehensweise das man bei Änderungen immer zwei Zeittafeln abstimmen muss (bei mir 4 da ich zwei Aktive Server habe) so habe ich es eine Zeitlang gemacht aber bin dann immer wieder durcheinander gekommen. Jetzt kann beliebig viel Server auf dem Backup sichern ohne das ich mich um die anderen kümmern muss. (vielleicht ein Luxusproblem)

    du meinst sicher "Geplantes Neustarten/Herunterfahren verzögern ....." im Energiezeitplan... auch hier muss zwei Termine aufeinander Abstimmen.

    Zusätzlich habe ich ein Fehler bei der Dedup bekommen Fehlermeldung

    Code
    "[Hybrid Backup Sync] Failed to complete Backup job: "Saturn2Jupiter". Destination NAS does not support QuDedup. Check the RTRR server connection settings and verify if HBS is updated to version 3.0 or later on the destination NAS.. Check logs for more information."


    als ich das Häckchen rausgenommen habe lief es wieder Problemlos.


    War zwar Aufwand aber läuft gut und ich in QNAPS OS Helferlein Einblick bekommen

    zur Info ich habe das Problem des Stati von HBS3 Job's gelöst der offizielle Weg ist über den event log zu gehen. Dieser liegt in /etc/logs/event.log und ist anscheinend in SQLite format ... muss einem aber nicht interessieren das es dazu ein tool gibt nämlich /sbin/log_tool mit dem man das event log abfrage kann z.B.

    /sbin/log_tool -q -s 0 -v N "Hybrid Backup Sync" sämtliche Einträge die HBS3 betreffen herauszufiltern und viele weitere Funktionen einfoch spitze.

    Man kann z.B. auch eigene Meldungen Anlegen

    /sbin/log_tool -t 2 -a "meine eigene Meldung"

    legt man einen Fehler im event log an und wenn man im Notification center oder Q'center eine Fehlerbenachrichtigung angelegt hat, bekommt man auch einem Email dazu.

    Hallo zusammen,

    Ich hätte da eine Frage an die Allgemeinheit.

    Kurz zur Situationsbeschreibung: Ich habedrei Qnap’s, wobei einer davon als reiner Backupserver für die anderen zwei Server dient. Damit der Backupserver nicht die ganze Zeit läuft, habe ich ein Script geschrieben, dass jeweils auf den zwei aktiven Servern läuft. Beim Backup erfolgt folgender Ablauf

    i) Script: (startet periodisch 1 mal am Tag ca. 15 min vor dem HBS 3 backup) schaltet den Backupserver über WOL an

    ii) Script: checkt ob der Backup servers sauber hochgefahren ist und ob der RTRR Serverprozess läuft

    iii) HBS3: (ca. 15min später) da ich bis dato keine Methode gefunden einen RTRR Backup über CLI zu starten, Startet der RTRR Backup Job, tägliche Einplannung über HBS3

    iv) Script: Prüft den Status des jobs (Logt die Startmarke, Stopmarke eventuelle Fehlermeldungen)

    v) Wurde die Stopmarke gefunden dann prüft der aktive Server ob auf dem Backupserver ein weiterer RTRR , rsync oder Qsync Job läuft, wenn nicht schaltet er den Backupserver ab, ansonsten beendet sich das Script ohne etwas zu tun.

    vi) wird Stopmarke nicht erreicht läuft das Script in ein Timout und macht dann die gleiche Prüfung analog v)

    Also die ganze Sache läuft bei mir seit über eine Monat problemlos. Damit die zwei aktiven Server sich nicht gegenseitig den Backupserver abschiessen in v) und vi) benutze ich die gleichen Befehle wie Qnap zur verzögernden Abschalten in „Leistung => Energiezeitplan“ da bin ich Safe.

    Aber bei iv) Status des Job’s ermitteln habe ich mir schwer getan, ich habe dazu einen Call bei Qnap aufgemacht leider ohne Erfolg.

    Nach langem suchen habe das Joblog

    /share/CACHEDEV1_DATA/.qpkg/HybridBackup/CloudConnector3/job_log.db gefunden in dem der Status des Jobs festgehalten wird und das ich auswerte. Aber da es sich um eine ‚inoffizielle‘ Schnittstelle handelt beschleicht mich das Gefühl, dass bei irgendeinem Upgrade ich wieder anfangen werde zu suchen .. Deswegen die Frage: Hat sich jemand mit dem Problem ermittelt der Stati auseinandergesetzt und weis eine bessere Lösung ? Auch an dem Starten eines definierten HBS 3 Jobs per CLI wäre sehr interessiert ;)

    schon mal vielen Dank im Voraus:)