Beiträge von 26196008

    Mod: Unnötiges Volltextzitat gekürzt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    Wie sind denn dort die Einstellungen :/

    Hier sind die Einstellungen:

    pasted-from-clipboard.png



    @tiermutter Noch habe ich den Job nicht neu erstellt, da ich die Ursache des Problems finden möchte. Ich habe insgesamt 14 Jobs und möchte ein funktionierende Konfiguration bzw. ein funktionierendes Backup, auf das ich mich verlassen kann :(

    Da mein Zitat oben entfernt wurde, nochmal im Fließtext meine Antwort auf QuDedup --> Nein, ich nutze kein QuDedup


    Inzwischen verzweifle ich hier wirklich. Ich habe nun die Option "Nur aktualisierte Dateien sichern" deaktiviert. Und nun werden bei jedem Backup 47271 Dateien / 21,15 GB transferiert, aber die Daten sehe ich noch immer nicht in der Cloud.

    Dort ist noch immer die alte Struktur, Und Onedrive zeigt auf dem Hauptordner 6,46 GB an:

    pasted-from-clipboard.png


    Unter Linux werden mir 47352 Dateien in dem Ordner angezeigt. Heißt die Anzahl der übertragenen Dateien stimmt ungefähr.


    Wie kann ich prüfen, von wo nach wo HBS die Dateien überträgt?

    Mod: Unnötiges Volltext-/Direktzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen


    Nein


    Die Datenintegritätsprüfung läuft nun. Ich bin gespannt und werde berichten

    Leider hat die Maßnahme nichts gebracht. Um 12:45 ist die Datenintegritätsprüfung losgelaufen, Ergebnis:

    Code
    "No issues found"


    Das Backup danach hat die Daten nicht korrigiert. Auch eine Schnellprüfung um 20:45 hat verständlicherweise nichts gebracht :(


    23.png


    Das kann doch echt alles nicht wahr sein.


    Auch die alten Dateien wurden nicht gelöscht, obwohl die Umstrukturierung deutlich länger als 60 Tage her ist


    Hat sonst noch jemand eine Idee?

    Wähl einmal in HBS bei deinem Backup-Job unter Regeln -> Richtlinien den Punkt "Dateiinhalte prüfen" aus und starte den Job erneut. Der Job dauert jetzt ewig, sollte aber die Änderungen erkennen. Wenn der Job einmal gelaufen ist, kannst du "Dateiinhalte prüfen" wieder rausnehmen. Bei mir war dann der Verschlucker weg und danach wurden Änderungen der Datei wieder erkannt.

    Die Datenintegritätsprüfung läuft nun. Ich bin gespannt und werde berichten

    Meine Erwartungshaltung ist schon, dass ein Veränderung der Struktur unterhalb des Hauptordners von einem Backup-Tool realisiert wird. Da benötigt man keine KI und dies konnten schon Tool vor 20 Jahren. Ein klassisches Compare-Tool wie MidnightCommander ist zum Abgleich problematisch, da das Backup in der Cloud ist und mir nicht bekannt ist, wie ich MidnightCommander mit der Cloud verbinden kann.


    Hier noch Screenshots der Konfiguration:

    1.png 2.png 3.png 4.png 5.png 6.png 7.png 8.png 9.png 10.png 11.png 12.png 13.png

    Vielen Dank für den Hinweis. Leider hat mich der HBS Debug Log nicht weitergebracht.


    Gott sei Dank konnte ich die benötigte Date anders rekonstruieren, aber es kann doch echt nicht sein, dass man sich nicht auf die Jobs verlassen kann. Ich fand es unabhängig davon schon immer total unbrauchbar, dass man nicht einzelne Ordner aus einem Backup exkludieren kann.


    Was nutzt ihr denn für ein Backup?


    Bei mir soll das erste Backup auf eine ext. Platte gehen und das zweite Backup in die Cloud (Office 365)

    Hallo zusammen,


    ich wollte gerade etwas aus einem Backup wiederherstellen und habe festgestellt, dass HBS ein Backup als erfolgreich gekennzeichnet hat, aber der Inhalt total veraltet ist.


    Mein Job ist wie folgt konfiguriert:

    Quelle "Local NAS" und 1 folder selected --> /DataVol1/Docker

    Target "Office365" und 1 Pfad als Ziel


    Zum Zeitpunkt der Erstellung des Jobs sah meiner Verzeichnisstruktur wie folgt aus:

    1. /DataVol1/Docker/Container 1/configuration
    2. /DataVol1/Docker/Container 1/volume
    3. /DataVol1/Docker/Container 2/configuration
    4. /DataVol1/Docker/Container 2/volume
    5. /DataVol1/Docker/Container 3/configuration
    6. /DataVol1/Docker/Container 3/volume


    Irgendwann habe ich dann die Struktur verändert und diese sieht nun wie folgt aus:

    1. /DataVol1/Docker/configurations/Container 1
    2. /DataVol1/Docker/configurations/Container 2
    3. /DataVol1/Docker/configurations/Container 3
    4. /DataVol1/Docker/volumes/Container 1
    5. /DataVol1/Docker/volumes/Container 2
    6. /DataVol1/Docker/volumes/Container 3

    Nur sehe ich in meinem Ziel weiterhin die ursprüngliche Verzeichnisstruktur mit all den alten Daten und alles Neue fehlt :(


    Letztes Backup am 20.02.2024 01:15 --> Success


    Wie kann das sein?

    Hat jemand eine Idee?


    Viele Grüße

    Marc

    Hallo zusammen,


    seit der letzten Version starten meine Docker Container nicht mehr.


    Beim Start des Containers habe ich folgenden Fehler erhalten:

    Code
    Background task error for application_custom schneckenISpy: Error: open /sys/class/net//ifindex: no such file or directory

    Da ich nicht mehr weiter wusste, habe ich Container Station komplett deinstalliert und danach neu aufgespielt.


    Danach hatte ich dann doch noch etwas gefunden und zwar musste mein Docker Netzwerk anderes erstellt werden.

    Ich musste folgendes in meiner docker-compose.yml im Bereich "networks" hinzufügen:

    Code: docker-compose.yml
            driver_opts:
              iface: "bond0"


    Hiernach konnte ich einen Container neu erstellen, aber bei allen anderen erhalte ich timeout Fehler:

    Code: Errorlog
    Background task error for application_custom schneckenHausAutomation: ERROR: for schneckenhausautomation_mariadb_1 UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60) ERROR: for schneckenhausautomation_mqtt_1 UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60) ERROR: for mariadb UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60) ERROR: for mqtt UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60) An HTTP request took too long to complete. Retry with --verbose to obtain debug information. If you encounter this issue regularly because of slow network conditions, consider setting COMPOSE_HTTP_TIMEOUT to a higher value (current value: 60).


    Wie kann ich den Timeout in Qnap erhöhen?


    Auf der Console habe ich schon folgendes eingegeben und die Container Station neu gestartet:

    export COMPOSE_HTTP_TIMEOUT=380

    export DOCKER_CLIENT_TIMEOUT=380


    Leider hat dies nicht den gewünschten Erfolg gebracht.


    Zusätzlich frage ich mich, ob irgendwelche Netzwerkeinstellungen durch die Neuinstallation verloren gegangen sind.

    Ich hatte früher nie Probleme mit einem Timeout


    Hat jemand eine Idee?


    Vorab vielen Dank für Eure Unterstützung

    Grüße

    Marc


    Nach einen Rollback auf Version "container-station_2.4.4.368_amd64" funktioniert wieder alles, aber das kann doch nicht dauerhaft eine Lösung sein oder?

    Hallo zusammen,


    leider hat sich das Filesystem meines NAS total zerschossen. Jetzt muss ich das NAS aus einem Backup komplett neu aufbauen, würde aber gerne die Einstellungen meiner beiden VM's retten.


    Kann mir jemand sagen, wo die Einstellungen abgelegt sind?


    Vorab vielen Dank!
    VG
    Marc

    Ich habe ein Backup, aber es muss doch eine Möglichkeit geben, die Daten wiederherzustellen.


    Habe festgestellt, dass jeder dieser Ordner in "lost + found" einen Unterordner aus dem ursprünglichen /share/CACHEDEV1_DATA darstellt. Nur der Name ist falsch.


    Hat keiner eine Idee?

    Hallo zusammen,


    gegen Mittag habe ich mehrere Emails bekommen mit der Nachricht "Re-start processs nvrd(2)".


    Daraufhin habe ich das NAS über die Oberfläche neu gestartet.


    Nach dem Neustart habe ich dann folgende Fehler im Ereignislog gefunden:

    Code
    [Volume DataVol1, Pool1] The file system is not clean. It is suggested that you go to Storage Manager to run Check File System[Volume DataVol1, Pool1] Volume is unmounted


    Hiernach habe ich dann das Volume prüfen lassen und danach wurde mir DataVol1 wieder als bereit angezeigt, aber leider waren immernoch keine Shares verfügbar und auch unter Linux konnte ich nicht zugreifen.


    Ein Neustart brachte dann wieder die Meldungen von oben im Log. Eine Wiederholung des Vorgehens brachte nichts.


    Ich nutze ein TS-563 mit FIrmware 4.2.0 vom 11.03.2016.


    Eingebaut sind 5 x 3TB-Platten als Raid 6.
    Der Zustand wird als gut in der Oberfläche angezeigt.


    Hoffe es hat jemand einen Hinweis, bin echt ratlos :(


    Vorab vielen Dank!


    Viele Grüße
    Marc


    --- ModEdit ---


    Habe gerade gesehen, dass der Mountpunkt /share/CACHEDEV1_DATA verfügbar ist und unter lost+found sind folgende Ordner:


    In diesen Ordnern scheinen meine Daten zu stecken.


    Hat jemand eine Idee?


    VG
    Marc

    4. Woche und 4. Woche am Dienstag nicht mehr erreichbar.


    Habe mal einen PingCheck heute laufen lassen.


    Auf dem Nas laufen noch 2 VM's


    1. VM war um Di 5. Apr 09:59:47 CEST 2016 nicht mehr erreichbar
    2. VM war um Di 5. Apr 10:00:15 CEST 2016 nicht mehr erreichbar


    Finde einfach nicht die Ursache :(


    Hat keiner mehr eine Idee?


    VG
    Marc

    Hab mal crontab geprüft, hier sind keine Jobs, die am Dienstagmorgen laufen.


    Mein Backup-Job um 10h ist wohl angelaufen, hat aber folgenden Fehler gemeldet:

    Code
    [2016/03/22 10:00:00] Maximum retry times: 3; Retry interval in seconds: 60; Connection timeout in seconds: 120; Current retry number: 0.


    /var/log/messages von meinem Zarafa-Server und meinem FHEM-Server auf dem NAS sind auch unauffällig. Waren aber zum Zeitpunkt des Ausfalls nicht mit ping erreichbar


    Hat keiner eine Idee, was ich noch prüfen kann? Kann doch nicht sein, dass das NAS Dienstags immer "abstürzt".