Beiträge von no1dea

    Danke für den Hinweis! Da kam bei mir zwar, dass die Namen der Datenbank identisch sein müssen, was es schwierig macht, die alte für den Fall der Fälle aktiv zu lassen, aber dann geht das halt nicht. Auch nicht schlimm.
    Das Autostart-Problem, konnte ich bisher nicht lösen, aber da die QNAP nur jedes Wochenende herunterfährt, reicht in meinem Fall erstmal die Container mit crontab jeden Montagfrüh zu starten.
    https://www.blattertech.ch/202…njob-auf-qnap-einrichten/
    Also habe ich der crontab-Datei einfach das hinzugefügt:

    Code
    00 7 * * 1 /share/CACHEDEV1_DATA/.qpkg/container-station/bin/docker start davincipostgresql_postgres_1
    01 7 * * 1 /share/CACHEDEV1_DATA/.qpkg/container-station/bin/docker start davincipostgresql_phppgadmin_1

    Ich habe auf die Art und Weise vor einem Jahr die Davinci_PostgreSQL-Datenbank erstellen können. Danke dafür!
    Dort sind jetzt auch schon viele Projekte gespeichert.
    Ich habe nur zwei Probleme damit
    1. Sie startet nicht automatisch, sodass ich sie händisch nach jedem Boot starten muss. Ich habe schon probiert mit Runlast (https://github.com/OneCDOnly/RunLast) die Container per sh-Datei starten zu lassen, aber das funktioniert auch nicht.
    2. Allgemein fehlt mir das Verständnis, wie das alles funktioniert. Es sind jetzt zwei Container und eine Anwendung, die man aber nicht nachträglich bearbeiten kann. Wenn ich sie neuanlegen wollen würde, wüsste ich bspw. nicht, wie ich die Daten behalten kann.

    Kann man sich irgendwo informieren wie das funktioniert? Wo findet man die wichtigsten Log-Daten auf der Qnap für so etwas?

    Schöne Grüße
    no1dea
    PS: Sorry, aber ich kenne mich mit Datenbanken überhaupt nicht aus und habe einfach nur die Anweisungen befolgt.

    Verwendet jemand Snapshots im Quts Hero?

    Wenn ja, werden sie bei euch in der Übersicht angezeigt, wie damals im QTS?
    Ich verwende sie auf einer TS-873A (16GB RAM 13% ausgelastet), aber ich sehe nicht die Belegung auf dem System.
    eigentlich sollte sie auch diese viel länger aufbewahren. Tun sie aber nicht, obwohl genug Platz ist.

    Ich dachte das wäre vielleicht ein Fehler im QUTS, das irgendwann gepatcht wird, aber es hat sich seit über einem halben Jahr nichts daran geändert.
    Der Quts-Pool ist als Thin angelegt und der QTS als Thick. Könnte es damit zu tun haben?
    Beste Grüße

    Es scheint auch an der RAM-Größe zu liegen. Folgendes kam von QNAP zurück:


    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    Zitat von QNAP Support

    This customer has 32GB RAM, and the number of dedup entries has exceeded 110 million. With a 32G RAM machine, the value can only reach near 50 million. Now it has more than doubled the dedup table, so the newly written data cannot be dedup. in this state, prune will also run for a long time, and cause txg slow, and currently it is impossible to use prune to clear infrequently used.
    For now, it is recommended that customers use fast copy to have the same effect as dedup, and it is faster, but the limitation is that it cannot cross datasets.

    Hallo zusammen,

    weil vor kurzen fehlerhafte Daten unbemerkt gebackupt wurden, wollte ich meine Backup-Strategie überdenken. Es handelt sich um 100-150TB Daten. Pro Monat kommen ca. 5TB dazu.

    So sieht momentan meine Strategie aus:

    Wie sieht eure Backup Strategie aus?
    Ich möchte am liebsten Backup-Zustände ein Jahr lang rückgängig machen können, falls mir auffällt, dass Daten plötzlich nicht mehr geöffnet werden können, ohne super viel Speicherplatz zu verbrauchen.
    Was ist dafür die beste Methode?
    - Snapshot auf dem Quell-NAS? Sind die Snapshots bei einer Hardware-Verursachten Datenbeschädigung, dann auch auf dem früheren Snapshots beschädigt? / (Nur die aktuellste Version wird gebackupt)
    - Snapshot Replica auf einem Backup-NAS statt HBS 3 RTRR-Backup?
    - Snapshots auf einem Backup-NAS?
    - Netzwerkpapierkorb auf Backup-NAS?
    Am liebsten so, dass wenn ich bestimmte Projekte/Ordner, nach einem Funktions-Check vom Quell-NAS auf einen anderen Ort verschiebe, auch nicht mehr Speicherplatz auf dem Backup einnehmen. Ich sie also manuell von der Versionierung für immer ganz löschen kann. (Damit dafür kein Speicher mehr benötigt wird)
    Pro Tag/Woche/Monat, sollte eine Version genügen. (Also ca so pro Woche 1111111,1------,1------,1------,1-------,1------,-------,-------,-------,1------,.......)

    Wie macht ihr das?

    Und gibt es eine Zuverlässige Methode beschädigte Daten frühzeitig zu erkennen, bevor sie im Backup überschrieben werden? Der Datenintegritätscheck scheint vielversprechend zu sein, aber ab wann gelten sie als "beschädigt"? Ich vermute nur, wenn sie nicht mehr dem Backup entsprechen, aber woher weiß es, dass nicht die Quelle statt des Backups beschädigt ist?

    Ich hoffe jemand, versteht meine Problematik, hat einen Überblick der Vor- und Nachteile (oder weiß einen erklärenden Link) und kann mir da Ratschläge geben ohne, dass ich viele neue Festplatten kaufen muss.

    Danke schon mal
    Beste Grüße

    PS: Ich weiß: Nur ein Backup zu haben, ist nicht ratsam, aber bei so großen Datenmengen und der geringen Wahrscheinlichkeit, der späteren Notwendigkeit der Daten, sehe ich den Kosten/Nutzen-Aufwand für ein 3. Backup als fraglich. Wer will, kann mich auch vom Gegenteil zu überzeugen.

    Hallo zusammen,
    weil vor kurzen fehlerhafte Daten unbemerkt gebackupt wurden, wollte ich die Datenintegritätsprüfung jetzt einmal wöchentlich durchführen.
    So sieht momentan meine Strategie aus:

    Wie sieht eure Backup Strategie aus?
    Jetzt werden dort seit geraumer Zeit im Protokoll immer wieder ein paar Dateien aufgelistet die im Ziel und Ausgangsort gar nicht mehr vorhanden sind. Mit dem Vermerk "missing File". Die besagten Dateien, habe ich aber bewusst gelöscht und brauche sie nicht mehr.
    Also ignoriere ich diesen Protokoll-Eintrag einfach bis in alle Tage?
    Und laut der Dokumentation wird im Anschluss einer Datenintegritätsprüfung die Beschädigungen automatisch repariert. Nicht so, wenn man zwischen zwei NAS ohne QuDedup prüft. Vielleicht auch ganz gut, damit ich bei fehlerhaften Daten selbst checken kann, welche der beiden beschädigt sind. Backup oder Original.
    Überschreibt man dann die entsprechenden Daten einfach händisch? Hat jemand damit in der Praxis Erfahrung?

    Danke schon mal!
    Beste Grüße

    Mit HBS 3 via RTRR ohne QuDedup, ohne Versionierung.

    von 1x Produktions-NAS_01 TVS-872XT RAID 5 8xIronWolf Pro 16TB

    und 1x Produktions-NAS_02 TS-873a RAID 5 7xExos 18TB

    zu

    Backup-NAS TS-873 mit TLD800S 13HDDs in RAID 0 weil verschiedene Kapazitäten (170TB) in anderer Wohnung über 10Gbit Netzwerk.

    An jedem Wochentag abends schaltet sich der Backup-Server ein und automatisch aus, wenn das Backup fertig ist.

    Lokale Snapshots und der Netzwerk-Papierkorb wurden einen Monat lang aufbewahrt.

    Wir nutzen die NAS geschäftlich ausschließlich zum Speichern von Video-Projekten.

    Ein Projekt kann paar GB oder bis zu 2 TB groß sein. Nach ca. einem Jahr, wird ein Schwung Projekte auf "Cold" Archiv HDDs ausgelagert(ohne Backup), falls Kunden alte Projekte angepasst haben wollen.

    Dass diese Strategie nicht optimal ist, sieht man daran, dass wir vor kurzen beschädigte Projekte festgestellt haben, die vor mehr als einem Monat beschädigt wurden. Die wurden so natürlich auch gebackupt und sind jetzt hinüber.

    Darum bewahre ich jetzt vorerst auf allen NAS(Produktion+Backup) Snapshots ein Jahr lang auf und mache jedes Wochenende einen Integritätscheck. Ich befürchte aber, dass der Speicher spätestens nach dem nächsten Archivieren zur Neige gehen wird. Ich muss mir da noch etwas Besseres überlegen.

    Oh!

    Ich glaube mein Fehler war, dass ich den Freigabeordner auf Thick gestellt habe!
    Nun, wo er zu Thin konvertiert wurde, funktioniert es, glaube ich.
    (Hätte man bei dem Schalter in den Einstellungen nicht darauf hinweisen oder ihn ausgrauen können?)

    PS: Wenn ich bspw. mit 25 GB RAM 10TB HDD spare, reicht das voll aus.

    Ich habe einen 32GB Kingston Server Premier DDR4-2666 SO-DIMM CL19 Single.
    Bis jetzt habe ich das Problem aber noch nicht lösen können.
    Kleine Folder werden auch nicht dedupliziert.
    Ich habe ein Support-Ticket eröffnet. Qnap wird demnächst was mit Fernwartung probieren. Ich bin jetzt aber erstmal über eine Woche im Urlaub und werde mich erst danach darum kümmern.

    Hallo zusammen,


    wir haben bei uns große Projekte mit viel Videomaterial. Wenn wir ein neues Projekt anlegen, was das selbe Material verwendet, kopieren wir diese großen Daten meist einfach, damit wir bei einer späteren Archivierung die Ordner unbesorgt auf auslagernde Festplatten kopieren können.

    Nun dachte ich, das wäre ein Grund, Quts Hero mit Deduplikation dem QTS vorzuziehen.

    Irgendwie hat das aber keinerlei Auswirkung.

    Ich habe via HBS-Synchronisation die Daten von einem anderen NAS auf das mit QuTS kopiert, keine Datenersparnis.

    Ich habe einen 6TB großen Ordner innerhalb des neuen Freigabeordners einfach mal in das selbe Verzeichnis kopiert, keine Datenersparnis. (Siehe Anhang; vor und nach Kopieren)

    Ich dachte dafür sei Deduplizierung gedacht, oder verstehe ich da etwas falsch?

    Ich verwende eine TS-873a mit 32GB ECC-RAM und 7x18tb HDD's

    Danke für jeden Input
    Beste Grüße
    noIdea

    Hi zusammen,
    ich bin gerade dabei ein Backup meines 80TB NAS zu machen(mit HBS via RTRR über 10 GbE RJ45 auf ein zweites NAS, ohne Komprimierung/Dedup). Mir fällt gerade auf, dass im Resourcenmonitor das RAID vom SSD-Cache(nur Read, Alle E/A, 2x1tb m.2) heiß läuft. Also hohe Schreib- und Lesevorgänge stattfinden, ohne dass ich etwas anderes mache.
    Könnte es sein, dass bei einem Backup sämtliche Daten auch in den Cache geladen werden?
    Ist das aber nicht voll dämlich? Normalerweise wird der Abruf sämtlicher Backupdaten doch nicht ein zweites mal benötigt.
    Daher wäre es vermutlich klüger, den Cache während des Backups zu deaktivieren... Schon allein, damit die Lesegeschwindigkeit höher ist, oder? Zukünftig wollte ich allerdings einmal am Abend das Backup auf den neusten Stand bringen.
    Ihr kennt nicht zufällig eine Methode, das Cache-Beschreiben bei einem HBS-Backup außen vor zu lassen? Wie macht ihr das so?
    Liebe Grüße
    No1dea

    Danke! Ich habe die IP's jetzt so angepasst, damit der "komplexen Algorithmus" von QNAP die stark befahrenen Links nicht gleichzeitig verwendet. Die Erläuterung wie das funktioniert, hat mir sehr weitergeholfen.