Snapshot / Snapshot Replica / RTRR Versionierung HBS 3 / Netzwerkpapierkorb ? Was bei großen Datenmengen verwenden?

  • Hallo zusammen,

    weil vor kurzen fehlerhafte Daten unbemerkt gebackupt wurden, wollte ich meine Backup-Strategie überdenken. Es handelt sich um 100-150TB Daten. Pro Monat kommen ca. 5TB dazu.

    So sieht momentan meine Strategie aus:

    Wie sieht eure Backup Strategie aus?
    Ich möchte am liebsten Backup-Zustände ein Jahr lang rückgängig machen können, falls mir auffällt, dass Daten plötzlich nicht mehr geöffnet werden können, ohne super viel Speicherplatz zu verbrauchen.
    Was ist dafür die beste Methode?
    - Snapshot auf dem Quell-NAS? Sind die Snapshots bei einer Hardware-Verursachten Datenbeschädigung, dann auch auf dem früheren Snapshots beschädigt? / (Nur die aktuellste Version wird gebackupt)
    - Snapshot Replica auf einem Backup-NAS statt HBS 3 RTRR-Backup?
    - Snapshots auf einem Backup-NAS?
    - Netzwerkpapierkorb auf Backup-NAS?
    Am liebsten so, dass wenn ich bestimmte Projekte/Ordner, nach einem Funktions-Check vom Quell-NAS auf einen anderen Ort verschiebe, auch nicht mehr Speicherplatz auf dem Backup einnehmen. Ich sie also manuell von der Versionierung für immer ganz löschen kann. (Damit dafür kein Speicher mehr benötigt wird)
    Pro Tag/Woche/Monat, sollte eine Version genügen. (Also ca so pro Woche 1111111,1------,1------,1------,1-------,1------,-------,-------,-------,1------,.......)

    Wie macht ihr das?

    Und gibt es eine Zuverlässige Methode beschädigte Daten frühzeitig zu erkennen, bevor sie im Backup überschrieben werden? Der Datenintegritätscheck scheint vielversprechend zu sein, aber ab wann gelten sie als "beschädigt"? Ich vermute nur, wenn sie nicht mehr dem Backup entsprechen, aber woher weiß es, dass nicht die Quelle statt des Backups beschädigt ist?

    Ich hoffe jemand, versteht meine Problematik, hat einen Überblick der Vor- und Nachteile (oder weiß einen erklärenden Link) und kann mir da Ratschläge geben ohne, dass ich viele neue Festplatten kaufen muss.

    Danke schon mal
    Beste Grüße

    PS: Ich weiß: Nur ein Backup zu haben, ist nicht ratsam, aber bei so großen Datenmengen und der geringen Wahrscheinlichkeit, der späteren Notwendigkeit der Daten, sehe ich den Kosten/Nutzen-Aufwand für ein 3. Backup als fraglich. Wer will, kann mich auch vom Gegenteil zu überzeugen.

  • Ich möchte am liebsten Backup-Zustände ein Jahr lang rückgängig machen können

    Also ist was Du brauchst ein versioniertes Backup...

    - Snapshot auf dem Quell-NAS?

    Das passiert ja blockbasierend, demnach sollte jede Beschädigung abgebildet sein sodass die funktionierende Datei wiederhergestellt werden kann. Da die Snapshots aber auf dem selben System liegen, kann es natürlich sein, dass sowohl Snapshot als auch die eigentlichen Daten zerstört werden.

    Vorteil: benötigt geringe Kapazität

    Nachteil: Kann mitsamt der "Originaldaten" zerstört werden, da im selben System

    - Snapshot Replica auf einem Backup-NAS statt HBS 3 RTRR-Backup?

    Das sind ja eigentlich nur ausgelagerte Snapshots, wodurch der Nachteil von lokalen Snapshots eliminiert wird.

    Vorteil: Die Snapshots können nicht mal eben mit den originalen Daten beschädigt werden, da sie sich in einem anderen System befinden

    Nachteil: Benötigt mindestens die Kapazität der zu sichernden Quellvolumes.

    - Snapshots auf einem Backup-NAS?

    Also von den Backupdaten (zB aus HBS) Snapshots anfertigen? Kann man machen, benötigt aber ebenfalls viel Kapazität, allerdings weniger als würde die Versionierung durch HBS (dateibasiert) erfolgen.

    - Netzwerkpapierkorb auf Backup-NAS?

    Das verstehe ich nicht... ;)

    Wie macht ihr das?

    Ich habe zwei versionierte Backups mit HBS und ein versioniertes Backup mittels Snapshot Replica. Einen "Funktions Check" gibt es sogesehen nicht, wenn eine Datei beschädigt ist die ich nicht oder zu selten verwende, dann kriege ich das nicht mit. Schlimmstenfalls ist die Datei dann schon so lange beschädigt, dass es keine funktionierende Version mehr in den Backups gibt.

    Und gibt es eine Zuverlässige Methode beschädigte Daten frühzeitig zu erkennen, bevor sie im Backup überschrieben werden?

    Ich denke nicht. Die einzige Methode wäre es die Datei selbst zu überprüfen, und zwar durch Öffnen und Betrachten des Inhalts. Eine KI wird kaum feststellen können, dass eine Datei beschädigt ist, denn dazu müsste sie ja wissen wie die Datei zu öffnen ist und woran sie erkennt, das der Inhalt auch korrekt ist. Die Integritätsprüfung prüft soweit ich weiß nur die Prüfsummen und vergleicht die Dateien... damit wird also nur sichergestelt, dass Quell- und Backupdatei wirklich identisch sind.


    Unterm Strich erfordern große zu sichernde Datenmengen halt auch viel Kapazität.

    Kapa einsparen lässt sich dabei nur mit lokalen Snapshots, halt mit dem bösen Nachgeschmack, dass die Daten bei einem Systemfehler und Co verloren sind. Wenn dieses Backup aber nur vor defekten Daten durch eigene Unachtsamkeit schützen soll, kann man das durchaus machen, denn nicht jedes Backup muss auch alle erdenklichen Fälle abdecken, wichtig ist halt, dass man für jeden erdenklichen Fall wenigstens ein Backup hat... das versionierte Backup muss also nicht zwingend auch extern gelagert sein.