Kaputte Mac OS Dateien nach Wiederherstellung aus Snapshot

  • Ich hab da jetzt so eine Idee, wie ich das gebacken bekomme:


    User Variag hat ja beschrieben, dass eine Datenkopie mit HSB per RRTR ohne Einschränkungen funktioniert. Das ist mal ein Ausgangspunkt.


    Mein Plan wäre es nun einen dicken Backup-Server (wie zB ein TS-832X mit 8x 8 TB HDs in RAID6) als Sync-Ziel für die beiden Arbeits-Server zu verwenden und dort ein einziges großes Thick-Volume einzurichten, wovon täglich lokale Snapshots angefertigt werden. Lokale Snapshots beschädigen ja die Extenden Attributes der MacOS-Dateien nicht.


    So hätte ich immer eine sofort verfügbare 1:1-Kopie der beiden Arbeitsserver und per Snapshot-Manager auch den punktuellen Zugriff auf ältere Dateiversionen, falls mal ein User etwas löscht oder drüberspeichert.


    Was meint ihr, ist das ein sinnvoller Ansatz?



    Alternativ bleibt mir nur übrig eine Vielzahl von 1:1-Kopien in sinnvoller zeitlicher Verschränkung anzufertigen und vorzuhalten. Z.B. je eine pro Wochentag Mo bis Fr, damit kann man bis zu 5 Tage zurückgreifen. Dazu jeweils am Samstag eine Kopie zu geraden und ungeraden Wochen (ergibt 7 bis 14 Tage Rückgriff, wie der Schadenszeitpunkt gerade fällt) und dann je eine für gerade und ungerade Monate jeweils am Sonntag (ergibt 1 bis 2 Monate Rückgriff). (Man kann das sogar noch weiterspielen bis zum Sankt-Nimmerleins-Tag ...)


    Dieses auf den ersten Blick etwas abenteuerliche Konstrukt erfordert Platz für 9 volle Backups von je 1,7 TB des SSD-Arbeitsvolumens, also ca. 15 TB. Macht für beide Arbeitsserver 30 TB, das geht sich also locker aus, es sollten bein einem RAID 6 gut 40 GB verfügbar sein.


    Der Vorteil des Systems ist: Es ist simpel und bedarf keiner besonderen Backup-Programmlogik. Es ist immer eine komplette Kopie der Arbeitsserver verfügbar, man kann frei navigieren und wird im Fall des Falles nicht unter Stress durch ein selten genutzes, ungewohntes Programm genervt.


    Sollte das Synchronisieren trotz HSB3 nicht klappen kann man das alles sogar übers Netzwerk mit Carbon Copy Cloner durchziehen. Läuft halt doppelt so lange, weil die Daten 2x übers Netz gehen müssen. So groß sind die Änderungsraten aber nicht, das tägliche Volumen sind ca. 10 bis 20 GB.



    Und vielleicht funktioniert Qsirch mit Spotlight ja irgendwann (QTS 4.4.x) mal? Mit den Alternativsuchprogrammen FindAnyFile und EasyFind kann man mal über die Runden kommen, wenn es nur um den Dateinamen geht und die Server per AFP gemountet sind.



    EDIT: Es gibt ein Update.


    Ein "Ein-Weg-Sync" mit HBS 3 Hybrid Backup Sync kopiert die Mac-Daten einwandfrei über das LAN, wenn unter "Regeln" und dort unter "Richtlinien" folgende Optionen angehakt sind:


    "Ausgeblendete Dateien und Ordner einbeziehen", "ACL und erweiterte Attribute replizieren". Sinnvoller Weise sollte man noch "Zusätzliche Dateien im Zielordner entfernen" anwöhlen, "Systemgenerierte temporäre Dateien ausschließen" ist per Default eh angehakt.


    Wegen der fehlenden Zugriffssteuerung sollte man das Backup auf Volumes ohne Snapshot-Möglichkeit tunlichst nicht während der Arbeitszeit laufen lassen.


    Danke an dieser Stelle an den User Variag, der mich auf die richtige Fährte gebracht hat.

  • Kleines Feedback aus der WIrklichkeit: Diese "etwas abenteuerliche Konstruktion" mit lokalen Snapshots einer entfernten Server-Kopie funktioniert prima. Inzwischen ein paarmal wegen Anwenderfehler benutzen müssen (Daten überschrieben), passt.


    Jetzt wäre nur noch schön, wenn Spotlight wieder so funktionieren würde wie man das als Mac-User kennt und erwartet, nämlich flink und gut.


    QSirch ist als eigenständige Anwendung mühsam und FindAnyFile wie auch EasyFind suchen ja nur in Dateinamen und auch nur, wenn die Freigabeverbindung über AFP hergestellt ist.


    Die beiden TS-431X2 erfüllen mit ihrem A15-Abkömmling völlig ausreichend ihren Zweck, sind aber deutlich zäher als das TS-832X mit dem A56-Derivat, welches auch am Netzwerk besser performt. Was mir an den kleinen Servern nicht so gut gefällt ist das externe Netzteil (mehr Kabelsalat, Wackelkontaktgefahr), dafür summt beim TS-832X mit seinen 8 HDs immer irgendein Teil bis man es "stupst".


    Auch bin ich mir aus heutiger Sicht nicht mehr ganz sicher, ob der SFP+-Netzwerkanschluss so zukunftssicher ist, 10 GBit Kupfer scheint mir doch mehr die Zukunft zu sein.

  • 10G LC ist der default Standard, für die letzte Meile wird jetzt das ganze auch über Kupfer kommen.


    Ab wenn die Möglichkeit besteht, ist LWL hier besser zu skalieren.

    Denn da tauschst du die SFPs und machst dann 25G oder noch mehr in Zukunft.

    Das wird über Kupfer nicht mehr kommen.


    Und über LWL geht das gleich mal bis 300m, ist das 10 fache von dem was andere Hersteller bei ihren 10G Base-T SFP+ angeben.

  • Hallo "Austro-Diesel"


    Habe ich das richtig verstanden?

    Du speicherst die Daten mit deinen MAC's auf den TS-431X2 via AFP oder SMB.

    Dann synchst du die Daten mit HBS/RRTR von den TS-431X2 auf die TS-832X.

    Auf der TS-832X machst du dann Snapshots.


    Wenn du dann eine gesicherte Datei benötigst, stellst du via Snapshot die richtige Version auf der TS-832X wieder her und kopierst sie via MAC wieder auf dein TS-431X2?


    Ich mache es ähnlich.

    Ich speichere meine Daten mit einem MAC via SMB auf einer TVS-672XT und mache dort Snapshots.

    Zusätzlich synche ich die Daten mit HBS/RRTR auf eine Synology. Auch dort mache ich wieder Snapshots von den synchronisierten Daten.

    Ich habe bis jetzt das Problem mit den veränderten MAC Dateien nicht festgestellt. Werde aber nun das Restoren noch einmal genau durchspielen.


    Gruss Mistered