Beiträge von Sumpfdotter

    EDIT: Kommando zurück. auch hier erwartet er ein lokal vorliegendes Image :-/

    Okay, ich hab es nicht ausprobiert, weil ich kein Update machen möchte. Aber es gibt doch "checkupdate". Das würde mit einem Image natürlich auch Sinn machen, aber die Doku dazu liest sich für mich eher wie ein Online-Check. Das widerrum roch für mich danach, dass man auch online updaten kann. Hm ...

    Code
    [~] # qcli_firmwareupdate -h
    QCLI 4.3.4 20180810, QNAP Systems, Inc.
    
      -v  --version,                             display the version of QCLI and exit.
      -h  --help,                                print this help.
      -u  --updatefirmware,                      update firmware.
      -c  --checkupdate,                         check if there is new firmware for update.
      -a  --autocheck,                           auto check if there is new firmware for update.
      -i  --firmwareinfo,                        firmware info.

    Sieht wieder nach defekten HTree-Einträgen aus: Sequentielles iterieren durch das Verzeichnis geht, aber selektiver Zugriff (Attribute ermitteln, öffnen, ...) geht nicht.


    Gibt es viele Einträge hier im Forum zum Stichwort "HTree".


    Hier ein Artikel von mir zum Retten unter Linux mit Read-Only-Zugriff - kann je nach Ursache klappen. Der Trick ist, einmal mit Linux das fsck auszuführen - empfehle aber, das eben so zu machen, dass die Schreibzugriffe nicht auf's Medium gehen.

    Das das OS nicht ummapped ist klar

    Hm, so klar ist das garnicht. Früher hat das Dateisystem umgemappt und sich hinter die Ohren geschrieben, welche Sektoren es besser meiden sollte. Bestimmt haben die meisten FSs solche Funktionen noch drin, denn vielleicht gibt es auch heute noch Medien, die nicht selber ummappen. (Disketten, ...)


    aber ganz von allein erkennt die HDD doch nix, ausser beim (Lowlevel) formatieren

    Naja, hast schon recht. Von nix kommt nix. Aber es muss nicht durch das "OS" oder Dateizugriffe erfolgen. Es gibt ja die Testroutinen. QTS bietet hierfür auch einen Scheduler an, um diese von Zeit zu Zeit anzustoßen.


    Lowlevel?? Hast Du echt noch ein QNAP mit MFM-Interface? 8|

    Also ich schaue eigtl. nur auf Reallocated_Sector_Count, und wenn da keine 0 mehr steht, wandert die Platte raus.


    Inzwischen schaue ich auch noch auf die Temperatur. Ich hab mit Seagate-Serverplatten Versuche gemacht, wo ich nachweisen konnte, dass nur wenige Grad oberhalb der Spezifikationstemperatur (in meinem Fall war das nahe 60°) sporadische Lese- und Schreibfehler auftreten. Nicht viel. Nur ein paar Bytes/TByte. Also fast nicht zu merken. Seither kaufe ich keine passiv gekühlten Gehäuse mehr.


    Reallocated sectors sind Bereiche auf der HDD die dass Betriebssystem

    Wenn Du mit Betriebssytem QTS meinst, damit hat das nix zu tun. Die Platte mappt Sektoren, die sie als falsch erkennt, selber um.

    :thumbup::thumbup::thumbup::beer:


    Daanke!


    Auf diese Erkenntnisse werde ich mich gerne stürzen. Das könnte ein Kasus Knacktus in einigen meiner Photostation-Problemen sein, und geht haar genau in die Richtung, wie ich das konfigurieren möchte.


    Ich wäre nie und nimmer von selber darauf gekommen, dass für die Photostation diese Berechtigungen relevant sind. Ich dachte, die wären nur für das Konfigurieren des Filesharings (z.B. samba-conf). Schon gar nicht auf dem Schirm hatte ich, dass man diese Art der Berechtigungen auch auf Unterordnern vergeben kann. Aber ich hätte es ahnen können. QTS hat ja diesen ACL-Patch ins ext4-Filesystem übernommen. Vermutlich sind das also Berechtigungen, die in ACLs gespeichert sind, und nicht in Filesharing-Konfigurationen oder Unix-Rechten.


    Toller Tipp!!!!

    Wenn allerdings bei den Zugriffsrechten des Ordners "Bilder" aktiv alle anderen Nutzer ausgeschlossen werden

    Hallo PundA-Server,


    hilf mir mal auf die Sprünge. Das klingt interessant, was Du schreibst. Aber was meinst Du mit expizit ausschließen? Kannst Du mal konkret werden? Welchem Owner und welcher Gruppe weißt Du Deiner Ordner zu, und welche Berechtigungsflags setzt Du genau (ich höre heraus: rw----r--)?


    VG

    Sumpfdotter

    WIE sicher ich TimeMachine vom NAS nochmals extern??

    Ich habe einen Weg gefunden: Ich lege einen Shared Folder "xxx" an, sicherheitshalber nur mit Lese-Rechten und ohne alles, was gefährlich ist, und mappe ihn aber im Ordner-Anlegen-Dialog nicht auf einen automatischen Pfad, sondern direkt auf den .timemachine-Ordner. Danach kann ich den Ordner normal ins Backup einbeziehen.

    Danke!!!


    Also dann könnte es der Snapshot sein. Den hab ich natürlich erstmal angelassen. Klingt ja auch sauber - ohne Snapshot wird's eigtl. auch kein zuverlässiges Backup ... jetzt muss die Nachteule sich nur überlegen, wie sie das testet. Denn erstmal lass ich glaube ich das manuelle Sync laufen. Merkwürdig, dass er trotzdem nur 30-40MByte/s schafft.

    Hallo,


    es gibt zwar den Parallel-Thread bzgl. eines viel zu langsamen Backups via Netzwerk. Allerdings habe ich das Problem auf mein USB3.0-Medium.


    Mein externes USB3.0-Medium (Ziel) habe ich mit QNAP als LUKS-verschlüsseltes "ext4"-Volume eingerichtet (1 Partition). Mein internes ist ein verschlüsseltes Static-Volume (Quelle). Wenn ich mit cp/rsync gearbeitet habe, habe ich bislang immer ca. 80-100 MByte/s erzielt. Nun benutze ich zum ersten Mal einen Backup-Job von der QNAP-App "Hybrid-Backup-Sync". Und der sichert mit gähnenden 3,8 MByte/s.


    10-25% Rechenleistung hängt er bei "kernel_processes". Könnte natürlich sein, dass er da mit einem Core voll am Verschlüsseln ist. Aber wieso hatte ich dann bei manuellen cp/rsyncs keine Geschwindigkeitsprobleme? Okay, zwischenzeitlich hab ich das Medium einmal neu initialisiert. Aber m.E. immer mit AES-256.


    Bildschirmfoto 2018-05-10 um 22.30.29.png


    Hat irgendeiner eine Idee, was man prüfen oder machen kann?



    VG

    Holger

    Auf einem NAS ist die Time Machine Sicherung eine große dmg-Datei

    Das kann ich nicht nachvollziehen. Auf dem NAS legt zumindest meine Mac-OS-Version 10.9.5 und alle die ich davor hatte ein Sparse-Bundle ab.

    Wenn Du diese Datei sicherst, wie stellst Du sicher, daß sie vor Beginn der Sicherung in Ordnung war

    Verstehe die Frage nicht ganz. Auf welche Art von Korruption zielst Du ab? Wenn ein Time-Machine-Backup läuft, zieht Mac OS eine Transaktionsklammer darum. Insofern sind die Dateien immer in Ordnung, zumindest so lange das QNAP keinen Müll sichert, so wie neulich. Wenn ich die nun wegsichere (was das QNAP mir bislang nicht leistet, aber darum geht es ja in der Frage), dann darf entweder zur gleichen Zeit kein Backup laufen (Moving Source), oder aber es muss eine Snapshot-Funktion verwendet werden.


    Lieber wäre es mir, Mac OS hätte ein Möglichkeit zu bieten, die Sachen Dateibasiert abzulegen. Dazu einen ordentlichen Offline-System-Installer mit Datenrecovery. Aber es muss ja alles Online und mit Registrierung usw. sein. Stirbt Apple, hilft nur noch: Hoffen, dass der Rechner niemals neu eingerichtet werden muss. Aber wir sind ja rattig genug, den Kram trotzdem zu kaufen. :)


    wie überprüfst Du, ob die Kopie nach der Sicherung in Ordnung ist

    Normalerweise mache ich nach dem Schreiben eines Backups immer noch ein Verify. Das hab ich mir angewöhnt, seid ich mal am eigenen Leib erfahren habe, wie Seagate-Server-Platten etwa 10 Bit / TByte nicht korrekt lesen und schrieben, wenn sie auf ca. 60°C hochgingen. Seither kaufe ich nur noch Gehäuse mit Lüfter - was bei USB-Gehäusen zu ulkigen Formen führt. ;) Bei QTS habe ich noch keinen Weg gefunden, ein Backup zu machen, geschweige denn, ein Verify. Das Backup dümpelt mit 4MB/s vor sich hin, will also 5 Tage brauchen. Ein Verify ist auch nicht dabei. Und weder die Systemordner (Fotostation usw.) noch der Time-Machine-Ordner ist aktuell dabei. Werde also wohl wieder ein eigenes Skript bauen müssen.


    Dazu hängt am Rechner noch eine 2,5" Platte auf der dann von Time Machine im Wechsel gesichert wird.

    Ja, ich hatte jahrelang auch meinen Mac nur über eine externe Platte gesichert. Denn der Mac ballert das komplette Quota voll, ist gähnend langsam über's Netz und das Recovery über Netzlaufwerk war auch kein Zuckerschlecken. Inzwischen ist das glaube ich besser geworden. Aber hauptsächlich kann ich es mir nicht mehr leisten, dem Mac eigenene Medien zu spendieren. Das NAS muss das mittragen. Dafür ist es ja auch angeschafft worden.


    Ja genau, den Timemachine Ordner freigeben, dann lässt er sich auch wie alle anderen Ordner sichern

    Äh BITTE BITTE :) Werde mal konkreter. Wie geht das??? Ich kriege das nicht hin. Da lässt sich nix einstellen, die Buttons fehlen beim Ordner TMBackup:


    Bildschirmfoto 2018-05-10 um 00.29.44.png

    Nun habe ich hier und anderswo schon -zig mal gefragt und immer noch keine Antwort erhalten ?(
    WIE sicher ich TimeMachine vom NAS nochmals extern??

    Das frage ich mich auch schon die ganze Zeit!! Heute habe ich mit der Funktion "Unterstützung für mehrere Benutzerkonten" rumexperimentiert. Ich schätze, damit kann man erzielen, dass das Time-Machine-"Backup" in einen regulären Shared-Folder wandert, den man dann auch regulär sichern kann. Allerdings habe ich aufgegeben, bevor ich richtig angefangen habe: Das Quota für die Nutzer kann 2TB nicht überschreiten. Und ich brauche ca. 2,5TB als Quota für Time-Machine-Backup. Jetzt überlege ich, ob ich einen Hard- oder Softlink vom versteckten Ordner in einen Shared-Folder mache. Das überlege ich aktuell für so manche andere versteckte Sachen auch ...

    Die Frage habe ich erste jetzt gesehen.
    Meine Antwort wäre: Gar nicht!

    Es ergibt keinen Sinn ein Backup nochmal zu sichern. [..]

    Gerade bei TimeMachine gibt es doch die schöne Möglichkeit immer abwechselnd auf mehrere Ziele zu sichern.

    Typische Mac-User-Antwort auf eine einfache sachliche Frage: Warum willst Du das? (Sorry, konnte ich mir nicht verkneifen ;))


    Wieso soll das keinen Sinn ergeben? TimeMachine ist kein Backup-Tool, sondern ein Versionierungstool. D.h. ein Time-Machine-"Backup" enthält andere Daten (mehr Stände) als der gesicherte Rechner. Natürlich will ich von diesen Daten auch ein Backup haben.


    Zum Thema auf mehrere Ziele zu sichern: 1. Wie viele Medien soll ich hier rumliegen haben? Meine Daten kommen auf's NAS und von dort läuft dann zentral eine Backup-Strategie. Punkt. 2. Soll ich die alle auch noch an alle Rechner anklemmen? Wer seinen Apple liebt, der schiebt? :) Der Laptop soll bitte einmal per WLAN oder LAN beschäftigt sein, und dann muss das Ding aus Sicht des Arbeitsplatzrechners im Kasten sein. Fertig.

    und ja, die Verschlüsselung des Volumes findet statt

    Hm. Also ich probiere auch gerade zum ersten Mal die im QNAP eingebaute Backup-Funktion aus. Aber ich gehe nicht über's Netzwerk, sondern auf das USB 3.0-Laufwerk.


    Er dümpelt bei 4MB/s rum. Die CPU ist längst nicht ausgelastet. 10% CPU gehen für AFPD drauf, was ich mir nicht erklären kann, denn es findet eigtl. aktuell kein AFP-Zugriff statt. Der RTRR belegt nur 0,5% CPU, und ansonsten ist nix los.


    Warum kopiert er nur mit 4MB/sec? Ich habe keine Idee. Vielleicht sollte ich doch lieber selber den rsync auf Kommandozeile eingeben ... ?