Beiträge von firefox_i

    Hallo zusammen,

    ich nutze HBS3 auf einer NAS mit dem aktuellsten QTS OS.

    HBS3 ist auch aktuell.


    Der Job ist nun enige male durchgelaufen, aber ich kann keine File-History runterladen.
    Es handelt sich um einen One-Way SyncJob vonLoak auf ein enferntes NAS via RSYNC.


    In den File Histoy Einstellungen ist lediglich der Haken bei "Lösche alles Älter als 1 Monat" drin.


    Maximum Log Size im Job steht auf 50MB. Brauch ich hier eventuell mehr was ist da eine sinnvolle Größe ?

    Muss ich "Enable Debug Logging" aktivieren, damit die Dateiliste erzeugt wird ?

    S.

    Halo zusammen,

    folgendes Problem, das ich unter Quts hero h5.1.1.2488 reproduzieren kann:


    Ich erstelle mehrere Benutzer mit einer manuell vorgegebenen UID, Zb

    Peter 1010

    Paul 1011

    Anna 1012

    Petra 1013


    In der smbpasswd steht für ALLE der o.g. Benutzer die ID 1001.


    1000 ist für den während der Installation angelegten zweiten Admin vergeben.

    Kann das jemand bestätigen ?

    Soll das so ?


    Ich habmir jetzt beholfen in dem ich in der smbpasswd Datei die korrekten IDs eingetragen habe.



    S.

    Hallo zusammen,

    sorry schon jetzt, dass es etwas lang wird, aber ich denke, die Hintergründe sind durchaus relevant zu wissen.


    Folgende Ausgangssituation:
    a) Standort 1 (Büro)

    - TVS871

    - Mitglied der AD Domäne

    - "lokale" Benutzer auf dem NAS gibt es nur einen Admin

    - Dient als Sicherungsziel des Backupsystems (ein Domänenbenutzer ist Eigentümer der Dateien)

    - Daten werden per RSYNC über einen VPN Tunnel mit dem Standort 2 synchronisiert


    b) Standort (Home)

    - TS473

    - keine Domäne

    - es gibt nur lokale Benutzer und Gruppen auf dem NAS

    - es gibt KEINEN Benutzer für den o.g. Domänenbenutzer (wie auch ;) ohne Domäne)

    - Dient als Ablage der gesyncten Daten von Standort 1

    - Außerdem Ablage der privaten Daten der Familie (Ordnerberechtigungen sind entsprechend scharf, dass keiner auf die Firmendaten zugreifen kann)


    Eigentliche (!) Aufgabenstellung: Austausch der TS473 gegen eine TS673A (4 Platten reichen nimmer, es muss ein 6bay her ;)


    Nun habe ich mich - mal wieder - etwas intensiver mit den ganzen Benutzern Gruppen und Berechtigungen auseinandergesetzt.

    Als reiner Windows Anwender ist das in der Linux Welt schon etwas spezieller, aber ich bin ja lernwillig und -fähig ;) hoff ich zumindest.


    Und dann hab ich festgestellt....es sind einige Dinge leider nur so halbgut.
    Man kann es "historisch gewachsen" nennen, oder - wenn man ehrlich ist : man hat einfach Probleme nicht erkannt und immer wieder weitergeschleppt ;)


    Die erste NAS die ich mal hatte war die TS-212 und damals wurden bei User und Gruppen UIDs und GIDs ab 500 vergeben.

    Das habe ich nun echt jahrelang auf dem NAS zuhause mitgeschleppt (die entsprechenden Dateien per SSH immer auf die neuen Geräte mit umgezogen).


    Und da jetzt eben der Wechsel des NAS auf TS673A ansteht und ich auch mittlerweile einige Linux-Rechner habe, will ich das mal endlich glattziehen.


    Was ich also machen möchte:

    I) User und Gruppen auf die tatsächlich benötigten reduzieren

    II) UID und GID der sinnvollen User und Gruppen korrigieren, dass sie ab 1000 beginnen

    III) Eigentümer der Dateien und Ordner korrigieren, dass die neuen UID/GID angewandt werden

    IV) Domänenbenutzer anlegen

    I) ACLs korrigieren


    I) und II) ist denke ich trivial

    Ich würde zuerst über eine Änderung in den entsprechenden Dateien die aktuellen User und Gruppen in "[NAME]_old" ändern um die "alten" noch zu haben.
    Dann die neuen "richtigen" User und Gruppen mit den passenden UID und GID anlegen.
    Nach den ganzen Aktionen nehm ich dann die "*_old" raus und gut.

    Blöde Idee oder ganz brauchbar?


    III) kann ich per GUI oder per commandline machen...

    In einem Parallelthread (https://forum.qnapclub.de/thread/62728-dateien-suchen-die-keinem-benutzer-gruppe-geh%C3%B6ren/?postID=478515#post478515) versuche ich gerade rauszubekommen, wie ich die Dateien rausbekomme, die momentan keinem lokalen Benutzer oder keiner lokalen Gruppe angehören.

    Das geschieht dadurch, dass Daten aus Standort 1 via rsync gesynct werden und der Eigentümer ist ein Domänenbenutzer mit einer UID weit oberhalb 1000.
    Klar kann ich nach der UID suchen (find...) aber ob ich dann wirklich alle habe, würde ich eben gerne über den Weg "such mal alles was keinem gehört" rausfinden.
    Wenn also hier jemand sachdienliche Hinweise hat: her damit.


    Ab jetzt brauch ich nun das Schwarmwissen ;)


    zu IV)

    Wie gesagt: es gibt einen Domänenbenutzer der EIgentümer der Backupdateien ist.
    Kann ich den einfach als lokalen Benutzer anlegen mit der gleichen UID wie am Standort 1?
    Das müsste doch gehen oder?



    zu V)

    Wie kann ich Ordnerberechtigungen/Berechtigungen auf die Freigaben entsprechend korrigieren?
    ich habe die Berechtigungen ausschließlich über Gruppen gesteuert und ab dem Wurzelverzeichnis ist nach unten alles vererbt.


    Ist nun der naive Gedanke "ich vergeben die Berechtigungen einfach neu" auf die Ordner zielführend
    Sprich: da ich die "alten" Gruppen noch sehe, vergebe ich die neuen zusätzlich und nehm danach die alten raus.
    Dann müsste ich doch das Ziel erreicht haben.

    Oder gibts da was in der commandline mit dem das eleganter geht ?



    Wäre für jeden Hinweis dankbar.
    Und auch Kommentare wie "so macht man das nicht" sind erlaubt ;)

    S.

    Damit kann ich aber doch nur die finden, die foo nicht gehören.
    Wenn ich aber 10 Benutzer habe, dann listet der mir die Dateien der anderen 9 user auf....


    Wenn ich Benutzer oder Gruppen gelöscht habe, möchte ich die "verwaisten" eben finden.
    Oder wenn via RSYNC Daten von einer anderen NAS kommen und dort einem Benutzer gehören, den es lokal nicht gibt...

    Oder wenn ich UID und GID ändere (früher hat QNAP ab 500 vergeben, die neueren OS vergeben die IDs ab 1000...)
    Und ich hab eben noch Benutzer mit 5xx IDs...die würd ich jetzt gerne glattziehen.


    S.

    Ich habe an 2 Standorten ne NAS.

    "Gegenüber" steht aktuell eine TVS-871


    Von zuhause repliziere ich die Nutzdaten und einige Backups nach gegenüber.

    Von gegenüber repliziere ich die Backup-Daten, die von der Backup Software erzeugt werden zu mir.


    Beides über einen VPN Tunnel (LANCOM Business Router) mit 50MBit Upload.


    In wiefern ist hero beim replizieren da besser?



    S.


    PS:

    Ist es eigentlich die, der oder das NAS ?

    Mal kurz ne Verständnisfrage zum eigentlichen "QTS vs QTS hero":
    Wenn ich in einem 6 bay NAS heute 5 Platten zu je 3TB drin habe und später eine sechste dazukommt...
    Habe ich es dann richtig im Kopf, dass ich diese unter hero nicht in den bestehenden Pool integrieren kann?

    Unter dem "normalen" QTS klink ich die ein und hab den Speicherplatz, unter hero muss ich den kompletten Pool auflösen und dann neu aufbauen, richtig?

    Wenn ja, sehe nur ich das so, oder ist diese fehlende Erweiterbarkeit auch in euren Agen ein Nachteil?

    Andersrum gefragt:

    Ich hab mich jetzt durchaus schon eingelesen und kenne QNAP seit Jahren.
    Bringt im "normalen" Alltag bei dem das NAS als Datengrab, rsync/rtrr Server und zum hosten von 2 kleinen VMs eingesetzt wird (also kein VIdeo oder Multimedia Schickschnack, kein Webserver oder so) Vorteile oder lieber bei dem alt bewährten bleiben?

    Wenn zb, im QTS hero der Platten-Standby funktioniert wäre das ein Vorteil ;)


    S.

    Danke Dir,

    okay dann war meine Vermutung "HDD Kopfbewegungen fressen zu viel Performance" ja durchaus gerechtfertigt.


    Dass das OS da kein Caching macht kann ich nachvollziehen, denn wenn dann was schiefgeht, sind die Daten weg.....

    Blöde Frage:

    Das Problem ist doch system-immanent mit drehenden Platten.
    Gibt es da Strategien dagegen um das abzumildern ?
    Ich denke gleichzeitige Zugriffe auf denselben Datenspeicher sind doch normal....

    Würde da ein SSD Cache was bringen?
    Der müsste die Daten ja meinem Verständnis nach zunächst auf die SSD und danach dann auf die drehende schreiben oder?
    Das Risiko besteht dann also darin, dass solange die Daten nicht auf der HDD geschrieben sind, ein Ausfall der SSD zu Datenverlust führt oder habe ich da was misverstanden?



    S.

    Hallo zusammen,

    da meine TS-473 mit 4 Platten zu wenig Platz bietet wird in den nächsten Tagen ein "Bäumchen Wechsel Dich" anstehen.

    Dazu hab ich mir eine neue TS673A besorgt.


    Ausgangssituation:

    - TS453-PRO mit 4 x 3TB,

    - TS473 mit 4 x 3TB + 2 x 250GB M.2 SSD, die 24/7 gelaufen ist

    - auf der TS453 Pro liegen "nur" Mirrors von einigen Daten drauf, die ich auf der TS473 habe

    - Platten der TS453 sind deutlich weniger gelaufen, da die nur im Bedarfsfall hochgefahren wird.


    Ziel:

    - TS473 soll nachher als Mirror-Ziel dienen

    - TS673a soll neues Haupt-NAS werden, die Platten der TS453 PRO übernehmen + 1 neue 3TB


    Soviel zur Idee.
    Da die Daten der TS453PRO komplett gelöscht werden können wäre mein Ansatz nun der:

    - erstmal 2 M.2 NVME in die 673A rein und Grundeinrichtung machen (ich bleibe bei QTS, weil QuTS hero gerade beim zukünftigen Erweitern des Pools Nachteile hat)

    - dann die Platten aus der TS453PRO + neue rein, Speicherpool einrichten, Freigaben usw.

    - danach dann Daten via RTRR/rsync einmalig von der 473 auf die 673A syncen und gut.


    Jetzt kommt der Punkt bei dem ich jetzt das Schwarmwissen bräuchte:

    Die TS473 hat 4 x 1 GBit, TS673A hat 2 x 2,5Gbit, mein Switch hat "nur" 1GBit Ports.


    Wenn ich nun beide NAS mit Portbündelung an den Switch anbinde, dann bringt das für rsync mWn genau garnix, weil eben nur eine Verbindung aufgebaut wird.

    Kann ich den Datentransfer beschleunigen, wenn ich jeweils einen Port in mein "normales" Subnetz nehme, und jeweils den zweiten in ein anderes Subnetz packe?
    Dann 2 Sync Jobs starte, der eine auf die "normale" IP, den anderen auf den "SYNC Subnetz"?
    Der eine synct den einen Teil der Daten, der andere den anderen Teil.

    Oder geht da durch das permanente Bewegen der Köpfe so viel Performance verloren, dass sich das nicht lohnt ?

    Wäre für Anregungen dankbar, wie ich die Daten schnellstmöglich rüberbekomme....

    Danke

    S.

    Hallo zusammen,

    ich habe in einem anderen Thread das Thema erwähnt mit den Timeouts und habe deshalb mal tiefer reingeschaut.


    Was läuft:

    Ich bekomme von einem NAS an einem anderen Ort via Internet eine Date synchronisiert.
    Diese Datei gibt es bei mir auf dem NAS definitiv nicht, deshalb wird sie mit knapp 5MB/s via Internet übertragen.

    Soweit so gut.


    Laut Ressource Monitor wird auf die Platten mit diesen besagten 5MB/s geschrieben...okay das erwarte ich auch....aber....es wird auch mit 200MB/s gelesen !?!?!


    Warum den das bitte ?
    Hat da jemand ne Erklärung dafür?
    Es ist ein RAID5 mit 4 Platten, aktuell läuft kein Scrubbing oder sowas und diese hohe Leselast ist auch nur dann, wenn ich eine RSync JOB laufen habe.

    2023-09-16 10_44_16-Window.png



    Ich verstehs ehrlich gesagt nicht.


    S.

    Hallo,

    Ich würde da ohne große Gewissensbisse die Datei /etc/config/rsync_schedule.conf ändern. Eventuell muss das in autorun.sh per Skript geschehen, um resetfest zu sein - das merkst du schon.

    Wenn Du die Datei unter \etc\config meinst.....
    Da steht seit gestern schon folgendes drin:

    Code
    [Global]
    Timeout = 6000


    Leider ohne Erfolg.
    MIr scheint, HBS3 erzeugt die Konfiguration dynamisch.
    Unter /share/CE_CACHEDEV1_DATA/.qpkg/HybridBackup/data/system/nas/[JOBID]/ liegen rsync_schedule.conf.

    Für jeden Job gibt es so einen Ordner und die Zeiten sind immer die Startzeiten der geplanten oder manuellen Starts.
    Auch wenn ich diese Dateien ändere....bringt nix, denn beim Start wird die Datei überschrieben....
    und ich hab leider noch nicht gefunden, woher der die Daten nimmt.


    Bei allen anderen Backup-Typen kann ich diesen Timeout in der GUI einstellen, nur eben bei rsynv mal wieder nicht.
    Ging früher, hat QNAP aus irgendeinem Grund wohl weggespart....schade.


    Was allerdings zu bedenken ist:

    rsync kann nur alles oder nichts (pro Datei gesehen). Wenn sich auch nur ein Byte einer Datei ändert, wird diese Datei komplett übertragen.

    Da muss ich leider widersprechen. RSYNC macht defintiv inkrementelle Übertragungen.
    Ansonsten müsste meine Synchronisierung jede Nacht gleich lang dauern.
    Wenn sich eine Datei aber vergrößert, dann wird nur das Delta übertragen.


    RTRR (das QNAP eigene Protokoll) macht das übrigens nicht, da ist es tatsächlich so wie du beschreibst: 1 Zeichen in einer 1GB großen Datei anders--> 1GB transfer.


    Das was Du vorschlägst werde ich jetzt auch angehen:

    Kleinschneiden der Backupdateien.
    Allerdings ist das "professionelle Tool Acronis Cyber Protect" (sorry für den Sarkasmus) sowas von buggy, dass ich dafür komplett neue Backup-Ketten anlegen muss, denn ein einmal gemachtes Backup kann leider nicht mehr umkonfiguriert werden..


    S.