Neue Firmware QTS 5.0.0.1828 Build 20211020

  • Ich habe noch immer ein statisches Volumen drauf und Frage mich ob man im privaten Bereich wirklich so Flexibel sein muss?


    Was bringt mir im privaten Bereich ein Thick-Volumen? Ich habe da nur Daten die ich auf dem NAS Speichere und natürlich nicht für alles ein eigenes Volumen. Warum würde mir da ein Thick-Volumen was bringen oder mich Flexibler machen? Wenn das NAS bzw. das Volumen voll wird muss ich mir Gedanken machen. Aber bis da hin?


    Danke.

    Gruß Charly

  • Ich habe noch immer ein statisches Volumen drauf und Frage mich ob man im privaten Bereich wirklich so Flexibel sein muss?

    Also ich bin privat schon mindestens zwei Mal in den Genuss gekommen so flexibel sein zu können, weil die Daten die entsprechend auf dem Volume abgelegt werden sollen plötzlich doch sehr viel mehr waren als zunächst gedacht.

    Klar hat man das Problem bei einem statischen Volume nicht weil es ohnehin die gesamte Kapa ausreizt, aber die können eben auch keine Snapshots die ich verwende.

    Ich gehöre im Gegensatz zu Mavalok2 aber auch seit jeher zu der Fraktion "Ein System, mehrere Anwendungen, für jede Anwendung ein Volume" ;)

  • Also nach längerem Testen, kann ich sagen, dass der Zugriff am Gerät in FileStation oder mit HBS3 nicht rund läuft, Beispiele:


    1. FileStation

    pasted-from-clipboard.png


    wenn man sich anmeldet, gibt es im Sekundentakt für jedes Verzeichnis eine Warnung. FileStation kommt auch erst mal nicht rein in das Verzeichnis. Aber nach einiger Zeit läuft es dann.


    2. HBS3

    Die Sicherunsgaufträge laufen auf einen Fehler z.B.: "Insufficient storage space on NAS. Increase storage capacity or remove files from NAS." oder werden einfach angehalten "[Hybrid Backup Sync] System stopped Backup job:". In beiden Fällen steht nichts weiter dazu im Log.


    Ich vermute, dass beim ersten Zugriff die Rechte neu gesetzt werden und dass es dann zu einem Time-Out kommen kann. Eine systematische Lösung habe ich nicht.


    Einige Eckdaten, die Teil des Problems sein können:

    1. admin deaktiviert und SU eingerichtet, wurde ja so empfohlen.

    2. ACL eingeschaltet

    3. Neue 5.0 Firmware aufgespielt.


    Wer das Thema auch hat: immer wieder versuchen, scheint eine heilende Wirkung zu haben. Warum auch immer. Also nicht aufgeben.

  • Speicherpool mit Thick-Volumes sind aber eine sehr feine und flexible Sache, [...]. Bin aber davon abgekommen. Heutige Zeit erfordern mehr Flexibilität.

    Ich bin der Meinung, dass man die Flexibilität nicht über Thin- oder Thick-Volumes gewinnt, sondern über Quota (=Kontingente). Also ein Raid, ein Volume, egal ob statisch, dünn oder dick, und jeder Nutzer hat Quota, die seinen Platz begrenzen.


    Ganz konsequent bin ich da aber nicht. Die Time-Machine-Backups haben trotzdem ein eigenes Volume auf einem Raid, dessen Platz sie sich mit einem Datenvolumen teilen.

  • Ich denke dass ist so ein persönliches Ding und abhängig davon wie sich jeder selbst strukturiert oder seine Ablage organisiert.

    Wie gesagt, für mich steht schon seit jeher und für sämtliche Systeme (egal ob PC oder NAS) fest, dass es mehrere Volumes geben muss... am PC jeweils für OS, Programme, Games, und ggf. weitere für entsprechende Daten. Am NAS je nach Bedarf, entweder nach User oder Usergroup aufgeteilt oder wie ich es daheim mache jeweils für OS, Userdaten, Medien, Public, Sat-Aufnahmen, ...

    Wenn ich hier nicht flexibel mit der Kapa hantieren könnte würde ich durchdrehen.


    Wer nicht so einen Span im Kopf hat wie ich, hat davon natürlich nichts :). Außer natürlich mehrere kleine Dateisysteme statt ein großes was zerschossen werden kann... Und bei Verwendung von Snapshots ist die Aufteilung der Daten auf mehrere Volumes obligatorisch, damit man auch mit den Snapshots flexibel hantieren kann (ich brauche keine 30 Snapshots von Backupdaten oder temporären Dateien, von anderen Daten auf anderen Volumes aber vielleicht schon).


    kann ich sagen, dass der Zugriff am Gerät in FileStation oder mit HBS3 nicht rund läuft, Beispiele:

    Ärgerlich, hoffe da kommt bald eine neue Version...

    1. admin deaktiviert und SU eingerichtet

    Mit einem User "su / SU" hätte ich übrigens schon wieder Panik, dass dieser in Zukunft anderweitig von QNAP verwendet werden könnte (genau wie root) und dann Probleme bereitet.

  • Ich habe mich bei Umstieg von den 4x3 TB auf insgesamt schlussendlich 6x16 TB bewusst aus folgendem Grund gegen ein statisches Volume über den kompletten Bereich entschieden: Sollte da mal ein Filesystemcheck anfallen, würde der über den kompletten Bereich ewig dauern und damit recht lange alles flach legen. Daher habe ich das Volume1 mit System und Diensten möglichst klein gehalten.

  • Ich habe übrigens auch weiterhin die Fehlermeldung, dass die DNS Hostnamen nicht aufgelöst werden können. Was mir dabei auch aufgefallen ist... im Virtuellen Switch wird mir ab diesen Moment auch keine WAN-IP mehr angezeigt und wenn ich dann docker ausführen will über die shell, bekomme ich so eine Fehlermeldung:


    Code
    ERROR: unable to remove jump to DOCKER-ISOLATION-STAGE-1 rule in FORWARD chain:                                                                                                                                                               (iptables failed: iptables --wait -D FORWARD -j DOCKER-ISOLATION-STAGE-1: iptab                                                                                                                                                             les: Bad address.)
    status -1


    Die CPU-Auslastung ist auch die ganze Zeit auffällig hoch bei 80%, wobei 50% von den Systemprozessen dann belastet werden und sämtliche Aktivitäten ins Web sind dann nicht mehr möglich. Nach dem Neustart des NAS funktioniert aber auch wieder alles erst einmal. Ich kann nicht fest machen, wann das anfängt.


    Irgendwas ist da jedenfalls sehr faul.

  • @Robin_B

    Hallo, hatte das auch in vorherigen FW Versionen ab und zu. Besonders wenn ich irgendwas an den virtuellen Switches etc. gedreht habe. Irgendwo sind halt noch die alten DNS Daten drin. Ich habe dann alle Systeme heruntergefahren auch Gateway und Router und DHCP Server. Neu gestartet und nach und nach (Lease der Endgeräte) ging wieder alles.

  • ich werde mal auch nach dem update sämtliche netzwerksachen runterfahren. vielleicht hilft es ja etwas

  • Danke schonmal allen fleißigen Testern...es scheint ja wirklich nötig zu sein. Leider ist die Release Version dafür der falsche Ort...