Beiträge von Dr. Doctor

    Es war tatsächlich ein interner bug von HBS3, der laut Support in HBS Version V25.0.0603 behoben wird. Habe nach Übermittlung von diversen Debug-Protokollen und Remote-Zugriffen individuelle ssh Befehle und ein Python-Skript erhalten, welches dann den Fehler behoben hat.

    Alles gut, kein Stress =)

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    kann es sein, dass die 10,5TB zwar frei (nicht zugewiesen), aber trotzdem (teilweise) einem Volume oder dem Snapshot-reservierten Speicherplatz zugeordnet sind?

    Das versteh ich nicht ganz – wie kann ich das herausfinden?


    Kann es denn sein, dass für die Thin-zu-Thick Konvertierung die freie Kapazität im Speicherpool mindestens genauso groß sein muss, wie das zu konvertierende Volume? Also in diesem Fall mindestens ~21,85 TB (26 TB - 4,15 TB) freier Speicher?

    Hallo community,


    obwohl mein Speicherpool (~42 TB) noch 10,5 TB frei hat, lässt sich das gewünschte Thin Volume bzw. Freigabeordner (26 TB, davon 4,15 TB frei) nicht in ein Thick Volume konvertieren. Alle anderen Freigabeordner sind bereits ohne Probleme nach Thick konvertiert worden.

    Im Menü zur Konvertierung heißt es ja, "Die Datenreduktion ist der Speicherplatz, der durch Verdichtung, schnelles Klonen und Deduplizierung gespart wird. Um von Thin zu Thick zu konvertieren, muss der freie Speicherplatz des Speicherpools größer als der

    Speicherplatz der Datenreduktion sein". Die Datenreduktion wird hier mit 7.43 GB angegeben. Bei meinen freien 10,5 TB, kann ich mir leider nicht erklären wieso die Konvertierung mit "Fehler beim Konvertieren zum Thick-Provisioning. Unzureichender, nicht zugeordneter Speicherpool-Speicherplatz. Geben Sie etwas Speicherplatz im Speicherpool frei." abbricht...


    Woran könnte das liegen?


    TVSh874, QuTS hero h5.1.7.2770

    Hallo community,

    nachdem ich zum ersten Mal erfolgreich einen Container (Studio Server, Docker Container als DaVinci Resolve Project Server) aufgesetzt habe, möchte ich nun die neu entstandenen Netzwerkverbindungen unter Netzwerk und Virtueller Switch besser nachvollziehen können: Siehe netzwerkÜbersicht.png
    (Der virtuelle Adapter und Switch sind ja anscheinend default Einstellungen, die automatisch durch die Container Installation entstehen…)


    Anlass ist dafür, dass seit dem Zeitpunkt der Installation das tägliche HBS 3 Backup nach wenigen Sekunden und einigen hundert übertragenen Megabytes abbricht und folgendes meldet:

    Code
    “Failed to upload metadata. Check your network settings.”


    Dinge die ich bis probiert/getestet habe:

    • Im Backup-Job die “Beschränkung für die gleichzeitige Dateiverarbeitung” von 10 auf 1 gesetzt, jedoch leider ohne Erfolg…
    • Website über SSH erfolgreich anpingt – Internetverbindung ist also vorhanden.
    • Erfolgreich Verbindung zum NTP Server über den verfügbaren Test geprüft. Es gab seit diesem Zeitpunkt auch einmal die Fehlermeldung, dass NTP Server nicht erreichbar sei…


    Meine Fragen nun dazu:

    • Hat dieser Fehler womöglich etwas mit dem Netzwerk-Modus des Virtuellen Switches (Container Network (lxcbr0)) zu tun? Müsste man evtl. in den jeweiligen Docker-Einstellungen unter Netzwerk statt NAT eine Bridge Verbindung zum physischen Adapter herstellen? Der Container soll nur innerhalb des Netzwerks erreichbar sein.
      Siehe hierfür auch container_network-infomation.png und virtualSwitchEinstellungen.png für die Übersicht der vorhandenen Einstellungen…
    • Für die Einrichtung des Project Servers muss eine Access-IP angegeben werden:

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    Zitat von Einrichtungsprozedur: Project Server

    “Set the IP address of this server (Docker host) that is exposed to your clients, by setting this value correctly, when clients use the downloadable connection settings file, DaVinci Resolve will be able to connect to this server automatically.”

    • Ich habe dafür die Haupt-IP des NAS gewählt. Eventuell ist das auch dafür relevant? War das eine gute Entscheidung? Oder sollte man lieber eine andere nehmen und dann irgendwie über einen virtuellen Switch verknüpfen/weiterleiten? Da bin ich mir eben nicht wirklich sicher, ob und wie das geht/zusammenhängt…


    Bin über jede Hilfe dankbar!

    Hallo community,


    folgendes Szenario:

    • Vor ein paar Monaten habe ich einen HBS 3 Backup Job angelegt und gestartet, um das komplette NAS (~20 TB) nach Backblaze zu sichern. In diesem Backup Job wurde ursprünglich die Versionsverwaltung aktiviert jedoch noch kein Zeitplan für die tägliche Sicherung festgelegt.
      • Ergänzung: QuDeDup war deaktiviert. "Nur aktualisierte Datelen sichern" war aktiviert.
    • Der Job wurde (nach einigen Aussetzern und Neustarts) erfolgreich abgeschlossen, danach habe ich HBS 3 auf Version 24.0.0304 aktualisiert.
    • Sodann wurde dieser Backup Job geändert, indem ein Zeitplan für die tägliche Sicherung nachgetragen wurde. Inspiziere ich nun diesen nun täglich inkrementell laufenden Backup Job, ist die Versionsverwaltung deaktivert und auch nicht wieder aktivierbar. Alle Optionen sind ausgegraut. Siehe dafür den Screenshot.

    In den hier verfügbaren Release Notes des entsprechenden HBS 3 Updates heißt es:

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    - After upgrading to this version, newly created backup jobs will have version management enabled by default (with the default number of retained latest versions set to 30).

    Wenn ich diesen bestehenden Backup Job nun dupliziere, das Original dafür deaktivere und in dieser neuen Kopie auf die bestehende Backblaze Ordnerstruktur verweise, ist es wieder möglich, die Versionsverwaltung zu aktiveren. Genauso ist hier auch die Option für QuDeDup deaktiviert. Nachdem ich so eingestellt habe, hat dieser Job gestern abend wieder bei null angefangen und ich müsste nun wieder mehrere Monate warten, was ich natürlich vermeiden möchte.


    Auch im Backblaze Online Browser sehe ich, dass im entsprechenden Bucket ein zweiter Ordner mit aktuellem Timestamp sowie .qdff-Endung erstellt/gedoppelt wurde. Siehe dazu Screenshot backblaze.png.


    Wie kann ich nun sicherstellen, dass ich einen Backup Job habe, der inkrementell mit dem bestehenden Backblaze Ordner arbeitet und die Versionsverwaltung aktiviert hat?


    Hat irgendjemand ähnliche Erfahrungen oder kann mir einen Tipp geben?


    Danke Euch allen!

    Mod: Unnötiges Volltext-/Direktzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen


    ... und dadurch, dass es diesen DaVinci Resolve Project Server nicht für Linux gibt, ist eben der Plan Studio Server in einem Container laufen zu lassen...


    Die Installation auf der SSD, weil es letztendlich in den dortigen Installationsempfehlungen steht...


    Klingt super bei Dir!

    Hm ja... Habe jetzt erst richtig verstanden, dass QTS statt QTS Hero die wohl bessere Wahl gewesen wäre, da dort ja Static Volumes erstellt werden können und bei Hero eben nicht... Naja, beim nächsten NAS wohl x)

    Dein TVS-h874 hat doch 2 Steckplätze für NMVE-SSD (PCIe 4 x 4). :)


    Die SSD kannst Du einzeln betreiben, ich würde aber immer ein Raid 1 empfehlen. ;)

    Ne ich meine die Erweiterungskarte selbst – denn die hat ja selbst zwei Steckplätze, siehe hier nochmal die Specs...


    Okay gut, das merk ich mir! :)


    Was soll denn mit den NVMe passieren...also was sollen die machen?

    Da Caching bzw. Tiering jetzt ja wegfällt, soll erstmal vor allem ein DaVinci Project bzw. Studio Server drauf laufen...

    Danke sehr!


    Ich benutze QuTS Hero.

    Okay verstehe, gut zu wissen... Werde aber nach diesen Erfahrungsberichten sowieso die Finger von jeweils beidem lassen.


    Bis jetzt habe ich nur die 5 HDDs verbaut. Sobald ich die Erweiterungskarte habe, werde ich darein zwei NVME-SSDs setzen – oder ging auch erstmal nur eine davon und später dann die zweite?


    Danke für die Beiträge, habe sie mir alle angeschaut!

    Hallo community,

    folgendes bestehendes Setup:

    • QNAP TVSh874 mit
      • 12th Gen Intel(R) Core(TM) 15-12400, bis zu 4400 MHz (6 Kerne, 12 Threads)
      • 32 GB RAM
      • RAID 5 Speicherpool bestehend aus
        • 4 x WD Red Pro-NAS à 8 GB
        • 1 x WD Red Pro-NAS à 16 GB (die 8 GB werden nach und nach durch weitere 16 GB Platten ersetzt, iwann also auf einen Schlag deutlich mehr Speicher)

    Nun überlege ich, das System mit einer QM2-2P410G2T Erweiterungskarte zu verbessern, wodurch neben zwei M.2 NVMe SSD Plätzen, ebenso zwei 10GbE RJ45 Anschlüsse neu verfügbar werden.


    Nun meine Fragen:

    1. In Hinblick auf die Bestückung der Erweiterungskarte mit entsprechenden SSDs: Worauf gilt es bei der Wahl der SSD Speicherkapazität zu achten, wenn ebendiese für SSD Caching oder Tiering verwendet werden sollen? Je größer, desto mehr Daten können für Caching/Tiering verwendet werden?! Welche Speicherkapazitäten wären bei Video-Editing Anwendungsfällen angemessen?
    2. Soweit ich richtig verstanden habe, sind SSDs für Caching nicht Teil eines bestehenden RAID Speicherpools; SSDs für Tiering werden jedoch schon in das RAID mit aufgenommen und es entsteht ein gemeinsamer Qtier-Speicherpool aus den HDDs und SSDs. Wenn ich also nun eine SSD für Caching verwenden möchte – wird deren Kapazität vollständig für das Caching verwendet oder könnte auch nur ein Teil davon verwendet werden? Die verbleibende Kapazität dann bspw. für Daten…
    3. Wäre es demnach mit der oben genannten Erweiterungskarte möglich, einen SSD Steckplatz mit einer SSD rein für Caching zu verwenden und den anderen Steckplatz mit einer SSD, die Teil des großen RAIDs (ohne Tiering) wird? Auf dieser letzteren würde ich dann einen Freigabe-Ordner erstellen, auf welchem bspw. ein DaVinci Resolve Project Server läuft…
    4. Was eignet sich besser? Caching oder Tiering? Anwendungssituation ist parallele Videobearbeitung mit mehreren Rechnern in einem (dann hoffentlich effizienten) 10G Netzwerk.


    Vielen Dank für Eure Hilfe!