Qnap ts-h886 Best Practice Konfiguration?

  • Hey , bin mit Qnap noch nicht ganz so erfahren.

    Mein Projekt besteht darin meine physischen Hardwaregeräte eizudampfen.

    Ziel: auf der Nas 2-3 windows Server VM

    Windows 2016 Domain Controller & windows server 2016 Exchange später noch ein SQL Server. 1 VM Qnap Cloud.

    Die M2. Sind bestückt mit 2x500GB im Raid1

    Die SSD mit 2x 512 GB noch kein Raid sollen Cachebeschleunigung Read/write Zil für ZFS machen.

    Die 8 HDD bekommen vorerst je 1TB.

    Meine Gedanken sind die VM auf die M2 oder lieber in ein HDD Speicherpool.

    Der HDD Speicherpool war als Raid6 mit ZFS gedacht. Habe leider noch nicht die richtige Antwort gefunden und hoffe auf eure Hilfe

  • Du denkst dran, das du bei ZFS den Pool später nicht einfach durch HD tausch erweitern kannst.


    Ist daher vermutlich ein wenig ungeschickt, wenn du jetzt mit 1TB HDs startest, weil die noch rumliegen, aber neu kauft man doch nix mehr unter 8-12TB, wenn man auf € pro TB achtet.

  • Ich habe die 2x NVME für den Cache genommen, wenn schon Cache, dann das schnellste. Für die VMs habe ich 2x SATA SSD im Raid 1 vorgesehen. Für alles andere 8x HDD im Raid 6.

  • binam : wo hast du das qnap system? Konntest du die M2. NVME als Raid1 erstellen und Cache machen. Hast du die Systemorder Qnap verschoben. Kann das Qnap Sstem nachträglich verschoben werden um die NVME wieder frei zu bekommen?

  • Das eigentliche "System" spiegelt Qnap ja über alle Datenträger und das kann man auch nicht beeinflussen. Dann gibt es noch den Systempool, den habe ich auf die 2 Sata SSDs im Raid 1 gelegt. Dahin installiert Qnap standardmäßig die Apps und auch die VMs.


    Einen Cache kann man jederzeit anlegen oder auch wieder auflösen. Die Aufteilung der Cache-Datenträger (kleines Raid 1 fürs Schreiben, Rest Raid 0 fürs Lesen) macht Qnap automatisch, man kann nur die Datenträger auswählen.

  • Bin auch noch am Experimentieren:

    - 2x NVME für den Cache

    - 2x 2,5" SSD RAID1 - Speicherpool 1

    1. Installationstest 2x 3,5" HDD 3TB im RAID1 - Speicherpool 2, danach noch 2x 3,5 HDD 3TB testweise nachgerüstet: das System hat anschliessend den Speicherpool dann um die Kapazität der nachgeschobenen Platten auf ca. 6 TB verdoppelt. Die HDD werden als 2x Pools im RAID 1 angezeigt; lassen sich aber nicht separat konfigurieren. 1 HDD ist zwischenzeitlich defekt und der gesamte Verbund der 4 HDD aus 2x 2 RAID1 ist degradiert. Funktion war aber gegeben.

    Jetzt bin ich etwas unentschlossen, ob ich jetzt nur 2x HDD im RAID1 und die anderen zwei Schächte leer lasse zur späteren Erweiterung der Kapazität durch zwei größere HDD. Denn ich brauche nur die Kapazität von 2 HDD im RAID1. Denke mir wozu RAID 5 oder 6 wenn der Cache funktioniert? Oder doch anders?

  • das System hat anschliessend den Speicherpool dann um die Kapazität der nachgeschobenen Platten auf ca. 6 TB verdoppelt. Die HDD werden als 2x Pools im RAID 1 angezeigt; lassen sich aber nicht separat konfigurieren.

    Hier liegt wohl ein Verständnisproblem vor... Du scheinst den vorhandenen Pool um ein VDEF erweitert und keinen zweiten Pool angelegt zu haben. Und dann ist es bei ZFS eben so: Wenn ein VDEF degradiert ist, dann ist der ganze Pool degradiert. Und wenn ein VDEF verloren geht, dann ist der ganze Pool verloren.


    Das mit dem Cache verstehe ich nicht ganz, was hat der mit der Raid-Auswahl zu tun?

  • Richtig, vielleicht habe ich mich missverständlich ausgedrückt: es wurde kein zweiter Speicherpool angelegt, sondern nur ein weiteres RAID1 innerhalb des Speicherpools 2.

    Was ist VDEF?

    Der Cache soll doch der Beschleunigung der Zugriffe dienen, sodass auf den HDD kein RAID größer RAID1 zur Beschleunigung der Zugriffe auf die HDD benötige? Übernehmen doch die SSD? Die Freigaben mit Cache werden durch gelbe Pfeile markiert.

  • Was ist VDEF?

    Ich meinte ja eigentlich VDEV (mit V). ;) Bei ZFS besteht ein Pool aus einem oderer mehreren Virtual Devices (VDEV), wobei ein VDEV eine einzelne Platte oder ein Raid ist.


    Mit dem Cache ist das so eine Sache bei ZFS... Einen richtigen Schreibcache gibt es nicht und QTier auch nicht. In den SSD-Lesecache kommt im Prinzip alles, was aus dem RAM-Lesecache wieder herausfliegt, wenn der zu voll ist.


    Wenn man viel RAM hat, dauert es also eine ganze Zeit, bis der SSD-Cache sich überhaupt mal füllt. Mein NAS läuft jetzt eine Woche und der SSD-Cache ist gerade mal zu 25% gefüllt. Und nach jedem Neustart ist er wieder leer. Für Leute, die das NAS nur stundenweise hochfahren macht der Cache folglich kaum Sinn.

    Einmal editiert, zuletzt von binam ()

  • NAS soll 24/7 laufen.

    Bei ZFS besteht ein Pool aus einem oderer mehreren Virtual Devices (VDEV), wobei ein VDEV eine einzelne Platte oder ein Raid ist.

    Mittelfristig soll ein Mac als Fileserver mit über TB2 angebundenem DAS-RAID5 ersetzt werden. Apple hat ja auch ein neues Filesystem "APFS". Da sind die Speicher auch in mehrere "Teile" unterteilt. Als User bekommt man das nicht zu sehen.

    Das dürfte auch kein Problem sein:

    https://www.qnap.com/de-de/how…apazit%C3%A4tserweiterung


    Mir ist da eigentlich nichts bekannt, das ein ZFS System das nicht kann. Es hat halt einige Vorteile der Fehlerkorrektur gegenüber ext4. Wenn du aber was anderes weißt würde ich gerne mehr erfahren.

    Meine eigentliche Frage geht um die Konfiguration der HDD in den vier Schächten. Kann man 2x HDD 3TB RAID1 und z.B. 2x HDD 6TB RAID1 im einem Speicherpool haben oder das RAID wie unter QTS mit größeren HDD upgraden?