NAS mit 10GBit Ethernet

  • Diese Frage hatte ich schon in einem MAC-Forum gestellt, aber dort gibt es kaum jemanden, der mit NAS der gehobenen Leitungsklasse Erfahrung hat.


    Ich suche Empfehlungen für ein NAS mit 10 GBit Ethernet. Ein altes Synology D212, welches schon seit längerem weder von der Geschwindigkeit noch von der Platzkapazität reicht, soll ersetzt werden.


    Planung:

    10 GBit Ethernet eingebaut oder auf Einsteckkarte

    Zwei SSDs mit mindestens 1TB Kapazität im Raid 1 für Daten, die regelmäßig gebraucht werden

    Zwei bis vier Festplatten mit größeren Kapazitäten im Raid 1 als Datengrab und für Backups mehrerer Rechner (Backup durch Apple Time-Machine und andere)

    Backup der NAS-Daten über eine daran angeschlossene USB-Festplatte (diese Platte ebenfalls im NAS-Gehäuse wäre wohl eleganter, erhöht aber dann das Risiko, dass im Schadensfalle alles abraucht)

    Das alte Synology NAS soll eventuell an einem anderes Ort zum Backup eines Teils der Daten weiter verwendet werden (also Synchronisierung oder Replikation oder irgendetwas)

    Das NAS soll in den Keller - Lärmpegel ist also unwichtig.


    Wichtigste Anforderung:

    Das NAS darf nicht der Flaschenhals sein. Beim Zugriff auf die SSDs muss die volle 10GBit-Geschwindigkeit ausgenutzt werden, idealerweise auch mit Verschlüsselung.


    Als Anbieter kommen im Prinzip QNAP oder Synology in Frage. In der Leistungsklasse hat Synology aber aus meiner Sicht keine so interessanten Angebote. Also QNAP.

    Die folgenden NAS (Auswahl) scheinen mir passend:

    - TVS-673e (von der Leistung her gerade noch ok)

    - TVS-972XU (Rack, 10GBE schon integriert)

    - TS-877 (gute CPU, aber nicht billig)

    - TS-h977XU-RP (Rack) wäre toll, ist aber wohl doch oversized und sprengt das Budget

    Mit welchen der genannten Geräte habt ihr Erfahrung, und was könnt ihr (eventuell alternativ) empfehlen?

    Und kann man, wenn man kein Rack hat, ein für ein Rack gedachtes NAS einfach so in den Schrank stellen, oder ist das nicht empfehlenswert (z. B. wegen Vibrationen)?

  • Nur so als Zwischenfrage ... für volle 10GbE geschwindigkeit, reden wir hier von NVMe..richtig ? 2 SATA SSD IN RAID1 werden 10GbE nicht erreichen

  • Gute Frage.

    Ich habe mich an den Geschwindigkeitsangaben bei QNAP (siehe Links aus den Eingangsbeiträgen) orientiert, und dort werden Geschwindigkeiten von teilweise deutlich über 10GBit/s mit SATA-SSDs erziehlt - allerdings aus bis zu neun SSDs im Raid 5.


    Was empfiehlst du denn?


    Um mal konkret zu werden: Crucial (der erste Suchtreffer, also nur als Beispiel) wirbt für die1TB-SSDmit 2GByte lesen/1,7GByte schreiben, was also etwa der 1,5-2-fachen Geschwindigkeit von 10GBE entspricht.

    Kann ich die jetzt bei dem TS-877 in den M2-Slot stecken? Aber da steht was von 6GBit/S.

    Oder hat die SSD nur dann die Geschwindigkeit, wenn sie einen der drei PCI-Steckplätze belegt?

    Oder habe ich einen kompletten Denkfehler, und es geht gar nicht?

  • Es gibt SATA m2 und NVME m2 Ports, SATA ist auf 6Gbit\s beschränkt


    Das TS-877 hat laut QNAP nur onboard Steckplätze für SATA SSD also würden die 10GbE nicht voll ausreizen können (RAID1).


    Aber man kann QNAP Zusatzkarten einstecken (gibt auch welche mit 10GbE onboard)


    z.B. QM2-2P10G1T

  • Hallo ,

    ich kann dir den TVS-872-XT empfehlen. Den benutze ich privat.


    1x 10Gbit

    2x 1Gbit
    2x Thunderbolt -> für den Mac

    2x NVME M2 Steckplätze

    8x SATA


    Leistung ist auch Ok (Intel i5). Ich habe zusätzlich auf 64 GB RAM aufgerüstet.


    Gruss,

    Tom

  • tsahlfeld .. na dann mal Butter bei die Fische, OP will 10GbE voll ausreizen, bekommste das hin auf deinem 872 (+ Verschluesselung) ?


    Ernst gemeinte Frage. Ich hab ein 853BU mit 10GbE (6xIronwolf Pro RAID6 + 2xSamung Evo 860 mit Qtier) und komme so maximal auf 460MB\s schreiben+lesen (schwankt stark)

  • dolbyman
    Das bekommt er nur mit NVMe hin.

    Mit SATA hat man immer ein Flaschenhals (egal ob mit SSD SATA Anschluss oder RAID Festplatten). Wenn man mehrere SSD Platten (SATA) im Raid Verbund hat, könnte es mit dem Durchsatz evtl. klappen. Mit mechanischen Platten bekommt man es nur schwer hin (kommt auf die technische Daten an).

    Wird natürlich kostspielig...

  • Mit mechanischen Platten bekommt man es nur schwer hin (kommt auf die technische Daten an).

    Wird natürlich kostspielig...

    Da wären konkrete Zahlen ja gut gewesen.

  • Na 8 * 10TB im Raid schaffen das auch, die liefern solo 250MB/s in der Außenspur, innen gehts dann auf 50% runter.


    Aber 10G Linespeed wird man eh nur mit Jumbos und großen Dateien oder Blöcken schaffen.


    Bei vMotion ok, da sind auch 40/100/200GBit ausreizbar.

    Aber auch mit SSDs wird das nicht so einfach sein, mit einem Raid 1 auch mit den dicksten Samsung 970Pros ggf.


    Für was genau ist das gedacht.

    10G schön und gut, aber man muss das mal praktisch betrachten, wann diese Datenrate überhaupt zum Tragen kommt.


    Das siedel ich eher noch im Enterprise Bereich an, wenn man 10G wirklich ausreizen will.

    Sehe da auch eher Kisten im Bereich:

    https://www.qnap.com/de-de/product/ts-h1283xu-rp

    https://www.qnap.com/de-de/pro…h1277xu-rp/specs/hardware


    Als passende Kisten, da bei der kleinen der PCI Steckplatz schon mit der SFP+ Karte verstopft ist, also keine Karten für NVMe SSDs eingesteckt werden können, die überhaupt erst die Leistung von 10G ausreizen könnten, wenn die pro SSD mit 3x4 Lanes angebunden sind.


    Für die Datenträger würde ich dann auf SED Dervices zurückgreifen, die erledigen die Verschlüsselung selber und belasten nicht das NAS und liefer zudem noch richtig Durchsatz.

  • Bei Raid 6 würde bei den 10TB mit 250MB/s auf nur max. 750MB/s Lesezugriff erreichen, beim Schreibzugriff natürlich weniger. RAID 6 hat bei drei Platten die selben Daten. Bei RAID 60 könnte man den Wert ein wenig erhöhen. Oder liege ich verkehrt?


    Bei SSDs mit 450-550 MB/s hat man bessere Chancen den Datendurchsatz zu erhöhen und 10Gbit Ready zu sein.


    Edit:

    Das sind meine Festplatten beim Leistungstest:

    pasted-from-clipboard.jpg

    Ich bin noch am Testen, was für mich die beste Einstellung ist. Ob Qtier und RAID 6 (10TB HDDs) oder Qtier und Raid 10 (10TB HDDs). Für Qtier kämen die NVMe in Einsatz und die SATA SSD für das System oder als RAID0 SSD-Cache (Lesecache).


    Ich brauche nicht unbedingt die vollen 10Gbit Geschwindigkeit beim kopieren der Daten.

    Gruss,

    Tom

  • Das TS-877 hat laut QNAP nur onboard Steckplätze für SATA SSD also würden die 10GbE nicht voll ausreizen können (RAID1).


    Aber man kann QNAP Zusatzkarten einstecken (gibt auch welche mit 10GbE onboard)

    Wenn ich das recht sehe, hat das TS-877 drei PCI-Steckplätze. Sollte also gehen. Und für den 10GBE-Anschluss brauche ich ohnehin eine Karte.


    Wobei ich das schon irgendwie seltsam finde, man hat ein NAS mit acht Steckplätzen und kauft eine Einsteckkarte, um eine SSD anzuschließen.


    Trotzdem sagt mir das TS-877 vom Gefühl her am meisten zu. Mehr als das TVS-872-XT, wo ich eine Thunderbolt-Karte mitbezahlen müsste, ohne sie zu brauchen (oder gibt es das auch ohne Thunderbolt?).

    Zitat von Dolbyman

    Ich hab ein 853BU mit 10GbE [...] und komme so maximal auf 460MB\s schreiben+lesen (schwankt stark)

    Das entspricht etwa den Zahlen, die Qnap veröffentlicht.

    Dann besteht doch Hoffnung, dass die Messwerte der anderen NAS realistisch zu erreichen sind.

  • Hallo Anthracite,


    den TVS-872-XT gibt es nur mit Thunderbolt Anschluss. Da der Server bei dir im Keller steht, macht Thunderbolt wirklich keinen Sinn ;) Ich habe es zu spät gelesen.


    So wie ich es aus den technischen Daten des TS-877 rausgelesen habe, hat der Server drei PCIe Steckplätze.

    Steckplatz 1: PCIe Gen 3 x8
    Steckplatz 2: PCIe Gen 3 x4
    Steckplatz 3: PCIe Gen 2 x4

    Die QNAP Messung für den TS-877 erfolgte mit 8x SSD Intel in RAID5 Verbund.


    Edit:

    Der Vorteil der Einsteckkarte ist, das es NVMe M2 SSDs sind und der PCIe Steckplatz hat eine bessere Bandbreite, als der SATA Anschluss (Datendurchsatz).


    Gruss,

    Tom

  • Steckplatz 1: PCIe Gen 3 x8, bedeutet 2 SSDs mit voller Bandbreite.


    Steckplatz 2: PCIe Gen 3 x4, bedeutet eine SSD mit voller Bandbreite.


    Steckplatz 3: PCIe Gen 2 x4, reicht gerade so für 2 * 10 Gbit, mit Overhead wird hier aber weniger draus.


    Problem die SFP+ Dual Karten die ich gefunden habe, wollten alle 8 Lanes haben, dann blockt die also den Steckplatz 1 und du bist mit den schnellen SSDs wieder langsam unterewegs.

  • Ja, da gebe ich Dennis recht. Daran habe ich gar nicht nachgedacht. Bei Dual 10Gbit Anschluss wird der Steckplatz 1 belegt. Es sei den, es wird nur 1x 10Gbit benötigt, dann kann es auf den Steckplatz 2 und auf dem 1er die Dual M2 NVMe.


    Somit hätte man zumindest 4x NVMe SSD (2x intern und 2x externe Karte)


    Edit:

    Müssen es SFP+ sein oder langt auch RJ45 mit 10Gbit Anschluss?


    Weil man dann diese Karte verwenden kann:

    QXG-10G2T-107

    https://www.qnap.com/de-de/product/nic-marvell-aqtion

    Sie benötigt nur PCIe 2.0 4

  • Danke für eure Überlegungen. Die helfen mir wirklich weiter.

    Es sei den, es wird nur 1x 10Gbit benötigt

    Einmal reicht. 2x10GBit kann ich nicht abrufen, da mangelt es dann an anderen Stellen.


    Zitat von tsahlfeld

    Müssen es SFP+ sein oder langt auch RJ45 mit 10Gbit Anschluss?

    SFP+ ist konstistenter, da der Switch dieses auch hat, und das Glasfaserkabel benötigt ebenfalls SFP+.

    Da der Switch aber neben dem NAS stehen wird, kann man auch eine Transceiver für RJ45 nehmen. Die Kabellänge ist da kein Problem.


    Was ich gerade überlege: Ist es überhaupt sinnvoll, zwei NVMe SSDs im Raid zu betreiben? Eine SSD sollte oberhalb der Leistung eines 10GBit-Ports liegen, so dass ein Raid keine Geschwindigkeitsvorteile mehr bringen dürfte. Würde da nicht eine SSD reichen, die mit einem Ordner auf einer herkömmlichen Platte synchronisiert oder repliziert wird (natürlich nicht als RAID, sondern z. B. als ein in kurzen Zeitabständen stattfindendes Backup ohne Historisierung), so dass man, wenn die SSD ausfällt, kurzzeitig von dem Ordner auf Platte weiterarbeitet und dann auf die neue SSD den Ordner schnell zurückkopiert?



    Und noch, unabhängig davon, eine Frage zum TS-877, welches mein Gefühl präferiert: Ist das schon ein paar Jahre alt? Hat das einen moderneren Nachfolger?

  • Hallo,

    wenn du nur eine SSD und den Rest auf herkömmliche mechanische Festplatten konfigurieren möchtest, dann kannst du nur auf der SSD den Cache aktivieren.


    Das was du meinst ist, die eine SSD als einzelnes Laufwerk konfigurieren und die Daten manuell oder über App automatisch duplizieren? Wäre für mich umständlich.

    Ich würde Dir empfehlen auf zwei NVMe SSD mit mindestens 1TB zu gehen (RAID1). Dies kannst du entweder als Qtier mit der normalen Festplatte kombinieren oder die beiden SSDs als Schreib- und Lesecache konfigurieren.

    Ich habe meine zwei NVMe 1TB SSD mit meine 6x 10TB Festplatte kombiniert (Qtier) und die beiden SATA SSDs als Lesecache (RAID0).


    Über Qtier: https://www.qnap.com/solution/qtier/de-de/


    Vielleicht hilft es Dir ein wenig, mit der Entscheidung ;)


    Momentan ist der TS-877 ein aktuelles Gerät, kann sich vielleicht noch dieses Jahr ändern. Aber das weiß nur QNAP.

    Ende 2017 / Anfang 2018 kam der Server in den Handel.


    Edit:

    Jetzt habe ich deine Frage mit der SSD als Raid verstanden 😂

    Es geht nur um die Ausfallsicherheit beim Schreibzugriff. Deshalb sollst du es als RAID 1 konfigurieren. Wenn du Qtier aktivieren willst, brauchst du zwei SSDs. Beim Schreibcache kannst du eins verwenden, aber QNAP warnt dich vorher, das nicht zu tun, da evtl. Daten verloren gehen kann (z.B. Stromausfall, etc.).

  • Qtier und SSD Cache, das ist doch doppelt gemoppelt.


    Denn geschrieben wird eh in das Qtier und alles was hot Data ist sollte eh auf den SSDs liegen.


    Einzig durch Raid 0 ist es schneller als Raid 1.


    Verstehe nicht den Sinn hinter so einer Einrichtung.


    Zudem wurde hier von einer Weile beobachtet, das Qtier nicht immer schneller ist, teilweise ist es langsamer als wenn man schnelle HDs im Raid 5 einsetzt.

    Hier scheint die Verwaltung das Problem zu sein, aber auch hier besteht die Möglichkeit, dass es durch QTS Updates verbessert wurde, oder auch nicht.


    Ich hatte das Anfangs zum spielen auch mal.


    Ziehe seit dem jedoch ganz klar eine getrenntes SSD und HD Raid vor, dann muss nix verwaltet werden und kann sich irgendwo in der CPU verknoten.

    Da braucht es dann auch keinen SSD Cache, da Hot Data immer auf der SSD liegen und erst bei Archivierung auf die HDs wechseln.

    Das wird hier der beste Weg sein.

    Wobei bei den Datenmengen von 100GB Tag, müssen da schon Pro SSDs rein, damit die nicht in kurzer Zeit über die TBW geschrieben werden.


    Denn meine Vermutung ist, das QTS sich wie DSM verhält und SSDs als Defekt einstuft, wenn die TBW erreicht ist, obwohl in der Praxis oft das 10 fache erreicht werden kann.


    Hat hier jemand Detail Infos?

  • Jetzt habe ich deine Frage mit der SSD als Raid verstanden 😂

    Es geht nur um die Ausfallsicherheit beim Schreibzugriff.

    Eigentlich geht es mir beim Raid um Geschwindigkeit und Ausfallsicherheit. Aber wenn schon eine einzelne NVMe SSD oberhalb dessen liegt, was das Netzwerk schafft, wird ein Raid keine höhere Geschwindigkeit mehr bringen, und es bleibt nur das Argument mit der Ausfallsicherheit.


    Ziehe seit dem jedoch ganz klar eine getrenntes SSD und HD Raid vor, dann muss nix verwaltet werden und kann sich irgendwo in der CPU verknoten.

    Das denke ich auch. Ich kann bei meinen Daten gut trennen, was für den Schnellzugriff ist, und was guten Gewissens auf langsame Platten darf. Und ich ziehe Raid 1 vor, weil man da bei einem Defekt des NAS selbst noch gut an die Daten kommt (SSD/Platte in ein externes Gehäuse und an den PC anschließen). Wenn das QTier die Daten verwaltet, könnte das schwierig werden.

  • Bei Static Volumens ist das möglich.


    Bei Qtier unmöglich, da Daten über beide Tiers verstreut liegen.

  • Mod: Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Die Zitat Funktion des Forums richtig nutzen

    Qtier und SSD Cache, das ist doch doppelt gemoppelt.


    Denn geschrieben wird eh in das Qtier und alles was hot Data ist sollte eh auf den SSDs liegen.


    Einzig durch Raid 0 ist es schneller als Raid 1.


    Verstehe nicht den Sinn hinter so einer Einrichtung.

    Sorry habe vergessen zu erwähnen, dass es nicht für den Qtier Verbund ist, sondern für die restlichen Platten im Gehäuse. Der Lesecache gilt für die 6TB Platten im RAID5 Verbund (Zusatzgehäuse).


    Bei Qtier gibt es verschiedene Meinungen, ob es was bringt oder nicht. Ich habe jetzt nichts negatives feststellen können und setze es ein. Man muss es einfach ausprobieren.