TS-473 einrichten 10Gbit

  • Das bisher genutzte TS-253 Pro mit 2 HDD und 1Gbit LAN-Anbindung erwies sich als Flaschenhals, wenn es darum ging von 2-3 PCs (nicht gleichzeitig, sondern hintereinander) dahin via 1Gbit Ethernet files hochzuladen, konkret: gescannte tiff oder pdf Dateien in Größen zwischen einzelnen MB und 100MB+ (A-0 Pläne udgl). Es sollte daher ein neues, leistungsfähigeres NAS mit 10Gbit Anbindungsmöglichkeit angeschafft werden, wobei nicht dessen Speicherkapazität, sondern die Geschwindigkeit der Datenübertragung und -verarbeitung primär ist.


    Obwohl ich mich hier im Forum und an anderen Orten da und dort etwas hineingelesen habe, hätte ich gerne Eure eingehende Meinung und Expertise hinsichtlich der Konfiguration und Netzwerkanbindung des Systems in Betracht der eingekauften und nun einzurichtenden Komponenten (insbesondere Thema caching, RAID, portbündelung/trunking) [evtl. mit einem Tip bezüglich Einrichtung einer virtuellen SW ((wie) könnte man darauf WIN10 laufen lassen?) und: ob dann eine extra GRAKA erforderlich wäre] - gerne auch unter ergänzenden Hinweisen auf relevante Forums-Einträge.


    Es stehen folgende Komponenten zur Verfügung:


    NAS:

    Qnap TS-473 16 GB

    - Qnap QM2-2P-344 2-Slot PCIe Gen3 Network Expansion Card für m.2 PCIe SSDs

    - 2 x Seagate IronWolf 510 960GB M.2

    - 2 x Seagate IronWolf 125pro 1.92 TB

    PC:

    AMD Ryzen 5 3600X mit 1TB Samsung 980pro

    Intel i5-10600K mit 1TB Samsung 970pro


    Netzwerk:

    Switch Qnap QSW-M1208-8C

    3 x 10GbE PCie Netzwerkkarte für Intel X540-T2 - X540 Chip Dual RJ45 Ports

    Ugreen Cat 8 Kabel 40Gbps und 2000 Mhz LAN Kabel mit RJ45 S/FTP.


    Danke

  • Ok, also du hast im täglichem Arbeiten beim einscannen von Dateien mehr Durchsatz als 1GBit im Netzwerk leisten kann?

    Ich vermute den Flaschenhals eher im alten NAS und in den HDs.


    Bei 3 Clients und dem neuen NAS, könntest du auch einen LAG über die 4GBit Links aufsetzen, dann hätte jeder Client die volle GBit Bandbreite verfügbar.

    Da das neue ja nur mit SSDs bestückt werden soll, hast du hier halt schon viel mehr Bandbriete im Bereich des Storage, geringe Latenzen und kannst damit die Clients parallel mit der Bandbreite versorgen.


    QNAP ist jetzt für mich kein Hersteller der im Bereich Netzwerk Backbone bekannt ist, da würde ich auf was anderes setzen.


    Hast du CAT 7 Gebäudeverkabelung liegen oder ziehst du eh neu?

    Dann würde ich gleich auf SFP+ und LC OM4 gehen, die Kabel machen dann später auch 25GBit mit und du hast nie Störungen durch EM Felder, da optische Übertragung. Zudem sind die im Betrieb Energiesparender unterwegs.


    Aber warum unbedingt die M.2 SSDs, warum nicht einfach 4 normale 2TB SSDs im Raid 5, das geht dann so ab, das du hier 10GBit ausfahren kannst.

  • Danke für Deine rasche und sachliche Antwort. Die CAT 7 sind bereits gekauft ebenso wie die 10Gbit Karten; LC OM4 war mir bisher ein unbekanntes Thema, weswegen es aussen vor blieb, obwohl die Aufrüstbarkeit der Lichtwellen-Kabel besser ist (müsste die alle um- bzw. austauschen). Ja, zur Frage, warum kein Raid 5. Ich ging davon aus, durch die 2 x M.2 SSD im Raid 1 als Cache die 10GBit am besten ausreizen zu können. Du schreibst, wenn ich's richtig verstehe, dass 4 normale SSDs dieselbe Übertragungsgeschwindigkeit leisten. Gut. Es lassen sich 2 normale SSDs noch ergänzen. Bleibt dann die Frage, ob in dieser Konstellation der 2x M.2 SSD Cache noch zusätzlich was bringt.

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Die Zitat Funktion des Forums richtig nutzen

    QNAP ist jetzt für mich kein Hersteller der im Bereich Netzwerk Backbone bekannt ist, da würde ich auf was anderes setzen.

    Was fiele Dir dazu ein?

  • Bisher war das mit dem Cache immer prolematisch, weil es halt viel Overhead erzeugt und teilweise die Leistung sogar negativ beeinflusst hat.


    Teilweise waren die Test schon was her, dafür ist da so ein Raid 1 gegen ein Raid 5 mit 6HDs angetreten und hat bei Bandbreite verloren.

    Ok HDs können von der Zugriffszeit nicht mithalten, aber dann stecke halt einfach mal genug SSDs im Raid 5 zusammen, das fliegt.

    Da bist schnell an der CPU Grenze und die ist leider in der 473 alles andere als aktuell.

    Was reines Storage ohne Schnick und Schnack angeht, da haben die ARM Teile nicht gerade wenig drauf.


    UniFi hat recht interessante Switche, Controller Veraltet und mit APs usw. wird eine Software defined Netwok Infrastruktur draus.

  • RAID - Soweit verständlich. Da werden s evtl. 4 normale SSD. --- Na ja, das Problem mit dem Overhead beim Cache. Müsste man wohl ausprobieren und schlimmstenfalls die m.2 woanders verwenden. Was hältst Du im übrigen von der Idee, die Installation des QTS auf den m.2 zu testen?

  • Was willst du da laufen lassen, VMs, DBs?


    Wenn nicht, spare dir das Geld, kaufe dir 4 normale SSDs und du hast ein richtig fettes Storage.

    Willst du einen ESXi Host, dann kaufst du was anders als eine 473.

  • Danke für Deinen Rat. Es werden jetzt jedenfalls 4 x SSD Iron Wolf 125pro 1,92 TB. Sollte die 10GBit ausreizen können. Oder

    Einmal editiert, zuletzt von Heureka ()

  • Ja, um die 10 Gigabit auszureizen reichen die vollkommen.

    Switch Qnap QSW-M1208-8C

    Der Switch war jetzt tatsächlich nicht unbedingt die beste Wahl. Nicht, weil ich glaube das er seinen Dienst schlecht verrichtet. Das wird er vermutlich vollkommen zufriedenstellend. Aber du verschenkst halt 4 Ports, wenn du nur auf Kupfer setzt. Gibt zwar noch RJ45-Einschübe, aber die sind verhältnismäßig teuer.

    - Qnap QM2-2P-344 2-Slot PCIe Gen3 Network Expansion Card für m.2 PCIe SSDs

    Die Karte hättest du dir vermutlich wirklich schenken können. Du kannst sie aber natürlich nutzen um irgendwann mal ein eigenes Volume darauf zu erstellen.

    Deine NAS hat ja auch noch zwei interne M.2 SATA Schnittstellen. Natürlich sind diese für Caching ungeeignet, aber damit könntest du irgendwann mal den Pool vergrößern, falls der Speicher doch mal knapp wird. Es sollte bei SATA SSDs im RAID keinen Unterschied machen, ob einige im M.2 und andere im 2,5" Format vorliegen.

    Intel X540-T2

    Hast du schon probiert, ob die von der NAS überhaupt erkannt wird?

    Oder wie wolltest du die 10 GbE bei der NAS nachrüsten?

    Die Intel X550 ist kompatibel, bei der X540 würde ich eher nicht damit rechnen.


    Edit: Ich habe gerade mal nachgeschaut. Die X540 benötigt eine PCIe Gen2x8. Die TS-473 hat zwar PCIe Gen3, aber nur 4 Lanes. Du würdest also, selbst wenn sie erkannt wird, nur einen der beiden Ports nutzen können. Von dem her würde wohl nur die X550 vernünftig funktionieren, wenn es eine Intel sein soll.

    Oder waren die X540 für die Clients? Welche hast du dann für die NAS?

    4 Mal editiert, zuletzt von Helljumper ()

  • Danke für Deine erhellende Antwort. Die X540 könnten zurückgegeben bzw. getauscht werden. Ja, zwei der X540 waren für die PC gedacht. Gleichwohl, wie Dennis erwähnte und bei Dir anklingt, wären Lichtwellenleiter eine Alternative. Wenn man dort die Erfordernisse wüsste bezüglich Spezifikation der Karten und Kabel. Welche Karten, Kabel und Switch funtionierten diesfalls bei der angegebenen Konstellation, also mehrere PC + das NAS?

  • Du kannst auch mischen. Es gibt eine Mellanox Karte für die QNAP (QXG-10G2SF-CX4). Mit der hättest du 2x SFP+. Es gibt wohl auch eine Version von HP, welche deutlich günstiger ist, wenn man sie gebraucht findet.

    Die Mellanox hat zwar eine PCIe Gen3 x8 Verbindung(wofür auch immer), sollte aber eigentlich voll funktionieren. In der Kompatibilitätsliste ist auch keine Einschränkung zu finden.

    Dann könntest du auch nur die NAS per LWL verbinden und den Rest so beibehalten wie du ihn hast.

    Die X540 sollte in den Clients ja laufen, wenn du da noch einen passenden PCIe Port frei hast.


    Bei den SFP+ Modulen müsstest du mal schauen, was die Mellanox Karte haben will. die QNAP Switche vertragen auch die günstigen 10Gtek Teile.

  • UniFi hat doch einen kleinen LWL 10G Switch meine ich.

    Einmal mit POE++ und einmal ohne und noch 12 SFP+ Ports.

  • womit fast alles geklärt wäre. Könntest du konkret noch die passenden Glasfaserkabel angeben?

  • OM4 oder besser LC-LC wenn du mit SFPs arbeitest.

    Was anderes passt nicht rein.

  • Was hat OM3/OM4 mit der Steckverbindung zu tun? Gibt es beides als LC-LC. OM3 ist für 10 GBit aber vollkommen ausreichend.

    Prinzipiell ginge auch singlemode, ist aber eher teurer und bei deinen Distanzen uninteressant.

  • Also besser ein extra SFP+ Model als ein fix zusammengebautes wie zB 10Gtek 10Gb/s SFP+ Kabel, SFP+ Direkt Attach Twinax Passiv DAC - oder ist das Geschmackssache?

  • Ist dann allerdings Kupfer (was aber in der Praxis keinen Unterschied macht) und du bist weniger flexibel.

    Aber klar, kannste auch nehmen.

  • Alles klar, wenn dann Glasfaser. Die Terminologie wird klarer: OM3 oder OM4 LC auf LC (Duplex). Das müsste passen, nicht wahr? -- Und das ginge auch bei den Clients.

  • Genau. Multimode OM3/OM4 LC-LC. Dazu halt die passenden SFP+ Module, welche OM3/OM4 bieten. OM4 ist abwärtskompatibel zu OM3, aber vermutlich sind die SFPs teurer. Am besten SFP+ SR.

    Aber an den Clients kann es wieder je nach Karte zu rumgezicke mit den Transceivern kommen.

    10Gtek hat eigentlich für jeden Hersteller das passende Modul, kann aber trotzdem immer mals ein das du einen originalen Transceiver benutzen musst. Und dann wird es leider sehr teuer.

  • also ist ein Mischbetreib sinnvoll: Glaserfaser zwischen NAS und Switch, Kupfer zwischen Switch und Clients. Zumindest aus einem Grund, nämlich dass die Kompatibilität bei Clients Probleme machen kann. Die noch offene Frage wäre allenfalls, ob bei der gegebenen derzeitigen PC Ausstattung eine spätere Aufrüstung auf mehr als 10Gbit Verbindungsleistung von den Rechnerkomponenten ausgeschöpft würde. Seh ich das richtig?