QM2-2P10G1TB in 673a sinnvoll?

  • Moin zusammen,


    ich habe hier ein 673a stehen, dass ich gerne über 10G anbinden würde, um die Dateien für Foto/Videobearbeitung dort liegen zu haben.

    Nun hat das Teil 2 Gen3x4 Slots und blöderweise nur 2x2,5GB Ports

    Da ich gerne die internen 2 NVME Slots um wenigstens 2 (vielleicht später mehr) weitere aufrüsten will, um dort schnellstmöglichen Zugriff auf die Dateien zu haben, stellt sich mir die Frage, ob ich eine der Single 10GBE Karten + einer 2x NVME SSD Karte für Gen3x4 kaufen soll oder

    die QM2-2P10G1TB Kombi Karte, die 10GBE und 2x NVME vereint.

    Allerdings ist diese Karte Gen3x8 und würde dann in einem Gen3x4 Slot sitzen.


    Die Frage ist, hat das schon mal jemand probiert bzw. wie sieht das mit der Bandbreite aus? Wenn ich mich nicht total verrechne, bietet Gen3x4 ganz grob 4GB/sec Durchsatz. 10GBe braucht davon etwa 1 Viertel in eine Richtung, bliebe also genug, Bandbreite für die 2 SSDs, um die GBe nahezu auszuschöpfen. siehe ich das richtig oder habe ich hier einen Denkfehler?

    Eine weitere mögliche Alternative wäre eine Single 10GBE KArte (dann könnte ich hier auch LWL nehmen und die 4fach NVME Karte, wobei auch diese eine Gen3x8 ist. Bei 2 installierten NVMEs sehe ich kein Problem mit der Bandbreite, aber iwe ist das bei Vollbestückung und dann transferieren der Daten über die 10GBE. Das müsste in etwas so passen wie oben, oder?


    Braucht es noch weitere Infos?

    Danke schön!

  • Hallo.


    Ich habe in meinen TS-h886 eine QM2-2P10G1TA.

    Die Karte kann nur Gen2x4. Ich habe nur eine NVME verbaut. Habe eine Raid5 und die Übertragung liegt bei 780MB/s.


    Ich werde auch demnächst die QM2-2P10G1TAB.


    Bei meinen alten NAS TS-453B 16GB RAM hatte ich mit der QM2-2P10G1TA in RAID5 aber nur eine Übertragung von 330MB/s.

  • Moin,


    danke für die Info.

    Dann scheint meine Überschlagsrechnung zu passen, dass trotz einer GEN3x8 KArte vom Host her gesehen in PCI3x4 10GBE und 2 NVMEs "reinpassen" und ein gleichzeitiger Datenfluss zw. diesen NVMEs und den 10GBe das Netzwerk nahezu auslasten sollten. Das die SSDs intern limitiert werden ist klar, aber soweit ich das sehe, sollte es für 10GBe reichen.

  • Hi,
    from my perspective 250GB should be sufficent for the system. But I would insert more than 250 to use it not only for system. As far as I uderstand when system is up there is not so much activity on system disk. And SSDs can handle concurrent access much better that HDD.
    FYI: I changed my personal setup a little bit:

    I bought a Mallinox 10GBe and QNAP QM2-4P-384 (4x NVME) and did some testing with a wd 850x 4TB and a 2tb WD RED NVME SSD.

    The 850x alone on the 4p-384 gets nearly 4Gg/s, so it can saturate the pci3x4 from the card<->slot. I expect for this card also (nearly) saturating the 10GBE network even when I populate al 4 slots and all ov them are in parrallel active e.g in a Raid.


    Right now I put the 850x in one of the built in slots and it works like a charm over the network.

    Working with lightroom and davinci resolve is now MUCH faster and it is now even possible running a VM directly from the NAS. :)

    Why 850x? It was quite cheap some weeks ago (350€) and i saw a test from a trustful magazine which writes the SSDs also with their full capacity and check the transfer rates. This SSD is one of the these, which have write rates above the max of 10GBe even when you write the whole 4tb at once AND is available with 4tb :)

    I will upgrade with other 850x peu a peu, when I need more space and will then also use the slots on the 4p-384.


    I came from a TS-332x (10GBe, Raid 5 with 3x SSD 860 EVO M.2 2TB (SATA), which works good if you do not too much on the Raid but get terrible slow when you do some operations where you have to read/write files with in sum more than round about 10GB (e.g. putting several GB of pics from a shot at once on the NAS).