TS-470 - 10GBit-Karte veliert Link zu VMware Server, nur durch Neustart zu reaktivieren

  • Hallo zusammen,


    wir setzen ein TS-470 als Speicherziel für unseren VMware Server und zur Dateiablage ein. Und das in dieser Konstellation schon seit einiger Zeit, und bisher gab es dabei auch keine größeren Probleme, wenn auch die Geschwindigkeit manchmal etwas zu wünschen übrig ließ.


    Um die Geschwindigkeit zu verbessern, haben wir vor kurzem dann die Konfiguration grundlegend angepasst und die Festplatten gewechselt. Und seitdem kommt es in unregelmäßigen Abständen dazu, dass die im NAS eingebaute Dual 10Gbit-Karte von Intel ihren Link verliert und somit der VMware Server nicht mehr auf seinen Datastore zugreifen kann. Und wenn der Link einmal ausgefallen ist, reagieren die Ports auf der Intel-Karte im NAS auf gar nichts mehr. Kabel neu einstecken, ein anderes Gerät wie z.B. einen Switch anschließen - nichts. Die Ports bleiben offline, bis das komplette NAS neu gestartet wird.


    Um das ganze etwas verständlicher zu machen, hier zunächst einmal die alte Konstellation, die langsam aber zuverlässig lief:


    TS-470

    FW-Version: weiß ich nicht mehr genau, aber auf jeden Fall 4.3.x

    Massenspeicher: 3x 4TB WD SE Enterprise HDD -> Raid5

    SSD-Cache: 1x 512GB Samsung 860 Pro (read only)

    Erweiterungskarte: Intel X540-T2


    VMware Server

    Version: 6.0 Essentials

    Server-Hardware: Intel S2600GZ Mainboard in 1HE Chassis, 2x Xeon E5-2560 v2 CPU, 128GB ECC RAM

    Speicheranbindung: NFS

    Netzwerkkarte: Intel X540-T2


    Verbindung_alt.jpg



    In dieser Konfiguration lief das System jetzt über ein Jahr stabil. Prinzipiell noch länger, doch davor mit einer älteren VMware-Version.

    Dann haben wir wie folgt umkonfiguriert, und so läuft es auch aktuell:


    TS-470

    FW-Version: 4.3.6.0993

    Massenspeicher: 2x 8TB Seagate Ironwolf -> Raid1 (Dateiablage)

    2x 2TB Micron 5100 Max -> Raid1 (iSCSI-LUN)

    SSD-Cache: nicht vorhanden

    Erweiterungskarte: Intel X540-T2


    VMware Server

    Version: 6.7 Essentials

    Server-Hardware: Intel S2600GZ Mainboard in 1HE Chassis, 2x Xeon E5-2560 v2 CPU, 128GB ECC RAM

    Speicheranbindung: iSCSI (Jumbo Frames, MTU 9000)

    Netzwerkkarte: Intel X540-T2


    Verbindung_neu.jpg


    Von dem Plus an Geschwindigkeit sind wir sehr angetan, aber die Komplettausfälle sind natürlich nicht so angenehm. Und ich kann es mir einfach nicht erklären.


    Log-Auszüge sind ebenfalls angehängt.


    Sorry für den langen Beitrag. Ich kann leider jedoch kaum etwas dazu im Internet finden (oder ich suche falsch) und hoffe, dass hier jemand eine Idee hat.


    Danke schon einmal für's durchlesen.


    Michael

  • Hallo,


    ich vermute Dein Problem bei der Konfiguration der Portbündelung auf der QNAP. Auf dem ESXi benutzt Du, wie ich vermute, zwei Kernelports für Port Binding. Redundanz wird hierbei durch die zwei Kernelports, die jeweils nur einem Port zugewiesen sind erzeugt. Lastausgleich über Round Robin zu machen, ist aus meiner Sicht nicht wirklich sinnvoll, da Du nur mit einem Storage System direkt verbunden bist.


    Auf der Synology benutzt Du dagegen einen Bond mit dem Parameter "Balance-rr". Dieser Modus ist "ähnlich" dem Etherchannel. Das passt nicht zu der Failover-Policy auf dem ESXi. Dist soweit ich es sehe "originating PortID".


    Um es kurz zu machen... Es passt nicht wirklich gut zusammen...


    Mein Vorschlag ist, Nimm nur einen iSCSI Port auf dem ESXi und lass auf den Adapter originating Port ID. Auf der QNAP konfigurierst Du Active-Backup.


    MfG