Beiträge von onlyReaver

    Servus,


    die Software ist 1:1 gleich. Die QNAP Modelle mit "RP" am Ende des Modellnamens haben austauschbare Netzteile, ja.
    ECC-RAM gibt es auch bei den Rack Geräten nicht, außer den ganz neuen Enterprise Geräte, die kosten allerdings >10.000€.
    Updates sind, wie man bei der 1:1 Software vermuten kann, eben die gleichen und daher steht da nichts nach.


    VG

    Servus,


    nach langer Zeit mal wieder hier. Ich überlege gerade wie ich eine Platte meiner 4x 3 TB Platten aus meinem NAS entfernen kann, dauerhaft.
    Beabsichtigt ist das, weil ich in zwei Slots ein RAID1 SSD Volume erstellen möchte oder ein Read&Write Cache für das HDD Volume.


    Hat da jemand einen Gedankengang der am besten funktionieren würde? Das NAS steht aktuell in einem Rechenzentrum, der Vorgang vor Ort sollte also schnell umsetzbar sein. (Ist sonst zu kalt dort :D )
    Außerdem: Hat jemand einen Bericht wie effektiv der Read UND Write Cache, also RAID1 Cache quasi, für ein normales SATA HDD Volume ist?


    VG

    Danke, werd ich mal ausprobieren. Ich wollte eigentlich sowieso ISCSI als SAN aufbauen, also ein getrenntes Netz per VLAN (Bald auch physikalisch, weil 10G Switch reinkommt) mit anderem Subnetz.
    Und dann die Netzwerkfreigaben nur über das Teaming in dem normalen LAN.


    Habe aktuell einfach die beiden 1G Ports rausgezogen, bis jetzt war nichts passiert ... werde das dann bei Zeit umkonfigurieren. Ggf. wenn der neue Switch kommt.

    Ich kann da nun nichts rauslesen das dazu passen würde ...


    Das reicht schon wenn es eine einzige große ISO bzw. Archiv von z.B. einem Veeam Backup ist. Teilweise sogar ab 4 GB Einzeldateigröße.
    Im Normalfall kopiere ich über SMB immer nur einzelne Daten, dafür aber öfter größere. Ansonsten aber sequenziell.


    Gestern Abend z.B. habe ich etwas direkt aufs NAS herunter geladen, von einer VM die per iSCSI darauf läuft und nebenher noch über SMB ein Archiv entpackt.
    Da war dann recht schnell Ende, die Freigabe war nicht mehr aufrufbar und die VM kam ins stocken weil sich alle iSCSI Connections neugestartet haben.


    Witzigerweise ließ sich die Webverwaltung noch öffnen und bedienen, da war alles normal.

    Morgen,


    ich werde Heute für ein zwei Stunden versuchen den Fehler nachstellen zu können bzw. zu lösen, allerdings gibt es ja vielleicht jemanden der das ähnliche hatte.


    Seit einiger Zeit habe ich das Problem dass bei etwas höherer Last, z.B. einem großen Kopiervorgang auf eine Freigabe, oder das entpacken von Daten auf einer Freigabe,
    die Freigabe selbst "verschwindet", sie ist teilweise Minutenlang nicht mehr aufrufbar. Teilweise werden dann sogar iSCSI Connections geschlossen und neu geöffnet, was blöd ist, weil ein paar VMware vSphere Server dahinter stehen.


    Aktuell weiß ich nicht wieso dieses Verhalten auftreten sollte. CPU Last ist bei oben genannten Fall auf höchstens 60%, Arbeitsspeicher hat nur 2-3 GB von 10 GB belegt und das Netzwerk langweilt sich. (2x 1 GBit Bonding für Freigaben und 10 GBit Glasfaser für iSCSI/Freigaben)
    Ich habe gestern Abend dann die Freigaben für die beiden 1 GBit Ports deaktiviert und alles über die 10 GBit Karte laufen lassen, es änderte nichts. Heute werde ich das mal anders herum probieren, ggfls. stimmt etwas am 10 Gigabit Netzwerk nicht ...
    Außerdem werde ich den SSD Cache mal komplett deaktivieren, obwohl der sich auch langweilt ... 1 TB Cache für ca. 2 TB Daten, 60% Cachebelegung.


    Hat sonst jemand eine Idee? So kann ich die QNAP nicht meine iSCSI LUNS bedienen lassen, falls dort mal höhere Last aufkommt knallen die ja raus ...


    Gruß

    Hersteller: Kingston
    Bezeichnung: Kingston KVR16LS11/8
    RAM Typ: 204-pin SO-DIMM, DDR3L
    Model: KVR16LS11/8
    Spannung [V]: 1.35V
    Anzahl Riegel [Stck]: 1
    Größe je Riegel [GB]: 8
    Kaufdatum [MM:JJJJ]: 9.03.2016
    Getestet in NAS: TS-563
    Getestet mit FW: 4.2.0
    Kompatibel (JA/NEIN): JA
    Besondere Anmerkungen: Ist mit dem Werksseitig verbauten 2GB Modul gemischt eingebaut, 10 GB werden erkannt
    So sind nun Snapshots ohne Probleme möglich, da diese erst ab 4GB freigeschaltet werden.

    Also in meiner VMware Umgebung habe ich je LUN immer 2 Targets und damit jeweils 2 aktive Verbindungen je Datastore.
    Ob sich beide Verbindungen auch bei Windows gleichzeitig aktiv konfigurieren lassen weiß ich nicht, aber so sollte das reichen.


    Ob sich das lohnt für jede VM ein LUN zu erstellen wage ich mal zu beweifeln, mal abgesehen von dem Aufwand und den viel zu vielen Targets.
    Ich nutze jeweils 200 GB Luns und lasse meine vSphere Hosts diese jeweils zu einem 400 GB Volume mounten, so habe ich pro Datastore 4 Verbindungen.
    Auf einem Datastore sind aktuell geschätzt ca. 7 VMs.

    Habe das Tool noch nie benutzt aber du solltest schon hinzufügen was du denn genau für eine Frage hast?
    Bzw. wodurch entsteht der Grund zur Frage? Läuft irgendwas langsam oder ähnliches?


    Die Werte sind in Ordnung, da die Festplatten anscheinend ja leer sind, die Lese Schreibgeschwindigkeit ist für ein RAID1 sehr gut.

    Das stimmt wohl, denn korrekt wäre das diese Maschinen auf 6 HDDs "rödeln", auch wenn rechnerisch der Platz von 2 Platten nicht nutzbar ist.
    Alle Paritäten sind schließlich auf allen Platten verteilt, daher wird auch auf allen gelesen bzw. geschrieben, was doch noch recht gut gehen sollte.


    Schätze mal das der Durchsatz gut sein sollte, es fehlt die Angabe welche Paketgrößen hier konfiguriert wurden.
    Jumboframes machen bei einem iSCSI Netzwerk durchaus sinn, vorallem bei Anbindungen über 1 Gbe.


    Zweiteres sind sicherlich die Zugriffszeiten, denn die Platten sind gar nicht für den Zweck gedacht, was sicherlich bekannt ist?
    Ein Test ergibt dass die Platten eine Reaktionszeit von ca. 9.15 ms beim schreiben und 12.51 ms beim lesen haben, das ist ziemlich hoch.


    Nun auf RAID10 zu wechseln wäre ein Möglichkeit, allerdings bleiben die Platten langsam. Das sollte also höchstens höhere Durchsätze bringen.
    Ob dort Zugriffe viel schneller von statten laufen ... kann ich mir nicht vorstellen, das dürfte spürbar wenig bis gar nichts ausmachen.
    Evtl. hilft es den Readcache auf einen Read/Write Cache zu erweitern, sprich eine zweite SSD zum Cachen einzubauen, das hilft aber nur gering.


    Also, mehrere Möglichkeiten die am Storage selbst umsetzbar sind, von günstig/kostenfrei zu teuer:


    1) Jumboframes aktivieren, vorher benchen welche Framegröße am meisten bringt
    2) Read/Write Cache einsetzen => zweite SSD hinzufügen
    3) Ggfls. RAID10 "ausprobieren" => bei Produktivumgebungen evtl. eher nicht so einfach/gar nicht umzusetzen
    4) Passende Festplatten einbauen => bspw. ST1000NM0033 (Constellation ES.3 mit ca. 4.16 ms Reaktionszeit)
    5) RAID5 aus SSDs hinzufügen bzw. auf SSDs migrieren


    Ansonsten kann ich nur sagen das dort eher eine QNAP mit SAS Unterstützung gepasst hätte, denn das wäre ein Einsatzfeld für SAS.
    Gerade mit 15K Platten hätte man dort sehr hohe Durchsätze mit sehr geringen Reaktionszeiten hinbekommen, vorallem mit SSD Cache.


    Ansonsten muss man schauen was auf dem Host noch so los ist. Wird das System dort auf SSDs ausgeführt? Treiber alle aktuell? etc.

    Ja, SSDs sind um einiges schneller, aber auch nur I/O technisch, Datenübertragungen sind bei einem guten Storage gleichschnell.
    Sprich sollten VMs viel besser reagieren.


    Nein, SSDs werden gänzlich als Cachelaufwerk genutzt, damit ist dann nichts sonstiges anzufangen. Sieht man auch im Speichermanager.

    Wenn es möglich ist würde ich das Erweiterungsgehäuse wieder aus dem Volume entfernen, nur falls es per se eine Funktion gibt.
    Persönlich hätte ich nicht mit zwei RAID10 ein einziges Volume erstellen lassen, sondern eher zwei getrennte Dateisysteme erstellt.


    Prinzipiell kannst du eine Platte herausziehen und eine leere wieder nachschieben, dann wird das Volume aber einen Degrade bekommen.
    Das dauert, sollte aber funktionieren. Ich würde das System herunterfahren bevor die Platte herausgezogen wird, um Schreibfehler zu vermeiden.


    Offiziell unterstützt werden die REDs von dem Gehäuse anscheinend wohl nicht, wobei das sehr unwahrscheinlich ist das es daran liegt.
    https://www.qnap.com/i/de/prod…_intro.php?g_cat=1&II=105


    Als weiteres wäre es möglich, aber unwahrscheinlich, das durch die Menge der Platten Fehler produziert werden könnten. WD RED sind für höchstens 8 Platten in einem Gehäuse ausgelegt, mehr Platten führen zu mehr Vibrationen, womit sie sich gegenseitig stören könnten. Erst ab den WD RED Pro sind diese auch von 8-16 Platten in einem Gehäuse ausgelegt, um die Vibrationen ohne Probleme abfangen zu können. Wenn nun beide Geräte im Rack untereinander bzw. direkt ohne eine HE zwischen ihnen eingebaut sind, dann wäre das eventuell eine logische Erklärung für die Fehlerwerte.


    Grundsätzlich sollten aber im Kommerziellen Bereich bestenfalls die Hardware aus der HCL, also der Kompatibilitätsliste des Gerätes, gekauft werden.
    Probier also mal aus die Platten gegen passende Enterprise Platten zu tauschen.

    Zitat von "davidmanto"


    Ich nutze VAAI, prinzpiell macht das aber jeder der ein VMware Zertifiziertes Gerät per iSCSI bzw. NFS nutzt.
    Denn VAAI ist automatisch "eingerichtet", das vCenter erkennt den Support.


    Bedenke aber das dies nur Funktionen sind die auf dem NAS selbst ausgeführt werden, das erhöht nur bedingt Übertragungsgeschwindigkeiten.
    VAAI ist eine Sammlung an Offloading Features, so lassen sich beispielsweise VMs kopieren, ohne dass diese erst auf den Host "kommen".
    Die NAS bekommt den Befehl einen Klon zu erstellen und macht dies, lokal, so können gewisse Aufgaben in Sekunden statt Minuten erledigt werden.


    Funktionen wären also z.B.:


    - Klonen einer VM
    - Erstellen einer Thick VMFS Festplatte in viel kürzerer Zeit
    - Erstellen und mit Nullen beschreiben einer Thick VMFS Festplatte in viel kürzerer Zeit (Eager-Zeroed)
    - Schnelleres Booten der VMs (Teilweise sehr viel schneller, da der Durchsatz etwas schneller in die Höhe treibt)


    Grundsätzlich hat iSCSI mehr Vorteile durch dieses Feature. Ob dein vCenter bzw. die Hosts VAAI erkennen und nutzen sieht man z.B. untenstehend.
    Hardwarebeschleunigung muss auf "Unterstützt" bzw. Supported stehen, dann sind die VAAI Features aktiv.

    Abend,


    ich möchte den SSD Cache im TS einrichten, dazu wird empfohlen Bay 1-2 zu nutzen.
    Natürlich sind auf jeweils beiden schon Platten aus einem RAID5 zu finden, wie solls auch anders sein... :roll:


    Gibt es da eine Möglichkeit, ohne den Pool zu degraden und einen Rebuild zu starten?
    Oder kann ich "einfach" die erste Platte in den vierten Slot werfen, was sicherlich in einem Degrade endet, falls es da keine Erkennung o.Ä. gibt. :D

    Zwar hatte ich schon auf die Eile eine Frage hier gestellt, da das aber geklärt ist sag ich auch nochmal Hallo. :D


    Ich heiße Dominik, bin 22 Jahre alt und quasi jetzt schon "Vollzeit-Netzwerkadmin". :tongue:
    Sowie auf der Arbeit als auch Zuhause, weshalb ich nun auch eine ältere Synology durch die seit Dienstag neue TS-563 ersetzt habe.
    Das ist übrigens das Modell mit 2 von möglichen 16 GB RAM, bis jetzt habe ich noch keine Not aufzurüsten, die Speicherverwaltung ist wohl sehr gut.


    In meiner Freizeit versuche ich recht oft an meiner lokalen Serverumgebung zu arbeiten, die größtenteils zum lernen und fortbilden gedacht ist. Darunter sind aktuell ein VMware Cluster (32 logische Kerne, wui! :love: ) aus einem HP & ASUS Server, ein stillgelegter DELL AMD Dual Socket Server und weitere Kleinigkeiten.


    Der TS-563 wird dazu als Fileserver für meine Daten dienen sowie als iSCSI Server für den VMware Cluster, dort werde ich auch den SSD-Cache testen.In Zukunft plane ich auch die Anbindung der Server, mindestens die Storageanbindung, auf 10 GBit umzurüsten, wozu die TS-563 ja gewappnet wäre.Da aktuell jeweils 4x 1 GBit an jeden Server anliegt und die Datenübertragungen noch nicht komplett zufriedenstellend sind, aber schon sehr gut. Aber das ist noch in der Mache, ich kalkuliere gerade die Kosten der Hardware für den Unterschied zwischen Glasfaser- bzw. Kupfer.


    Soweit schon mal zu meinen Vorhaben mit der QNAP, eventuell werde ich bei der Umsetzung hier davon berichten, je nach dem ob es ein paar Interessierte gibt. :D


    Bis dann mal!