Beiträge von horst98

    Ich habe ein völlig wirres Verhalten meines TS-1677X.
    Zunächst hatte ich 2*8GB von A-DATA ab Werk installiert. Lief im Dual Channel.

    Dann habe ich 1*8GB von Crucial dazu installiert (also 3 Riegel). Und da hatte ich 23GB von 24GB nutzbar (Bild 1). Fand ich toll, dass das so klappte. Sicherlich ist die Sache mit dem Dual Channel nicht mehr ok. Hatte ich nicht nachgesehen.

    Jetzt habe ich den vierten und letzten Riegel (wieder von Crucial) hinzu gesteckt und auf einmal heißt es nur 16GB von 32GB nutzbar (Bild 2). Und im Ressourcenmonitor werden tatsächlich nur 15,59 GB angezeigt. Aber es wird Dual Channel angezeigt. Die Memory-Riegel sind lt Anleitung installiert.


    Hat Jemand eine Idee, wie man das gelöst bekommt?


    Die Lösung war ganz einfach. Im Gegensatz zur Installationsanleitung von QNAP (Reihenfolge der Installation zusätzlicher Riegel), muss man die DIMMs so installieren, dass in einem Kanal nur ein Hersteller gesteckt ist.

    Jetzt läuft es mit 31GB von 32GB im Dual Channel.

    Entscheidend sind der Username, der beim Mounten des SMB-Laufwerks verwendet wird


    Am Ende habe ich es spät am Abend doch noch geschafft. Die Implementation von smb auf QNAP ist etwas 'faulty'. Das merkt der normale Windows-User natürlich nicht.


    Ich musste von smb (cifs) einfach zu nfs wechseln und alles klappte auf Anhieb so, wie es sollte.

    Fazit? Versuche niemals zwei Linux Maschinen (QNAP + z.B. ubuntu) über ein Microsoft-Protokoll zu verbinden. Windows hat da gar nichts zwischendrin zu suchen.


    Danke für all die Anregungen.

    Was HO da wegen der Seagate HDD´s anführt, dem kann ich nicht zustimmen.

    Denn bei meinen zwei NAS war es umgegehrt.

    In den vergangenen 10 Jahren hatten wir auch 8 Seagate Platten (à 8TB) im Einsatz. 7 von 8 gingen innerhalb von zwei Jahren nach und nach kaputt. Immerhin hatten wir Garantie. Aber den Ärger kannst Du Dir sparen.


    Von drei Dutzend Ultrastar hat es nur eine erwischt. Das kommt ungefähr mit den Ausfallzahlen hin.


    Den Kauf muss sich jeder selbst überlegen. Seagate hat eine perfekte Werbung.

    Bildschirmfoto vom 2024-06-20 10-25-50.png

    Es gibt mit 20TB und 22TB Platten keine Probleme mit meinem TS-873A (20TB RAID5, 22TB RAID1). Als B-Ware (schon mal ausgepackt) für billig Geld bei einem großen Versender gekauft.


    Bei den von Dir ausgesuchten Platten habe ich so richtige Bauchschmerzen. Seagate ist der Hersteller mit den meisten, vorzeitig sterbenden Platten. Hier kann man sich Statistiken über richtig viele Platten ansehen: https://www.backblaze.com/blog…-drive-stats-for-q2-2021/

    Die besten Langzeitplatten stammen aus der alten IBM-Serie Ultrastar, die dann von Hitachi (HGST) gekauft wurden und schließlich an Western Digital gingen. Die Kapazitäten gehen bei den Ultrastar immer etwas später rauf als im Markt. Dafür haben sie weitaus weniger Ausfälle.


    Ich bin mir nicht sicher, ob man hero installieren kann. Nur die Modelle mit dem kleinen h sind für hero geeignet. So die offizielle Antwort von QNAP auf meine Anfrage.


    Wir haben ein der Firma ein neues 16-bay rackmount NAS, das wir mit hero betreiben. Schneller als die alten 16-bay rackmount NAS sind die mit ZFS auch nicht. Und den Overhead, den man sich mit ZFS einfängt, lohnt sich nur für richtig große Installationen. Da sind selbst meine 200TB peanuts.

    Ich kann Dir berichten, dass Du einen Wechsel von BIOS zu UEFI im Nachhinein mit hoher Wahrscheinlichkeit nicht hinbekommst. Ich habe eine Windows UEFI-Installation nur geschafft, in dem ich bei der Installation die ISO-Datei aus dem virtuellen CD-Laufwerk ausgeworfen habe und dafür ein RedHat-VirtualIO-ISO-File eingelegt habe. Als die Treiber installiert waren, konnte ich normal weiterinstallieren. Das galt für Windows, sollte aber meines Wissens für Linux genauso funktionieren, weil das BIOS/UEFI erstmal nichts mit dem Betriebssystem zu tun hat.


    Ich habe relativ lange an meiner LMDE 6 VM UEFI-Installation rumgemacht und am Ende doch verzweifelt aufgegeben. Der Boot kam nur bis in die UEFI-Shell und ich kam nicht weiter. Unter normal BIOS läuft es auch, aber ich kann z.B. keine 10 Gbit/s Netzwerkkarten nutzen, weil der VirtualIO-Treiber nicht funktioniert.


    TPM 2.0 in virtuellen Maschinen sehe ich kritisch, weil ja dieser Chip an alle VMs geteilt werden muss. Und erstmal muss das NAS so einen TPM-Chip verbaut haben. Ist das NAS älter könnte der Chip auch noch auf TPM 1.x laufen. Auf einem HP-Laptop konnte ich die TPM 2.0 Firmware auf den Chip brennen. Wie man das bei QNAP macht? Keine Ahnung.

    Auf meinem TS-1677X (AMD Ryzen 7) habe ich in einer VM (4.0.0.239) ein Linux Mint in der Debian Edition (Faye 6) installiert. Installierte relativ einfach. Allerdings nur mit einem normalen BIOS. Mit einem UEFI BIOS ging gar nichts. Warum weiß ich nicht.

    Parallel dazu habe ich zwei Windows Maschinen (Win10, Win11) schon früher installiert. Ich betreibe sie wegen zu geringen RAMs (16GB) nicht gleichzeitig.


    Ich greife über einen ASUS Laptop (AMD Ryzen 7, NVIDIA RTX 3070, USB-C-Audio, USB-C + HDMI 4K Monitore) auf das Linux per Win10 Remotedesktop zu. Alles läuft rund und erstaunlich schnell für eine VM auf einem mittleren NAS.


    Was aber beim Linux nicht funktioniert, ist die Audioausgabe (z.B. YouTube) auf den Lautsprechern des Laptops. Die beiden Win-VMs laufen dagegen mit Ton. Die Audio Devices habe ich als 'nicht exklusiv' auf dem Laptop definiert und können von den beiden Win-VMs angesprochen werden.


    Weiß Jemand, welche Einstellungen/Treiber für die Tonübertragung bei Linux verwendet werden müssen? Ich habe das SPICE-Protokoll für die Zeichenübertragung mit dem Cut/Paste-Buffer aktiviert. Das hat aber nicht gereicht.


    Jeglicher Hinweis ist willkommen.

    Danke für die Hinweise. Ich habe nochmal offiziell bei QNAP nachgefragt. Und da gibt es die Aussage, dass es ausschließlich die Geräte mit dem 'h' im Namen sind.


    Letztlich haben wir uns gegen die alten Geräte entschieden. Leider zu viel Aufwand.

    Ich wollte noch kurz Feedback geben.

    Ich habe mir das TL-D800C als B-Ware für günstig Geld gekauft. Läuft einwandfrei mit USB 3.2 Gen2 (10Gbit/s).

    Vom NAS aus kann ich dort ein RAID5 formatieren. Man spürt keinen Geschwindigkeitsunterschied zu den eingebauten Platten.


    Man kann auch die Erweiterung mit dem Menüpunkt 'sicher trennen' vom NAS entfernen, ohne Daten zu verlieren. Allerdings dauert der Check beim Herunterfahren viele Minuten. Auch der Anschluss an das zweite alte NAS - geht nur mit USB 3.0 (5Gbit/s) - klappt einwandfrei. Dort muss man dann das Volume importieren. Dauert auch seine Zeit.


    Ich bin zu 100% zufrieden. Danke für die Hilfe.

    Wir haben ein TS-1677X als primäres NAS mit 9 Stk. 18 TB Platten im RAID 6 Verbund (110TB). Dazu noch ein wenig Lese-Cache und SSDs für Apps.

    Zur täglichen Sicherung in einen anderen Brandabschnitt sichere ich über eine 10GbE Leitung auf eine TS-873A mit 6 Stk. 20TB im RAID 5 Verbund und 2 Stk. 22TB im RAID 1. Zusammen auch 110TB.

    Dazu als M.2 noch etwas Lese-Cache und eine M.2 für Apps. Die Büchse ist voll bis oben hin.


    Über einen Internet-Tunnel und VDSL 40/100 Leitungen sichere ich zusätzlich noch Offsite. Dazu habe ich seit Jahren eine extrem langsame TS-831XU (mit 32bit CPU von Annapurna Labs) an einem anderen Standort.

    Darin sind 8 Stk. alte 6 TB im RAID 5 mit 32 TB verbaut.


    Ja, ich habe Angst vor Datenverlust und deshalb hat jede NAS eine Online USW, damit die Spikes durch unsere häufigen Gewitter nicht durchschlagen. Und dennoch reicht mir das nicht.

    Allerdings sichere ich nicht diese riesigen Datenmengen über das Internet. Es sind nur die wichtigsten 25TB. Und das dauerte beim ersten Mal, ohne alle Infrastruktur lahmzulegen, 40 Tage. Die Differenzen gehen viel schneller.

    -

    Vor bestimmt 8 Jahren habe ich mich schon mal mit einer der ersten USB-Erweiterungskisten für das TS-831XU versucht. War vermutlich USB 3.1 mit 5 Mbit/s. Hat nie wirklich funktioniert und ich habe die Kiste wieder an den Lieferanten zurückgegeben. Wurde von QNAP anstandslos ihrerseits wieder zurückgenommen. Das hieß für mich, da war etwas noch nicht richtig entwickelt.

    ===

    Jetzt sind mir 8 Stk. 8TB Platten übrig geblieben und ich denke mir, dass ich sie zu einem RAID 5 für die weitere Sicherung von Daten Offline einsetzen werde. Dazu muss ich die Platten allerdings hin- und hertragen.


    Hier sind die Fragen an die Community:
    1. Ist USB 3.2 Gen 1 und 2 mittlerweile an den preiswerten QNAP-Erweiterungen stabil?
    2. Hat SAS neben der höheren Geschwindigkeit und dem stabileren Connector noch weitere Vorteile? Ist es stabiler im Betrieb?

    3. Kann man die Erweiterungen ohne Datenverlust an andere NAS anschließen? Kann ich Daten damit zwischen den NAS 'herumtragen'?

    4. Ich möchte die Erweiterung NICHT an PCs verwenden.

    5. Bei SAS kann man bis zu 4 Erweiterungen an einem Kanal anschließen. Kann man zwei USB-Erweiterungen stabil an einem NAS betreiben?


    Noch ein paar Gedanken zu den Kosten


    USB-C

    2 Stk. TR-004 = 450€

    1 Stk. TL-D800C = 440€


    SAS

    1 Stk. TL-D800S = 590€

    zzgl. zweite SAS PCIe QXP-800eS-1164 = 150€


    Die SAS-Lösung ist mit 740€ deutlich teurer. Es reut mich etwas, dieses Geld auszugeben, da diese Backup-Jobs jede Menge Zeit haben und in der Regel die Platten das Bottleneck sind. Und es könnte ja sein, dass man USB-C herumtragen kann und SAS nicht.

    ===

    Habe ich was vergessen? Hat jemand Erfahrungen mit diesen Geräten. Freue mich um jede Antwort.

    hier sollten alle QuTS hero NAS aufgeführt sein. ;)

    Danke, aber das sind doch die, die es neu zu kaufen gibt?


    TVS-872XT, TVS-672XT, TVS-472XT, TS-1655, TS-855eU, TS-855eU-RP, TS-855X, TVS-675, TS-1673AU-RP, TS-1273AU-RP, TS-873AeU, TS-873AeU-RP, TS-873A, TS-673A, TS-473A

    Herzlichen Dank, das hilft weiter. Jetzt habe ich ein wenig gestöbert und keines dieser Geräte ist unter 1.000€ zu haben. Das ist wohl der Einsteigerpreis für QuTS hero.

    Wir haben ein paar NAS laufen, die wir nacheinander auf QuTS umstellen. Unsere großen und neueren NAS können das.
    Jetzt wollte ich noch ein oder zwei mittlere, alte, billige QNAP NAS kaufen (8, 12, 16 Bay), die allein zur Bereitstellung von Backup-Speicher in einem anderen Brandabschnitt da sein sollen.


    Nach langer Suche im Netz habe ich nicht gefunden, ab welcher NAS-Hardware-Version die Plattformen QuTS-fähig sind.


    Kennt jemand eine Liste z.B. von QNAP selbst, mit den kompatiblen Maschinen?
    Oder kann man anhand der CPU-Version auf das QuTS schließen?


    Vielen Dank

    Danke, ich habe jetzt eine zweite Maschine unter Win11 aufgesetzt und habe die Red Hat VirtIO Treiber gleich beim Start mit installiert. Unbedingt die Systemplatte auf GPT einstellen. Sonst klappt UEFI nicht. Später bekommt die MBT Table nicht mehr auf GPT getauscht. Auch MBR2GPT.EXE hat bei mir nicht funktioniert.
    Das Netz zeigt jetzt 10Gbit/s und die Transfergeschwindigkeit hat sich nochmal verdoppelt auf 200 MB/s.
    Herzlichen Dank an die Helfer.

    Ich habe mich da jetzt durchgekämpft. Um die VirtIO-Treiber für die Disks zu verwenden muss man zwingend ein UEFI-BIOS haben.

    Das kann man alles in der Virtuellen Maschine einstellen und auch die VirtIO-Treiber installieren.


    Aber dennoch klappt der Boot nicht, weil das UEFI-BIOS zwingend eine GPT-Partition Table benötigt. Und wenn man Windows in der VM installiert, dann wurde bei mir ein normales BIOS installiert. Man kann das theoretisch mit dem MBR2GPT.EXE in der Windows-Installation konvertieren. Aber ich habe das nicht geschafft. Ich brauche die Platten dort nicht, darum habe ich es gelassen.


    Auf einem zweiten NAS habe ich WIN11 installiert und da habe ich bei der Installation die ISO-Datei von Windows in der CD gegen die Treiber-CD ausgetauscht und die Treiber zur Installation vorinstalliert. Und siehe da, es klappt. Die Performance ist extrem spürbar gestiegen.

    Danke für die schnelle Hilfe. Morgen kann ich die VM runterfahren. Dann melde ich mich nochmal nach Tests.


    Xydoc Leider hat der virtio-Adapter nicht geklappt. Die Netzwerkverbindung wird nicht erkannt. Der Ethernet-Controller wird im Hardwaremanager nicht erkannt und mit einem Ausrufezeichen versehen.


    Ich habe dann die Intel PRO/1000 MT Karte gewählt. Die kenne ich noch als stabil von früher. Und siehe da, es klappt mit 1 Gbit/s.


    Die File-Kopiergeschwindigkeit aus dem LAN hat sich von 7MB/s auf 100MB/s mehr als verzehnfacht.

    Bin sehr zufrieden. Herzlichen Dank!!


    FRAGE: Es muss auf der Schnittstelle ja noch mehr gehen. Wie komme ich an diesen virtio-Adapter?

    Ich betreibe eine Win10 VM auf einem TS-873A NAS mit 5 Netzwerkschnittstellen.

    2*SFP+ mit 10Gbit/s

    1*5GBaseT mit 5 Gbit/s

    2*2.5GBaseT mit 2,5 Gbit/s


    Das NAS ist per SFP+ via 10 Gbit/s mit einen QNAP 10 Gbit/s Switch verbunden (Bild 1: Adapter 6)

    Die Win10 VM ist per virtuellem Switch über den Adapter 3 mit 5 Gbit/s an eben dem selben Switch angeschlossen. (Bild 1: Adapter 3)

    Win10 vergibt sich selbst eine feste IP, die nach außen durchgereicht wird.

    Alles funktioniert wunderbar.


    ABER! Im PC wird nur eine Ethernetgeschwindigkeit von 100 Mbit/s angegeben. Der eingesetzte Treiber wird im Win10 mit Realtec RTL8139C+ Fast-Ethernet-Netzwerkkarte angezeigt. Und im Treiber kann man als maximale Geschwindigkeit eben diese 100Mbps auswählen. Auto Negotiation nimmt auch die höchste.


    Die Schnittstelle im NAS (Bild 2) wird mit QXG-5G1T-11C angegeben. Sucht man bei QNAP nach dem Windowstreiber findet man darin den Marvell AQtion AQC107 Chip.


    Doch alle Versuche den Treiber zu installieren schlugen fehl. Ich habe noch eine zweite NAS mit 10GBaseT Anschlüssen. Und auch dort bekomme ich den Anschluss nicht schneller.


    FRAGE: Wie bekomme ich den Adapter auf eine höhere Geschwindigkeit? Oder ist das der einzige NIC, den die VM versteht?

    Alles kein Problem.


    2.

    Der Schreibcache auf der SSD wird auch beim Runterfahren prinzipiell nicht auf die Festplatten zurückgeschrieben.

    Wir haben Caches in Fileservern seit Jahrzehnten im Einsatz. Das Verhalten der damals kleinen RAM-Caches war komplett anders. Da versuchte der Controller so schnell wie möglich seine Daten unmittelbar auf die Platte zu schreiben. Denn RAMs verlieren ihren Inhalt bei Stromverlust.

    Der Cache von QNAP verwandelt dagegen die Plattenarrays in Hybridplatten. Die gab es früher, als die Flashspeicher noch sehr teuer waren. D.h. der Cache ist als Verlängerung des Festplattenspeichers zu sehen und nicht als echter Cache im herkömmlichen Sinn.

    D.h. aber auch, dass man bei der Verwendung als Schreib-Cache auf jeden Fall ein RAID1 mit zwei SSDs aufsetzen sollte, damit man nicht bei jedem Hardwaredefekt gleich auf die Sicherung muss. Das ist wichtig zu verstehen. Hat man sich mit RAID1 bei den HDDs im Betrieb etwas abgesichert, zieht man dieses RAID1 mit einem falsch konfigurierten Cache auf Nicht-RAID runter.