Beiträge von nasferatu

    Bin da vielleicht auch ein bisschen verwöhnt von der DS1821+, da ging alles zackig.

    Bei 6 Min. liegt natürlich wirklich was extrem im Argen . Die TS-x73A Reihe ist ja nun auch nicht so untermotorisiert an sich. Allerdings fragt man sich bei QNAP und der UI des öfteren, wie das so programmiert ist. Mir fallen nur wenig Sachen ein, die wirklich Zeit brauchen. Die Filestation braucht ja auch ewig, bis sie alle Volumes anzeigt, offensichtlich weil praktisch alle Dateibäume komplet eingelesen werden. Usw. Neustarten ist ja auch jedes mal eine Geduldsprobe. Da fragt man sich schon, ob QNAP bei der Entwicklung die Prioritäten richtig setzt. Aber zumindest beim QTS komme ich mit den meisten Sachen gut klar und da ist der Komfort für mich schon gegeben. Man sollte nur die Firmwareupdates lieber erst mal 1-2Wochen liegen lassen, um einigermaßen sicher zu sein, dass hinterher nicht irgendwas kaputt ist.

    Das Problem bleibt aber: schlechte Performance unter QuTS hero.

    Das ist richtig, das sollte QNAP mal dringend überprüfen. Möglicherweise ist das ein Intel/AMD CPU Problem, denn der Test war halt ein Intel System. Von der reinen Rechenleistung her würde man jedenfalls nicht solche großen Unterschiede erwarten.

    alleine die Fotos und Videos von den Mobilgeräten sind schon 2,8 TB, wie du bei 100k Fotos auf 20 oder 30 GB kommst, kann ich mir nicht erklären, außer es wären GIF's.

    Nein, natürlich nicht. Aber der TE auf den ich verwiesen hatte hat ja 7*16TB im System. Und ich habe auch ziemlich viel Filme etc. und eigene VHS Rips. Aber trotzdem bin ich da noch weit unter dieser Größenordnung, aber bei anderen scheint das hier gar nicht so selten zu sein. Und ich habe ja schon im Verhältnis auch nicht so wenig Daten, was auch die Familie so produziert. Ich finde es daher sinnvoller, mit der Zeit zu wachsen. Die Platten altern ja auch und da hat es dann nur bedingt Sinn, zu doll in die Zukunft zu investieren aus meiner Sicht. Da lege ich lieber Wert auf Flexibilität. Deswegen macht es aus meiner Sicht am meisten Sinn, sich wirklich gut mit der Nutzung der einzelnen Daten zu beschäftigen, um da eine gute Konfiguration hinzubekommen.


    Spricht denn tatsächlich irgendetwas gegen QuTS Hero ? Vielleicht ist die Frage so rum besser gestellt.

    Es ist halt weniger verbreitet und das ZFS ist tendenziell leistungshungriger. Soweit ich sehen kann fehlen die Multimedia Apps. Ich für mich habe den konkreten Vorteil nicht so stark gesehen, deswegen bin ich damals bei QTS geblieben. Die Performanceprobleme des anderen Users scheinen aber mehr in einer ungünstigen Konfiguration zu liegen. Aber man sieht halt schön, dass das gar nicht so trivial ist bei so großen Systemen. Man muss sich ja mal im klaren drüber sein, dass mit der Leistung früher ganze Abteilungen versorgt wurden.

    Also gerade bezüglich Performance gibt es hier eine längere Diskussion : Einsteigerfragen zur Geschwindigkeit


    Ich persönlich habe nur für wichtige Sachen RAID1 am laufen. Das ist einfach, braucht wenig Leistung und ist für mich flexibel genug. Das Systemvolume sollte SSD basiert sein, das habe ich auch als RAID1. Da kann man dann auch VMs und wichtige Container drauf laufen lassen. Die weniger kritischen Sachen habe ich alle auf Einzeldisks oder SSDs . Aus meiner Sicht ist es effizienter, die Dinge auf mehrere unabhängige Platten zu verteilen. Das entkoppelt die Zugriffe und erleichtert auch die Sicherung. Im Fehlerfall und mit einer funktionierenden Backupstrategie kommt man auchmal ein paar Tage ohne Film/Fotosammlung aus. Und man hat erheblich weniger Speicherverlust durch Verwaltungsoverhead. Deduplikation kostet enorme Resourcen und bringt bei hochkomprimierten Daten , wie es heute bei Photos und Videos eh schon der Fall ist, eigentlich nichts. Das bringt nur etwas, wenn man quasi "physische" Fotosammlungen erstellt mit vielen Bildkopien in unterschiedlichen Ordnern. Das wäre ein Fall, wo man damit wirklich was erreichen kann. Ansonsten sind die embedded CPUs einfach sehr schwachbrüstig. Auch wenn Ryzen draufsteht. Die NAS Systeme mit ernstzunehmender CPU Power sind ja absurd teuer.


    Was am ehesten an ZFS interessant ist ist der Schutz gegen Bitrot und plötzlichen Stromverlust. Aber persönlich würde ich wie gesagt möglichst überlegen, wie man die Daten je nach Nutzung sinnvoll über mehrere unabhängige Datenträger verteilt, und wo Verfügbarkeit wirklich ein echtes Kriterium darstellt. Ich hab ja auch mehrere 100000 Fotos, reichlich Videos und eine Film und Musiksammlung. Aber bin weit davon entfernt wie andere hier, dass das 20, 30 und mehr GB einnehmen würde. Wenn man das wirklich ernsthaft nutzt hat man ja bald kein anderes Leben mehr ...

    Siehe Anhang. Speicherpool 2 = Multimedia / Speicherpool 3 = Dokumente (kleine Dateien).

    Da stellt sich aber schon die Frage, ob sich das bei den Multimediadateien so lohnt ... im Verhältnis zur Volumegröße. Vor allem bei dem Performanceverlust. Ich würde denken, wenn man mit vielen Kopien arbeitet, weil das einfach im Workflow so ist ( unterschiedliche Dateizusammenstellungen ), dann sieht das anders aus. Das könnte man allerdings auch mit symbolischen Links erreichen, aber natürlich nur mühsamer. Aber so normal scheint mir der Vorteil eher gering zu sein. Und Multimediadateien sind ja eh schon hochkomprimiert, dass da zufällig mal Blöcke gleich sind ist wohl nur im Videoschnitt so. Da dürfte der Geschwindigkeitsverlust allerdings besonders weh tun.

    Wenn ich nur einen Bruchteil der Geschwindigkeit der "Werbung" erhalten würde, da wäre ich froh:

    Mit der Werbung ist das halt immer so eine Sache ... wenn man die MIndestanforderungen, die bspw. Microsoft für Windows Server ernstnimmt wird man auch keine Freude haben. Da steht auch nichts zum Dateisystem ( wobei nicht weiß, ob man QuTS Hero auch mit ext4 wahlweise auf einzelnen Volumes nutzen kann). Aber ich denke wenn eben Deduplikation UND Verschlüsselung aktiv ist, dann sind das schon enorme Performancebremsen. Und es kann schon sein, dass wie bei NTFS auch, bereits deduplizierte Daten eben dedupliziert bleiben, so dass man nachträglich nichts ändern kann. Auf jeden Fall wäre das ja ein langer Vorgang.. Außer die Daten auf ein anderes Volume ohne diese Features umzukopieren. Man sollte immer im Hinterkopf haben, dass ZFS eigentlich für viel stärkere Maschinen gedacht ist. Und wenn man mal die CPU Benchmarks bei Passmark vergleicht sieht man, dass die embedded CPUs allesamt ziemlich schwachbrüstig sind. Dafür brauchen sie halt auch nur 15W. Ich würde solche Features immer sehr gezielt aktivieren. Ist Verschlüsselung für die Filmsammlung wirklich nötig ... ;) ? Bringt die Deduplikation wirklich einen nennenswerten Gewinn ( gibt'S da eigentlich eine Statistik in der Oberfläche ? ). Usw.


    Ich denke, die Werbung wird diese Werte mit einem ansonsten leeren Volume auf dem RAID5 geschafft haben und alles andere ausgeschaltet haben. Sobald parallele Zugriffe passieren ist mit solchen Transferrraten ohnehin ganz schnell Schluss.

    Wenn ich von meinem PC über LAN Daten kopiere, komme ich auch nie über die 80 MB/sec. Ebenfalls nicht bei der virtuellen Maschine, die auf dem NAS liegt, an dieser ich eine USB HDD durchschleife.

    80MB sind ja nicht so schlecht , weil bei H3llF15H ähnliche Werte rauskommen ... Mir scheint aber, das kleine verteilte Zugriffe noch problematischer sind. Wie dem auch sei, das ist ja inzwischen so ein Sammelsurium an Problemen, da würde ich tatsächlich über neuaufsetzen und schrittweises Vorgehen nachdenken.

    Teilweise dauert das Speichern von Powerpoint Dateien über LAN Ewigkeiten

    Du hast aber jetzt keine besonderen Netzwerkeinstellungen oder irgendwelche anderen Komponenten im Netz, die Bremsen könnten ? Das klingt ja fast, als ob da häufig Zugriffe fehlschlagen oder Timeouts irgendwo sind. Manchmal kann auch schlicht das Kabel oder der Switch ne Macke haben usw. Hast Du mal eine Direktverbindung mit dem NAS probiert, so dass wirklich nur Client und NAS im "Netz" sind. Das klingt alles ziemlich merkwürdig und verkorkst. Ich würde da fast so langsam ans Neuaufsetzen denken. Irgendwo müssen Deine ganzen Daten doch vorher gewesen sein, da muss es doch eine Möglichkeit geben, die erstmal wieder extern zu puffern. Du hast ja schon alleine für die Platten enormes Geld ausgegeben. Und wenn man erst eine Syno kauft und dann QNap, dann sollte doch schlimmstenfalls noch Bugdet für ein paar externe HDDs da sein fürs Backup. Bei so vielen Einzelprobleme sehe ich da wenig Chancen, das anders in den Griff zu kriegen. Ich würde neuaufsetzen mit den M2SSDs als System, und dann mal ein RAID1 einrichten mit 2 Platten und schauen, wie die Performance so ist. Und dann kann man entweder vergrößern oder mehrere getrennte Pools einrichten.

    Ich nicht, aber ich habe Familie ;)

    Ich auch, aber die Last, die nur durch Dateizugriffe beim lokalen Streamen erzeugt würde ( Transcodierung etc. mal ausgeschlossen) ist ja dann doch sehr überschaubar. Aber solche Daten, die eher konstante Datenströme erzeugen von solchen zu trennen, die eher punktuell Last erzeugen ( Photos, Dokumente etc.) kann durchaus sinnvoll sein, um eben diese Abhängigkeiten zu entkoppeln.

    So, ich habe gerade auch mal etwas getestet und bin negativ überrascht, wenn von den HDDs kopiert wird.

    Sind da eigentlich Features wie "Deduplikation" aktiv ? Ich weiß nicht ob Hero das unterstützt, aber das braucht 1.) CPU und 2.) viel RAM. Denn es wird ja jeder Block quasi auf Doppelgänger untersucht, damit man ihn nur einmal speichern muss. Wenn das alles bspw. nur 1 Kern macht, dann sieht die CPU Last beim kopieren nicht so hoch aus, aber schnell gehts trotzdem nicht.

    Ich bin gespannt, ob das so bleibt. Meistens nach ein paar Tagen (ca. eine Woche, mal 10 Tage) wird das NAS extrem langsam.

    Also ich bemerke hier gelegentlich wildes Rödeln, was irgendwelche Indexing Aktivitäten anzeigt ... ich habe allerdings auch QSirch an und die Multimediakonsole indiziert auch gerne mal ... allerdings habe ich die Logik wann da irgendwas passiert bisher auch noch nicht so richtig durchschaut. Und gerade solche Indexing Aktivitäten können so einen RAID Verbund massiv ausbremsen. Da hast Du auch keine Chance, das irgendwie zu optimieren, denn die Zugriffe verteilen sich ja auf alle Platten mehr oder weniger gleichmäßig. Eben deshalb halte ich so einen einzigen Riesenpool einfach konfigurationsmäßig für ziemlich unglücklich. Wenn Du die Chance hättest, da 3 draus zu machen wäre das glaube ich besser. Gerade die Multimediadaten werden ja selten permanent abgerufen ( oder guckst Du 4 Filme gleichzeitig 8o ).

    Da fällt mir dann eigentlich nur ein, einen weiteren Speicherpool im leeren Slot mit einer übriggebliebenen Platte einzurichten und mal einen Gegentest zu machen. Ich denke halt, der Riesen RAID Verbund ist das Problem. Mit 7 Platten bist Du hier glaube ich auch ziemlich weit vorne, was einen einzelnen Verbund angeht. Im Zweifel hilft dann nur ein Ticket bei QNAP.

    Was soll ich den nun machen?

    Ich hatte mich auch auf die anderen Apps bezogen. Die sollten natürlich auch nach Möglichkeit auf einem SSD Volume liegen. Wie man die VirtualizationStation nachträglich verschieben kann weiß ich nicht bzw. das ging meines Wissen bisher nur mit manueller Nachhilfe ( wie tiermutter geschrieben hat). Und hat ja wohl auch funktioniert. Ich würde halt alles, was mehr oder weniger permanente IO Zugriffe erzeugt wenn möglich auf ein dediziertes SSD Volume verschieben. Denn so ein einzelner großer RAID Verbund wird rein technisch weniger IOPS verarbeiten können, weil ein Teil für den Overhead draufgeht. Deswegen mache ich lieber mehrere RAID Verbünde oder Einzelvolumes. Auf die Art kann man die Zugriffe wesentlich besser aufteilen. Im Rechenzentrum werden ja auch RAID Verbünde kaskadiert, um die Zugriffe zu entkoppeln. Da braucht man da aber vor allem deswegen, weil ja maximale Ausfallsicherheit benötigt wird.

    habe nun die VirtualizationStation 3 deinstalliert und wiede

    Das bringt nichts, das geht nur bei der Neueinrichtung.

    Ist richtig, allerdings halte ich ZFS für die bessere Grundlage für ein Backup als ext4. Erst recht im RAID 1.

    ZFS ist sicherlich ext4 überlegen...mir war QuTSHero einfach noch etwas zu wenig gereift ... Und in den 7 Jahren hatte ich keine ernsthaften Probleme, bei denen mir das geholfen hätte