Beiträge von Anthracite

    Was 10G angeht, da würden mit 4 Ports reichen. NAS, Firewall und 2 PCs, für den Rest reicht GBit aus.

    Genau das meinte ich ja auch, s. o.. MichaelS2 hatte nach einem Switch mit 24 mal 10GbE gefragt, und das ist für den Privatgebrauch nicht nötig. Der oben erwähnte TP-Link mit vier mal 10GbE und 24 mal Gigabit passt da perfekt.

    Bei mir sehe ich übrigens noch lange keinen Bedarf für 10GB/s, bisher mit 1GB/s reicht mir das vollkommen aus.

    Kommt drauf an, was man macht. Für Foto- und Videobearbeitung lohnen sich 10GbE, für meine Sachen im Heimbüro (mein Netz ist insofern nur teilprivat) auch.

    Ich kommen hier schon mit einem 24er nicht aus

    Das ist dann aber kein Privathaushalt?

    Die vorangegangenen Empfehlungen bezogen sich ganz klar auf einen Privathaushalt, wo üblicherweise zwei PCs und ein NAS die einzigen Geräte sind, die von 10GbE profitieren.


    Im Firmenumfeld, insebesondere bei mittleren und größeren Unternehmen, sieht das natürlich ganz anders aus.

    Naja, ich dachte, ich stelle mein gesamtes Heim-Netzwerk auf 10 GBit/s um. und da als Anfang den zentralen Switch, dann meinen stärksten PC (viel Bild und etwas Videobarbeitung; danach die Notebooks meiner Frau und meiner Kinder, die vu+ usw.

    Ja, aber was braucht davon denn mehr als Gigabit?


    Es gibt derzeit im Privatnutzerbereich noch keine Internetzugänge, die mehr als 1GBit/s haben. Alle Geräte, die ausschließlich ins Internet gehen, können mit mehr als einen Gigabit nichts anfangen. (Wenn in drei Jahren oder später Anschlüsse mit 2GBit/s kommen, kannst du dir immer noch einen neuen Switch kaufen. Dann wird es auch mehr Auswahl geben, und es wird trotz Doppelkauf billiger sein.)


    Wlan kann nicht mehr als Gigabit (wenn du direkt daneben stehst, schafft der neueste Standard ein klein wenig mehr). Wlan-Access-Points brauchen also auch nicht mehr als Gigabit.


    Drucker, Scanner etc. haben oftmals nur Fast Ethernet, da sie eh' nicht schneller können.


    Musik und Videos kommen mit deutlich weniger als 1Gigabit/s aus. Musikboxen, Smart-TV etc. brauchen also nicht mehr als Gigabit (sie haben auch keine anderen Ports), auch nicht zum NAS hin.


    10GbE lohnt sich nur für Verbindungen der PCs untereinander sowie von den PCs zum NAS. Das betrifft damit bei euch genau drei Geräte, deinen PC, den deiner Frau, das NAS und vllt. einen Port zur Reserve. Die Kinder verbinden ihre Notebooks nur mit dem Internet, und wenn doch mal untereinander, dann ist da noch ein Minecraft-Server im Internet dazwischen.


    D. h. ein Switch mit drei oder vier Ports wie der TP-Link T1700G-28TQ reicht mit den vier sfp+ Ports völlig aus und hat massig Anschlüsse für alle anderen Geräte. Oder du nimmst den schon erwähnten Miktotik CRS309 mit acht Ports und hängst da noch einen billigen Gigabit-Switch dran.


    Etwas anders sieht es aus, wenn du jetzt dein Haus komplett neu verkabeln möchtest und dabei in jedes Zimmer eine Glasfaserleitung legen willst.


    Alternativ: macht es dann Sinn, das NAS (H886, Standard 2,5 GBit/s) im Netz mit >= 2,5 GBit/s zu betreiben?

    Ja. Das NAS ist neben deinem PC das einzige Gerät, bei dem das wirklich was bringt.

    Klar gibt es das. Beim Werbung entfernt, siehe Forenregeln! kannst du dir eine Liste zusammenklicken. Der Preis wird allerdings meistens vierstellig, bei Rechenzentrumsgeräten können auch fünfstellige Preise erreicht werden.


    Der interessanteste Switch taucht in der Liste allerdings nicht auf: CRS326-24S+2Q+RM 24 mal sfp+ und zusätztlich zwei qsfp Ports, und das zu einem sehr günstigen Preis.


    All diesen Switchen ist aber gemein, dass sie auf Grund ihrer lauten Lüfter nicht für Wohnzimmer oder Arbeitszimmer geeignet sind, sondern üblicherweise im Serverraum stehen. Das gilt auch für den CRS326 (wäre der lüfterlos, hätte ich mal einen zweiten Gedanken dran verschwendet).


    Wenn lüfterlos wichtig ist, dann liegt das Maximum beim CRS309 mit acht sfp+ Ports für 10GbE (den habe ich).

    OS auf 2 SSD drives - vermutlich in M.2 extension card.

    Das Betriebssystem sitzt immer auf einem Raid 1, welches über alle Platten im System aufgespannt ist.


    Für die nachinstallierten Anwendungen kannst du dir aber aussuchen, wo sie sitzen sollen.

    SSD cache- vermutlich auch 2 SSD in M.2 extension card

    SSD-Cache würde ich nicht machen.

    Bei Gigabit-Ethernet bringt der rein gar nichts.

    Bei 10GbE könnte das etwas besser aussehen. Ich bin aber trotzdem skeptisch.

    Ein Cache erhöht die Komplexität und damit die Fehleranfälligkeit und macht Reparaturen sehr schwierig,


    Meine Empfehlung ist, stattdessen die SSDs als eigenes Volumen einzubinden mit eigenen Freigaben, und du weißt selbst am besten, welche Dateien oft genutzt werden und von der SSD profitieren (z. B. Fotos, virtuelle Maschinen) und welche ebensogut auf der Festplatte verbleiben können (z. B. Videos zum Streamen, Backups).


    Was aber deutlich was bringt, ist ein schnelleres Netzwerk. Gigabit-LAN ist definitiv der Engpass. Ich würde mich gar nicht mit den Zwischenstufen 2,5GbE und 5GbE aufhalten und gleich zu 10 GbE übergehen. Das begrenzt die Auswahl aber nicht auf TVS-[68]72-XT, denn bei den beiden anderen lässt sich 10GbE über eine Karte nachrüsten (ich habe eine gebrauchte HP für 35,- Euro, geht gut).


    Für 10GbE musst du natürlich auch den Switch austauschen und in deinem PC/Mac für einen entsprechenden Anschluss sorgen, sonst bringt es gar nichts. Wenn du Pech hast, musst du auch an die Verkabelung ran.



    welches NAS soll ich kaufen H886 ODER 672XT ODER 672N??? ODER gleich 872XT

    Meine Gedanken dazu:


    H886

    + Hat mit QuTS hero das modernere Betriebssystem. Ich weiß aber nicht, ob sich das nur auf das Dateisystem ZFS bezieht oder den ganzen Kern. (Ich ärgere mich hier gerade mit so ein paar Einschränkungen von qts rum, die durch die Busybox und den ungewöhnlichen Bootprozess kommen. Ich habe aber keine Ahnung, ob das mit QuTS hero prinzipiell besser ist oder ob es dieselben Einschränkungen gibt.)

    - Ethernet-Ports nur 2,5GbE, braucht eine Karte für 10GbE.

    - Prozessor langsamer als bei den anderen

    + etwas leiser

    - höherer Stromverbrauch

    Die Begrenzung auf 35° Betriebstemperatur ist in Deutschland mMn. unerheblich, solange das Gerät nicht gerade im sonnigen Dachgeschoss oder auf dem Dachboden steht.


    672XT

    + 10GbE-Port eingebaut (rj45 - Transceiver relativ teuer falls der Switch sfp+ hat)

    + guter Prozessor

    Die Thunderbolt-Karte bringt nur was, wenn das NAS im gleichen Raum steht, und das empfehle ich nicht (ständig drehende Lüfter, anspringende Festplatten). Die Karte kann aber eventuell verkauft werden, was den Preis des Gerätes nachträglich senkt.


    672N

    - Nur 4 GB, kann aufgerüstet werden (im Preis einzuberechnen), allerdings müssen dafür die alten Speicherriegel entfernt werden (keine Weiterverwendung).

    + guter Prozessor

    - 10GbE nur über Karte (5GbE wäre aber auch erst mal ok)


    872XT

    + 8 Einschübe (vielleicht braucht man später mehr?)

    + Prozessor etwas schneller als bei 672XT

    Sonst wie 672XT


    Zur Prozessorleistung:

    Wenn es nur um die Bereitstellung von Laufwerken und Streaming geht, sind alle vier Kisten schnell genug. Der schnelle Prozessor ist z. B. dann interessant, wenn weitere Serverfunktionen wie z. B. virtuelle Maschinen bereitgestellt werden sollen.


    Ich stand vor knapp einem halben Jahr vor einer ähnlichen Entscheidung (nur H886 gab es damals noch nicht). Geworden ist es bei mir dann das TS-877, welches aber nicht mehr im Programm ist. Grund war der schnellere Ryzen-Prozessor (Server-Funktionen mit virtuellen Maschinen sind eine wichtige Anwendung), aber weitgehend war es eine Entscheidung nach Gefühl.

    Wenn ich die Funktion des Caches richtig verstanden habe, dann werden oft benutzte Dateien auf der SSD gehalten und erst dann auf die Festplatten übertragen, wenn andere Dateien häufiger genutzt werden. Das hieße, dass der Inhalt auf den Festplatten ohne die SSDs unvollständig wäre.


    Wäre das nicht die richtige Gelegenheit, komplett auf den Cache zu verzichten, die SSDs als normales Volume einzubinden und selbst zu entscheiden, welche Dateien so oft genutzt werden, dass sie auf die SSD gehören? MMn. bringt der Cache zu wenig, als dass er das erhöhte Risiko eines Crashs rechtfertigt (je komplizierter ein System ist, desto eher geht was kaputt und desto schwieriger ist die Reparatur). In vielen Szenarien wird ein Cache auch gar nichts bringen.

    Ich habe hier eine NFS-Freigabe auf dem Mac gemounted, und das gibt Probleme mit den Benutzer- und Gruppen-IDs.

    Z. B. auf dem Mac, bei Dateien, die vorher per SMB in das Freigabeverzeichnis kopiert wurden:

    Code
    ll 
    total 40
    drwxrwxrwx   4  root   wheel               4096 22 Jul 14:44 @Recycle
    drwxrwxrwx   3  1003   _lpoperator   4096  8  Sep 11:02 test
    drwxrwxrwx   2  1003   _lpoperator   4096 15 Sep 08:52 tmp
    drwxrwxrwx  33 1003   _lpoperator   4096 15 Sep 10:14 workspace

    Es gibt auch Probleme z. B. mit chmod oder chown (Operation not permitted), als root, d. h. mit sudo, geht es dann aber.


    Wenn ich umgekehrt in der NFS-Freigabe neue Dateien anlege, stimmt die User-Id bei Login im NAS nicht mehr

    Code
    ll sql 
    total 118M
    drwxr-xr-x 2    509                20              4.0K 2020-09-16 08:34 ./
    drwxrwxrwx 9  admin  administrators  4.0K 2020-09-16 08:33 ../
    -rw-r--r-- 1    509                20               118M 2020-09-16 08:34 sz-kpl.sql


    Ursache ist, dass mein Benutzer auf dem Mac und auf dem NAS unterschiedliche IDs hat (einmal 1003, einmal 509).


    Was ich nicht als Lösung möchte:

    - User-ID auf dem Mac ändern. Bis ich da alles wieder sauber gezogen habe ... da ich der Schaden sicher größer als der Nutzen

    - User-ID auf dem Qnap NAS ändern (oder Anzeige nur ID ignorieren). Geht, solange nur von einem Mac gemountet, aber da die Freigabe von einem zweiten Mac ebenfalls gemountet werden wird, und dort der Benutzer wieder eine andere ID hat, ist dies keine Lösung.


    Es muss also ein Mapping der IDs erfolgen.


    Was kann da gemacht werden?

    - Mapping der IDs in qts: Geht das denn? habe ich da Einstellungen übersehen? Wenn ja, wie geht das?

    - Mapping der IDs auf dem Mac: Wo könnte das gemacht werden?

    - Kerberos installieren. Ist das in qts möglich, denn da müsste der Kerberos-Server laufen? Würde das überhaupt mein Problem beheben?



    P. S.: Die naheliegende Lösung, die Freigabe einfach über SMB zu mounten, ist keine Lösung, da SMB scheinbar das Dateilocking nicht komplett nachbildet, und dann läuft des Subversion-Plugin in Eclipse nicht mehr. Mit nfs geht das hingegen.

    Die Prognose der Kopierzeit ist immer sehr ungenau, sowohl bei Qnap als auch bei Windows, und kann daher kein Kriterium sein.


    Die Kopierzeit hängt stark von der Dateigröße ab, da das Erstellen eines Verzeichniseintrages relativ lange dauert.


    Um aussagekräftige Ergebnisse zu haben:

    - Kopiere dieselben Dateien einmal im Filemanager, einmal unter Windows, und miss die tatsächliche Zeit mit der Stoppuhr.

    - Nimm einmal eine große Datei (ca. 1GByte), einmal viele kleine Dateien

    (also insgesamt vier Testläufe, die zu messen sind)

    Das ist gut zusammengefasst. Gut, manchmal gibt es gewisse Ausstattungsvarianten nur als Rack (oder auch nur als Stand-Alone), und spezielle für Firmen interessante Features wie redundante Netzteile sind meistens nur bei Rack-Geräten erhältlich.


    Umgekehrt haben Rack-Geräte abgesehen vom höheren Preis und höherer Lautstärke für Privatnutzer auch keine Nachteile.


    Zusammengefasst: Wenn du nicht ohnehin ein Rack im Serverraum oder im Keller stehen hast, brauchst du kein Rackgerät.


    Davon abgesehen, Mac und Qnap passen gut zusammen.


    Wenn du vor hast, auch deine Arbeitsdateien (also nicht nur Backups und Filme etc.) auf dem NAS abzulegen, solltest du

    - in 10GbE investieren (ist nicht mehr so teuer)

    - darüber nachdenken, in das NAS auch SSDs einzubauen (z. B. zwei SSDs für die regelmäßigen Arbeitsdateien, zwei große Festplatten für Backups, wenn Raid dann natürlich für SSD und Festplatte getrennt)

    - unbedingt an ein Backup der Daten auf dem NAS denken, z. B. durch eine am NAS angeschlossene USB-Festplatte

    Dann teste erneut, Kabel wieder in den ersten Port stecken. Vielleicht geht der jetzt auch ;-). Dann liegt es vermutlich an der SD-Karte.


    Wenn es der erste Port wirklich nicht tut, noch kannst du die Karte problemlos reklamieren und durch eine fehlerfreie ersetzen lassen.

    Bei solchen Fällen: Alle Komponenten nacheinander austauschen, bis man den Schuldigen hat. Problem ist natürlich, dass manche Komponenten nicht doppelt zur Verfügung stehen.


    Meine Hauptverdächtigen wären:

    Netzwerkkabel

    SD-Karte

    Kartenleser


    SD-Karte und Kartenleser hast du zwar durch Versuch ausgeschlossen, würde ich aber noch im Hinterkopf haben. Manchmal funktioniert's an einem Gerät, am anderen nicht.


    Netzwerkkabel:

    Ich habe bei DAC-Kabeln mit Billigprodukten keine schlechten Erfahrungen gemacht (habe aber noch nicht so viele Kabel gekauft). Ein Preiswertes war, meine ich, von Ubiquity. Das letzte Kabel war allerdings ein Gebrauchtkauf (Cisco 3m SFP+ DAC, siehe E-Bay-Verkäufer its-Haehnlein). Die funktionieren einwandfrei. Ein Kabelbruch kann aber in den besten Familien vorkommen.


    Bei der Qnap-Karte würde ich auch mal den anderen Port probieren.


    Andere SD-Karte probieren.


    Weiterer Test:

    Kartenleser an den PC. Fotos von Karte auf den PC kopieren. In LR testen, ob die Bilder dort in Ordnung sind. Dann im zweiten Schritt Fotos von PC auf NAS kopieren. Erneut testen, ob Fotos in Ordnung.


    Sind PC und NAS direkt verbunden, oder hängt da ein Switch dazwischen? Wenn Letzteres, einmal ohne Switch mit Direktverbindung (und ohne weitere Netzteilnehmer, d. h. wenn z. B. NAS oder PC noch per Gigabit-Kabel am Switch oder Router hängen, dieses mal testweise abziehen).


    Erfolgt die Einbindung der Verzeichnisse über SMB, AFP oder NFS?


    Ich selbst hatte mit dem 10GbE-Netzwerk nie Übertragungsprobleme. Defekte Bilder lagen bei mir immer an der SD-Karte.

    Kann ich irgendwie einstellen, dass eine IP automatisch nach zB 4 Fehlversuchen für immer gesperrt wird.

    Geht doch. Bei "Dauer der IP-Sperre" kannst du auch einen Tag oder "immer" auswählen. Ich würde einen Tag wählen. Mit "immer" legt man sich sonst selbst rein, wenn beim Anmelden die Caps-Lock-Taste gedrückt war.

    Aber nicht so wie es über die GUI möglich ist, innerhalb von 30 Min 5 Fehlversuche - das ist mir zu locker.

    So locker ist das nicht, zumindest wenn du keine Trivialpasswörter oder wiederverwendete Passwörter (überall das gleiche) hast. Um die Einschränkung zu umgehen, dürfte ein Angreifer maximal vier Versuche in 30 Minuten haben. Wenn dein Passwort aus sechs Ziffern bestehen sollte - was als viel zu unsicher gilt - bräuchte der Angreifer schon 1 Million Versuche, das Passwort zu erraten, was bei 4 Versuchen in 30 min bereits über 14 Jahre bedeutet, mit sieben Ziffern sind es über 140 Jahre, und wenn du außer Ziffern noch Buchstaben oder andere Zeichen im Passwort hast, ist die Zeit jenseits von gut und böse.


    Ein anderes Angriffsszenario zur Umgehung dieser Einschränkung ist ein verteilter Angriff über ein Botnetz, bei der die Login-Versuche von einer Vielzahl verschiedener IP-Adressen kommen. Da könnten in kurzer Zeit tausende von Login-Versuchen zusammen kommen. Bei sicheren Passwörtern dauert das aber auch seine Zeit, und das fällt dir auf. Außerdem ist der Angriff für den Angreifer aufwendig, d. h. idR. nicht lohnend.


    Ein weiterer Angriff ist ein Exploit über einen Fehler in der Implementierung deines ssh-Servers. ssh gilt hier aber als sehr sicher, da weit verbreitet und dadurch sehr gut getestet.


    Hier wird immer sofort VPN geschrien. Ganz verkehrt ist das nicht, insbesondere Laien gegenüber, da die ersten beiden beschriebenen Angriffsszenarien nicht möglich sind und die Gefahr durch unsichere Trivialpasswörter oder vergessene Admin-Zugänge mit Standardpasswörtern nicht besteht. Die Gefahr eines Exploits, der Implementierungsfehler ausnutzt, besteht hier aber auch, und ich halte sie für größer als bei ssh, da die Implementierung komplizierter ist und es mehr unterschiedliche VPN-Varianten gibt (d. h. weniger getestet/untersucht).


    Du kannst mit ssh dasselbe Sicherheitsniveau wie mit VPN haben, wenn du Login ausschließlich über ssh-Keys zulässt. Allerdings darfst du dann dein Endgerät nicht verlieren (gilt für VPN auch).


    Ein Restrisiko bleibt immer. Auch der Router könnte eine Sicherheitslücke haben und für einen Exploit anfällig sein. Höher ist aber die Gefahr, dass du dir ein Schadprogramm durch die ausführung eines bösartigen Programmes auf dem PC selbst einschleppst.


    Wenn du dich gegen dieses Restrisiko absichern willst, kauf dir zwei USB-Platten, die du abwechseln einmal im Monat ansteckst und dann ein Backup machst. Nach dem Backup wieder abziehen, und eine Platte außer Haus lagern. Da können dir maxima die Daten eines Monats verloren gehen. (Zwei Platten, da der Krypto-Trojaner dann zuschlagen könnte, wenn gerade ein Backup läuft.)


    Und nimm für ssh einen anderen Port als 22 (am Router).



    Edit:

    Siehe diesen hier: <<<KLICK>>>

    Da war aber nicht ssh das Einfallstor, sondern vermutlich die Qnap-Cloud, und die ist aus verschiedenen Gründen deutlich unsicherer.

    Wenn er aber verschiedene Archive nach Bildern durchforstet ist das kein sequenzieller Kopiervorgang.

    Beim Durchforsten von Bildern überwiegt der sequentielle Lesevorgang deutlich. Die Bilder müssen alle komplett eingelesen werden, damit sie angezeigt werden. Das ist was anderes, als wenn du nach einer Datei auf deiner Platte suchst, die "Brief_an_Mama" im Dateinamen enthält.


    Ich nutze Lightroom viel. Der Unterschied bei auf dem NAS gespeicherten Bildern ist auch in der Praxis deutlich.

    Das liefern die HDDs nie im Leben.

    Ich habe es gerade mal ausprobiert:


    MacBook Pro 2017 mit Speedtest Blackmagic, Qnap TS-877 mit drei Festplatten von HGST à 3TB im Raid 5 (und SSDs, die hier nicht zum Einsatz kamen), Verzeichnis über SMB gemounted, Jumbo-Frames eingeschaltet.


    Schreiben:

    Kurzfristig 400 MByte/s, sackt dann auf 220 MByte/s ab.


    Lesen:

    Durchgehend 850 MByte/s


    Überzeugend?


    Ohne Jumbo-Frames ist die Schreibleistung gleich, die Leserate sackt auf gut 350 MByte/s ab. Das scheint ein Effekt des SMB-Protokolls zu sein. Bei AFP tritt das nicht auf (allerdings ist SMB mit Jumbo schneller als AFP). Bei SSDs habe ich den Effekt ebenfalls.


    Bei Raw-Dateien wird man nicht ganz auf diese Werte kommen, da die Dateien dann doch ein Stück kleiner sind als die vom Speedtest geschriebene Datei. In Lightroom selbst ist, außer beim Export, nur die Lesegeschwindigkeit interessant, da die Bearbeitungsschritte in sehr kleinen xml-Dateien abgelegt werden.


    Ohne 10GBit/s, also mit vorhandenem Gigabit, liegt die theoretische Maximalleistung bei 110 MByte/s lesend wie schreibend, die in der Praxis dann aber auch erreicht werden.


    Von einem Lesecache bestehend aus einer SSD auf den der TE den Ordner mit den aktuell benötigten Bildern legt hätte er sicherlich mehr.

    Nö. Siehe oben. Das dann vorhandene Gigabit-Lan würde die Geschwindigkeit deutlich begrenzen.

    Hinzu kommt, dass Raw-Dateien dann doch so groß sind, dass die Zugriffszeit auf die Platte von untergeordneter Bedeutung ist.



    Edit: Nachtrag

    Sollte es mit 10 Gbit nicht wirklich besser werden, kannst du die benötigten Daten ja auch lokal auf den Rechner (wohoffentlich eine SSD verwendet wird) kopieren (das sollte mit 10 GbE dann sehr schnell passieren) in Lighroom bearbeiten und dann zurück schieben. Sollte als Workaround ganz gut funktionieren.

    Ich war ja jetzt noch mal neugierig, und da es sich bei dem Rechner des Fragestellers um einen älteren Rechner handelt, habe ich noch mal einen Test gemacht.


    Diesmal MacBook Pro 2011 (also sechs Jahre älter) mit 10GbE-Adapter über Thunderbolt 1, NAS wie oben, Jumbo-Frames.


    1. Test interne SSD

    Schreiben:

    Durchgehend gut 350MByte/s


    Lesen:

    Durchgehend gut 450 MByte/s


    2. Test, NAS über LAN, 3 Festplatten im Raid 5

    Schreiben:

    Kurzfristig 350 MByte/s, sackt dann auf 200 MByte/s ab, manchmal etwas weniger.


    Lesen:

    Durchgehend über 650 MByte/s


    Ergebnis:

    Beim Lesen sind die herkömmlichen Festplatten im LAN schneller als die eingebaute SSD. (Bei vielen kleinen Dateien sähe das natürlich anders aus.)

    (Mehr als knapp 700MByte/s schafft der 10GbE-Adapter hier nicht, da das alte Thunderbolt 1 nur 10GBit/s hat, zusätzlich Videosignale durchgeleitet werden und das Protokoll umgesetzt werden muss.)


    Dein Workaround ist also uninteressant (das wäre er von der typischen Arbeitsweise in Lightroom ohnehin).

    Mit ca. 115 MB/s sind das ca. 4 RAW Bilder pro Sekunde. Das sollte je nach Anwendungsfall durchaus reichen.

    Bei hundert Raw-Bildern in einem Ordner - was jetzt keine unübliche Größe ist - sind das 25 Sekunden, mit 10Gbit/s hingegen nur 2,5 Sekunden, wenn effektiv nur5GBit/s erreicht werden, sind das 5 Sekunden (in der Praxis dauert beides länger). Wenn man diesen Ordner schnell durchblättert, um ein Bild zu finden, merkt man den Unterschied sehr deutlich.


    Also bei Foto- und Videobearbeitung lohnt es sich - was aber auch daran liegt, dass 10GbE mittlerweile bezahlbar ist.

    Netgear GS810EMX Nighthawk 10-Port

    Wenn dir Design wichtiger ist als Leistung, dann ist der Switch richtig. Der scheint mir sehr verspielt mit überflüssigen Funktionen.


    Nur zwei 10GBit-Ports sind schnell zu wenig. Ein zweiter PC könnte so bereits nicht mehr angeschlossen werden. Günstiger und leistungsfähiger ist z. B. der Mikrotik CRS305, der gleich 10GbE-Ports bietet, und an den einen Gigabit-Port hängst du deinen alten Switch dran (allerdings hat der CRS305 die von dir nicht gewünschten sfp+ Ports - wer jetzt rj45 Ports hat, weiß ich nicht, war nie mein Thema).


    (Andererseits, wenn du verspielt magst und zwei 10GbE-Ports auf längere Zeit ausreichen, dann nimm den Nighthawk. Netgear sollte sich mit Switches auskennen.)

    Liefert das NAS mir die RAW-Daten für Lightroom spürbar schneller, als über herkömmliche 1GB/s ?

    Ich habe beim Wechsel auf 10GbE gleich SSDs mit eingebaut, deswegen sind meine Erfahrungen nicht unbedingt übertragbar.


    Das Blättern im Mac Finder in den Raw-Dateien ist mit 10GbE ein Unterschied wie Tag und Nacht.


    Das Bearbeiten größerer Mengen von Raws in Lightroom (z. B. Vorschaubilder berechnen) geht auch deutlich schneller, wenngleich nicht so stark wie im Finder, da LR einige Rechenzeit benötigt, um die Bearbeitungsschritte auf die Bilder anzuwenden.


    Beim Bearbeiten eines einzelnen Bildes macht sich der Unterschied weniger stark bemerkbar. LR ist hier der Engpass.


    Zusammengefasst: Ja, lohnt sich. Bei dem Zugriff auf Raw-Daten ist die Geschwindigkeit von Gigabit-Ethernet der Engpass.


    Von einem SSD-Cache würde ich mir nichts versprechen. Raw-Dateien sind nicht gerade klein. Schnelle Zugriffszeiten (d. h. viele IOPs) sind da nicht so wichtig.

    Kannst du das Problem nicht ganz einfach mit einem Cron-Job aus der Welt schaffen?


    Auf der von dir verlinkten Seite ist ein Update-Skript verlinkt, das sollte den Job tun. Wenn's flexibler sein soll, kann man sich vermutlich auch mit ssh was basteln, aber ich denke, das wird nicht nötig sein.