Beiträge von Anthracite

    Ich komme mit 10Gbe bei Festplatten im Raid 5 lesend auf 800MByte/s, lesend deutlich weniger. Mit SSDs schaffe ich über 900MByte/s und da fehlt dann nicht mehr viel zum theoretischen Limit.


    Meine Werte sind mit einem Geschwindigkeitstestprogramm ermittelt. Praktische Werte liegen darunter, weil zusätzliche Verzögerungen ins Spiel kommen. Oft kopiert man von der PC-Festplatte auf das NAS (oder umgekehrt), und dann hat man nicht nur die Schreibzeit auf das NAS, sondern auch die Lesezeit auf dem PC.


    Daher würde ich erst mal mit Geschwindigkeitstests anfangen, um andere Faktoren auszuschließen und die reine LAN- und NAS-Geschwindigkeit zu testen.


    Mit iperf3 kannst du ziemlich unverfälscht die Netzwerkgeschwindigkeit testen. Das wäre mein erster Ansatz.


    Danach kommt dann ein Testprogramm, dass die Lese- und Schreibgeschwindigkeit im NAS testet.

    VLC am Mac funktioniert problemlos. Mit ios und ipados kenne ich mich nicht aus.


    Mit BubbleUpnp greife ich auf die Musil-Mediathek zu. Du brauchst hier zusätzlich noch einen Audio-Renderer; es gibt da verschiedene, die in Frage kommen. Der eigentliche Reiz an BubbleUpnp ist für mich, dann auch auf Qobuz (und Tidal) zugreifen zu können und das Smartphone oder Tablet als Fernsteuerung zu nehmen. Der Zugriff auf die Qnap-Mediathek ist bei mir eher ein "Abfallprodukt".


    Auf dem Android-Mobilgerät gibt es auch eine BubbleUpnp-App. Die gibt es für das iPhone nicht, so weit ich weiß, aber Linn Kazoo geht auch.


    Wenn das iPhone nicht als Fernbedienung sondern auch als Ausgabegerat genutzt werden soll, gibt es jede Menge weiterer DNLA-Player, siehe z. B. hier. Aber wie gesagt, ich besitze kein iPhone (lässt sich nicht rooten =O ).

    DiskDruid (gibt es für den Mac eh' nicht) und dd helfen hier aber nicht weiter. Damit kann man zwar die Platte kopieren, aber man kommt immer noch nicht an die Daten ran, weil man die Partitionen nicht mounten kann.


    P. S.: Den TE interessiert das ohnehin nicht mehr.

    Ich habe keine Lösung mehr. Wahrscheinlich muss ich die ext. HDD neu formatieren um den Ordner loszuwerden?

    Du kannst auch in der Shell (mit ssh einloggen) den Ordner löschen. Möglicherweise erhältst du da eine bessere Fehlermeldung oder du kannst eine Datei lokalisieren, die das Problem verursacht.


    Trotzdem würde ich die Platte neu formatieren und ein anderes Dateisystem wählen. FAT ist bei Unix-artigen Systemen nicht erste Wahl. Ich würde ext3, den Linux-Standard, nehmen, dann läuft das Backup problemlos. Und solltest du die Platte wirklich mal unter Windows auslesen müssen, z. B. weil das NAS defekt ist, dann geht das mit Paragon oder Linux Reader oder notfalls in einer Linux-VM. (Auslesen idealerweise einmal unter Windows "üben", damit du vorher weißt, wie es geht.)

    Die TB4 specs geben sogar 40GbE her.

    Eine kleine Nebenbemerkung:


    Thunderbolt ist kein Ethernet, sondern ein eigenes Übertragungsprotokoll. Insofern hat TB4 zwar 40GBit/s, aber kein 40GbE. (Es gibt übrigens Adapter von TB4 zu 25GbE, bei denen aber nicht der volle Durchsatz von 25GbE erreicht wird, da die Protokollumsetzung zu viel Leistung verschlingt.)


    Mit deinem Geschwindigkeitsproblem hat das aber nichts zu tun.

    Was machen bloß die Leute, die eine umfangreiche Webseiten-Präsenz mit verschiedensten Diensten dahinter aufgebaut haben?

    Lösung 1:

    Webspace oder einen Root-Server bei einem Hoster anmieten und dort die öffentliche Webpräsenz einrichten. Nur unbedingt notwendige Daten werden dort abgelegt, und alles andere kann dann auch nicht in fremde Hände kommen.


    Lösung 2:

    Eine DMZ anlegen, welche vom eigentlichen internen LAN durch eine gute Firewall getrennt ist. Aus der DMZ sind keine Zugriffe ins interne LAN möglich (wohl aber umgekehrt). In der DMZ sind wieder nur absolut notwendige Daten vorhanden. Von außen kann nur auf Rechner in der DMZ zugegriffen werden.

    Die Fritzbox kann übrigens keine DMZ. Da braucht man andere Hardware.


    Trivial ist das trotz allem nicht, da gewisse Daten auf dem öffentlich erreichbaren System benötigt werden, z. B. gewisse Kundendaten für die Verkaufsabwicklung. Erst diese Woche habe ich eine Mail vom Modehändler meines Sohnes bekommen, in der dieser einen Datenabfluss aus seinem System beichten musste.

    Ein defekter Switch ist nicht komplett auszuschließen, aber unwahrscheinlich.

    Gibt es außer den umbenannten Verzeichnissen denn noch weitere Fehler, z. B. manchmal fehlerhaft übertragene Dateien?


    Wie oben geschrieben, großteils nur ein User und auch nur ein Rechner (Mac Studio M1) aktiv.

    Alle anderen Macs sind ausgeschaltet oder zumindest die Adobe-SW läuft dort gerade nicht? Und auch dann tritt der Fehler auf? Das spricht gegen Probleme durch konkurrierende Zugriffe und erhöht die statistische Wahrscheinlichkeit, dass der Versuch mit nfs erfolgreich wird.


    Um den Versuch mit nfs mit minimalem Aufwand durchzuführen:

    - nfs auf QNAP aktivieren

    - neue Freigabe erstellen (darf in einem bestehenden Volume sein)

    - diese Freigabe mit nfs auf nur einem Gerät mounten (z. B. über "Mit server verbinden" oder mount im Terminal). An allen anderen Netzwerkfreigaben änderst du nichts, also wie bisher mit smb.

    - Dann arbeitet der eine Mac testweise mit den Adobe-Produkten auf dieser Freigabe.

    (Wenn nur ein Benutzer testweise auf der Freigabe arbeitet, kannst du den Punkt mit dem Abgleich der User-IDs ignorieren, und der Zugriffsschutz spielt vermutlich auch keine Rolle.)


    => Tritt der Fehler dann auch auf, d. h. gibt es auch auf der nfs-Freigabe seltsame Verzeichnis-Umbenennungen?

    "vim" läuft, aber den kenn ich nicht, heute Abend probiere ich in Ruhe weiter

    Na dann viel Spaß damit :evil:

    (vi ist nicht schlecht, benötigt aber eine mehrjährige Einarbeitungszeit.)


    Hinweis: Wenn du in vi Mist gemacht hast und den dadurch entstandenen Schrott nicht abspeichern möchtest, <Escape>:q!<enter> eingeben, um vi ohne speichern zu beenden.

    ich weiß, dass Adobe offiziell nicht zur Rechenschaft gezogen werden kann, wenn man wider Ansage von denen auf einem Netzwerklaufwerk arbeitet

    Das hattest du vorher nicht erwähnt. Das ändert die Lage.


    Die Netzwerkdateisysteme bieten nicht die volle Funktionalität des lokalen Dateisystems. Es kann vorkommen, dass deswegen mal etwas nicht funktioniert. Ich habe hier den Fall, dass das Subversion-Plugin für Eclipse nicht funktioniert, wenn der Workspace auf einer SMB- oder AFP-Freigabe liegt. Mit einer NFS-Freigabe geht es hingegen. NFS ist in der Konzeption und den Möglichkeiten näher an einem lokalen Dateisystem als SMB und AFP es sind.


    Von daher wäre die Einbindung der Netzlaufwerke per NFS einen Versuch wert. NFS hat aber aber auch Nachteile. Zum einen müssen User-IDs (oder ab NFS 4.0 Usernamen) über das ganze Netzwerk abgeglichen sein. Zum anderen erfolgt der Zugriffsschutz über das lokale Login an Rechner, d. h. wenn der Admin nicht alle Rechner im Netzwerk unter seiner Kontrolle hat, gibt es keinen Zugriffsschutz (über Kerberos soll es doch gehen, habe ich aber nie probiert). Den wechselnden Zugriff mit NFS und SMB/AFP auf dieselbe Freigabe kann ich nicht empfehlen.


    Es ist aber auch denkbar, dass sich die Adobe-Software verschluckt, wenn zwei Benutzer auf dieselbe Datei im Netzwerk schreibend zugreifen (auch wenn der Zugriff nicht gleichzeitig stattfindet). In dem Falle wird eine Umstellung auf NFS das Problem nicht lösen.


    Frage:

    Treten die seltsamen Phänomene auch dann auf, wenn nur ein einziger Benutzer arbeitet? (Es geht um die Abklärung, ob der gleichzeitige Zugriff verschiedener Benutzer Ursache des Problems ist.)

    Ist der RTRR-Server auf dem Ziel-NAS denn aktiviert?


    Welche Backup-Methode ist eurer Meinung nach empfehlenswert? FTP, Rsync

    Wenn RTRR nicht funktioniert (ob es wirklich nicht funktionieren kann bei deiner Kombi oder ob du etwas falsch machst, weiß ich nicht, ich nutze RTRR nicht), dann nimm Rsync. Das ist seit langem Standard.

    Also… Komplettes System (Hauptserver) vor nicht mal einem Monat gekauft inkl. neuer Platten (Smart unauffällig) und (jedenfalls mit meinem Kenntnisstand) sauber eingerichtet. Neue Platten auf dem Backupserver.

    Alles neu ist kein Argument. Ich hatte auf einer neuen Platte auch schon mal nach nur zwei Tagen die ersten Smart-Fehler.

    Dieses Phänomen hatte ich vor einiger Zeit schonmal auf dem alten Hauptserver

    Anderes NAS? Und war es wirklich dasselbe Problem?

    Wie wurde es denn da gelöst?

    Läuft irgendetwas Spezielles an Software auf dem Mac? Ich denke nicht, dass es Sonoma (alleine) ist, denn dann gäbe es mehr klagende User.


    Wie gesagt, ich hatte den Fall nie. Daher sind meine Beiträge eher eine Ideensammlung.

    Hmm, so komische Dateinamen hatte ich zuletzt, als ich auf einem MS-Dos-Rechner die Festplatte gecrasht hatte, indem ich das Verzeichnis der Platte mit Programmcode überschrieben hatte.


    Ein googeln nach dem Problem hat nur deinen Eintrag im englischsprachigen Forum hervorgebracht. Es scheint kein häufiges Problem zu sein.


    Daher würde ich mal in Richtung Hardwarefehler/korruptes Dateisystem schauen.

    • Gibt es Auffälligkeiten in den Smart-Werten der Platten?
    • Betrifft das nur Verzeichnisnamen, oder hast du auch schon defekte Dateien gehabt?
    • LAN-Kabel zum NAS mal getauscht?
    • Wenn du ein neues Volume anlegst und die Freigabe dort einrichtest, tritt der Fehler dann auch auf?

    Wenn es wirklich an der Kombination von SMB und Sonoma (da denke ich immer an Soma aus Huxleys schöner neuen Welt) liegen sollte: Ein Versuch wäre es wert, auf dem NAS als SMB-Version testweise mal 2.0 (kleinste und hächste Version) zu nehmen.

    aber ein ganz anderes böses Phänomen, das ich bisher nicht verstehe, geschweige denn im Griff hab: Der QNAP (TS-473A) fängt wahllos an, Ordner umzubenennen

    Ganz seltsam. So was hatte ich bisher noch nie erlebt. (Mein Mac hat aber auch nicht das neueste BS.)


    Kannst du zwei, drei Beispiele geben, Dateiname mit Pfad von altem und geändertem Namen (Kunden- und Anwendername dürfen gerne durch X ersetzt werden), vielleicht hat dann jemand eine Idee, woran das liegen könnte.

    Die Linux Station bietet kein vollwertiges Linux, sondern nutzt Ressourcen des qts-Betriebssystems werden mit, insbesondere den Kernel. Gerade wenn du systemnahe Geschichten versuchst, geht vielen nicht.


    In dem Falle kann es sein, dass der Nvidia-Treiber Ressourcen braucht, die z. B. der qts-Kernel nicht hat, weil diese Ressourcen schlichtweg nicht mit hineinkompiliert wurden. Oder es kann sein, dass der XORG-Treiber nicht deaktiviert werden kann, weil er von qts genutzt (oder zumindest geladen) wurde.


    Meine Erfahrung mit der Linux-Station war eher negativ. Es ist kein vollwertiges Linux, und so manches geht nicht (z. B. KDE installieren). Für diese Einschränkungen ist der Nutzen der LS gegenüber einer VM zu gering. Der Geschwindigkeitsvorteil liegt an der Grenze zum Messbaren, so etwa bei 1% bis 3%.


    => Nimm eine VM.