Beiträge von Anthracite

    Da hast du die Punkte, wo meistens Fehler entstehen, ja schon geprüft.


    Funktioniert das Trio von dem HP-Switch aus mit einem anderen Gerät (also nicht der Qnap-Switch)?


    Wenn ja, dann würde ich mal einen Transceiver von einer anderen Firma im Qnap probieren. Die beiden Transceiver am Ende des Kabels müssen nicht unbedingt diegleichen sein, aber bei unterschiedlichen Transceivern kann es passieren, dass die beiden einander nicht mögen.


    Und es kann auch sein, dass der Qnap-Switch defekt ist.

    Mit dem QNAP-Switch weiß ich es nicht, da mein Qnap nicht managed ist, aber ich habe mal aus Neugier in das Log des Mikrotik gekuckt, und da gibt es keine Meldung, wenn ein sfp-Modul eingesetzt wird.


    Ansonsten, verstehe ich es richtig, dass beide Transceiver sfp ohne Plus sind, und beide Switche können nur sfp ohne Plus? (Hintergrund der Frage ist, wenn man sfp+ und sfp mischt, darf man gerne mal die Geschwindigkeit per Hand einstellen.)


    Kupfer oder LWL? 850nm oder 1310nm? OMx oder OS1/2-Kabel? (Wenn du Letzteres nicht weißt, welche Farbe hat das Kabel?)


    Ansonsten könnte man mal andere Transceiver probieren, eventuell welche, die auf HP kodiert sind (Qnap braucht keine Kodierung ). Teuer sind die sfp-Transceiver nicht mehr. Ich habe vor einiger Zeit auf Ebay fünf sfp Transceiver zum Stückpreis von einem Euro gekauft (und die waren einwandfrei).

    Kann es sein, dass die Platte mittlerweile zu viel Strom zieht und das NAS deswegen kurzzeitig in die Knie geht? (Wenn ja, dann müsste der Fehler auftreten, wenn die externe Platte anläuft, weil da der Stromverbrauch am höchsten ist.)

    War es bei mir nicht, bin aber aus anderen Gründen zu SMB zurückgekehrt

    Ja, nfs ist auf Windows eher ein Fremdkörper, ist aber nebensächlich, denn wenn auf eine Freigabe sowohl über nfs als auch über smb schreibend zugegriffen wird, sind Probleme und Fehler vorprogrammiert. Die Freigabe sollte immer mit demselben Protokoll gemountet werden, und wenn der Enigma-Recorder nur nfs kann, muss sich Windows anpassen.

    smb und nfs benutzen unterschiedliche Rechte. Wenn mit beiden Diensten auf dieselbe Freigabe zugegriffen wird, gibt es gerne mal Probleme.


    Bei nfs (und ftp) sind die Dateirechte entscheidend, welcher Benutzer was darf. smb hingegen ignoriert die Dateirechte und ersetzt sie durch die für smb konfigurierten Zugriffsrechte der Freigabe. Auf einer Freigabe für smb hat üblicherweise jede Datei als Dateirechte vollen Zugriff für alle. Wenn jetzt per nfs eine Datei mit weniger Rechten dahingestellt wird (in deinem Falle von deinem Rekorder), dann kann es sein, dass der smb-Server damit nicht klar kommt.


    Lösung: Auch unter Windows die Freigabe per nfs mounten. (Da ich kaum Windows benutze, weiß ich nicht, ob du dazu Zusatzsoftware brauchst. Mac und Linux können das von Haus aus.)

    Um mal ein paar (eventuell dumme) Fehler auszuschließen:


    • Enthalten Benutzername oder Passwort Umlaute oder irgendwelche "seltsamen" Sonderzeichen?
    • Systemsteuerung ⇒ System ⇒ Sicherheit prüfen: Ist die "Liste Zulassen/Verweigern" leer?
    • Gleich nebenan Punkt "IP-Zugriffsschutz" prüfen, was da für SMB steht (und ist "interne Adressen ausschließen" angekreuzt?)
    • Noch ein Punkt nebenan"Kontozugriffsschutz" für SMB prüfen
    • Dann Systemsteuerung ⇒ Netzwerk und Dateidienste ⇒ Win/Mac/NFS ⇒ Microsoft Networking: Stimmt die Arbeitsgruppe, ist dort AD-Domänenmitglied gewählt?
    • Systemsteuerung ⇒ Berechtigung ⇒ Domänensicherheit prüfen. Müsste "AD-Domänensicherheit" sein.

    Wenn's davon nichts war, kann ich nicht weiterhelfen, da ich AD nicht nutze (früher hatte ich nur mal AD&D :mcup: ).

    Ich hatte dich so verstanden, dass sich auch der weitere Punkt

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    - Wenn man auf die Webseite zugegriffen hat und auf die Admin-Oberfläche weiter geleitet worden ist und dann in der Browserzeile die Adresse manuell auf http://haikos-nas korrigiert, wird auf den Webserver zugegriffen und ein Redirect bleibt aus. Also ich komme auf die Seite, aber das ist echt umständlich!

    auf Chrome beziehe.


    Zu Safari kann ich nichts sagen, da ich keine aktuelle Safari-Version im Zugriff habe (nur die von Hugh Sierra).

    Du kannst in HBS beim Job zuschauen, wie er arbeitet und irgendwann auf grün oder rot geht. Auch gibt es da beim Job "Bericht" und dort zu jedem einzelnen Lauf "Details". Was steht denn da drin?


    Prinzipiell funktioniert die Synchronisation über HBS. Es wird vermutlich ein Fehler in deinen Einstellungen sein, welche du uns aber nicht verraten hast.

    Scheinbar besteht nur ein DNS Problem, wenn man die IP-Adresse fest vergeben hat. Bei DHCP funktioniert das alles.

    Da NAS häufig fest vergebene Adressen haben, ist der Fehler ein KO-Kriterium gegen die Version.

    Gut, dass Qnap die Version zurückgezogen hat.

    Noch besser wäre gewesen, sie hätten den Fall vorher getestet. Hoffentlich wird das jetzt in deren Standardtestrepertoire übernommen.

    Du kannst dich mit ssh einloggen und mit

    Code
    cp -Rpv Quelle Ziel

    die Dateien kopieren. -v schaltet ein Logging ein, und dann siehst du, welche Datei kopiert wird und bei welcher es hängt. Fehlermeldungen solltest du auch direkt sehen.


    Es kann auch sein, dass deine externe Platte einen Schlag hat und das Schreiben einiger Spuren extrem langsam geht. Dann hängt er im cp-Befehl genauso wie in der Filestation.

    Bei 5% bleiben HBS-Jobs prinzipiell lange stehen, weil zu dem Zeitpunkt ermittelt wird, welche Dateien vom Quellsystem gesichert werden müssen. Dies dauert seine Zeit, ohne dass es zu einem Hochzählen der Prozentanzeige kommt.

    Deine SSD-/NVMe-Probleme sowie das herabgestufte Raid haben nichts mit HBS zu tun.

    und dann die 3 HDD in einem Schritt dem Raid 6 hinzufügen.

    Die weiteren Festplatten (also ab der 6. Platte) würde ich erst dann einbauen, wenn der Speicherplatz wirklich gebraucht wird. Das ist flexibler, falls man später doch irgendwie etwas anderes haben möchte. Außerdem profitiert man von fallenden Festplattenpreisen.


    Zwei NVME würde ich für das "System" gleich mit einpacken, denn das erspart viele Festplattenzugriffe.

    Da habe ich so meine Zweifel, ob das stimmt. (Nach Erfahrungen mit meinem NAS)


    SSDs würde ich nur dann einbauen, wenn sie sinnvoll Geschwindigkeit bringen (z. B. als eigenes Volume für virtuelle Maschinen oder Datenbanken).

    Also wenn ich den Quellordner im Ziel-NAS mittels Hybrid-Mount einbinde, kann ich den dann aber im HBS nicht als lokalen Quellordner auswählen.

    Versuch mal, auf dem Ziel-NAS in der Shell mit mount die Freigabe vom Quell-NAS zu mounten, und als Mountpoint nimmst du entweder einen leeren "realen" Ordner (welchen du in HBS zur Auswahl hast) oder einen Unterordner eines solchen "realen" Ordners. Funktioniert es dann?

    Vermutlich sind das dann nicht nur tausende kleiner Dateien, sondern millionen. Und das kann dann dauern. Viele Netzwerkprotokolle haben bei einer großen Anzahl von Dateien Performanceprobleme.


    Oftmals ist es deutlich schneller, wenn man nicht viele kleine Dateien einzeln überträgt, sondern diese in ein Zip-File verpackt, das Zip überträgt und auf dem Zielsystem entpackt. Ob das bei dir eine Alternative ist, hängt davon ab, wie deine Dateien organisiert sind (z. B. ob die vielen kleinen Dateien in anderen Verzeichnissen als die Großen sind). Du brauchst dann Skripte zum automatischen Packen und Entpacken. Außerdem wird dann der Speicherplatz doppelt belegt - das willst du bei den großen Dateien lieber nicht haben.


    Eine Alternative ist, zumindest ein Versuch, auf deinem Quell-NAS keinen HBS-Job laufen zu lassen, sondern das Verzeichnis mit den Dateien wird freigegeben. Das Ziel-NAS mountet sich diese Freigabe, und dort läuft dann ein lokaler Backup-Job, der von der gemounteten Freigabe auf eine lokale Platte kopiert. Dann müssen die vielen kleinen Dateien über das Netzwerk nicht geschrieben sondern nur gelesen werden. Ob es etwas bringt, weiß ich nicht.


    Ach ja, noch was, sollte eigentlich vor allen anderen Versuchen gemacht werden: Schau mal nach, ob beim Synchronisierungsauftrag unter Regeln "Dateiinhalte prüfen" angeklickt ist oder nicht. Die Auswirkungen auf die Permormance sind drastisch.

    Im Prinzip ist das, was du vorhast, kein Problem, aber der Mac ist manchmal etwas zickig, wenn es darum geht, den richtigen Benutzer zur Anmeldung in Time-Machine zu nehmen.


    Hier hatte ich die Schritte einmal aufgelistet.


    Ist das initiale Backup mit dem korrekten Benutzer durchgelaufen, gibt es bei nachfolgenden Backups nichts mehr zu beachten, s. h. die funktionieren einfach.