Beiträge von Anthracite

    Ich habe hier noch zwei original Aruba SFP+ 10G Module für Lichtwellenleiter auf Lager.


    Kann ich eines davon für die QNAP nutzen

    Die kannste nehmen. Qnap hat keine eigene Codierung, und die Geräte zeigen sich nicht wählerisch, was Transceiver betrifft. Bisher getestet im Qnap-Switch: HP, Ubiquity, Intel, 10GTek, irgendwas Noname. Genau deine Kombination hatte ich noch nicht, aber es sollte mich sehr wundern, wenn das nicht geht. (Viel Ärger hatte ich hingegen mal mit einem Qnap-Switch und einem 10GbE--Thunderbolt-Adapter, aber das lag nicht an den Transceivern.)

    So wie es aussieht, sind durch den Stromausfall Daten für die Struktur und den Aufbau des Raids oder des Volumes zerschossen worden. Die müssen repariert oder neu aufgebaut werden. Dies ist alles andere als trivial, da auf den Platten nicht nur dein Raid 5 liegt, sondern auch die Systempartition, bei der es sich um ein Raid 1 über alle Platten handelt.


    Drei Möglichkeiten sehe ich:


    1) Du reparierst das Raid selber.

    Mit mdadm hast du schon einen dafür wichtigen Befehl gefunden. Mit der Ausnahme der zusätzlichen Systempartition, die Qnap-spezifisch ist, handelt es sich bei dem Vorgehen um reines Linux. Ich empfehle dir daher, dir bei Linux oder in Linux-Foren Ratschläge zu holen. Vielleicht gibt es da Leute, die so etwas schon gemacht haben. Hier im Qnap-Forum ist die Nutzerbases etwas gering. Ich habe das noch nicht gemacht und werde dir daher auch keine weiteren Tipps dazu geben, denn das würde nur daneben gehen.


    2) Du schickst die Festplatten an einen professionellen Datenrettungsdienst.

    Die haben Erfahrung damit. Das ist die sicherste Methode, wieder an deine Daten zu kommen. Aber das ist teuer. Du musst mit Kosten wenigstens im hohen dreistelligen Bereich rechnen.


    3) Du nimmst von deinen Daten Abschied und setzt das System neu auf.


    Falls du dich für 3) entscheidest, kannst du e2fsck u. Ä. noch ausprobieren. Geht's daneben, ist es eh' vorbei.


    P. S.: Habe da gerade noch einen Gedanken. Mit photorec kannst du Dateien (nicht nur Fotos) wieder herstellen, nachdem sie gelöscht wurden oder nachdem die Partition neu formatiert wurde. Ich habe keine Ahnung, ob das Programm mit deinem zerschossenen Raid klar kommt. Eventuell geht es, wenn du das Raid exakt gleich einrichtest, aber nicht formatierst bzw. nur Schnellformatierung. Wenn du das versuchst, solltest du gedanklich aber schon bei Lösung 3) sein.

    Nur finde ich irgendwie keine Möglichkeit externe Netzwerkfestplatten einzubinden. Geht sowas und falls ja wie?

    Alternativ zu der beschriebenen Einbindung über die File Station (habe ich nicht ausprobiert, da HybridMount nicht installiert ist) geht das auch in der Shell über den mount-Befehl, und ein Eintrag in fstab geht auch (wobei ich gerade nicht weiß, ob letzterer einen Reboot überlebt). Dann brauchst du kein HybridMount, und du kannst Optionen verwenden, die sich in der Web-GUI nicht einstellen lassen (z. B. andere Zeichensatzkodierungen oder alte Protokollversionen).


    Für deinen Zweck würde ich aber keins von beidem machen, sondern stattdessen einen Rsync-Job in HBS anlegen. Rsync hat den Vorteil, bei instabilen Verbindungen oder zeitweiser Nichterreichbarkeit der Gegenstelle zuverlässiger zu arbeiten. Dann kannst du die Netzwerkfestplatte auch bei deinen Eltern, Verwandten oder Freunden aufstellen und hättest sogar ein Außer-Haus-Backup. (Dafür solltest du noch den ssh-Tunnel einschalten, was in HBS einfach machbar ist.)


    Wenn dir für das Zweitbackup ein altes leistungsschwaches NAS genügt: So was gibt es gebraucht günstig auf Ebay - man muss sich aber etwas informieren, um keinen Schrott zu erwischen.

    Das Problem ist nicht die Kodierung. Das Problem sind die runden Klammern, an denen sich die Shell stört. Die kann man wie das Leerzeichen durch ein gsub mit doppeltem Backslash versehen, dann geht es. Ich sitze gerade nicht an einem geeigneten Rechner. Heute Abend oder morgen früh kann ich das mal selbst ausprobieren und das Statement erweitern.


    Edit von Montag Mittag:

    Hier ist die Version, die auch mit runden Klammern klar kommt und bei deiner obigen Datei funktionieren sollte:

    Code
    1. find . -name "*\?*" | awk '{gsub(" ", "\\ ", $0);gsub("\\(", "\\(", $0);gsub("\\)", "\\)", $0);s=$0; gsub("\\?", "_", s);print "mv "$0" "s}'

    Mit anderen Sonderzeichen im Dateinamen gibt es aber weiterhin Probleme.


    Nochmal Edit:

    So, jetzt habe ich noch eine Version des Kommandos, die mit sämtlichen Steuerzeichen der Bash (oder einer anderen Shell) klar kommt, indem die Dateinamen alle mit einfachen Hochkommas eingeschlossen werden.


    Das Problem an der Lösung (weswegen ich sie normalerweise auch meide, ist halt umständlich einzutippen) ist, dass ein Hochkomma im Argument von awk die das Argument umschließenden Hochkommas durcheinanderbringt, weswegen ein Hochkomma als '\'' zu schreiben ist. Und das gilt nicht nur für den awk-Aufruf, sondern auch für das erzeugte mv-Kommando, womit sich die Unlesbarkeit verdoppelt. Freunde des Backslashs hingegen werden ihren Spaß dran haben.

    Code
    1. find . -name "*\?*" | awk '{gsub("'\''", "'\'\\\\\'\''", $0);s=$0; gsub("\\?", "_", s);print "mv '\''"$0"'\'' '\''"s"'\''"}' | sh

    Wie gehabt mit Copy-Paste einfügen, und eventuell einmal "trocken" ohne abschließendes | sh aufrufen.



    P. S.: Wenn du Doku dazu willst: Die zu Shell oder Bash für Linux/Unix ist auch gut. Die Unterschiede zum Mac beschränken sich oft auf ein paar Parameter von Befehlen.

    Tranel


    So einfach ist das nicht. Das Fragezeichen wird sowohl von find als auch vom gsub im awk-Programm als Joker für ein beliebiges anderes Zeichen interpretiert. In beiden Fällen muss es mit Backslash von dieser Sonderbedeutung befreit werden. Und damit dies nicht zu einfach ist, braucht es einmal nur einen Backslash, einmal aber deren zwei.


    Das ergibt dann dieses Kommando:


    Code
    1. find . -name "*\?*" | awk '{gsub(" ", "\\ ", $0);s=$0; gsub("\\?", "_", s);print "mv "$0" "s}' | sh

    Dry run habe ich gemacht.

    Hat das funktioniert? Wenn ja, kannst du die komplette Ausgabe in einen Editor kopieren und "stückchenweise" zurückkopieren. Dann siehst du besser, wenn ein Kommando nicht funktioniert. Ein solches kannst du posten, dann kann ich den Befehl anpassen.


    Ich habe bei meinem oben gegebenen Befehl nicht alle möglichen Zeichen behandelt. Bei Anführungszeichen " im Dateinamen fällt der z. B. auf die Nase.

    Die automatische Umbenennung der Dateien kann statt im Finder auch im Terminal erfolgen (und damit nach Login per ssh auch auf dem NAS direkt). Der Vorteil der Terminalversion ist, dass die auch rekursiv funktioniert, d. h. alle Dateien in Unterverzeichnissen mit berücksichtigt.


    Das folgende Kommando, im Basisverzeichnis der betroffenen Dateien abgesetzt, ersetzt alle Doppelpunkte in Dateinamen durch Underscore _.

    Code
    1. find . -name "*:*" | awk '{gsub(" ", "\\ ", $0);s=$0; gsub(":", "_", s);print "mv "$0" "s}' | sh

    Eine Bitte: beim ersten Mal | sh am Ende weglassen. Dann siehst du, was das Kommando machen würde, wenn es ausgeführt würde. Nicht dass da doch noch ein Fehler drin ist.


    Meine Vermutung, in Terminal wird es "übersetzt" und in Finder sind tatsächliche Dateinamen.

    Umgekehrt: Das Terminal zeigt das Original, der Finder übersetzt. Wenn du das auf einem freigegebenen Ordner machst und vom anderen Rechner draufschaust, siehst du auch den Doppelpunkt.


    Übrigens, als Anekdote: Was ein echtes Unix ist, das kann noch ganz andere Gemeinheiten im Dateinamen als nur Doppelpunkte. Da sind auch Steuerzeichen möglich, wie ein Backslash, und in der Anzeige werden die dann ausgeführt. Beim Backslash heißt das, dass nicht nur dieser unsichtbar ist, sondern auch das Zeichen davor, was zwangsläufig zu Verwirrung führt.

    Frage mich warum mysqld da 22% schluckt

    Das ist der Dämon für die MySQL- oder Maria-Datenbank (letzteres ist ein Fork; die Programme heißen gleich). Es kann sein, dass dort noch irgendwelche Aufräumarbeiten im Gange sind oder ein startendes Programm Abfragen macht. In dem Falle wird der CPU-Verbrauch nach einiger Zeit auf fast 0 zurückgehen.


    Wenn der CPU-Verbrauch des MySQL-Dämons dauerhaft so hoch bleibt, dann hat die Datenbank zu wenig Speicher. Die meisten Datenbanken sind diesbezüglich recht anspruchsvoll. Dann muss man ihr mehr Speicher zur Verfügung stellen oder auf die DB verzichten.


    (Ich hatte hier neulich nach einer Bitwarden-Installation den Fall, dass die CPU-Belastung der VM beständig bei über 50% lag. Ursache war, dass Bitwarden, anstatt die voehandene MSSQL-Server-Instanz zu verwenden, eine neue Installation in einem Docker-Container angelegt und gestartet hat, womit dann zwei Instanzen liefen, von denen sich jede über 1,5GByte Hauptspeicher reserviert hat. Damit haben die 4GByte der VM nicht mehr ausgereicht. Nachdem ich der VM 6GByte zugewiesen hatte, fiel deren CPU-Auslastung auf die zu erwartenden 2% ab. Und seit ich Bitwarden überredet habe, keine eigene MSSQL-Instanz in Docker zu starten sondern die vorhandene Instanz zu verwenden, läuft die VM wieder gut mit 4GByte. - MySQL ist jetzt nicht so anspruchsvoll wie MSSQL Server, aber auch nicht ganz anspruchslos.)

    Ich habe gut ein halbes Dutzend Rückmeldungen eingestellt, aber Null Feedback von QNAP erhalten.

    Eine Beta-Version erhält keinen Support. Fehlermeldungen werden gesammelt und an die Entwicklungsabteilung, die noch am Schrauben ist, weitergereicht. Das geht in Ordnung. Dafür ist eine Beta da. Außerdem können Fremdfirmen frühzeitig ihre Apps testen und anpassen.


    Wer ein funktionierendes System mit Support haben will, darf sich keine Beta installieren. Das ist bei anderen Software-Produkten auch so.


    Manchmal verstehe ich hier die Erwartungshaltung nicht.

    Definitiv sagen kann ich dir das nicht, da ich all diese Aufgaben von Anfang an unter meinen Konto und nicht als Admin angelegt habe.


    Ich nehme aber an, dass diese Aufgaben bestehen bleiben, da sie nicht an ein Konto gebunden sind. Wenn du dich unter einem anderen Konto eingoggst, kannst du die vom Admin angelegten Aufgaben weiterhin sehen und bearbeiten.


    Bei der Deaktivierung des Admin-Kontos wird dieses auch nicht gelöscht, sondern nur der Login wird unterbunden. In der Shell kannst du mit sudo -i weiterhin als Admin arbeiten.

    Das NAS ist tatsächlich per LAN mit meinem Router verbunden

    Dann zieh testweise (ist keine Dauerlösung) dieses Kabel ab, so dass das NAS ausschließlich über die Direktverbindung zum PC angeschlossen ist, und schau, wie es sich dann verhält. Wenn dann gar keine Verbindung vom PC zum NAS zustande kommt oder wenn dann die Verbindung mit einer für 10GbE passenderen Geschwindigkeit läuft, dann war dein Problem, dass die Daten zum NAS über die falsche Strecke verschickt wurden. Damit weißt du schon mal, wo du mit der Lösungssuche anfangen kannst.

    Das hatte ich auch einmal, Smart-Fehler auf einer Platte nach zwei Tagen. Auf die Frage an den Händler, wie damit umzugehen sei, kam an Stelle einer Antwort ein Retourenaufkleber an.

    Blöde Frage, kann ich das NAS (Raid 5) auch mit 3 Platten nutzen bis Ersatz da ist

    Klar, kannst du machen. Dafür ist ein Raid ja da, Verfügbarkeit sicher zu stellen auch bei Ausfall einer Platte. Solange keine zweite Platte kaputt geht, ist alles in ok. Ein externes Backup, hast du ja, oder?

    Stehen in der Adresszeile im Browser hinter der IP 192.168.0.95 noch weitere Zeichen? Wenn ja, diese einmal löschen und neu aufrufen.


    (Grund ist, deine Meldung kommt, wenn du auf eine Datei zugreifen willst, die es auf dem Server nicht gibt oder wo kein Zugriffsrecht drauf besteht.)

    Unter MacOS - zumindest früher - lässt sich NFS auch recht gut verwenden. Meine Erfahrung ist, dass hier noch ein paar Prozentpunkte mehr an Durchsatz geht.

    Das kann ich nicht bestätigen. Ich habe gründlich mit MacBook pro und High Sierra getestet, und wo ich mit SMB 900MByte/s erreiche, komme ich mit NFS nur auf gut die Hälfte. Und da es bei NFS noch einige weitere Schwierigkeiten gibt (insbesondere unpassende User-IDs beim Zugriff von verschiedenen Rechnern aus), rate ich davon ab. (Ausnahmen kann es geben, z. B. funktioniert das Subversion-Plugin für Eclipse nur mit NFS, aber nicht mit SMB. Das ist aber speziell.)


    Ich nehme eher an, das Problem ist, dass der Netzverkehr über die falsche Strecke geht, siehe meinen Beitrag etwas weiter oben.

    Gibt es noch eine zweite (indirekte) Ethernet-Verbindung zwischen Mac und NAS? Also z. B. NAS ist per Kabel oder Wlan an die Fritzbox angeschlossen, der PC sowieso (sonst hättest du kein Internet). Der Mac leitet deine Daten dann womöglich über die falsche Verbindung. Und wenn dann einmal Wlan dazwischen ist oder ein Port der Fritzbox nur Fast-Ethernet, dann passt die Übertragungsgeschwindigkeit.


    Wie hast du dein Netzlaufwerk verbunden? Nimmst du einen symbolischen Namen oder nimmst du direkt die IP-Adresse, die der 10Gb-Port am NAS hat? (SMB wie von dir verwendet ist gut.)


    Überhaupt IP-Adresse, da kann man auch was falsch machen. Hast du für die 10GbE-Verbindung eine andere IP als für die Verbindung zum Router (=Fritzbox), sowohl auf Mac als auch auf dem NAS? Ist sicher gestellt, dass es diese IP kein zweites Mal im Netzwerk gibt und sie auch nicht vom Router automatisch vergeben werden kann?


    Im Prinzip geht, was du vor hast. Bei mir habe ich am Mac beim Zugriff auf das NAS eine Geschwindigkeit von maximal knapp über 900MByte/s, also fast das Maximum von 10GbE.

    Ich habe hier den Admin deaktiviert, und ich habe dadurch keinerlei Einschränkungen oder Änderungen bemerkt.


    Allerdings ist mein Ersatzadmin auch in sudoers eingetragen, und einige der hier kritisch gesehenen Apps - insbesondere Qsync - benutze ich nicht.