Beiträge von Anthracite

    Nur sehe ich in meinem Ziel weiterhin die ursprüngliche Verzeichnisstruktur mit all den alten Daten und alles Neue fehlt

    Die Änderung der Verzeichnisstruktur bedeutet, dass alte und neue Orte der Dateien nicht zugeordnet werden können und alle Dateien erneut angelegt werden müssen. Dadurch vergrößert sich der Speicherplatzbedarf erheblich, solange bis das letzte Backup mit der alten Struktur gelöscht wurde. Ist denn noch genug Platz im Backup für die neue Struktur?


    Es kann vorkommen, dass HBS sich verschluckt, vermutlich mit einer internen Datenbank. Dann werden einzelne Änderungen plötzlich nicht mehr erkannt.


    Wähl einmal in HBS bei deinem Backup-Job unter Regeln -> Richtlinien den Punkt "Dateiinhalte prüfen" aus und starte den Job erneut. Der Job dauert jetzt ewig, sollte aber die Änderungen erkennen. Wenn der Job einmal gelaufen ist, kannst du "Dateiinhalte prüfen" wieder rausnehmen. Bei mir war dann der Verschlucker weg und danach wurden Änderungen der Datei wieder erkannt.


    Ich würde mal behaupten, wenn die Ordnerstruktur innerhalb einer Freigabe verändert wird, bekommt dies kein Backupprogramm hin, den Restore auf die neue Struktur anzupassen.

    Die Anpassung der Ordnerstruktur kann keiner, aber bei Containerformaten wie QuDedup erfolgt die Erkennung gleicher Inhalte auf Blockebene, weswegen in dem Fall hier die Gleichheit erkannt würde und die Daten nur einmalig auf der Festplatte abgelegt würden.


    Die Containerformate haben aber den Nachteil, dass sie nur mit speziellen Programmen gelesen werden können. Diese gibt es zwar für alle Plattformen, aber manchmal hilft das doch nicht.

    Ich hatte einmal den Fall, da habe ich mir Montags früh beim Kunden als erstes meine virtuelle Maschine auf dem Notebook kaputt gemacht. Da ich kein Containerformat verwendet hatte, konnte ich per sftp auf das Backup auf meinem NAS zugreifen und die defekte Datei laden, was mir dann "das Leben gerettet" hat. Hätte ich ein Containerformat genutzt, hätte ich ein paar hundert Kilometer nach Hause fahren müssen.

    Ein anderer Fall wäre, wenn die Containerdatei durch einen Crash beschädigt wäre, dann dürfte es auch schlecht aussehen. Für ein beschädigtes Dateisystem mit normalen Dateien gibt es viel mehr Reparaturprogramme.

    Man ruft mich?


    Bei mir läuft Back-in-Time einwandfrei. Hardlinks werden genutzt wie sie sollen. Ich habe Kubuntu im Einsatz, nicht Linux Mint, aber das sollte keinen Unterschied machen.


    Den User Admin braucht es nicht. Ich habe einen eigenen User nur für das Backup angelegt. Auf dem PC muss Back-in-Time von Root aufgerufen werden (wird in der .desktop-Datei zum Programmsymbol eingestellt), da sonst kein Zugriff auf alle lokalen Dateien besteht.


    Ob Hardlinks geschrieben werden, kann man leicht prüfen, wenn man sich eine beliebige Datei (kein Verzeichnis) im Backupverzeichnis anschaut, z. B. hier:

    Code
    ls -l
    -rwxr-xr-x 29 backup-user everyone 2703156 2023-06-23 09:52 HG-JKA_2172.jpg

    Es gibt 29 Hardlinks auf diese Datei, und das passt, weil ich 29 Backupstände habe.


    Die Anmeldung von Back-in-Time läuft bei mir über einen privaten ssh-Schlüssel mit RSA. Der Schlüssel hat keine Passphrase, funktioniert sonst nicht mit der Speicherung derselben in Back-in-Time. (Daher sollte auf dem NAS ein eigener Benutzer genommen werden, der keine weiteren Rechte außer Lese-und Schreibberechtigung auf das Backup-Verzeichnis hat sowie eine Anwendungsberechtigung für den FTP-Server.)

    Wenn einzelne Flashbausteine defekt sind, dann sind sie defekt. So einer SSD sollte man überhaupt nicht mehr trauen.

    Fehler auf einem Chip sind in der Regel lokal (wobei ein lokaler Fehler auch eine für den gesamten Chip unverzichtbare Komponente betreffen kann, wo dann der Chip insgesamt nicht mehr funktioniert), und das lokale Auftreten eines Fehlers an einer Stelle hat keine Aussagekraft zum Auftreten von Fehlern an anderen Stellen. Das ist nicht zu vergleichen mit Festplatten, wo sich nach einem Headcrash der herausgeschlagene Staub nach und nach über alle Scheiben verteilt oder wo die Laufwerksmechanik ausleiert.


    Daher würde ich, wenn die Zahl der defekten Blöcke nicht weiter zunimmt, das Problem einfach ignorieren. Was Anderes ist es, wenn die Zahl der defekten Blöcke weiter zunehmen sollte, dann ist was Prinzipielles im Argen.


    Und das ist ein guter Moment, zu kontrollieren, ob das Backup immer noch funktioniert und alle Daten sichert.

    WLAN-Verbindnung mit 5GHz und 866 MBit/s

    Das ist schon ein Problem. Ein WLAN erreicht nur selten die maximale Datenrate, während die Verbindung über Kabel immer mit maximaler Geschwindigkeit laufen kann. Von NAS über WLAN angebunden ist abzuraten.

    dann dürfte es auch möglich sein einen kleinen 1G switch zwischen NAS und PC zu hängen

    Die meisten Leute haben mit ihrer Fritzbox (oder auch anderen Routern) bereits einen Gigabit-Switch zu Hause rumstehen. Einfach PC und NAS mit Kaben daran anschließen.

    Übrigens, die meisten Dateien sind recht groß (10-30MB), aber es gibt auch einige kleinere.

    Die stark schwankenden Datenrate, die du in der Anzeige vom Explorer hat, spricht dafür, dass es viele kleinere Dateien gibt.

    Vermutlich handelt es sich bei den Angriffen um automatisierte Skripte, die ein Schadprogramm auf dem NAS zur Ausführung bringen wollen, welches deine Dateien verschlüsselt, damit Lösegeld erpresst werden kann.


    Die vielen Angriffsversuche sprechen für ein Durchprobieren von Passwörtern. Wenn alle deine User wirklich sichere Passwörter haben (>= 10 zufällige Zeichen), dann ist das Probieren von Passwörtern aussichtslos. Die große Gefahr ist, dass es durch eine Sicherheitslücke, von der womöglich noch nicht mal Qnap was weiß, möglich ist, sich ohne Passwort anzumelden, und dann gibt es noch nicht mal eine Mail, außer zwei Tage später derjenigen mit der Lösegelderpressung.


    Die Zahl der Angriffsversuche kannst du deutlich reduzieren, wenn du nicht den Standardport nimmst, sondern eine hohe Portnummer (>33.000). Dies ist durchaus zu empfehlen, dennoch ist es nur Augenwischerei, denn der Angreifer kann alle Ports durchprobieren.


    Der einfachste Schutz gegen die Angriffe ist, im Router (Fritzbox) alle freigegebenen Ports zu sperren und nur über das VPN im Router zuzugreifen.


    Ich will dir nicht komplett davon abraten, ohne VPN auf einzelne Dienste zuzugreifen. Einige Dienste können sicher genutzt werden (z. B. ssh bei sicherer Konfiguration), andere eher nicht (z. B. http(s) auf das NAS-GUI). Du bist dann aber selbst dafür verantwortlich, dich um die Sicherheit zu kümmern:

    • Werden Patches zügig eingespielt? Sind Sicherheitslücken bekannt?
    • Wie groß ist die Angriffsfläche?
    • Wie gut ist die Sicherheit durch Dritte untersucht worden?
    • Kannst du selbst die Sicherheit einschätzen?
    • Hast du ein Backup, das sicher ist gegen Verschlüsselungstrojaner? (Z. B. eine Platte mit aktuellem Backup im Schrank)

    Um mal konkreter zu werden: Welche Dienste und welche Ports hast du denn freigegeben?

    Leider nein ... wird ohne Updates aus dem Store geworfen

    Es gibt schon ein paar Möglichkeiten:

    • Altes Handy rein als Fernsteuerung weiter benutzen
    • Auf eine andere App ausweichen. BubbleUpnp, Linn Kazoo und Lumin funktionieren allesamt mit BubbleUpnp-Server zusammen.
    • Bei Android: apk-Datei aufheben. (Es gibt schon Gründe, warum ich zwar Mac Computer aber keine iPhones habe.)

    Wenn alles nichts hilft, kann man auf komplett andere Software ausweichen. Es muss ja nicht gleich das sündhaft teure Roon sein. Und das ist etwas, was mit einem eigenständigen Audiostreamer nicht geht. (Dafür lässt sich der Audiostreamer viel leichter in Betrieb nehmen.)


    Natürlich könnte man den Computer auch über VNC vom Smartphone auch bedienen. Aber das mach dann keinen Spaß mehr, genauso wenig wie die GUI am Fernseher oder die Streaming-Kataloge am kleinen Display des Streamers zu durchforsten. Dann wird man sich über kurz oder lang neue Hardware kaufen.


    Ich meinte Streamer die via DLNA,SMB oder anderweitig an die lokalen Daten kommen, nicht Spotify und Co.

    Das ist doch nicht mehr zeitgemäß. Also ich meine damit nicht die lokale Bibliothek, sondern den Verzicht auf Streaming-Anbieter wie Qobuz, Spotify etc..

    Steuerung über ne Handy App ist immer mit Vorsicht zu genießen

    Die Steuerung über Handy und Tablet funktioniert sehr gut, und mal ehrlich, bei Streaming-Anbietern mit Zehntausenden von Alben gibt es keine echte Alternative dazu, auch die von dir genannten Möglichkeiten sind nicht befriedigend. Außerdem bleibt die App auch nach Pleite des Herstellers unbegrenzt nutzbar, da keine Hersteller-Cloud benötigt wird, sondern alles lokal läuft.


    Ein Netzwerk-Streamer hat eher die Gefahr, als Elektroschrott zu enden, wenn die Streaming-Anbieter Pleite gehen oder den Anmeldeprozess ändern. Beim Computer kann man dann immer noch andere Software installieren.

    Hat jemand eine Idee den analogen Verstärker an die Qnap anzuschliessen?

    Zuerst einmal brauchst du einen Digital-Analog-Wandler (DAC) mit USB-Eingang und Cinch-Ausgang für den Verstärker. Die Geräte gibt es in Preisklassen von wenigen Euro für China-Schrott bis weit in den fünfstelligen Bereich für Hi-End hinein. Die Unterschiede zwischen den Geräten kann man durchaus raushören, deshalb sollte man nicht zu billig einkaufen, sondern in einem passenden Verhältnis zu Verstärker und Boxen. An diesen DA-Wandler schließt man das NAS per USB an. USB 2.0 reicht.


    Dann braucht man auf dem NAS ein DLNA-fähiges Abspielprigramm (Media-Renderer). Für Linux kann ich gmrender-resurrect sehr empfehlen. Ich weiß nicht, ob man das Programm direkt auf qts zum Laufen bekommt (mein NAS steht im Keller, da brauche ich keine Lautsprecher dran). Sound-Hardware wird meines Wissens nach nicht benötigt, sondern nur ein Zugriff auf USB, aber keine Ahnung, ob sich das installieren lässt. Alternativ installiert man eine virtuelle Maschine (Ubuntu Server ohne GUI reicht), wo gmrender-resurrect läuft, und reicht den USB-Port an diese durch, oder man nimmt einen Raspi. BubbleUpnp findet diesen automatisch und bietet gmrender als Abspielgerät an.


    Wer keine besonderen Ansprüche an die Klangqualität hat, möge hier bitte aufhören zu lesen. Jetzt kommt noch etwas Hifi-Voodoo:


    Ich dachte ja, USB sei digital, Daten würden unverfälscht übertragen, aber ich bin eines Besseren belehrt worden. Ich habe hier ein altes MacBook genommen und dieses testweise mit Mac OS/X und Kodi oder OpenHome Player probiert sowie Ubuntu und gmrender-resurrect oder Daphile (eine Audio-Distribution mit Linux) genommen. Irgendwann fiel mir auf, ohne danach gesucht zu haben, dass der Klang unter Linux nicht so gut war wie unter Mac OS. Die Höhen waren nicht so sauber. Der Grund dafür dürfte sein, dass Linux die zeitlichen Abstände zwischen den über USB geschickten Daten nicht so gut einhält wie Mac OS/X (Jitter?), was man in den Höhen hört. Wichtig ist nur das Betriebssystem. Welchen Rechner man nimmt (alten und neueren Intel-Mac probiert, aber ARM-Macs habe ich nicht getestet), welcher Audio-Renderer läuft, welche Linux-Distribution genommen wird, ist hingegen unerheblich.


    Leider können sämtliche Programme auf dem Mac, die mit BubbleUpnp funktionieren, kein Gapless-Playing (d. h. ohne Zweisekundenpause zwischen den Stücken, was gerade bei Life-Aufnahmen stört), gmrender-resurrect hingegen schon. So, und jetzt wird es endgültig schräg, wenn man auf dem Mac eine VM mit Ubuntu Server und gmrender-resurrect aufsetzt, hat man gmrender als Gapless-Upnp-Player mit der Klangqualität von Mac OS/X.


    Wer's nicht glaubt möge es selbst ausprobieren. Und wer's dann nicht raushört, hat entweder keine guten Ohren oder keine guten Boxen.


    Nach diesen Erfahrungen gehe ich davon aus, dass man den analogen Verstärker am NAS wird nutzen können, aber wer Hi-End-Ansprüche hat, möge besser einen Mac oder einen eigenständigen Hifi-Streamer nehmen.

    Ht das hier etwas damit zu tun?:

    Das kann gut sein. Da ist der Aufruf eines Skriptes auskommentiert, und in dem Skript wird der Suchpfad (zum Teil?) gesetzt. Nimm mal das # und das Leerzeichen weg, so dass der Punkt das erste Zeichen in der Zeile ist und probier aus, vllt. geht es dann schon.


    Evtl. gibt es auch die Möglichkeit das Profil von der der autorun aufzurufen, damit man die Suchpfade auch im Script nutzen kann

    Ja, das geht, z. B.

    Code
    . /etc/profile

    oder

    Code
    . /share/homes/userxxxx/.profile 

    je nachdem, wo der Suchpfad definiert ist. Wichtig sind . und Leerzeichen vor dem Pfad uns Namen des Skriptes, damit die im Skript gemachten Pfad- und Variablenänderungen auch im aufrufenden Prozess bekannt sind. Die so gemachten Änderungen gelten dann im aufrufenden Prozess und allen von ihm gestarteten Prozessen, nicht aber in anderen unabhängig davon gestarteten Prozessen.

    Welche Bandbreite braucht denn so ein HD-Film, damit er ruckelfrei läuft?

    Die Bandbreite ist idR. nicht das Problem, sondern Störungen durch anderen WLANs oder sonstige Störquellen, die gelegentlich zu kurzfristigen Aussetzern in der WLAN-Verbindung führen. Diese führen dann zu kurzen Störungen im Streaming. Je nach Wohnort und Bausubstanz des Hauses treten diese Aussetzer im WLAN auf oder auch nicht.

    Wo ist eigentlich die MediaStreaming-Add geblieben.

    Das gibt es ganz normal im App-Center. Die aktuelle Version braucht allerdings qts 5.1, die vorangegangene qts 4.5, siehe hier. Deine qts-Version ist zu alt. Eine frühere Version vom Streaming-Add-On könnte funktionieren.

    (Es gibt auch einen Onlineassistenten, den hab ich durchgespielt und am Ende kommt doch nur der Verweis auf die Hotline.)

    Die einzige sinnvolle Funktion des Online-Assistenten besteht darin, dass man ihn nach einem Kontaktformular fragen kann, über das man dann den Support schriftlich kontaktieren kann und nach ein, zwei Tagen tatsächlich eine Antwort erhält. (Zumindest vor 1 1/2 Jahren hat das noch funktioniert.)

    RTRR-Sicherung eingestellt, dauert sehr lange und gefühlt werden da trotz Versionierung (10 Versionen) gefühlt Unmengen an Daten gesichert,

    Was ist sehr lange? Und ja, die Backups dauern.


    Wo machst du die Versionierung? Beim Kopieren auf das andere NAS? Das führt meiner Erfahrung nach zu einer längeren Backupdauer. Besser kann es sein, nur eine normale Synchronisierung zu machen (was dann noch kein echtes Backup ist!) und mit einem zweiten Job auf dem fernen NAS (dort angelegt) ein lokales Backup mit Versionierung zu erstellen. Das kannst du mal probieren.


    Dann ganz wichtig, "Dateiinhalte prüfen" darf nicht(!) ausgewählt sein, da sonst alle Dateien jedesmal komplett übertragen werden. Das erhöht die Zeit und das Transfervolumen ganz gewaltig. Ist die Option nicht ausgewählt, wird über Datum und Größe (und natürlich den Dateinamen) geprüft, was fast immer reicht. (Die Beschriftung der Option ist etwas irreführend.)

    Das kann irgendwie nicht so ganz stimmen – wenn es 4 TB gesamt wären, könnte ich es evtl. noch verschmerzen.

    Wie hast du den Wert gemessen? Verbrauchsanzeige in der Fritzbox? Die ist irreführend. Als ich ein großes externes Backup initial neu erstellen musste (mehrmals, da ich was falsch gemacht hatte), hatte ich bereits nach drei Tagen einen Wert erreicht, der oberhalb des theoretischen Maximums des Internetanschlusses für den ganzen Monat lag.

    kann ich zwar den SSH-Key erstellen, aber rüberkopieren aufs andere NAS geht schon mal nicht

    Am einfachsten: Auf beiden NAS den Editor öffnen, einmal id_rsa.pub, einmal authorized_keys, in einem Editor markieren, kopieren (ctrl-C), im anderen Editor einfügen (ctrl-V) und abspeichern.


    Bitte den geheimen Schlüssel id_rsa niemals kopieren.

    Wenn ich mich dann verbinde, wird wieder nach dem Passwort gefragt und wieder und wieder…

    ssh ist sehr kleinlich, was die Rechte der Dateien betrifft.


    Folgende Rechte sind zwingend:

    Code
    ll .ssh
    drwx------  Benutzer Gruppe  .      (also das Verzeichnis .ssh selbst)
    -rw-------  Benutzer Gruppe  id_rsa
    -rw-r--r--  Benutzer Gruppe  id_rsa.pub
    -rw-------  Benutzer Gruppe  authorized_keys

    "Benutzer" und "Gruppe" sind Benutzer- und Gruppennamen desjenigen Benutzers, der sich anmeldet, also in dessen Home-Verzeichnis das .ssh-Verzeichnis steht.


    Wenn der Benutzer von Verzeichnis oder Datei falsch ist, oder falls auch andere Benutzer Lese- oder Schreibrechte haben (also zu viel Rechte), werden die ssh-Keys ohne weitere Fehlermeldung einfach nicht benutzt, und es kommt zu genau dem Verhalten, dass du siehst.


    Hinweis: Die Dateien id_rsa und id_rsa.pub sind möglicherweise nur auf deinem lokalen Rechner, von dem aus du dich anmeldest, vorhanden, die Datei authorized_keys möglicherweise nur auf dem fernen Rechner. Das ist in Ordnung und behindert die Funktion nicht.

    Merkwürdig ist, dass die Anzeige der FB vorgibt die Ports vom NAS wären mit den Powerline-Adaptern verbunden?

    Wenn in deinem Netzwerk Switche, Repeater oder Accesspoints, die nicht von AVM sind, drin sind, zeigt die FB an der Stelle gerne auch mal Unsinn an. Einfach ignorieren, das ist nur ein Anzeigeproblem, die Funktion ist dennoch gegeben.

    Das Problem ist jetzt zwar schon gelöst, aber vermutlich hätte es genügt, python3 mit kompletten Pfad anzugeben. Wenn autorun.sh vom System aufgerufen wird, ist der Suchpfad möglicherweise noch nicht gesetzt.


    Python braucht auch nicht vorweg geladen zu werden, sondern ist direkt aufrufbar. (Welche Voraussetzungen für dein Pythonskript gelten, weiß ich natürlich nicht.)

    Verspätete Antwort, da ich übers Wochenende weg war.

    Hast Du zufällig einen Link für mich zum Bubble-Server (für qnap)? Ich stelle mich beim Suchen zu dumm an.

    Das gab es als Paket (App) namens QBubbleUpnp bei Qnapclub.eu, aber der ist nicht mehr erreichbar. Auf der Seite von BubbleUpnp findet man es aber noch im Kapitel "NAS".

    Noch besser wäre es natürlich, direkt vom NAS zu streamen und das Handy nur als Fernbedienung zu nutzen.

    Exakt das ist mit der von mir genutzten BubbleUpnp-Lösung möglich. Der BubbleUpnp-Server (hier das NAS) muss eingeschaltet sein, der Abspieler (in der BubbleUpnp-Terminologie "Audio-Renderer" genannt) muss eingeschaltet sein, und natürlich auch der Medienserver (Qobuz/Tidal oder lokal wieder auf dem NAS). Der PC wird aber nicht gebraucht, und er braucht auch nicht eingeschaltet zu sein. Handy/Tablet sind wirklich nur Fernbedienung.


    Weiterer Vorteil, zumindest wenn das Abspielgerät am LAN-Kabel hängt: Die gestreamte Musik geht dann nicht über WLAN und kann nicht durch Verzögerungen im WLAN gestört werden.

    Das ist aber kein DLNA-Server sondern dient hauptsächlich zum Offloaden von Transcodierung von Mobilgeräten.

    Das trifft es nicht. BubbleUpnp kann zwar Transcodieren, aber das ist nicht der eigentliche Zweck.


    BubbleUpnp stellt das Open-Home-Protokoll für Abspielgeräte und Medienserver bereit, so diese mit DLNA arbeiten, außerdem für die Streamingdienste Qobuz und Tidal. Abspielgeräte sind als Räume getrennt ansprechbar. Auch die App auf dem Handy/Tablet (es gibt eine BubbleUpnp-App, die von Linn und Lumin funktionieren aber auch) kommuniziert mit BubbleUpnp. Ohne BubbleUpnp würde bei mir der Abspieler schon mal nicht gefunden, und ich käme nicht an Qobuz ran, lediglich der lokale Medienserver könnte auch ohne funktionieren.


    Entwickelt wurde OpenHome von der edlen Firma Linn, aber auch andere Firmen unterstützen dieses,wenngleich teilweise nur über BubbleUpnp. Meine KEF-Aktivboxen im Arbeitszimmer werben mit Kompatibilität zu BubbleUpnp.

    Allerdings plane ich, einen kleinen NAS-Server über LAN-Netzkabel an meine Fritz!Box anzuschließen, die dann per WLAN Bilder, Musik und Videos an Fernseher, PC und Smartphone schickt.

    Wenn möglich, schließ man Fernseher, PC und Verstärker mit einem LAN-Kabel an. Streaming über WLAN kann zu störenden Aussetzern führen. Smartphone über LAN-Kabel ist natürlich blöde :P .

    Möglicherweise kann es helfen, das Gerät über ein USB- oder Thunderbolt-Dock mit eigener Stromversorgung anzuschließen. Es gibt Docks, die haben einzelne USB-Ports, bei denen sie eine höhere elektrische Leistung zur Verfügung stellen.


    Das ist aber nur ein Versuch. Ich habe es nicht ausprobieren können. Daher solltest du ein Dock nehmen, dass du gegebenenfalls zurückgeben kannst.

    Switch reboot tut gut

    Klingt blöde, aber der Tipp ist gut. Bei einer Bekannten trat das plötzlich auch auf, dass gewisse Ports nicht mehr wollten. Ein Reboot half. Nach dem dritten Mal mit solchen Fehlern wurde das Problem durch den Neukauf eines Switches behoben. Da der neue Switch ein anderes Modell ist, kann nicht gesagt werden, ob es an der Hardware oder Software des Switches lag.


    Ein Neustart der Fritzbox kann in solchen Fällen auch hilfreich sein.