Beiträge von Anthracite

    Du kannst Bilder hören? Spaß!

    Beim Audio, ich hab noch alte MP3s….

    Da fehlte ein "bzw. sehen" in meinem Text. Egal. Hast du dir sicher auch so gedacht.


    Zu Audio: MP3, überspielte CDs etc. auf dem NAS geht sehr gut. Dann hast du deine eigene Musikbibliothek, auf die du von jedem Gerät im Haushalt zugreifen kannst (über DLNA), ohne dass die Musikdateien auf dein Einzelgeräten gespeichert sein muss. Der Komfort hängt ab von der Qualität der Indizierung auf dem NAS und der Bedienung in der App auf dem Endgerät. Im Prinzip ist das mit wenig Handgriffen aufgesetzt, nur für die Vorbereitung der Indizierung braucht es manchmal etwas mehr Arbeit, wenn die Tags für Album, Künstler etc. nicht in der MP3- oder FLAC-Datei vorhanden sind.


    Streaming-Anbieter wie Spotify:

    Wenn du auf dem Smartphone Musik hörst (z. B. mit Bluetooth-Kopfhörer), dann geht die Musik komplett am NAS vorbei. Das NAS hat damit nichts zu tun.


    Es gibt aber auch andere Fälle: Ich habe hier zwei Aktivboxen mit Ethernet-Anschluss von KEF auf dem Schreibtisch. Man könnte direkt mit der KEF-App streamen, aber erstens ist die nicht gut und zweitens kennt sie meinen Streaming-Anbieter (Qobuz) nicht. Stattdessen habe ich BubbleUpnp als Server auf dem NAS installiert, der die Verbindung zwischen Streaming-Anbieter und Lautsprechern macht, und das Smartphone mit der Linn-Kazoo-App dient ausschließlich als Fernbedienung. Der Vorteil davon ist, dass die Musik nur über Kabel direkt zum Lautsprecher kommt und nicht den potentiell qualitätsverschlechternden Umweg über WLAN zum Handy und zurück nehmen muss, und dass der PC am Schreibtisch nicht eingeschaltet zu sein braucht oder etwas anderes machen kann. Das NAS wird also nicht als Speicher sondern nur als ständig laufender Server genommen.


    Im Prinzip dasselbe ist beim Anschluss meiner alten aber hochwertigen Hifi-Anlage, bei der allerdings ein Mac (+ DA-Wandler) als Zuspieler steht, und dann läuft BubbleUpnp auf dem Mac. Bei einer anderen Hardware könnte aber auch da das NAS zum Zuge kommen.


    Ich schreibe schon wieder zu viel über meine Bastelprojekte ... :mcup:

    Ein SSD-Volumen kann dann sinnvoll sein, wenn du mit 10GbE auf das NAS zugreifst und viele Dateien über SMB direkt auf dem NAS bearbeitest, oder wenn du virtuelle Maschinen nutzt.


    Einen SSD-Cache würde ich nicht nehmen, weil der Geschwindigkeitsvorteil in den meisten Fällen vernachlässigbar ist, und weil die Komplexität und damit die Fehleranfälligkeit dadurch erhöht wird.

    Ich bin mir noch unschlüssig, den HDMI Anschluss zu nutzen

    Das Schöne an einem NAS ist, dass man es in den Keller stellen kann, wo niemand es hört.

    Der Bildschirm-Zugriff erfolgt dann über den Web-Browser für die NAS-Konfiguration und über VNC für die virtuellen Maschinen.

    Ein HDMI-Anschluss ist mMn. überflüssig.

    32GB RAM Mindestens! Wie ich gelesen habe sollen sogar 64 funktionieren, auch wenn QNAP das nicht Supported....

    Ja gut, ok! Und was soll damit gemacht werden???

    Wozu man so viel Speicher braucht?

    Wenn du qts-Hero mit ZFS nimmst, dann ist ein GB freier RAM pro TB Festplattenplatz empfohlen.

    Virtuelle Maschinen können viel Speicherplatz verbrauchen. (Meine Linux-VM mit den Datenbanken brauch 12GB Ram, dann noch Windows Server mit 4GB Ram, gelegentlich weitere VMs, dan kommt was zusammen. Ich habe von 16GB auf 48GB aufgerüstet. 32GB hätten vermutlich auch gereicht.)

    Photo Station
    Audio Station

    Den Stationen stehe ich etwas skeptisch gegenüber, wenn man Musik und Bilder nicht ausschließlich am Handy hören will. Musik auf Stereo-Anlage geht damit meines Wissens nach nicht gut. Es reichen Multimedia-Konsole für den Server und Streaming-Add-on für DLNA. Der Rest übernimmt Software auf einem anderen Rechner. Ich nehme BubbleUpnp als Server (es gab das mal als Qnap-App, wird aber nicht mehr gepflegt) und Linn Kazoo auf dem Handy als Fernsteuerung - die Musik selbst läuft aber nicht über das Handy.

    Synology Contacts
    Synology Calendar

    Siehe hier. Ich hab's noch nicht ausprobiert.

    Vorweg: Wenn du es gemacht hast, teile mal das Ergebnis mit, egal ob erfolgreich oder nicht. Mich interessiert auch, ob das funktioniert.

    Wenn du die Platte kopiert und die Kopie eingesteckt hast, wirst du den zusätzlichen Speicherplatz nicht sehen können. Du musst erst die Partition erweitern. Das sollte im GUI gehen. Wenn du an mdadm oder lvm ran musst , wird's haarig.

    Wenn es nicht funktioniert, sollte es eigentlich möglich sein, die Kopie zu entfernen, die alte Platte wieder einzustecken und alles funktioniert wie vorher, so dass du die aufwendigere Migration immer noch machen kannst. Aber da ist das böse Wort "eigentlich" drin. Niemand garantiert dir, dass es nicht doch kracht.

    Wenn die Daten "hops gehen" dürfen, wie du schreibst, dann würde ich es wohl riskieren und einfach versuchen.

    wenn immer nur neue Dateien hinzukommen und die alten nie geändert oder gelöscht werden, sparst du durch Verringerung der Backup-Anzahl überhaupt nichts

    Stimmt nicht ganz. Sämtliche Verzeichnisse (also Dateinamen, Attribute, etc, nicht aber die Datei selbst) werden für jedes Backup neu angelegt, selbst wenn sich im Verzeichnis nichts geändert hat. Etwas Platz spart man also immer. Aber im Prinzip hast du recht.

    (habe ich jetzt von 20 auf 12 reduziert)

    Die Reduktion bringt vor allem dann viel, wenn die ältesten Backups dadurch entfallen, also der insgesamt durch Backups zurückgehaltene Zeitraum verkürzt wird.

    Wenn du von 12 monatlichen und 8 täglichen Backups auf 12 monatliche und 0 tägliche reduzierst, bringt das wenig, weil nur wenige Dateien ausschließlich in den dadurch entfallenen Backups auftauchen.

    Wenn du stattdessen von 12 monatlichen und 8 täglichen Backups auf 4 monatliche und 8 tägliche reduzierst, bringt das vergleichsweise viel, weil dann alle vor länger als vier Monaten gelöschten oder geänderten Dateien endgültig rausfallen.

    Externes NAS mit RTRR eingebunden

    RTRR ist genau die Technik, mit der ich mich nicht auskenne, da ich sie nicht benutze (geht von Qnap zu Syno nicht).

    Da RTRR auf rsync basiert, müsste das aber gehen. Mit

    Code
    rm -rf Backupverzeichnis/Datum

    kannst du ein Backup komplett entfernen.

    Wenn du einzelne Dateien oder Verzeichnisse aus allen Backups entfernen willst, kannst du mit

    Code
    ll Backupverzeichnis/Datum/Pfad/zu/der/Datei/oder/Verzeichnis

    exemplarisch ein Verzeichnis oder Datei anschauen, ob es richtig ist, mit

    Code
    ll -d Backupverzeichnis/*/Pfad/zu/der/Datei/oder/Verzeichnis

    dir anschauen, welche Dateien gelöscht würden und diese mit

    Code
    rm -rf Backupverzeichnis/*/Pfad/zu/der/Datei/oder/Verzeichnis

    aus sämtlichen Backups löschen. Bitte große Vorsicht walten lassen, rm -rf ist perfekt für Katastrophen im Dateisystem. (Noch ein Hinweis: Niemals rm -rf .* zum Löschen aller versteckten Verzeichnisse nehmen. Das Resultat ist nicht das, was man erwartet.)

    Dieses Vorgehen ist sinnlos, wenn die so im Backup gelöschten Dateien noch im aktuellen Stand sind, weil dann beim nächsten Lauf die Dateien wieder ins Backup gestellt werden.

    Ebenfalls sinnlos ist es, wenn zu entfernende Dateien nicht aus allen Backups gelöscht werden, weil dann kein Speicherplatz freigegeben wird.

    Wenn du vor kurzen den Pfad für deine Videothek mit 5TB umbenannt hast, dann lohnt sich das Vorgehen. Gewinnst du hingegen nur wenige Gigabyte, dann spar die die Mühe, denn irgendwann fallen die alten Dateien von selbst aus den Backups raus.

    Und wie gesagt, mit einem per RTRR erzeugten Backup habe ich es nicht probiert. Also ohne Gewähr.

    Hoffe ihr versteht mich

    Nein, nicht ganz.

    • Von wo aus greifst du auf das NAS zu? Lokales Netzwerk oder über das Internet?
    • Wie sprichst du das NAS an, mit der IP-Adresse oder DNS-Name?
      • Wenn IP-Adresse, IPv4 oder IPv6? Korrespondiert diese mit der Adresse, die der QFinder anzeigt?
      • Wenn über Name, ist dieser vllt. in deiner hosts-Datei eingetragen?
    • Meinst du wirklich smtp? Oder vielleicht snmp oder smb?

    Beim Einrichten einen Snapshots Vault können diese auch auf anderen Platten oder NAS liegen.

    Das ist mir neu. Gut, wieder was gelernt.

    Ich frage mich gerade, wie das technisch realisiert wird. Werden nur die Änderungen in das ferne Vault übertragen - dann wäre der Snapshot nur in kleinen Teilen nicht lokal - oder wird initial der komplette Volume-Inhalt übertragen - dann wäre der Snapshot komplett extern, aber gegenüber einem Backup würde keine Übertragungszeit oder Plattenplatz gespart, bei möglicherweise geringerer Flexibilität (Snapshot heißt üblicherweise "Alles oder nichts")?

    Denn ich suche nach wie vor die Möglichkeit bei einem Sterben oder so der Platten, einfach die Ordnerstruktur und Daten mit ein/zwei Klicks wiederherstellen.

    Das macht ein Raid. Defekte Platte raus, neue Platte rein, und der Rest geschieht automatisch.


    Bei Snapshots scheitert es schon daran, dass von der Systempartition meines Wissens nach kein Snapshot erstellt werden kann. (Oder irre ich mich da auch?)


    Das mit dem Timestamp ist beim zurückspielen der Fall

    Ich gebe zu, ich habe Daten aus dem Backup immer mit cp -Rp zurückgespielt. Da ist mir das Problem nicht aufgefallen.

    Ist es nicht eh sinnvoller alle 7 Platten zu einem Raid5 zusammenzufassen?
    Geht das on the Fly ohne Datenverlust?

    Mit 4x16 TB + 3x14TB hast du 3x16TB + 2x14TB = 76TB nutzbaren Platz.

    Mit allen Platten in einem Raid sind 7x14TB vorhanden (die kleinste Platte gibt die Größe vor), nutzbar sind 6 x 14TB = 84TB. Du gewinnst also 8TB.


    Mit zwei Raids 4x16 TB + 3x14TB ist das Risiko geringer, dass während des Rebuilds nach Plattendefekt eine zweite Platte ausfällt und das ganze Raid hopps geht.

    Mit zwei Raids 4x16 TB + 3x14TB bist du flexibler, wenn der Platz nicht mehr reicht und du größere Platten einbauen möchtest, weil du dann nur die Platten eines Raids und nicht alle Platten tauschen musst.

    Mit einem Raid 7x14TB bist du flexibler bei der Anlage von Pools und Volumes.


    Was sinnvoller ist, hängt von deinen Wünschen ab.


    Ohne Datenverlust geht das Zusammenfassen nicht. Du musst das Raid mit den 4x16TB auflösen (d. h. alle Daten werden darauf gelöscht). Dann kannst du die 16TB-Platten dem 3x14TB-Raid hinzufügen. Die Daten auf dem 3x14TB-Raid können erhalten bleiben. Umgekehrt (3x14TB auflösen, 4x16TB behalten) geht nicht.

    Ich hatte bisher keine Probleme damit, am Ziel einzelne Dateien oder auch komplette Backups zu löschen. Das hat immer geklappt.


    Da ich aber nicht zwingend dieselbe Backup-Methode wie du verwende, ein paar Nachfragen:

    - QuDedup eingeschaltet?

    - Synchronisierung oder Versionierung?

    - Wie erfolgt der Zugriff? rsync oder RTRR oser SMB oder ??

    Ich sehe nicht, dass dir bei deinem vorhandenen Backup ein Snapshot noch helfen könnte.


    In dem Falle, dass dir wieder eine SSD kaputt geht, nützt ein Snapshot gar nichts, weil der Snapshot zwingend auf derselben SSD oder Platte liegen muss wie die Originaldaten, von denen er ein Abbild bildet. (Dies liegt im Funktionsprinzip des Snapshots begründet.) Wenn die SSD kaputt geht, geht der Snapshot also immer mit kaputt.


    Der Snapshot ist dann nützlich, wenn einzelne Dateien (können auch viele sein) kurzfristig gesichert und zurückgeholt werden sollten. Beispiel ist eine VM, bei der vor einem Systemupdate ein Snapshot erstellt wird. Funktioniert das Update nicht, dann geht man zum Snapshot zurück, ohne wissen zu müssen, welche Dateien geändert wurden. Erstellen des Snapshots und Zurück zum Snapshot geht sofort, während ein Backup auf ein anderes Medium dauert. Aber das funktioniert nur, wenn die Dateien durch Programme oder Dummheit des Benutzers zerstört wurden, nicht bei Hardwaredefekten (wie Lesefehler auf der Festplatte).


    Zu den Timestamps: Die sollten auch bei deinen Backups erhalten bleiben. Andernfalls machtst du etwas falsch.

    um hier nicht zu bremsen

    Genau das ist der springende Punkt. Solange der Prozessor schnell genug ist, alle Pakete ohne Verzögerung zu kodieren und dekodieren, ist egal, welches VPN du (gemeint ist roadlive) nimmst. Der Flaschenhals liegt bei dir woanders.


    Ansonsten gilt Wireguard als sehr performant. Du wirst in deiner Konfiguration das aber nicht am Durchsatz sondern bestenfalls beim Stromverbrauch messen können.

    Lassen sich die Daten denn vom QNAP-NAS noch auslesen?


    Wenn nein: Ist es dann nicht ohnehin zu spät für ein Backup?


    Wenn ja:

    USB-Festplatten wie WD MyBook kosten mit 16TB gut 300 Euro, und davon bräuchtest du dann zwei Stück. Du hättest dann aber gleich Platten für das Backup. Für ein versioniertes Backup ist das immer noch zu knapp, aber ich nehme an, dass du viele Filme hast, die einmal gespeichert dann sich nie wieder ändern.

    Tipp: Nimm USB-Platten aus der Kompatibilitätsliste deines neuen NAS, damit die bei Nichtnutzung in den Schlafmodus gehen.


    Alternativ kannst du dein (Film?-)Archiv auch gründlich aufräumen und alle Filme löschen, die du ohnehin nie mehr sehen wirst. Du kannst dann immerhin selbst wählen. Wenn hingegen dein Raid kaputt geht, dann geht das Aufräumen viel schneller, aber ohne Selektionsmöglichkeit deinerseits.


    Edit:

    Man kann auch Computer und Zubehör professionell mieten. USB-Platten sind aber eher nicht dabei, und die Angebote sind für Firmen interessant, für privat aber zu teuer.


    Du kannst natürlich den örtlichen Händler deines Vertrauens fragen, ob er dir gegen Geld die benötigten USB-Platten o. Ä. verleiht.


    Im Prinzip kannst du die USB-Platten auch im Internet bestellen, deine Kopierorgie starten und anschließend die Platten innerhalb der 14-Tage-Frist zurückgeben. Das ist aber nicht fair gegenüber dem Nachnutzer, und der Händler wäre berechtigt, die Erstattung zu kürzen oder die Rückgabe zu verweigern. Wenn du das machen musst, mach es bei einem Händler, den du nicht leiden kannst (Amazon :ziped: ).


    Die Anmietung der Speichermenge in der Cloud ist kein Problem (z. B. Hetzner 72 Euro/Monat), ist aber vermutlich durch die begrenzte Übertragungsgeschwindigkeit keine Alternative (30TB hin und zurück dauert mehrere Monate, und vermutlich macht die Backplane vorher endgültig die Grätsche).


    Alle Mietlösungen haben aber den Nachteil, dass das Problem des fehlenden Backups dadurch nicht gelöst wird.

    Frage:


    Wie greift ihr auf die Freigaben zu? Nur per smb oder auch per nfs?

    Falls auch nfs zum Einsatz kommt, dann redet ihr gerade an der eigentlichen Fehlerursache vorbei.


    da steht tatsächlich manchmals als Gruppe Administratoren und manchmal Everyone. Wie kann ich das beheben? Leider sind das insgesamt sehr viele Ordner.

    in der Shell mit

    Code
    chgrp -R Gruppe Verzeichnis

    oder

    Code
    chown -R Eigentümer:Gruppe Verzeichnis

    Dann änderst du mit einem Befehl die Gruppe (und im zweiten Falle die Eigentümer) des Verzeichnisses und sämtlicher Unterverzeichnisse sowie der darin enthaltenen Dateien. Das geht Ratz-Fatz.


    Aber sieh zu, dass du nicht die Besitzer des falschen Verzeichnisses änderst. Das kann das System zerschießen. Daher sollte man vorher mit cd /share/Freigabe in das Freigabeverzeichnis gehen, um diese Gefahr zu minimieren.


    Vermutlich wirst du noch ein sudo vor dem chgrp/chown-Befehl brauchen.

    Ein Backup-NAS nimmt man am besten dann, wenn man sich ein neues leistungsstärkeres NAS kauft. Das alte NAS kann dann als Backup herhalten. Und wenn es kein Alt-NAS gibt, es aber unbedingt ein NAS für's Backup sein soll, kann man bei Ebay etc. vorbeischauen.


    Seine Vorteile spielt ein Backup-NAS aus, wenn es an einem anderen Ort steht (Backup im Katastrophenfall). Ansonsten ist man mit einer USB-Platte am NAS (oder zwei im Wechsel) zumindest im Privatbereich ebenso gut bedient.


    10G ist nett, [...]
    Für Privat stehen hier Kosten/Nutzen meist noch immer nicht in günstiger Relation.

    So teuer ist 10GbE nicht mehr.

    LWL-Transceiver und DAC-Kabel habe ich bei Ebay schon für einen Euro ersteigert, ab 5 - 10 Euro wird man häufiger fündig, neu ab 20 Euro.

    PCI-Karten mit sfp+ gibt es gebraucht ab 35 Euro (beim NAS in die Kompatibilitätsliste schauen, damit ein Treiber vorhanden ist).

    Switche mit mind. dreimal sfp+ gibt es neu ab 140 Euro (Mikrotik).

    Am teuersten war noch der 10GbE-Adapter für mein Thunderbolt-Macbook mit 200 Euro.


    Für das Backup lohnt 10GbE allerdings nicht (außer beim initialen Backup), da das Backup unbemerkt im Hintergrund abläuft und die Zeitdauer nebensächlich ist. Hinzu kommt, das das für Backups genutzte Alt-NAS idR. kein 10GbE kann.

    Gib mal auf dem NAS in der Shell ein

    Code
    lsof <Datei>

    Dann bekommst du angezeigt, welche Prozesse noch auf die Datei zugreifen.


    Die Datei von letzter Woche läßt sich immer noch nicht löschen.

    Das ist länger als ein paar Minuten ...

    Dann hast du ein anderes Problem als ich.

    Ich habe hier ein System, kein NAS, sondern Windows Server, dessen Freigabe ich mit Linux mounte. Wenn ich auf die Freigabe eine Datei unter Linux hinkopiere und sie unter Windows öffne (ist eine Zip-Datei, also entpacken unter Windows), dann kann ich sie zwei, drei Minuten lang nicht löschen, weder auf dem Server unter Windows noch unter Linux. Danach geht es plötzlich auf beiden Rechnern wieder. Also warten hilft. Befindet sich die Datei hingegen schon länger auf dem Windows Server, so tritt das Problem nicht auf.


    Entspricht das etwa deinem Problem, oder handelt es sich bei dir um etwas anderes?

    Soll ich jetzt die neue Firmware5.2.4.3079 updaten oder soll ich ca. 1 Woche warten?

    Der freundliche Herr vom Qnap-Support meinte mir gegenüber mal, er würde immer ein halbes Jahr warten, bis er sich eine neue Systemsoftware auf seinen Rechner ziehe. Das war jetzt allgemein gemeint und nicht explizit auf qts bezogen.


    Ich würde die 5.2.4.3079 überspringen. und die Version danach nehmen, wenn jene ein paar Wochen raus ist.

    Mit unsicherer Umgebung meine ich das offene Internet, wo man Telnet tunlichst nicht nutzen sollte. Eine sichere Umgebung ist z. B. das heimische LAN, wo es keine unerwünschten Lauscher gibt.


    Man kann das natürlich auch wie du dahingehend verstehen, was als Ergebnis gewünscht ist, aber wer möchte denn schon absichtlich eine unsichere Umgebung?

    Telnet ist praktisch, wenn man die ssh-Konfiguration zerschossen hat. Dann kommt man immer noch ins System.

    Telnet und ssh nutzen übrigens denselben Server. Wenn man den ssh-Server neu startet, ist die Telnetsitzung auch weg. Die Konfigurationen sind aber komplett getrennt.


    Telnet überträgt übrigens sämtliche Daten im Klartext, auch das Passwort. Also nichts für unsichere Umgebungen.