Beiträge von eren

    Du hast Recht, danke! Allerdings habe ich extra eingestellt, dass Snapshots via SMB sichtbar sein sollen. Sind sie aber nicht. Aber andererseits sollen sie ja auch gar nicht erst existieren.


    Unter \mnt\snapshot gibt es einen Verzeichnisbaum, der scheinbar die Snapshot-Daten enthält. Aber was mach ich jetzt damit? Einfach so löschen? Keine Ahnung, wie das System darauf reagiert.


    Lieber wäre es mir, die Snapshots sozusagen offiziel loszuwerden. Außerdem würde ich das Erstellen der Snapshots gerne abstellen, sonst muss ich da ja immer wieder hinterherräumen.

    So, nun habe ich den Inhalt von \snapshot kurzerhand gelöscht. Der Speicherverbrauch der Snapshots hat sich nicht verändert. Das Löschen ging auch verdächtig schnell...

    NAS TS-877 QTS 4.3.4.0695 3 x 4TB HDD Raid-5, Aktuell Thin-Volume, vorher Thick-Volume. Das ist Speicherpool 2.


    Bei diesem System laufen mir die Festplatten voll, weil inzwischen 3,24TB durch Snapshots belegt sind bei einem Nutzdatenvolumen von 3,63GB

    Die Missere habe ich kurz vor Weihnachten bemerkt, weil plötzlich das Volume auf Read-Only stand. Grund: Das Volume war bis auf 30GB voll. Notgedrungen habe ich als Sofortmaßnahme das Thick-Volume in ein Thin-Volume geändert, damit zumindest weitergearbeitet werden konnte.


    Seitdem wird aber weiterhin Snapshot-Speicher belegt, so langsam wird es eng. Das Merkwürdige ist, dass die Snapshots überhaupt nicht aktiviert sind. Was das NAS aber nicht interessiert. Es macht scheinbar trotzdem welche.


    pasted-from-clipboard.png


    Kann mir jemand einen Tipp geben, wo ich noch suchen könnte? Vor allem ist es nötig, die bereits angelegten Snapshots zu löschen und den Speicher freizugeben.

    "Garantierter Snapshot Speicherplatz" ist deaktiviert.

    pasted-from-clipboard.png


    Die Intelligente Snapshotz-SpeicherplatzVerwaltung war deaktiviert, vor ca. 1 Woche habe ich sie dann aktiviert, in der schwachen Hoffnung dass dadurch vielleicht dieser Speicher-Amoklauf ein Ende hat. War aber nicht so.

    pasted-from-clipboard.png


    In der Filestation sehe ich unter 'Momentaufnahme' keine Snapshots, sondern es wird lediglich der Assistent 'Schützen Sie Ihre Daten mit Snapshots' geöffnet.

    In jeder Freigabe gibt es ein Verzeichnis @Recently-Snapshots, das aber überall leer ist. Auch bei SMB-Zugriff sehe ich da nichts.


    So langsam gehen mir wirklich die Ideen aus, wo ich noch nachsehen könnte und vor allem, wie ich diese Geister-Snapshots los werde.


    Vielen Dank fürs Lesen!

    Hab Ihr eine Idee wie ich das am besten mache?

    Prinzipiell funktioniert es sehr gut, die Daten via Internet auf ein entferntes NAS zu kopieren. Wenn einmal alles synchron ist, fällt die Datenmenge, die pro Tag übertragen werden müssen, i.d.R. nicht mehr ins Gewicht. Trotzdem gehört ans entfernet NAS zusätzlich eine externe Sicherungsfestplatte.

    Ich habe solche eine Lösungen bei zwei Kunden eingerichtet mit Datenmengen bis zu 4TB. Funktioniert in beiden Fällen klaglos.


    Oder hast du insgesamt nur ein NAS und willst die Daten vom PC auf dieses sichern? Das geht aus deinem Eröffnungsbeitrag nicht so recht hervor. Falls es so wäre, auch kein Problem. Das ginge mit Resilio Sync über DSL.

    Das geht prinzipiell gut. Probleme traten in meiner Praxis auf, wenn große Dateien (>500MB) übertragen werden mussten. Dann kam die Übertragung ins Stocken und die beiden NAS konnten nur mit Mühe (restart der NAS, evtl. mehrmals) wieder synchron werden.

    Abhilfe brachte, große Dateien per Filter von der Synchronisation auszuschließen. Das ist natürlich nicht überall möglich. Das war ein 100/40Mbit DSL-Verbindung. Anschließend zug der Kunde um und hatte nur noch eine 10/0,6Mbit Anbindung. Von da an gab es nur noch Probleme.


    Inzwischen synchronisiere ich die NAS mit Resilio Sync. Das funktioniert richtig gut und ist auch zuverlässig. Auch große Dateien mit einigen 100GB bringen Resilio nicht ins Trudeln. Dauert halt, je nach Übertragungsbandbreite. Allerdings braucht Resilio Sync richtig viel RAM. 2GB im NAS reichen devinitiv nicht aus. Das dürfte aber von der Datenmenge abhängen.


    Bedenken solltest du, dass die 50MBit DSL-Leitung nur 10MBit im Upload hat.


    Die Erstsynchronisation kannst du über DSL oder übers LAN machen. Bei 10MBit Uploadgeschwindigkeit würden deine 2TB ca. 20 Tage brauchen. Wenn das egal ist, beim reinen Backup ist es vermutlich wirklich egal, kannst du das machen.

    Wenn die beiden NAS einmal synchron sind, ist die Übertragungszeit kein großes Thema mehr. Es hngt aber wie immer vom konkreten Fall ab


    Die Verbindung zwischen den beiden NAS sollte für RTRR über VPN erfolgen. Bei Resilio Sync geht es ohne VPN, das nutzt ein P2P-Verfahren.


    Eine Synchronisation ist nur bedingt als Backup zu gebrauchen. Wenn z.B. Schadsoftware die Daten kompromittiert oder der Anwender Murx baut, wird das ja am Synchronisationsziel wiederholt.

    Ich würde deshlab auf jeden Fall mindestens eine externe Festplatte mit in das Sicherungskonzept aufnehmen, die z.B. einmal täglich die Daten des/der NAS sichert. Eine versionierte Sicherung mit rsnap wäre dafür gut geeignet.

    Den 443er Port würde ich an deiner Stelle schließen. Nicht dass das generell ein großes Risiko ist, aber man muss halt drauf vertrauen, dass da im NAS alles richtig implementiert wurde. Selbst habe ich damit kene Probleme gehabt, aber ohne Notwendigkeit muss es ja nicht sein.


    Dass dein FTP-Port hin und wieder getestet wird, ist normal. Macht aber nichts, weil du ja (hoffentlich!) im FTP-Server die anonymen Anmeldungen nicht zulässt. Außerdem solltest du für deine externen sichere Passwörter wählen, aber das versteht sich eigentlich von selbst.


    Mit den 'Besuchern', die dir das NAS meldet, ist es ein bisschen wie mit Virenscannern. Erzählen mir manchmal Kunden, dass ihr toller Virenscanner schon wieder einen Angriff abgewehrt hat, muss ich schmunzeln. Nicht die erkannten Angriffe sind das Problem, sondern die nicht erkannten...


    FTP kann als relativ sicher angesehen werden, zumindest wüsste ich da nichts von Backdoors. Soweit passt das mit dem Port 21 schon, du wirst aber noch Ports für passiv FTP brauchen.


    Jagnix

    VPN ist die beste Lösung, da hast du recht. Zumindest, solange keiner eine Lücke in dem von dir genutzen VPN-Protokoll findet und ausnutzt. Sicher ist auf dieser Welt rein garnix.

    Man gibt Daten aber nicht aus Jux frei, sondern weil man das braucht. Dabei muss man auf die Kunden rücksicht nehmen, VPN-Gedöns wird von den wenigsten angenommen, weil es zu kompliziert ist. Deshalb empfehle ich FTP. Relativ sicher und leicht zu nutzen.

    Interessantes Problem...

    Vor längerem habe ich Beyond Compare für den gleichen Zweck benutzt, das ist allerdings eine Windows Software und es ging mir nur um eine einmalige Überprüfung. Diese Überprüfung hat elend lange gedauert. In deinem Fall wäre diese Software vermutlich nicht praktikabel, weil sie, wenn ich mich richtig erinnere, nicht automatisierbar ist.


    Man könnte einmalig md5 Hashes der Dateien generieren und aufbewahren, dann müssten später bei den turnusmäßigen Überprüfungen 'nur noch' die md5 Hashes der Kopieen erzeugt und mit den vorher berechneten md5 Hashes verglichen werden. Dadurch könnte die Hälfte der Lesevorgänge eingespart werden.


    Eine fertige Lösung, noch dazu eine die auf dem Qnap läuft, kenne ich dafür aber leider auch nicht.

    Damit die Freigabe über die von dir gewünschte Methode funktioniert, musst du die WAN-Adresse als 'Domainname' auswählen, die Adresse 192.x.x.x ist nur aus dem internen Netz erreichbar. Deshalb funktioniert es momentan bei dir, nicht aber beim Kunden:

    pasted-from-clipboard.png


    Das alleine reicht aber noch nicht. Zusätzlich muss du am Router den Port 8080 (oder 443, wenn du SSL benutzt) aufs NAS weiterleiten. Damit kommt der Kunde an die Daten. Morgen wird das jedoch bereits nicht mehr funktionieren, es sei denn du hättest eine feste IP. Was unwahrscheinlich ist.

    Also brauchst du wieder den oben unter Punkt 4 genannten ddns-Dienst.


    Das Problem bei dieser Art der Freigabe ist, dass du den HTTP-Port zum NAS öffnen musst. Damit kann nun jeder von außen den HTTP-Server deines NAS erreichen. Das ist schon fast eine Einladung an böse Menschen! Da kann ich nur hoffen, dass du ein ordentliches Passwort fürs NAS gewählt hast und dass kein Bug im HTTP-Server des NAS schlummert.

    Das geht recht einfach:

    1. Leg auf dem NAS für jeden Gast einen Benutzer an. Wichtig sind die Zugriffsrechte. Der jeweilige Benutzer darf nur für die Verzeichisse Lese- oder Schreibrechte bekommen, auf die auch der Fremdbenutzer Zugriff haben soll. Ein gescheites Passwort wählen!


    2. Schalte den FTP-Server des NAS ein. Dazu gibts hier im Forum einiges an Info. FTP mit SSL kannst du auch aktivieren, das erfordert aber zusätzliche Portfreigaben.


    3. Stelle am Router eine Weiterleitung (nur!) der für FTP benötigten Ports zum NAS ein.


    4. Melde dich bei einem ddns-Dienst an und konfiguriere diesen im Router.


    Damit können deine Kunden und Bekannten mit dem ddns-Namen auf die Daten vom NAS zugreifen. Ein Browser reicht. "Power-User" können z.B. Filezilla oder einen anderen FTP-Client benutzen.


    Auf irgendwelche Qnap Apps würde ich bei dieser Thematik vollständig verzichten. Auch von den Multimedia Apps von Qnap solltet du die Finger lassen. Da scheint es ja immer wieder Sicherheitslücken zu geben, bei FTP habe ich davon noch nichts gehört.


    Bei der Datensicherung der PCs würde ich mich auf keine Qnap-App verlassen. Selbst wenn sie heute funktioniert, wie ist es nach dem übernächsten Update?

    PCs sichere ich mit einem Image Backup Programm. Veeam Endpoint Backup funktioniert gut und ist kostenlos. Eine versionierte Sicherung ist bei diesen Programmen eingebaut, damit kannst du dir Snapshots sparen.

    Ein einfaches Rezept das für jeden Fall passt, gibt es nicht für den Zugriff auf das NAS aus dem Internet.


    Am einfachsten und am wenigsten fehleranfällig finde ich FTP. Das erfordert nur wenig Portfreigaben und kann mit relativ wenig Wissen unfallfrei auf dem NAS eingerichtet werden. Mit einem ordentlichen Passwort kann es auch als relativ sicher angesehen werden.

    Passwort und Daten werden bei normalem FTP unverschlüsselt übertragen, das kann durch Nutzung von SSL verbessert werden.

    Entscheidend ist imho, dass Remotebenutzer gut mit dem Zugriff zurecht kommen. Das ist ein nicht zu unterschätzender Punkt. Oft sind es nicht so IT-Affine Benutzer, denen man einfach mal die Urlaubsbilder oder eigene Musik zugänglich machen will. Müssen die dann erst einen VPN-Client installieren und konfigurieren, verlieren sie oft das Interesse weil das alles 'so kompliziert' ist. Das spricht auch wieder für FTP, da genügt im einfachsten Fall der Browser, ein Name und ein Passwort um die Fotos anzuschauen oder runterzuladen.

    Auch beim Fernzugriff gilt der Grundsatz, dass es keine 100%ige Sicherheit gibt. Was wirklich keiner sehen darf, darf auch nicht auf einem Gerät liegen, der in irgend einer Form mit dem Internet verbunden ist.

    Das wichtigste ist, dass die VM auf einer SSD liegt, normale Festplatten bremsen sprürbar. Ist bei einem 'normalen' PC aber auch nicht anders. Bei deinem 2-Schacht NAS ist das eventuell schwierig, denn die VM auf eine externe SSD geht ja nicht (mehr).


    In den VM-Einstellungen kannst du einstellen, wie die virtuelle Festplatte angebunden ist. Standardmäßig ist das IDE und ohne Cache. Wenn du als Schnittstelle VirtIO mit Writeback Cache wählst, bringt das auch ein bisschen Geschwindigkeit. Bei 8GB RAM im NAS kannst du der VM 2-4GB RAM zuweisen, für Word werden 2 CPU-Kerne ausreichen, kannst aber auch 3 einstellen.


    Die VM mit dem RemoteDesktop aufrufen statt mit VLC, dann sollte sich dein Win10 flüssig benutzen lassen.

    Der AVM Fritzz Box Support sagte mir am Telefon, dass VPN einen Konflikt verursacht, wenn man sich z.B. mit dem IPhone im gleichen Raum wie die Fritzbox befindet.

    Das hat nichts mit dem gleichen Raum zu tun. Die VPN-Verbindung funktioniert nicht, wenn der Client (z.B. dein iPhone) im Netz der FritzBox angemeldet ist.
    Konkret: Dein iPhone hängt am WLan der Fritzbox, dann funktioniert VPN nicht. Abhilfe: WLan am iPhone ausschalten und über LTE den VPN-Tunnel aufbauen. Wenn es dann nicht geht, liegt der Fehler an anderer Stelle.

    Da geht eigentlich jedes aktuelle 4-Bay NAS. Allerdings nicht jedes mit 16GB RAM. Da fragt sich natürlich, wozu das ganze RAM überhaupt gebraucht wird.

    Schau einfach bei Qnap durch, das günstigste NAS das 16GB unterstützt dürfte das TVS-463 sein. Die größeren (CPU-mäßig) können sowieso alle mit >= 16GB bestückt werden.


    Die Qnap-NAS mit Celeron sind offiziell nur mit 8GB spezifiziert, glaubt man den Berichten hier im Forum gehen aber auch 16GB.

    mc.george

    Falls du die Möglichkeit dazu hast, tausch doch mal den Arbeitsspeicher. Ähnliche Probleme hatte ich vor kurzem auch mit einem TS-453 Pro. Das NAS ist gut 2 Jahre alt. Sporadisch, mehrmals pro Woche, kam der Hinweis, das Volume sei nicht clean und müsse überprüft werden.


    Ich habe dann mal die beiden 4GB Module gegen zwei andere getauscht und siehe da, der Fehler war weg. Zur Gegenprobe habe ich die beiden Module in mein TS-453 mini gesteckt. Ergebnis: Regelmäßige Abstürze. Durch Test mit jeweils nur einem Modul konnte ich eines als ok und das andere als schlecht identifizieren.

    Es handelte sich bei dem defekten übrigens um ein original Qnap Modul (AData).

    Eigentlich ganz einfach:

    Man hat (z.B) vier Festplatten. 2 mit 2TB und 2 mit 3TB. Mit QTS können wir damit ein Raid-5 mit 4 HDDs á 2TB anlegen. Also 6TB nutzbar.


    Die 3TB-Platten können nicht vollständig genutzt werden. Es würde auf jeder Platte 1TB 'übrig' bleiben. SHR geht nun her und macht aus den beiden Überhängen von je 1TB einfach ein Raid-1. Dieses Raid-1 wird mit dem Raid-5 als JBOD verbunden. Damit wird die Festplattenkapazität vollständig ausgenutzt und es darf nach wie vor eine beliebige Festplatte ausfallen. Und das ganze wird sogar noch automatisch konfiguriert. Eigentlich eine naheliegende Idee.


    Wie die Geschwindigkeit eines SHR-Arrays gegenüber einem reinen Raid-5 ist, weiß ich nicht. Eigentlich sollte auf dem Teil des SHR, das aus dem Raid-5 besteht, die normale Raid-5 Geschwindigkeit erreicht werden.


    Wobei die Geschwindigkeit des Raid-Arrays bei sehr vielen praktischen Anwendungen gar nicht so wichtig ist.

    Wenn es schnell sein muss, nimmt man SSD.

    Mal anders gefragt: Wie hast Du vor das NAS wieder einzuschalten, wenn der Power Button deaktiviert ist?

    Das wäre ja nun wirklich kein Problem, da der Taster unter Softwarekontrolle steht. Wenn das NAS aus ist, schaltet es sich auf Tastendruck grundsätzlich ein. Während das NAS läuft kann das QTS anhand der vom Admin getätigten Vorgabe entscheiden, ob der Druck ignoriert wird oder der Shutdown eingeleitet wird.

    Bei gesperrter Taste könnte das NAS über die Benutzeroberfläche heruntergefahren werden. Ein sehr langer Tastendruck müsste das NAS dann hart ausschalten, falls die Oberfläche mal hängt - wie beim PC/Notebook.


    Ja, ich kann mir durchaus Szenarien vorstellen, wo die Option sinnvoll ist. Spätestens wenn die Praktikantin statt der Copy-Taste die On/Off drückt, bevor sie heimgeht. Den Fall hatte ich übrigens tatsächlich schon mal. Musste am nächsten Morgen 25km einfach fahren, um den 'Schaden' zu beheben.

    Ohne alle Fragen im Einzelnen zu beantworten, rate ich zu einem statischen Volume über die ganze Platte. Snapshots kannst du dann nicht machen, die wirst du aber zumindest am Anfang deiner NAS-Karriere auch nicht brauchen.

    Anschließend legst du auf diesem Volume die benötigten Freigaben an, auf die du vom PC aus zugreifen kannst. Weiterhin wirst du einen (oder mehrere) Benutzer brauchen. Mit dem Admin-Account zu arbeiten halte ich für nicht so sinnvoll. Jetzt musst bloß noch dem oder den Benutzern Berechtigungen für die Freigaben zu geben, fertig.


    Den Benutzernamen auf dem NAS solltest du genauso wählen, wie auf dem PC. Gleiches Passwort wie am PC, schon kannst du vom PC aus auf dem NAS arbeiten wie auf einer lokalen Festplatte.


    Man kann das alles auch beliebig kompliziert gestalten wenn man seinen Spieltrieb ausleben möchte - man muss es aber nicht.


    Was wirklich wichtig ist, ist das Backup. Das hast du aber ohnehin vor, wenn ich das richtig verstanden habe. Das 'External Backup' im Backup manager funktioniert recht gut und ist auch einfach einzurichten. Prüfe aber, ob auf der externen Platte nach der Sicherung wirklich alles drauf ist, das drauf sein soll. Ach ja, wenn du die Sicherungsplatte NTFS formatierst, kannst du sie im Notfall auch direkt am PC anschließen und kommst so an deine Daten.