Beiträge von AllThatEvil

    Für alle, für die diese Info relevant sein könnte: Da die komplette HDD Sektor für Sektor geprüft wird, kann (und wird es) Tage dauern bis es fertig ist. Bei meiner 8TB z.B. 2-3 Tage. Es gibt aber keine Alternative, da der schnellere SMART-Check dies niemals ersetzen kann. Augen zu und durchlaufen lassen.


    Grüße

    Da Ich gerade ein selber ein Problem mit meiner Seagate IronWolf NAS HDD habe, und die Info sicher auch für andere relevant sein kann, hier die Antwort: SMART Scan prüft nur die SMART-Werte, bei dem längeren Scan werden die Sektoren selber geprüft, also wird die KOMPLETTE HDD Sektor für Sektor geprüft, was dann logischerweise halt ungefähr solange dauert, wie die kompletten Daten der HDD zu lesen (Bei meiner 8TB waren es jetzt ca. 2 Tage). SMART-Werte dagegen sind nur die interen Werte des HDD-Controllers, auf die man sich in keinem Fall verlassen sollte, es sind nur interne FW-Werte, und dazu nur ganz grobe, die bestenfalls eine Orientierung bieten, und die immer nur Ausgangspunkt für eine tiefere Prüfung sein können.


    Grüße

    Jaja, über den Noob kann man gut lachen, versteh schon.. Dann bin ja auch Ich hier mal für etwas gut..
    ;)


    Im Ernst, es sind diese vermeintlichen "Kleinigkeiten", die am Ende im Alltagseinsatz entscheiden. Von da an kann ich meld als dankbar sein, dass es euch und das Forum gibt, denn ohne wäre Ich (Und vermutlich viele andere) mehr als aufgeschmissen!


    Hab das mit screen nach etwas Recherche + Trial&Error nun hinbekommen! Muss also kein eigenes Linux-System dafür 24/7 betreiben, spart Ressourcen, und ist dann Integration meiner SSH-Shell in Windows auch praktischer!
    Genial!


    Naja, irgendwann werd ich auch mal Profi, auch wenn ich aktuell nur im Kompliziert-Machen Meister bin..


    ;)



    Bis dahin, Danke christian!
    :)


    PS: Grundsätzliche wäre es aber auch unabhängig von der Fragestellung oben interessant zu wissen, ob die Linux-Station dauerhauft läuft, sobald sie einmal aktiviert wurde, und nicht nach einer gewissen Zeit "suspended" wird bzw. in den Standby geht. Ausser natürlich, man deaktiviert sie, oder aktiviert HD Station. Vllt. hat da jemand Infos zu. AFAIK sollte sie ja dauerhaft laufen. Aber sicher bin Ich mir eben nicht..

    Abend!


    Nach vielen Hin und Her bin Ich bei RClone gelandet, und nach ebenfalls viel Trial + Error nun sehr zufrieden. Für mich als Linux und Netzwerk-Noob war es eh gut, denn so habe ich mich dazu zwingen müssen, mich endlich mit SSH, Bash-Scripting, Linux-Dateisystem und Struktur auseinander zu setzen.
    Ich habe nun einige BASH-Scripts geschrieben, die auch alle problemlos laufen, auch wenn die ASCII-Art aufwendiger ist als die Funktionen.. ;) Nun habe Ich aber in der Praxis folgendes Problem:


    Die Vorgänge sind alle mehrere 100GBs groß. Mit meiner 2,5MByte/S schaffe Ich das nur in mehreren Tagen. Als Ich gestern Abend das erste Script habe durchlaufen lassen, musste Ich heute Abend feststellen, dass mein PC automatisch heruntergefahren ist im Idle, und dadurch die SSH-Session geschlossen wurde.
    Als Ich mich dann wieder angemeldet habe, war da einfach nur die Eingabeaufforderung, obwohl das Batch File noch nicht fertig sein konnte. Laut Google ist es nicht möglich, dass ein Programm oder Script weiter läuft, wenn die SSH-Sitzung beendet ist.
    Hierzu meine Fragen:
    1. Ist dies korrekt?? Ich dachte SSH sei nur ein Fernzugriff, und dass ich also auch ohne Probleme mit Unterbrechungen auf den aktuellen Stand der Kommandozeile zugreifen kann. Wenn Ich z.B. per Fernzugriff auf einen PC zugreife, und die Sitzung dann beende, gehen die Prozesse auf dem Remote-PC ja auch weiter, und wenn Ich wieder auf ihn zugreife, kann ich ja wieder auf diese zugreifen. Das war jedenfalls meine Denkweise.. ;)
    2. Ich will ja Rclone auf dem NAS benutzen, damit ich eben NICHT den PC parallel anhaben muss. Deshalb sehe Ich nur diese Optionen:
    2.1 RClone in der Linux Station laufen lassen: Würde diese denn RClone weiter laufen lassen, auch wenn ich mehrere Stunden nicht mehr in ihr aktiv war? Bzw. würde die Linux Station und Rclone immer weiter laufen, außer Ich schalte auf HD Station um?
    2.2 Kann Ich in der NAS-Oberfläche irgendwie auf das Terminal zugreifen, und Rclone dort ausführen?
    2.3 Rclone in Docker Container: Bin auch da ein Noob, sollte aber theoretisch möglich sein AFAIK. Die Frage ist aber auch hier: Ist sichergestellt, das das Script immer weiter läuft?


    Dies ist der einzige Punkt, den Ich noch nicht habe ausräumen können. Was alles andere angeht, bin Ich schon jetzt vollauf überzeugt. Einfach genial dieses Tool. Finde nur komisch, dass man bei der Forumsuche kaum was dazu findet, und es noch nicht verbreiteter ist..


    EDIT: Forum hat Teil des Postings verschluckt..

    Hast du es mal mit kleinen Dateien probiert?!

    Hey, habe nach all den Problemen mit Duplicati nun den Schritt zu CLI gewagt mit RClone, und bin nicht enttäuscht worden. Zu dem langsameren Speed: Scheint mir im Rückblick logisch, da die Dateien ja erst noch gepackt, verschlüsselt und aufgeteilt werden müssen. Bei dem Dateibasierten Sync mit RClone sieht es da vllt. automatisch anderes aus, obwohl auch hier ebenfalls viele kleine Dateien verschlüsselt und übertragen werden müssen. K.A. ob das Packen und Aufteilen auf die 50MB Pakete wirklich den Unterschied macht, oder ob Duplicati mit ACD einfach nicht gut zusammen spielt, wie es z.B. teilweise auf Reddit gepostet wird.
    Sicher kann man den Ansatz von Duplicati bevorzugen, da dann nicht einzelne Dateien in der Cloud als solche erkennbar sind, nur die 50MB/100MB/Etc. Pakete. Aber RClone bietet auch eine 256 Bit AES Verschlüsselung von Inhalt und Namen der Files auf Wunsch. Und das wie gesagt bei mir ohne jeden Verlust bei der effektiven Geschwindigkeit. Und so ist für Amazon auch nicht ersichtlich, was Ich da hochlade. Und auch nicht per Hash "Flag-bar" wie von mir befürchtet.


    Wie gesagt, Ich habe mich an RClone herangetraut, und bin nicht enttäuscht worden. Bis auf einige kleine Fragen und Feinheiten läuft alles tadellos, stabil, und am Maximum meiner 2,5 MByte/S Leitung..
    Wirklich genial!


    Done!

    Dank dir!

    Danke für die Tips, habs endlich gefunden, wenn auch an anderer Stelle als vom Tutorial genannt:


    Code
    /share/CE_CACHEDEV1_DATA/.qpkg/Entware-ng/etc/deluge

    Falls noch jemand das Problem hat..
    WinSCP war die Lösung. Hat eine ziemlich tolle, schnelle Suche (Schnell im Verhältnis zu dem, was Ich von einer Netzwerksuche erwartet hatte).


    Und noch ein Tipp zu Deluge: Auch die Download-Ordner sind woanders als im Tut angegeben, das lässt sich aber leicht über die UI ändern. Wichtig ist aber: keine Sonderzeichen im Ordnernamen. Beispiel: Wollte erst einen Ordner names "Deluge-Active" verwenden, hat aber erst gefunzt, als Ich den Ordner in "DelugeActive" umbenannt hatte. K.A. ob das eine Limitierung von Deluge, dem Filesystem oder sonstwas ist.
    Jetzt aber geht es, und sogar die Remote für Android mit Transdroid habe Ich hinbekommen!


    Bin mächtig stolz.. ;)


    Und die Linuxanleitung habe Ich seit meinem ersten Ausflug hier in Forum gebookmarkt, werde mich jetzt mal dazu zwingen, mich damit in Ruhe auseinander zu setzen.


    Danke+Grüße
    Steven

    Hi Leute!


    Bin gerade dabei Deluge einzurichten. Hat nach viel Stress auch geklappt, nur komme Ich jetzt beim Einrichten von Transdroid als Android-Remote nicht weiter.
    Ich muss jetzt einstellen, dass es sich automatisch zum Daemon verbindet, laut dieser Anleitung:
    http://www.transdroid.org/download/using-deluge-on-ubuntu/
    Die auf dieses offizielle Tutorial verweißt:
    http://dev.deluge-torrent.org/…-connecttoaspecificdaemon


    Code
    How do I auto-connect to a specific daemon?Stop the Web UI before modifying the web.conf file.Edit web.conf in config, find "default_daemon" and set its value to the daemon id in hostlist.conf


    Mein Problem ist jetzt folgendes: Ich finde die web.conf Datei nicht. Laut dem offiziellen Tut sollte sie im Home-Dir des aktuellen Benutzers liegen. Aber im "Home" genannten Ordner "Root/Home" finde Ich nichts..
    Bin ja noch Linux Neuling, und die ganze Verzeichnissgeschichte ist ja grundsätzlich anders als bei Windows.



    Code
    Where does Deluge store its settings/config? ¶
    
    
    The default location for the Deluge config directory is in the home directory of the current user. The config location can be manually changed by using the --config option at startup.
    
    
    Linux, BSD and Mac OSX
    ~/.config/deluge
    Windows OS
    %APPDATA%\deluge


    Bin jetzt echt überfragt, und nach ner halben Stunde pausenlosen und planlosen durchwühlen des FS mit WinSCP brummt mir der Schädel.
    Hoffe ihr habt da Hilfe für mich, hatte gehofft, endlich einen brauchbaren Torrent-Client für das NAS gefunden zu haben, nachdem Transmission + QBittorrent bei der Beta-FW nicht geht, und RTorrent die Tracker nicht mit importiert.


    Grüße
    Steven


    PS: Qsirch findet alles, außer das was Ich suche. Gibt es da eigentlich eine Möglichkeit, von Windows oder vom NAS aus alle Dateien auf dem NAS zu indexieren, und dann zu suchen, also auch die verstecken und System-Dateien, nicht nur die SMB-Shares?

    Okay, also scheint ACD da ja fehleranfälliger als z.B. ein Lokales LAN Backup zu sein..


    Ja, hast schon recht die Backups aufzuteilen, alleine schon wegen des Verhältnisses von 20Mbit/S -> 7000GByte Daten. Das würde wohl Wochenlang dauern, und so einen Vorgang in einem Stück über mehrere Wochen laufen zu lassen ohne Abbrüche, Neustarts etc., darauf vertrauen möchte Ich dann doch nicht. Werde mir gleich mal eine gute Aufteilung auf Backup-Jobs überlegen. Danke für die Anregung!


    Versioniesierung ist bei Dokumenten und anderen wichtigen Dateien auf jeden Fall sinnvoll denke Ich, zum Glück sind die bei mir im OneDrive sowie lokal auf Desktop, Android und Laptop gesynct. Das NAS ist mein Medien-Lager (Video, Audio, EBooks, Software jeder Art, etc.). Somit habe Ich da Glück, dass Ich in die Richtung keinen Bedarf habe, das macht die ganze Sache etwas weniger kompliziert für mich.


    Das NAS ist kaputt? Na dann drücke Ich dir mal die Daumen, dass Duplicati brav und ohne Fehler das Backup erstellt hat.. Die Probe aufs Exempel. Aber wenn es das Tool der Wahl für die meisten hier ist, so wie es mir scheint, würde Ich dem ganzen einen gewissen Vertrauensvorschuss geben. Bleibt nur zu hoffen, dass der Fehlerpunkt Hardware nicht noch nen Strich durch die Rechnung macht. Hatte Ich vor kurzem mit einer externen HDD. Eine Woche nach Backup der Controller anscheinend kaputt, konnte zumindest die Daten noch Retten durch Einbau in PC (Selbst in nem Dock wollte sie nicht mehr hochdrehen), und SMART lief AMOK. Aber immerhin.
    Hoffe es ist nur eine Softwaresache mit dem NAS... Hab meines durch FW-Update + Advanced Reset wieder richten können..
    *Daumen gedrückt*



    Ich habe aber auch noch eine neue Frage: Und zwar, ob und wie man bei Duplicati Optionen finden kann, womit man z.B. die aktuelle Upload-Geschwindigkeit, die gerade bearbeitete Datei, oder sonstige aktuelle Daten zum Vorgang AUSSER des Balkens der den Fortschritt anzeigt, bzw. die Logfiles. Wie im Ressource Monitor die Daten für das QNAP angezeigt werden, nur mit mehr Infos zu den aktuellen Daten des Duplicati-Backupvorgangs. Der aktuelle Upload würde mich besonders interessieren.
    Auch wenn man den über den Gesamtupload des QNAP selber her abschätzen kann, ersetzt dies IMHO nicht, das ein Programm wie Duplicati solche grundlegenden Daten und Metriken anzeigt. Nur die Gesamt-%-Zahl und die Dateizahl ist ein bisschen sehr mager für solch einen langen und komplexen Vorgang..


    Grüße


    Steven


    EDIT1: So, habe jetzt pro Shared Folder einen Backup-Job erstellt, und bis jetzt läuft alles super und ohne Probleme durch! Habe Duplicati wohl einfach total überfordert damit, mein gesamtes NAS auf einmal zu sichern..


    Wobei ich jetzt noch ratloser bin, wo der Fehler genau lag. Habe in den Optionen nämlich bezogen auf die zusätzlichen default optionen, und damit auch auf das neue tempdir bezogen folgendes entdeckt:



    Code
    NOTE: These options are not applied to the backups in the current version of Duplicati! This will be fixed in a later version.

    Aber wie gesagt, Ich bin so oder so happy, denn es scheint wie gesagt nun endlich stabil zu funktionieren!
    Danke nochmal + Grüße
    Steven



    EDIT2: Der Upload-Speed scheint mit SEHR langsam. Insgesamt werden fürs NAS ca. 400 KByte/S angegeben, und das beim Transfer von sehr großen Dateien (22GByte auf 6 Dateien verteilt). Beim File-Based-Sync mit Goodsync auf dem Desktop erreiche Ich da ganz locker die maximalen 2-2.5 Mbyte/S.
    Habe versucht, eine Option zu finden, mit der man die Anzahl von parallelen Uploads einstellen kann (Also z.B. 2 Dateien gleichzeitig hochladen) um die Geschwindigkeit zu erhöhen. Hab aber nichts gefunden. Downloadstation ist gestoppt selbstverständlich.


    Oder könnte es an der CPU-Auslastung liegen? Habe eh mit der Beta-FW fast immer 99%, und am wenigsten mal so 75%, aber auch das schnellt dann meist direkt wieder hoch auf 99%. Hatte da von nem Bug in der FW gehört..
    Der Celeron sollte ja da bei meiner 20Mbit Upload eigentlich nicht der Flaschenhals sein, auch wenn Duplicati die Daten ja packt und verschlüsselt.. Oder täusche ich mich?

    Hm, bei mir (Unitymedia, DSLite, FB 6490 Cable) geht nichtmal das UPnP. Ganz zu schweigen von MyQnapCloud.
    Habe irgendwo was dazu gelesen, finde es aber leider nicht mehr.


    Denke aber das könnte beim OP wegen DSLite sein. Und dafür gibts laut meiner Monatelangen Recherche nur eine Lösung: "Feste-IP.net". Werde dies selber nächste/übernächste Woche testen und dann dazu mein Feedback geben.
    Zu dem Thema gibt es aber besonders im inoffiziellen UM-Forum viele Themen, und alle kommen nur auf die Lösung "Feste-Ip.net". Und Ich habe AFAIK jeden Thread dort dazu gelesen.
    Oder wechsel auf Businesstarif mit echtem DualStack (Ohne Lite).


    Traurig aber wahr. Geht schon seit Jahren so bei UM. Dazu kommt, dass man AFAIK mit den Standart-Routern, bzw. ohne die Fritzbox eh Probleme haben wird, "Feste-IP.net" zu konfigurieren.


    UM Forum (das inoffizielle) ist die beste Adresse für das Problem IMHO.


    Grüße
    Steven

    Hallo,


    Da der Vorschlag als erledigt markiert wurde, gehe ich davon aus, dass damit die Store-Version vom MC gemeint ist. Für die native Qnap App jedenfalls sehe Ich in der aktuellsten Beta jedenfalls KEINE native Dual Pane Funktion, oder übersehe Ich hier etwas?


    Eine native Möglichkeit mit 2 Fenstern zu arbeiten wäre jedenfalls trotzdem sehr wünschenswert IMHO. Wenn man einmal daran vom PC gewöhnt ist, ist dieses Standard-Explorer-Design jedenfalls echt nervig und Zeitraubend. Da kann man besser gleich von Desktop mit Directory Opus/TC/etc. auf den SMB-Shares arbeiten oder per WinSCP IMHO.


    Grüße
    Steven

    Hey, da bin Ich wieder! :)


    Ja, Ich mache die Dinge "gerne" unnötig kompliziert. Ist wohl der Asperger-Autist in mir.. ;)
    Aber das hat mir keine Ruhe mehr gelassen, und Ich hab bis spät in die Nacht noch herum probiert. Hatte auch mal mit einem Ordner probiert, aber bei jedem Versuch kamen immer andere Fehler. Und die Logfiles sind ja für einen NAS/Linux-Neuling sehr kryptisch. Hatte dann Datenbankfehler, und auch neu erstellen brachte erstmal nichts.
    ABER... Ich hatte schon resigniert gehabt, und die QPKG nochmal neu aufgesetzt. Dann als temp dir noch mal ein anderes neues versucht, diesmal ohne Leerzeichen, und dann ein neues Profil mit allen Ordnern außer den großen mit den Mediendateien erstellt, so ca. 1,5TB und 50000 Files.


    Kurz und gut, hab es über Nacht laufen lassen, und.. TADA!


    Bis jetzt rödelt es brav vor sich hin, auch wenn der Upload mit den 20 Mbit echt eine Zumutung ist (Ich weiß, Ich stehe im Vergleich noch gut da ;) ).
    Bis jetzt läuft es wie gesagt, und Ich drücke mir selbst mal die Daumen. Eine andere Alternative als Duplicati habe Ich eh nicht, außer Ich mache doch ein Dateibasiertes Backup, was Ich aber eigentlich ja vermeiden will.


    Melde mich dann mal zurück, wenn Ich weiß, wie es ausgegangen ist!


    Danke nochmal, und schönen Karneval (Wenn nicht gerade Sturm ist wie hier am Niederrhein ;) )


    Grüße
    Steven

    Zur Info: Hatte versehentlich auf deine Antwort im anderen Thread geantwortet, deshalb hier nochmal um die Diskussion im richtigen Thread fortzusetzen, Sorry wegen dem unfreiwilligen Doppelpost:


    @RubberDuck1983: Danke für den Tipp, probiere es gleich mal aus! .. So, er zählt jetzt wieder durch, das kann was dauern, melde mich später nochmal mit einem Update! Danke erstmal bis hier!
    English is no Problem at all, one of the few things from my time in school i really liked. Would be too damn embarrassing though, if someone named Steven couldn't speak the language his name was taken from. Even if he still has no real clue, why his german mother and father took an english name. But I second my mother stating its better then Willhelm or Friederich or Friederich-Willhelm i suppose.. Coincidentally at the time i was born Steven Spielberg was at his A-Game. Maybe some subconscious freudian stuff. I dunno. The wild 80s.
    ;)


    UPDATE 1:
    @RubberDuck1983: So, jetzt bin Ich verwirrt. Bis jetzt kein Abbruch, nur zählt der immer weiter die Dateien, anscheindend auch welche die gar nicht existieren. Will angeblich über 1200000 Dateien und damit über 10TB gezählt haben, bei 8TB großen HDD..
    Ich bin mal gespannt, was noch so kommt.. ;)


    UPDATE 2: Jetzt wirds RICHTIG lustig.. Oder auch nicht, je nach Perspektive:


    ACD+DUPLICATI-FIXING-5.jpg


    PS: Möglich wären etwas unter 7TB und um die 1.000.000 Files.


    UPDATE 3: Laut Logfiles hat es sich bei dem Ordner meines OneDrive-Mirrors aufgehängt. Lösche den Ordner mal komplett, ist eh eigentlich unnötig da ich ein Full Disk Backup meiner System Disk inklusive dem OneDrive-Dir mache. Wird ein bisschen dauern, dann probier Ichs nochmal neu, und melde mich zurück!

    @RubberDuck1983: Danke für den Tipp, probiere es gleich mal aus! .. So, er zählt jetzt wieder durch, das kann was dauern, melde mich später nochmal mit einem Update! Danke erstmal bis hier!
    English is no Problem at all, one of the few things from my time in school i really liked. Would be too damn embarrassing though, if someone named Steven couldn't speak the language his name was taken from. Even if he still has no real clue, why his german mother and father took an english name. But I second my mother stating its better then Willhelm or Friederich or Friederich-Willhelm i suppose.. Coincidentally at the time i was born Steven Spielberg was at his A-Game. Maybe some subconscious freudian stuff. I dunno. The wild 80s.
    ;)



    @angelluck: Ja, ein großes Chaos IMHO. Auch traue Ich der ganzen Sache mit dem Serverstandort nicht, da die meisten Regierungen sehr große Anstrengungen leisten, um zu Erzwingen, dass sie auf Server im Ausland Zugriff haben, egal was das internationale Recht/Völkerrecht sagt. Siehe USA, wo gerade (Unter anderem) Microsoft dazu gezwungen werden soll, Behörden der USA Zugriff auf Server in der EU (Ich glaube konkret in Irland) zu gewähren.
    Auch wenn MS sich (anscheinend) tapfer wert, und Ich MS mehr vertraue als Amazon (Auch wenn auch dieses Vertrauen sehr begrenzt ist), schließlich baut deren Businesssparte ja auf dem Vertrauen der Kunden. Und gerade Deutsche/Französische Firmen sind ja seit Jahrzehnten Opfer der Industriespionage der USA. Deshalb ja auch die von der Telekom betriebenen Rechenzentren hier in DE. Auch wenn das laut Snowden eh nicht viel bringt wegen dem Datenzugriff auf die Kabel durch BDN und GCHQ.. ;)
    Aber jetzt verquatscht ich mich hier..
    Ist jedenfalls ein bedeutendes Geopolitisches Schlachtfeld geworden, das einst so freie und offene Internetz.. ;)


    Und mit dem Brexit: Ich glaube niemand kann aktuell irgendeine seriöse Aussage zu der Zukunft machen. Wenn Le Pen gewinnt, dann wird sich die EU in der jetzigen zentralistischen Form wahrscheinlich eh erledigt haben. Und bei unseren Wahlen wird es wohl auf entweder Groko oder Neuwahlen hinaus laufen. Und wer weiß, was dann kommt..
    Die welt wird sich in diesen Jahr entscheidend verändern, und ob eine große Erneuerung oder die von manchen herbei gewünschte Apokalypse kommt.. Ich glaube erstmal an keines von beiden. Aber dass wir in ein chaotische Zeit eintreten, mit dem Wegfall von Sicherheiten, das wird wohl niemand bestreiten können.


    Man sieht, alles ist miteinander verknüpft.. Mein QNAP, Microsoft, BND/GCHQ bis hin zu Le Pen, Trump, Merkel, und der neue Superheld `Chulz.


    /Irony+OffTopic included. EDIT: Forgot Sarcasm. ;)


    UPDATE:


    @RubberDuck1983: So, jetzt bin Ich verwirrt. Bis jetzt kein Abbruch, nur zählt der immer weiter die Dateien, anscheindend auch welche die gar nicht existieren. Will angeblich über 1200000 Dateien und damit über 10TB gezählt haben, bei 8TB großen HDD..
    Ich bin mal gespannt, was noch so kommt..


    EDIT 2:


    Sorry, hatte vergessen, dies in den eigenen Duplicati Thread zu posten, dieser Thread ist ja auch schon von mir als erledigt markiert!
    Danke nochmal!

    Ja, alleine das Amazon laut Reddit völlig willkürlich mit dem Thema umgeht, macht mir Angst. Manche dort mit 100ten TB (Kein Witz!) haben unverschlüsselt keine Probleme, andere mit Dateibasierter Verschlüsselung von wenigen TB dagegen schon. Dazu weiß der Amazon-Support wohl selber nicht, wie er damit umzugehen hat.
    Dazu kann es hier in DE ja auch noch anders sein als z.B. in US, wo Fair Use ja vorhanden ist, im Gegensatz zu unserer Gesetzgebung.


    Außerdem, wer weiß noch was an Gesetzen in Richtung weitere Kriminalisierung der Privatkopie nach der Wahl getrieben wird. Mit IT-Kompetenz ist es bei den meisten Politkern nicht so weit her. Da haben Lobbygruppen leichtes Spiel..
    Deshalb bleibt mir nichts anderes übrig, als auf Duplicati zu setzen, und zu hoffen, dass Ich den Fehler finde, der mich gerade verzweifeln lässt. Und in 2-3 Monaten ist die ganze ACD Geschichte dann eh für mich erledigt, wenn ich offline backupen kann.


    Grüße


    Steven

    Hallo nochmal!


    Ich habe mich nach einigem Hin und Her für Duplicati als Cloud-Backup auf Amazon Cloud Drive entschieden.


    Mein Setup ist wie folgt: QNAP TS-251 mit 1X8GB RAM auf Beta-FW 4.3.3., mit 1XHDD Seagate IronWolf NAS HDD 8TB. Duplicati aus QNAP-Club-Store, aktuellste Version. Zu Backupen sind ca. 6.5 TB gemischte Daten; Von Video, Audio, EBooks, Software, Backups von Desktop/Laptop/Android, und Mirror meiner OneDrive und GDrive Accounts. Ingesamt ca. 6.5 TB verteilt auf ca. 1000000 einzelne Dateien.


    Nach einigem Probieren habe Ich das Backup Profil in Duplicati eingerichtet, und auch eine funkionierende Verbindung bekommen.


    Bei Start des Profils werden auch noch die zu verarbeitenden Dateien gezählt, aber danach bricht der Vorgang mit einem Fehler ab:

    Code
    "Disk full. Path /tmp/dup-669f359f-dd86-45d4-bb3c-da68dfe25662"


    Dieser Fehler scheint laut einer Google Suche wohl nicht nur bei mir aufzutreten, und eine Lösung fand Ich nirgends.
    Da Ich mit dem kryptischen Logfiles gar nichts anfangen kann, bin Ich nun total überfragt.. Ich habe z.B. den oben zitierten Pfad versucht auf dem NAS zu finden, der dortige Temp-Ordner ist aber nur "tmp" geschrieben und enthält keinen Ordner names "dup-669f359f-dd86-45d4-bb3c-da68dfe25662"".


    Auf dem NAS und der HDD ist auch noch knapp 1.5 TB übrig, und das sollte doch wohl alle Male für Temp-Files reichen, oder?
    Ich bin nun völlig überfragt, und wäre sehr dankbar, wenn ihr mir mit der Analyse des Problems weiter helfen könntet,
    Danke im Vorraus,
    Steven


    PS: Hier der Logfile des besagten Backup-Versuchs:



    Erstmal Danke an alle, versuche jetzt mal im Einzelnen darauf einzugehen:


    @angelluck
    Hm, Ich habe mich wie es aussieht wohl nicht ganz klar ausgedrückt.. Oder Ich kapiere es falsch.. Was Ich meinte ist, In einer Windows VM auf dem NAS Goodsync zu installieren, und dann damit zu ACD zu syncen. Also von der VM auf die NAS-Shares zugreifen, und diese zu ACD schicken. Als Speicherbedarf brauche Ich nur Platz für temp files AFAIK. Das Mache Ich so schon auf dem Desktop mit OneDrive, und nun auch auf dem Desktop als Sync der SMB-Shares vom NAS nach ACD.
    Allerdings ist das mit dem Windows VM so eine Sache. Mal habe Ich Zugriff auf die Shares, mal nicht. Ausserdem ist die ganze Windows VM Sache extrem lahm. EXTREM lahm. Habe eh einen kleinen Barebone-PC im Auge für das Frühjahr, der ja ebenfalls wenig Energie verbraucht, und deutlich performanter ist als die Windows VM. Der Barebone könne meinen Desktop zumindest Teilweise ersetzen, und daher wohl eh besser. Die Win+VM Sache habe Ich so gut wie abgehakt.


    Duplicati scheint die beste Option zu sein. Nativ auf dem NAS, und genau dafür programmiert.


    Mit dem Cloud-Backup bin Ich ähnlich eingestellt, und gerade von Amazon bin Ich generell kein Freund. Allerdings habe Ich mich entschlossen, mich so zusätzlich abzusichern, bis Ich das Geld für die externe Backup HDD und die 2. Raid-HDD habe. Bis dahin sollte Ich die 3 Probemonate umsonst nutzen können, und dann vor Ende kündigen.


    Auch machen mir die AGB Angst, da auch Amazon da zeimlich willkührlich vorgeht, wie bei https://www.reddit.com/r/DataHoarder/ zu lesen ist, wo zwar viele ACD nutzen, aber totale Verwirrung herrscht, was Account-Sperrungen angeht, die so wie es aussieht sehr willkührlich sind.


    Dazu möchte ich ja auch meine Filme, Musik etc. dort für die nächsten Monate backupen, was als Privatkopie ja legal ist, aber im Falle des Falles kaum nachzuweisen. Und File-Based Encryption hilft beim Hash-basierten DMCAing laut verschiedener Aussagen dort AFAIK auch nicht.


    Duplicati dagegen würde dieses Problem mit der totalen Verschlüsselung lösen, die AFAIK ja nicht Datei-basiert ist.


    Deshalb ist Duplicati für mich nun die einzig gangbare Option für Backup auf ACD.. Und sobald Backup auch vom Raid offline möglich ist, kündige Ich ACD eh. Neben meinem 20Mb Upload ist mir das alles viel zu ungewiss.. Da hast du vollkommen Recht. Ein Grund für mein spätes Einsteigen in den NAS Bereich ist meine Cloud-Skeptik.. Auch wenn Ich jetzt erkannt habe, dass gerade dafür ein NAS geeignet ist. ;)


    @RubberDuck1983
    Jo, wirklich ein göttliches Tool! Hab es ohne Probleme zum Laufen bekommen, und nach viel testen auch einen Job anlegen können, der auch Anfängt und die Dateien zählt, aber vor dem eigentlichen Syncen dann mit dem Fehler "Disk full" abbricht. Die Logfiles sind ja extrem kryptisch, besonders für Anfänger im NAS und Linux Bereich wie mich. Werde wohl nicht umhin können, auch dazu einen Thread aufzumachen, denn das ist der einzige Punkt, der mich noch aufhält kurz vor dem Ziel..


    War auch sehr enttäuscht, nur Sync vorzufinden. Und Backblaze Unlimited Personal kann/darf ja keine NAS/SMB-Shares syncen laut deren Website. Das wäre mir aber leider 100X lieber als Amazon... :(



    @markush
    Ja wohl nur die "professionellen" Clouds scheinen aktuell dafür unterstützt, also eher auf Unternehmen als auch Private Anwender spezialisiert.. Hoffe das kommt innerhalb der nächsten Zeit, aber lieber wäre mir noch, dass Ich Duplicati zum Laufen kriege... Vllt. hilft dir das ja auch, scheint ja das Tool der Wahl für die Meisten zu sein!



    Danke nochmal an alle,
    Grüße


    Steven

    Hey angelluck + christian, Vielen Dank für eure schnellen Antworten!


    Es scheint, als habe ich nach 2-3 Wochen täglichen Recherchieren endlich etwas kapiert.. ;)


    Dann mache Ich das erstmal so, bis Ich das Geld für eine 3. Platte habe! Probiere dazu auch gerade ein Backup auf Amazon Cloud Drive; Allerdings scheitere Ich nach 2 Tagen intensivem Probieren immer noch an Duplicati; Dazu gleich wohl ein eigener Thread.


    Vielen Dank nochmal!


    Steven

    Hallo nochmal!


    Was in Theorie erstmal ziemlich einfach/klar ist, wird bei mir wegen relativ großer Datenmenge und sehr begrenztem Budget zum Problem:


    Habe letztem Monat ein gebrauchtes TS-251 sowie 8GB RAM gekauft, sowie diesen Monat die Seagate Ironwolf 8TB NAS HDD.
    Da mein Gehalt leider nichts anderes zulässt, habe Ich beide Käufe stückeln müssen, und die 2. HDD kann Ich erst frühestens Anfang März kaufen.


    Nun bleibt mir mit meinem 2-Bay NAS ja nichts anderes als RAID1, wobei Ich damit ja AFAIK von Redundanz UND Speed-Boost profitieren sollte laut Wikipedia. Was ja nicht schlecht ist.


    Nun habe Ich Noob ja gedacht, dass bei RAID1 es keine Datenverluste geben kann, eben wegen der Redundanz, und habe geglaubt, auch in Zukunft, wenn Ich dafür das Geld hätte, auf ein externes Backup zu verzichten. Was eh erst im April frühestens finanziell möglich wäre (8TB NAS HDD kosten ja leider immer noch ca. 300€).


    Bis Heute. Bis Ich durch ein Firmware-Update den Zugriff auf meine HDD verlor (Anderes Thema, anderes Thread, zum Glück jetzt gelöst). Kurz und gut, hatte dies nicht einkalkuliert, und bin nun eines besseren belehrt worden.


    Deshalb meine Fragen nun:


    1. Bei einem RAID1: Kann Ich die HDDs bei Bedarf aus dem NAS heraus nehmen, und in einem PC mit SATA-Anschluss auslesen?
    2. Bei einem RAID1 + Full Disk Encryption: Kann ich auch hier irgendwie die Daten am PC auslesen, sollte das NAS Probleme mit der Firmware haben?


    Und die wichtigste Frage:


    3. Wenn die Redundanz eines RAID1 kein Backup ersetzt, würde Ich dann nicht erstmal besser damit fahren, die 2. Platte die Ich im März kaufe für ein externes Backup zu verwenden, anstatt mein Single Disk System damit zum RAID1 zu machen (bis Ich das Geld für eine 3. Platte habe, oder die 8TB auf Amazon Cloud Drive hochgeladen sind, und nur noch die kleineren Änderungen gesynct werden müssen)???


    Über längere Zeit werde Ich sicherlich auf RAID1 gehen, dazu noch zu ACD Syncen und wahrscheinlich auch ein günstiges 4-Bay NAS kaufen als Haupt-Datenträger, und das 2-Bay NAS für Wordpress, VM etc. nutzen.


    Vielen Dank im Voraus,
    Steven