Beiträge von nasferatu

    Aha, danke, das erklärt natürlich einiges. Ich habe jetzt mal den Snapshot Zeitpunkt auf 5/6 Uhr gelegt und zumindest heute keinen Fehler mehr erhalten


    EDIT: war leider zu früh gefreut...um 5:05 gabs wieder die Fehler Mail...Es betrifft allerdings immer das Raid1 z.Zt., wo die meisten Anwendungen und Dokumente drauf liegen. Aber Backupjobs dürften diesmal eigentlich keine Rolle gespielt haben...



    Mal schauen, wie sich das weiter verhält. Kann man diese Wartungsjobs eigentlich zeitlich irgendwie beeinflussen, um sie noch mehr den persönlichen Gegebenheiten anzupassen ?

    Hallo,
    hmm, ich dachte das wird aus dem Profil links ersichtlich:
    TS-451 8GB / QTS 4.2.2 Build 20161214


    Ansonsten habe ich nichts spezielles gemacht, ausser dass der Backupjob möglicherweise noch parallel gelaufen ist. Ich werde das mal zeitlich entzerren, scheint ja doch ziemlich empfindlich zu sein, der Snapshot Mechanismus. Weiss eigentlich jemand, wie der technisch realisiert ist ?

    Hallo,


    in dem Fall könnte es ein FTP Backup Job sein. Allerdings habe ich diese Meldung auch schon erhalten, wo m.E. eigentlich überhaupt nichts gewesen sein kann. Sinnvoll wäre es ja, wenn man an diese Fehlermeldung gleich noch eine Prozessliste anhängen könnte, damit man weiss wonach man suchen soll...

    Hallo,


    ich bekomme seit geraumer Zeit vermehrt diese Fehler, wenn der Snapshot Job um 2.00 oder 3.00 Uhr morgens läuft. Da liege ich üblicherweise im Bett und kann nicht auf den Resourcenmonitor schauen, wer denn soviel Last erzeugt. Ich wüsste jetzt auch nichts, was so regelmäßig um diese Zeit die Last so hochtreiben sollte, irgendwelche aufwendigen Indexierungsaktionen / Transcoding etc kann es eigentlich nicht sein. Gibt es bei den Systeminformationen eigentlich eine Statistik, die die Last nicht nur momentan sondern über 24h anzeigt ( mit den verantwortlichen Prozessen natürlich). Ich meine, ich hätte bisher immer Angaben für die momentane Last gesehen. Oder gibts dafür eine App, die man installieren kann. Das CPU Load Problem scheint ja wohl öfters vorzukommen.

    Nun ja, regelmäßige Backups auf Medien, die physisch zumindest die meiste Zeit getrennt sind. Und ich persönlich würde ein NAS egal von welcher Firma auch niemals direkt ins Netz hängen bzw. per Portfreigabe. Wenn Fernzugriff, dann nur per VPN von aussen. Und man sollte Backups immer mit einem separaten Backupuser machen, der die Schreibrechte dafür hat. Ansonsten die Backupfreigaben zum Rücksichern nur lesend freigeben.


    Mit diesen Grundregeln kann man zumindest schon ziemlich viel abblocken. Macken in der Firmware kann man damit natürlich nur bedingt stopfen, aber gerade der Zugriff übers Netz ist bereits so häufig Anlass für Sichereitswarnungen gewesen, dass ich diese schönen Features nie wirklich nutzen werden ohne VPN.


    Und wenn man fürs Backuppen aufs NAS ebenfalls separate User mit Schreibrechten verwendet ist man auch schon etwas sicherer. Und zuguterletzt ein AD- und Scriptblocker im Browser verhindert auch schon einiges.


    Und die Snapshot Funktion dürfte in einigen Fällen auch sehr nützlich sein, sofern nicht das NAS selbst komplett kompromitiert ist.


    Jaja, die gute alte Zeit der Spassviren ist definitiv vorüber...jetzt gehts ums Geld!

    Mittlerweile habe ich festgestellt, dass der FTP Backup Job offenbar empfindlich auf bestimmte "Sonderzeichen" im FTP Passwort reagiert. Leider ohne die entsprechende Fehlermeldung, nämlich nur mit der allgemeinen Meldung , der Host sei nicht erreichbar, was natürlich völliger Blödsinn ist. Somit konnte ich jetzt mit einem angepassten Passwort einen Backupjob einrichten...


    Was mir zu meinem Glück noch fehlen würde ist die Versionierung, aber das kann man wohl nur mit mehreren separaten Jobs "simulieren" derzeit. Offensichtlich scheint nur RRTR dies zu unterstützen.

    Hallo,


    ich benutze den QNAP eigenen DLNA Server, im Großen und Ganzen reicht mir der momentan auch. Die Indizierung klappt eigentlich, sie ist auch Echtzeitscan geschaltet. Was aber scheinbar nicht klappt ist die Umbenennung von Dateien, zumindest bei Videodateien ist mir dies bisher aufgfallen. Sprich, wenn ich nach der Indizierung den Namen ändere erscheint trotzdem noch der ursprüngliche Name. Die Dateien können auch abgespielt werden, aber das ganze ist ja eher unschön. Ich habe auch mal einen manuellen Scan angestossen (ohne Neuaufbau), dies hat aber auch nichts geändert.


    Die komplette Bibliothek neu aufzubauen ist ja Overkill und kann eigentlich auch nicht die Lösung sein. Ich habe auch keine Möglichkeit gefunden, einzelne Ordner/Freigaben komplett neu zu indizieren, dies wäre in meinen Augen eine vernünftige Lösung, solange das Problem nicht anderweitig behoben werden kann.


    Kennt sonst noch jemand dieses Problem bzw. hat eine Lösung ?


    Edit: Zumindest einer scheint das Problem auch zu haben, aber keine Lösung: Datei umbenannt, neue indexierung


    Vielen Dank,
    Florian

    Hallo,


    das Problem ist nicht das VPN, da ich per SMB und Windows Explorer auf die entfernte Freigabe die volle Bandbreite erreiche. Das VPN ist aus QNAP Sicht transparent, da die Fritzboxen direkt gekoppelt sind. Ich hatte auch schonmal die volle Bandbreite, ich meine aber, ein QTS Update hätte dann zu dieser Einschränkung geführt. Leider kann ich es nicht mehr genau nachvollziehen.


    In den Fritzboxen ist aus den Defaultwerten nichts weiteres eingetragen, ausser einem Internetfilter als Adblocker, aber keine Priorisierung. Ich habe jetzt aber auch mal diesen für das QNAP deaktiviert.


    Es ändert sich aber nichts, der Job läuft stumpf im Resourcenmonitor mit 100kb/s. Ein über dieselbe Verbindung vom selben entfernten NAS laufender SMB Kopiervorgang über den Windowsexplorer pendelt so zwischen 1MB und 800kb/s !


    Mein Verdacht ist, das der virtuelle Switch im QNAP vielleicht irgenwo mist macht oder eben die ja auch im Sicherungsmanager vorhandene Bandbreitenbegrenzung. Was ist noch nicht probiert habe ist, die 2. Ethernet Schnittstelle des QNAP anzuschliessen, weil das in meinem Setup einfach wenig Sinn macht und nicht unbedingt mehr Performance bringt. Aber womöglich gibt es da noch eine nicht vedrehte Default Einstellung.


    Hmm, interessant: während der SMB Kopiervorgang lief ist beim QNAP die Rate auf 35kb/s eingebrochen, als ich den Vorgang abbrach wieder auf 100kb/s gestiegen.


    Der Weg vom QNAP zur Fritzbox läuft über einen Powerline Adapter, an dem auch der Windowsrechner hängt. Aber laut Anzeige hat der eigentlich genug Bandbreite, um locker beide bedienen zu können (200Mbits in jede Richtung) ...

    Hallo allerseits,


    ich habe auf meinem TS-451 (Firmware-Version 4.2.2 Build 20161028 )
    einen Sicherungsauftrag eingerichtet, der von einem anderen NAS ( kein Qnap) eine SMB Freigabe über eine per VPN zwischen zwei Fritz! Boxen eingerichtete Verbindung sichert. Das funktioniert im Grundsatz auch. Jedoch habe ich festgestellt dass aus irgendeinem Grund offenbar eine Bandbreitenbegrenzung aktiv, die den Durchsatz auf 100kb/s limitiert. Manuelles Kopieren über den Windows Explorer schafft zwischen 1-2Mb/s, im wesentlichen das, was technisch möglich ist.


    Möglicherweise in Zusammenhang mit der Hybrid Backup App, die ich später auch installiert hatte. In einem anderen Thread habe ich ein änliches Problem gelesen, die Lösung dort war Deinstallation von Hybrid Backup, Neustart und Neuinstallation. Ich habe Hybrid Backup jetzt nur deinstalliert und einen Neustart durchgeführt, so das der Sicherungsmanager wieder vorhanden ist. Sicherungsaufträge habe ich jetzt noch nicht neu angelegt. Was ich festgestellt habe ist, dass beim ändern der Bandbreitenbegrenzung es im laufenden Backupjob bei der Transferate zu Peaks kam, es sich dann doch wieder auf 100kb/s eingependelt hat.


    Es handelt sich um einen RRTR Job, ich habe diesen jetzt auch mal neu eingerichtet, allerdings ohne Ergebnis. Die sonstigen Übetragungsraten des NAS bewegen sich im übrigen im Rahmen des erwartbaren.


    Falls jemand zu dem Problem noch einen Vorschlag hat würde mich das sehr freuen.


    Vielend Dank sagt schonmal nasferatu.

    Also aus dem Kopf war es die Synchronisation ( Externer Ordner an lokalen Ordner). Eine andere Option gibt im Sicherungsmanager nicht. Zweiwege Synchronisation ist ja auch nicht gewünscht. Der Hoster ist übrigens Goneo. Trotzdem sollte die Portnummer ja nicht das Problem darstellen. Mit Filezilla habe ich nur beim ersten Mal einen Dialog bekommen, bei dem ich dem Serverzertifikat vertrauen muss bzw. dieses akzeptieren. Möglicherweise passiert da was im Hintergrund, nur sehe ich das in keinem Log bzw. habe es noch nicht gefunden.


    Aber unverschlüsseltes Backup übers Netz ist ja mehr oder weniger wertlos...

    Hallo,


    ich meinte die RTTR Funktion um entfernte Ordner zu sichern. Ich möchte meinen Webspace per FTP automatisch sichern, und von den Angaben die man dort machen kann müsste es eigentlich ja hinhauen. Das sind letztlich keine anderen Angaben als bei Filezilla.


    Also


      hostname
      Port 990
      Explizites FTP über TLS
      Nutzer
      Passwort


    DDNS dürfte doch keine Rolle spielen, das müsste doch mit jedem beliebigen FTP Server gehen. Ich glaube ohne Verschlüsselung ginge es auch, nur mit nicht. Aber das ist ja aus naheliegenden Gründen keine Option. Oder gibt es da noch ein besseres AddOn um periodisch Webserver zu sichern ? Jedenfalls bekomme ich leider eben auch keine aussagekräftige Fehlermeldung ausser "Host nicht erreichbar", was definitiv nicht stimmt ! Und ein Log mit ein paar mehr Detailinformationen habe ich noch nicht ausmachen können.


    Ich schau mal in Deinen Link, vielleicht findet sich da etwas passendes. Vielen Dank erstmal für die Mühe.


    --- ModEdit ---


    Also ich hab jetzt nochmal alle Optionen durchprobiert, keine geht! Unverschlüsselter Zugriff ist vom Provider auch nicht mehr möglich, deswegen habe ich das weggelassen.


    Die Fehlermeldung ist: Die Host-Verbindung kann nicht hergestellt werden.


    Ich wüsste jetzt nicht, was ausser der Portnummer da so ungeöhnlich sein sollte. Vielleicht gefällt ihm das Zertifikat nicht.

    Hallo,


    ich versuche einen FTP Backupjob einzurichten, leider schlägt dieser immer fehl. Die Fehlermeldung ist leider auch sehr nichtssagend, ich habe noch keine Option gefunden da mal etwas detaillierte Log Informationen zu erhalten.


    Ich versuche hier an Port 990, Explizites FTP über TLS / Normale Vebindungsart einzurichten. Die Fehlermeldung ist "Hostverbindung kann nicht hergestellt werden". Warum, wieso, weshalb keine Ahnung. Muss man im Host Feld irgendwie was anderes als <mein.ftp-server.de> eingeben ?


    Bin gerade etwas enttäuscht, dass sowas banales nicht auf Anhieb klappt.

    Hallo,


    ich habe meinem NAS eine SSD spendiert, weil ich u.a. auch die Virtualisierung nutzen wollte, und wegen der vielen konkurrierenden Zugriffe bringt eine SSD da bekanntermassen am meisten. Nun habe ich erstmal das SSD Cache Feature aus Neugier aktiviert. Dieses scheint aber grundsätzlich IMMER die gesamte SSD in Beschlag zu nehmen. Meine Idee wäre halbe/halbe gewesen, also quasi eine "Partition" fürs allgemeine Cachen und dann eine für VMs. Dies scheint so nicht möglich zu sein. Kann das jemand bestätigen, oder gibt es ggf. doch eine Möglichkeit, die SSD nur teilweise zum cachen einzurichten ?