Hallo,
ich bin nicht unbedingt ein Linux Experte, aber nach Hilfen hier im Forum habe ich es geschafft meine Vorstellungen eines automatischen Downloads zu realisieren. Wie die Verzeichnisstruktur auf einer TS-859 aussieht kann ich leider nicht sagen. Im Folgenden beziehe ich mich auf meine TS-219P.
Dazu gehören zwei Dinge.
1. Erstellen einer .sh Datei, in der die Aufgabe spezifiziert wird.
2. Editieren der crontab, in der spezifiziert wird wann der Job (.sh-Datei) ausgeführt wird.
Um Zugriff auf die QNAP zu bekommen benutze ich einen ssh-Zugang mit WinSCP und putty. Zunächst also mit WinSCP eine z.B. website_backup.sh erstellen. Als Speicherort habe ich ein verstecktes Verzeichnis erstellt, /share/MD0_DATA/.mycrontab Der Inhalt der .sh-Datei muss natürlich individuell angepasst werden. Der wesentliche Eintrag ist:
wget --mirror ftp://user:passwort@yourdomain.de/
Dabei ist allerdings zu beachten: Mit diesem Befehl wird jede einzelne Datei heruntergeladen. Je nach Anzahl der Dateien kann die Übertragung Stunden dauern. Nur mal als Beispiel: Mit dem obigen Befehl hat bei mir der Download eines Verzeichnisses (1.5 GB) ca. 2 1/2 Std. gedauert :shock:. Das gleiche als tar-File ca. 10 min :thumb:. Deshalb ist es empfehlenswert auf dem HP-Server ein tar-file der Webseite mit einem cronjob zu erstellen. Das wäre allerdings ein neues Kapitel.
Als nächstes die crontab editieren. Auf meiner 219P befindet sich die crontab im Verzeichnis: /mnt/HDA_ROOT/.config. Mit WinSCP die Datei aufrufen und z.B. folgenden Eintrag hinzufügen:
* */6 * * * /share/MD0_DATA/.mycrontab/website_backup.sh
Damit wird alle 6 Stunden der Job ausgeführt. Nicht vergessen mit putty der crontab zu sagen, dass es einen neuen Job gibt. Der Befehl in putty lautet:
crontab /mnt/HDA_ROOT/.config/crontab
Das war's dann schon. Die Linux Experten mögen mir die einfache Ausdrucksweise verzeihen. Wenn es nicht ausgereift oder noch was zu verbessern / korrigieren gibt, bin ich für jede Hilfe dankbar. Dank auch noch einmal an frosch2 für die Tipps.
Gruß, Ludwig