Beiträge von terra

    Hallo,


    ich bin nicht unbedingt ein Linux Experte, aber nach Hilfen hier im Forum habe ich es geschafft meine Vorstellungen eines automatischen Downloads zu realisieren. Wie die Verzeichnisstruktur auf einer TS-859 aussieht kann ich leider nicht sagen. Im Folgenden beziehe ich mich auf meine TS-219P.


    Dazu gehören zwei Dinge.


    1. Erstellen einer .sh Datei, in der die Aufgabe spezifiziert wird.
    2. Editieren der crontab, in der spezifiziert wird wann der Job (.sh-Datei) ausgeführt wird.


    Um Zugriff auf die QNAP zu bekommen benutze ich einen ssh-Zugang mit WinSCP und putty. Zunächst also mit WinSCP eine z.B. website_backup.sh erstellen. Als Speicherort habe ich ein verstecktes Verzeichnis erstellt, /share/MD0_DATA/.mycrontab Der Inhalt der .sh-Datei muss natürlich individuell angepasst werden. Der wesentliche Eintrag ist:


    wget --mirror ftp://user:passwort@yourdomain.de/


    Dabei ist allerdings zu beachten: Mit diesem Befehl wird jede einzelne Datei heruntergeladen. Je nach Anzahl der Dateien kann die Übertragung Stunden dauern. Nur mal als Beispiel: Mit dem obigen Befehl hat bei mir der Download eines Verzeichnisses (1.5 GB) ca. 2 1/2 Std. gedauert :shock:. Das gleiche als tar-File ca. 10 min :thumb:. Deshalb ist es empfehlenswert auf dem HP-Server ein tar-file der Webseite mit einem cronjob zu erstellen. Das wäre allerdings ein neues Kapitel.


    Als nächstes die crontab editieren. Auf meiner 219P befindet sich die crontab im Verzeichnis: /mnt/HDA_ROOT/.config. Mit WinSCP die Datei aufrufen und z.B. folgenden Eintrag hinzufügen:


    * */6 * * * /share/MD0_DATA/.mycrontab/website_backup.sh


    Damit wird alle 6 Stunden der Job ausgeführt. Nicht vergessen mit putty der crontab zu sagen, dass es einen neuen Job gibt. Der Befehl in putty lautet:


    crontab /mnt/HDA_ROOT/.config/crontab


    Das war's dann schon. Die Linux Experten mögen mir die einfache Ausdrucksweise verzeihen. Wenn es nicht ausgereift oder noch was zu verbessern / korrigieren gibt, bin ich für jede Hilfe dankbar. Dank auch noch einmal an frosch2 für die Tipps.


    Gruß, Ludwig

    Moin auch,


    ich hatte ein ähnliches Problem. Nachdem frosch2 mir hier im Forum einige Tipps gegeben hatte, konnte ich mein Problem lösen. Um Dir helfen zu können, müsstest Du noch erklären um was es bei dem FTP-Auftrag geht. Grundsätzlich ist es möglich mit einem crontab sich wiederholende Aufträge zu automatisieren.


    Gruß, Ludwig

    Habe das gleich Problem. Auf dem V-Server meiner Firma befindet sich ein WebCam Zeitraffer Archiv. Nun möchte ich die einzelnen jpg's monatlich automatisiert auf meinen Server (219P mit 2x 1TB) laden um später mal einen kompletten Zeitrafferfilm über Wochen/Monate zu erzeugen. Außerdem ist der Platz auf dem Server begrenzt (30GB). Die Verzeichnisstruktur ist folgende:


    ftp://...../httpdocs/webcam/zeitraffer/07/01/. Wobei 07 der Monat und 01 der Tag ist. Im Verzeichnis 07 wird automatisch um Mitternacht von der WebCam ein neues Tagesverzeichnis angelegt (01...02...03...04.... u.s.w).


    Am letzten des Monats um Mitternacht wird ein neues Monatsverzeichnis und ein neues Tagesverzeichnis angelegt (am 01.08. eben ftp://..../httpdocs/webcam/zeitraffer/08/01/.


    Bis jetzt folgendes probiert:


    ftp://...../httpdocs/webcam/zeitraffer/07/*.* (alle Unterverzeichnisse von /07/ ........ funktioniert nicht)
    ftp://...../httpdocs/webcam/zeitraffer/07/01/*.jpg (alle jpg's aus dem Verzeichnis .......... funktioniert auch nicht)


    Bis jetzt helfe ich mir folgendermaßen:


    Mit WinSCP Verzeichnis packen (ftp://..../httpdocs/webcam/zeitraffer/archive07.tgz), anschließend mit der Download Station herunterladen und auf dem Server das Verzeichnis löschen. Funktioniert zwar, ist aber etwas umständlich. Weis jemand eine bessere Methode ? Ansonsten bliebe noch die Einrichtung eines Cron-Jobs auf dem Server. Dafür reichen meine Linux Kenntnisse leider (noch) nicht.


    Gruß, Ludwig