Webseite mit wget / httrack periodisch spiegeln

  • Hallo,

    ich würde gerne eine Webseite bzw. deren Struktur periodisch auf das NAS spiegeln als Backup. FTP/WebDAV etc. geht nicht, bleibt nur der klassische Weg per HTTP Crawling. Ich wollte jetzt auf diesem Weg mal abklären, ob jemand schon eine deartige Lösung am laufen hat und wenn ja, wie. Ich würde ja vermuten, dass die Downloadstation bei den HTTP-Jobs letztlich auf wget zurückgreift. Leider kann sie keine Strukturen downloaden, sondern nur einzelne Files.


    Ein QPKG mit der Funktionalität scheint es weder bei QNAP oder im QNAPClub Repo zu geben. Zur Not würde ich's über einen Container oder eine VM machen, aber eigentlich find ich das für die Aufgabe etwas oversized und ich habe da zum basteln auch gerade nicht genug Muße. Wäre aber trotzdem an Lösungsvorschlägen interessiert.

  • Das war mir schon bekannt...nur denke ich, das bspw. die "Downloadstation" für http job sicherlich schon wget oder curl benutzt. Deswegen wollte ich nicht noch Bohei mit irgendeiner VM oder Containern veranstalten. Sehe auch keinen Grund, warum das ein QNAP nicht nativ können sollte. Aber klar, Deine Lösung würde schon funktionieren.

  • Meine ist das ja ned. Lediglich ein Verweis. Der hier richtet auf den Qnap 'nen cronjob ein und curl bzw. wget sind auf dem QNAP ja schon drauf (ssh mit putty). Da müßte dann ein cronjob das Skript, einen Einzeiler, aufrufen und das müßte irgendwo liegen, wo es beim Booten nicht übergebügelt wird.