Hallo,
ich würde gerne eine Webseite bzw. deren Struktur periodisch auf das NAS spiegeln als Backup. FTP/WebDAV etc. geht nicht, bleibt nur der klassische Weg per HTTP Crawling. Ich wollte jetzt auf diesem Weg mal abklären, ob jemand schon eine deartige Lösung am laufen hat und wenn ja, wie. Ich würde ja vermuten, dass die Downloadstation bei den HTTP-Jobs letztlich auf wget zurückgreift. Leider kann sie keine Strukturen downloaden, sondern nur einzelne Files.
Ein QPKG mit der Funktionalität scheint es weder bei QNAP oder im QNAPClub Repo zu geben. Zur Not würde ich's über einen Container oder eine VM machen, aber eigentlich find ich das für die Aufgabe etwas oversized und ich habe da zum basteln auch gerade nicht genug Muße. Wäre aber trotzdem an Lösungsvorschlägen interessiert.