Beiträge von tyco

    Schade das du die Antwort editiert hast....somit habe nicht mitbekommen, dass du eine Lösung gefunden hast.


    Manuell klappt es bei mir. Per Script leider nicht und somit auch nicht per crontab.


    Das liegt wohl daran, dass ich nicht vi verwendet habe sondern einen Editor unter WinXP, wie ich jetzt herausgefunden habe. Wenn ich das Script ausführe kommt die Fehlermeldung:


    [/share/Qdownload] # ./backup_hwe.sh
    -sh: ./backup_hwe.sh: /bin/sh^M: bad interpreter: No such file or directory


    Dann muss ich mich wohl mit vi anfreunden.

    Die Samsung HD501LJ wollte ich auch erst einbauen, weil ich mit denen gute Erfahrungen gemacht habe. Weil die aber auf der Kompatibilitätsliste von Qnap nicht aufgeführt sind, habe ich davon Abstand genommen.


    Im nachhinein habe ich erfahren, dass die nur deshalb nicht auf der Kompatibilitätsliste aufgeführt sind, weil die Samsung-Festplatten in Taiwan nicht verfügbar sind.


    Letztlich habe ich mich dann für die Seagate ST3500630NS entschieden, weil sie für 24/7 Betrieb geeignet sein soll und 5 Jahre Garantie bietet.


    Mit beiden Festplatten machst Du sicherlich nichts falsch.

    Das mit der Aktualisierung klappt schon mal.


    Vorhin habe ich bei wget beim ersten mal www.mydomain eingegeben und beim zweiten mal ohne www. (die Webseite ist über beide Adressen erreichbar). Da hat wget natürlich alles nochmal runtergeladen.


    Nun funktioniert es aber mit der Aktualisierung.

    Zitat von "Eraser-EMC2-"


    Bei einem Forum ist es eigentlich wichtiger, das die Datenbank regelmäßig gesichert wird.


    Da wird natürlich nachts ein Backup erstellt, das dann auch automatisch heruntergeladen wird. Der Qnap soll eine zusätzliche Sicherung liefern.


    btw. Download ist fertig. Nochmal wget gestartet. Lädt der jetzt alles nochmal runter oder checkt der nur ob es neue Dateien gibt? Parameter sind -x -r -m

    Mittlerweile bin ein Stückchen weiter gekommen.


    Manuell klappt es jetzt mit dem Vorschlag von Eraser-EMC2. Dafür schon mal ein "Dickes Dankeschön"!


    Code
    wget -c --ftp-user=ftpusername --ftp-password=ftppassword -x -r -m ftp://yourdomain


    Allerdings musste ich dazu vorher in das Verzeichnis:


    Code
    cd /share/Qdownload

    (ohne HDA_DATA) wechseln. Liegt das am TS_409Pro?


    Dort ist jetzt das Verzeichnis "yourdomain" erstellt worden. Der lädt jetzt schon eine Stunde (DSL 16000) runter...und lädt und lädt. Mal sehen wie es dann mit dem cronjob und den Aktualisierungen funktioniert.


    Ich melde mich wieder. ;)

    Zunächst vielen Dank für deine schnelle Antwort.


    Allerdings werden mit wget auch alle (externen) Links runtergeladen oder liege ich da falsch? Ich möchte ein Backup der kompletten Webseite, sodass ich sie im Notfall wieder hochladen kann. Auf der Suche nach einer Lösung bin ich auf den Befehl Rsync gestoßen. Wäre Rsync nicht besser geeignet um die Webseite zu sichern?