Beiträge von Eraser-EMC2-

    Da es mit keinem der FTP-Programme bzw. Möglichkeiten zu lösen war,
    wird das Problem mit den Einstellungen vom FTP-Server bzw. Freigaben zu tun haben.


    Wie Lodin schon schrieb, würde ein Auszug aus dem Logfile vom Filezilla
    bzw. die Rechtevergabe für die Freigaben evtl. weiterhelfen.


    Grüße,
    Stefan

    Für den cronjob müßtest du in dem Script noch ein cd einfügen,
    womit du in das Verzeichnis wechselst, in dem das Backup abgelegt werden soll,
    ansonsten landet es unter /root.


    Code
    cd /share/HDA_DATA/Qweb/bak
    wget -c --ftp-user=Benutzername --ftp-password=Passwort -x -r -m ftp://85.13.136.161/test/


    Sonst ist die Ram-Disk ( / ) schnell voll.


    Wo die Script-Datei abgelegt ist, spielt dabei keine Rolle.

    Ja, der Parameter -m beinhaltet das timestamping.


    Code
    -m,  --mirror             shortcut option equivalent to -r -N -l inf -nr.
    
    
      -r,  --recursive          specify recursive download.
      -l,  --level=NUMBER       maximum recursion depth (inf or 0 for infinite).
      -N,  --timestamping            don't re-retrieve files unless newer than
                                     local.


    Ich kann beide Adressen (ftp.qnapclub.de und qnapclub.de) anpingen.

    Zitat

    Resolving qnapclub.de... failed: Name or service not known.


    Hast du über qnapclub.de auch Zugriff mit dem FTP-Programm ?
    Kannst du die Adresse anpingen ?


    ich habe es auch mal über den cronjob versucht und festgestellt, das es die Daten in das Home-Directory vom Root schreibt.
    In dem Fall müßte noch ein parameter hinzu bzw. mit cd in das Verzeichnis gewechselt werden.


    EDIT:

    Code
    cd /share/HDA_DATA/Qweb/bak
    wget -c --ftp-user=Benutzer --ftp-password=Passwort -x -r -m ftp://qnapclub.de/test/ --append-output=./backup.log


    mit einer zusätzlichen Log-Datei.

    meines Wissens muß Rsync auf beiden Server installiert sein oder in das lokale Dateisystem mit NFS, smbfs/cifs oder ähnliches eingebunden sein.
    Beides kann man so konfigurieren, das wirklich nur die gänderten Dateien übertragen werden.


    Zitat

    Allerdings werden mit wget auch alle (externen) Links runtergeladen oder liege ich da falsch?


    Wenn du mit wget über das http-Protokoll Websites herunterlädst, ja,
    aber in meinem Beispiel, wie ich es auch bei einer Clan-HP mache, ist es nicht der Fall.
    Dort werden nur die reinen Dateien ungeachtet des Inhaltes heruntergeladen.

    Zitat


    Raid 5: Du hast 4 x 500 GB Platten installiert, das ergibt dann ca. 1,5 TB Speicherplatz . Hier könnte also 1 HDD´s ausfallen und deine Daten wären immer noch vorhanden.


    Bei Raid 5 gibt es noch eine weitere Möglichkeit:
    4 x 500 GB Platten, auf 3 Platten werden die Daten verteilt, das ergibt 1 TB Speicherplatz, die 4 Platte ist dann als Ersatz, wenn eine von den anderen 3 ausfällt.


    Hier eine Adresse http://www.acnc.com/raid.html , wo alle Raidtypen auch sinnbildlich beschrieben werden.

    Das wäre, wenn du ein Script (zB.: backup_hp.sh ) erstellst, in dem folgendes steht:


    Code
    wget -c --ftp-user=ftpusername --ftp-password=ftppassword -x -r -m ftp://yourdomain


    Dieses Script legst du in dem Ordner ab, wo das Backup von der Homepage abgelegt werden soll und fügst es in den Crontab von deinem Ts-409 ein.


    Mit "wget --help" bekommst alle möglichen Parameter des Befehls.

    Wähle bei FireFTP mit der rechten Maustaste eine Datei oder Ordner aus und klicke dort auf Properties bzw. Properties (incl. contents).
    Dort kannst du dann auch die Datei bzw. Ordner-Berechtigungen ändern.
    Leider ist es damit nicht möglich, die Benutzer oder Gruppennamen zu ändern.

    Zitat

    ja, 644 ist gesetzt. Wie weise ich denn Usern/Gruppen zu?


    Mit ssh bzw. telnet gibt es dazu die Befehle chown und chgrp.


    Mit chgrp setzt du die Gruppe, mit chown kannst du den Benutzer und Gruppe zuweisen.


    Code
    chgrp administrators config.inc.php
    chown admin:administrators config.inc.php


    Schon merkwürdig das es mit 666 geht und nicht mit 644.

    Es ist eine doofe Frage, aber es geht genauer hervor, welche Config-Datei du auf die Schreibrechte kontrolliert hast.


    Hat die config.inc.php in dem Ordner phpmyadmin die Datei-Rechte 644 ?
    Und wie lautet der Benutzer und Gruppe dieser Datei ?

    Ich finde es auch sehr ärgerlich, das man in solchen Fällen,
    wo die Daten auf der Festplatte noch intakt sind, keinen Zugriff auf seine Daten hat.
    Zudem steht in der Software-Spezifikation nur EXT3 (Internal/ external HDD)
    und nicht das es ein inkompatibles (propitäres) Format ist.


    Der Vorteil von Linux ist doch eigentlich, das man eine gemeinsame Grundlage hat, egal welches System man nutzt.

    Man kann auch eine Verknüpfung in der Netzwerkumgebung erstellen incl. Username und Passwort,
    mit dem man dann im Explorer auf den FTP-Server zugriff hat.


    - Netzlaufwerk verbinden
    -> Onlinespeicherplatz anfordernoder mit einem Netzwerkserver verbinden (unten im Fenster)
    -> 2x weiter
    -> Adresse des FTP-Servers eintragen -> weiter
    -> "Anonym anmelden" deaktivieren -> Benutzernamen eintragen -> weiter
    -> Namen der Verknüpfung angeben -> weiter
    -> Fertigstellen
    -> Kennwort eingaben
    Optional "Kennwort speichern" aktivieren


    Nun steht in der Netzwerkumgebung diese Verknüpfung zum Verbinden


    Es ist zwar kein Ersatz für ein Netzlaufwerk, aber eine Alternative für ein FTP-Programm.
    Ich bevorzuge jedoch auch Filezilla.

    Zitat

    Ich bin halt ein Laie.


    Ich kämpfe zur Zeit auch mit dem E-Mail Server auf dem TS-109 rum, bekomme das IMAP auch nicht richtig zum Laufen.
    NFS hatte ich bis jetzt auch nur auf einem UNIX-Server bzw. Workstation administriert.


    Zu erst müßtest du das IPKG installieren, dazu findest im englischen Forum eine Anleitung:


    http://forum.qnap.com/viewtopic.php?f=85&t=1085&start=0


    Danach kann ich dir auch nur Schritt für Schritt weiterhelfen, da ich selbst nicht weiß, was du dafür noch alles nötig ist.

    Die Hardware spielt bei NFS keine Rolle,
    die Software beim TS-109 Pro wurde soweit angepaßt, das man das NFS nur auf dem TS-109 Pro aktivieren kann.


    Mit dem IPKG ist es möglich, das NFS nachträglich zu installieren, wobei man dann die Einstellungen (exportieren der Verzeichnisse) manuell vornehmen muß.

    Zitat


    Meine Frage nach dem USB-Hub läuft darauf hinaus, dass ich mir zukünftig eine Backup-Strategie aufbauen will, bei der ein tgl. Backup jeweils auf einer anderen USB-Platte anfällt und ich nicht nur 1 Generation habe.
    (noch besser wäre, wenn QNAP auch ein inkrementelles Backup anbieten würde ;) )


    Evtl. kannst du dir ein inkrementelles Backup mit Hilfe von Tar selbst erstellen:


    Code
    DATUM=`date '+%Y-%m-%d'`;
    KW=`date '+%U'`;
    WT=`date '+%w'`;
    
    
    find /share/Public -type f -mtime -1 -print > /tmp/backup_kw$KW.txt
    tar --update --verbose --file=/share/share/HDA_DATA/Backup/backup_kw$KW.tar --files-from=/tmp/backup_kw$KW.txt
    rm /tmp/backup_kw$KW.txt


    Hiermit wird alles, was innerhalb eines Tages im /share/Public erstellt wurde erstellt und in die backup_kw$KW.tar gesichert.
    Wobei $KW eine Variable ist, die die Kalenderwoche beinhaltet.