Beiträge von christian

    Hallo Paul_e_Pop


    Zitat


    - User können Daten löschen obwohl nur lesezugriff (daten hochladen geht, wie es sein sollte, nicht)


    Da stimmen die Rechte anscheinend nicht. Kennst du dich ein wenig mit Putty, WinScp oder ähnlichem aus, um per Konsole die Rechte zu vergeben?

    Zitat


    - gibt es ein Möglichkeit auch mit der TS-101 eine LOG-Datei erstellen zu lassen oder irgendwie einsicht zu bekommen, was auf dem FTP so passiert?


    Eine Möglichkeit gibt es bestimmt, doch wenn diese nicht von Haus aus in der FW integriert ist, wirds wohl schwierig!



    Mfg
    Christian

    Hallo dobby


    Also lila hatte ich noch nicht, doch ewige Ladezeiten fürs öffnen des NAS Menü schon. Bei mir lag bzw liegt es daran das meine Firewall http Aktivitäten scannt. Die Lösung war für mich, ein alternativer Port. Was ich damit sagen will, such das Problem mal abseits vom NAS. Eventuell ist bei dir auch die Firewall einer Verursacher!



    mfg
    Christian

    :roll: soll wohl nicht sein?


    Danke soweit aber es klappt nicht! Es kommt ja das Wochenende ;) und es wäre gelacht wenn das nicht klappt!


    Großes EDIT:


    Habe es nun endlich hin bekommen ... puhh das musste gleich zu aller erst raus! Nun Schritt für Schritt was ich gemacht habe.


    Per ssh mit dem NAS verbunden.

    Code
    crontab -e


    nun erscheint folgendes

    Code
    # m h dom m dow cmd0 3 * * * /usr/local/sbin/ImR_all -soft /Qmultimedia0 4 * * * /sbin/hwclock -s0 3 * * * /bin/rm -rf /mnt/HDA_ROOT/twonkymedia/twonkymedia.db/cache/*30 4 * * * /etc/init.d/Qthttpd.sh restart


    um nun wie in meinem Beispiel das backup.sh Script aufzurufen musste ich folgendes hinzufügen

    Code
    15 3 * * * /share/HDA_DATA/bak/backup.sh


    ich weiss nicht wie ihr es gemacht habt, doch ich kam nicht umher den crontab via vi zu editieren, vi ist für mich definitiv neu und um ehrlich zu sein auch nicht sehr benutzerfreundlich. Dennoch hat es geklappt.
    Link zu vi auf Wikipedia
    das Ergebnis sieht nun so aus

    Code
    # m h dom m dow cmd
    0 3 * * * /usr/local/sbin/ImR_all -soft /Qmultimedia
    0 4 * * * /sbin/hwclock -s
    0 3 * * * /bin/rm -rf /mnt/HDA_ROOT/twonkymedia/twonkymedia.db/cache/*
    30 4 * * * /etc/init.d/Qthttpd.sh restart
    15 3 * * * /share/HDA_DATA/bak/backup.sh


    Ich will auch kurz noch die Einzelheiten erklären:

    m = Minuten
    h = Stunden
    dom = Tag im Monat
    m = Monat
    dow = Tag in der Woche


    Nun zu meiner hinzugefügten Zeile, hier startet nun jeden Morgen um 3:15 Uhr das Script backup.sh welches im Verzeichnis /share/HDA_DATA/bak/ liegt!


    Vllt habe ich auch die ganze Zeit etwas falsch gemacht oder ihr meintet das ich crontab eben genau auf dem oben beschriebenen Weg editieren soll. Sei es drum, ich bin nun etwas schlauer. Ganz zum Schluss nochmal danke an alle!

    oje :(


    bisher noch kein Erfolg ... habe nur die Verzeichnisse etwas geändert !



    klappt nicht

    Code
    /usr/bin/wget -c --ftp-user=USER --ftp-password=PASSWORT -x -r -m ftp://85.13.136.161/test/ --append-output=./backup.log --directory-prefix=/share/HDA_Data/bak/


    klappt nicht

    Code
    wget -c --ftp-user=USER --ftp-password=PASSWORT -x -r -m ftp://85.13.136.161/test/ --append-output=./backup.log --directory-prefix=/share/HDA_Data/bak/


    klappt nicht

    Code
    wget -c --ftp-user=USER --ftp-password=PASSWORT -x -r -m ftp://85.13.136.161/test/ --append-output=./backup.log --directory-prefix=/share/bak/


    Wie schon gesagt, in Putty alles kein Problem und in /bak/ wird ein Verzeichnis angelegt /bak/85.13.136.161/test/.... aber leider nur manuel!



    argh :)

    anpingen geht hier nicht ... auch egal!


    Was ich nun heraus gefunden habe ist das

    Code
    wget -c --ftp-user=Benutzername --ftp-password=Passwort -x -r -m ftp://85.13.136.161/test/


    via ssh funktioniert es (aber eben nur manuel), doch der Aufruf der backup_hp.sh Datei mit diesem Inhalt wird einfach nicht ausgeführt!



    die backup_hp.sh befindet sich in

    Code
    /share/HDA_DATA/Qweb/bak/


    in der crontab habe ich dieses hinzugefügt

    Code
    35 12 * * * /share/HDA_DATA/Qweb/bak/backup_hp.sh


    Kann es sein das die backup_hp.sh Datei an einem Ort gespeichert werden muss?

    Ja, FTP Zugriff habe ich.


    qnapclub.de anpingen nein aber die direkte IP ja und dann geht es auch!


    Code
    [/share/HDA_DATA/Qweb] # wget -c --ftp-user=Benutzername --ftp-password=Passwort -x -r -m ftp://85.13.136.161/test/--11:49:49--  ftp://85.13.136.161/test/           => `85.13.136.161/test/.listing'Connecting to 85.13.136.161:21... connected.Logging in as Benutzername ... Logged in!==> SYST ... done.    ==> PWD ... done.==> TYPE I ... done.  ==> CWD /test ... done.==> PASV ... done.    ==> LIST ... done.    [ <=>                                                                                                              ] 185           --.--K/s11:49:49 (216.36 KB/s) - `85.13.136.161/test/.listing' saved [185]--11:49:49--  ftp://85.13.136.161/test/samsung.JPG           => `85.13.136.161/test/samsung.JPG'==> CWD /test ... done.==> PASV ... done.    ==> RETR samsung.JPG ... done.Length: 48,715 (48K)100%[=================================================================================================================>] 48,715       312.98K/s11:49:49 (311.08 KB/s) - `85.13.136.161/test/samsung.JPG' saved [48715]FINISHED --11:49:49--Downloaded: 48,900 bytes in 2 files


    Es wird aber in /Qweb eine Ordner 85.13.126.161 erstellt ...! Soweit so gut, nun wäre es ja Sinnvoll nicht jedesmal alles herunter zu laden, sondern die dumps local immer nur zu erneuern!
    Wo würde ich nun folgendes einfügen, um nicht immer alles herunter zu laden?

    Code
    -N,  --timestamping



    mfg
    christian

    Hallo Eraeser,


    die Idee mit den auto Backups find ich richtig gut. In meinem Fall würde ich gern die dump von qnapclub.de Forum absichern. Dann müsste ich die nicht ständig manuell laden.
    Aber irgendwo hakt es noch. Ich schreib mal was ich bisher getan hab.


    1. crontab um folgendes erweitert

    Code
    0 11 * * * /share/HDA_DATA/Qweb/bak/backup_hp.sh


    2. im Qweb den Ordner bak angelegt und die backup_hp.sh Datei hinterlegt

    Code
    wget -c --ftp-user=Benutzer --ftp-password=Passwort -x -r -m ftp://qnapclub.de/test/


    3. im Qweb nach 11:00 Uhr nachgesehen ob das Bild welches in .../test/ liegt auch gespeichert wurde.

    Code
    [/share/HDA_DATA/Qweb] # wget -c --ftp-user=Benutzername --ftp-password=Passwort -x -r -m ftp://qnapclub.de/test
    --11:12:40--  ftp://qnapclub.de/test
               => `qnapclub.de/.listing'
    Resolving qnapclub.de... failed: Name or service not known.
    
    
    FINISHED --11:13:01--
    Downloaded: 0 bytes in 0 files


    4. FTP Port wird auf dem Router zum NAS umgeleitet


    Vielleicht ist mir auch ein Fehler unterlaufen und du kannst mir dabei behilflich sein.

    Hallo Gemeinschaft


    Soweit ich weiss bzw. etwas dazu sagen kann, ist das Problem bekannt und man denkt über Lösungen nach! Also versucht einfach eure Gemüter im Zaum zu halten.
    Rom wurde auch nicht an einem Tag erbaut!



    lg
    Christian

    Zitat von "newbie008"

    genau das ist ja mein Problem.


    Dann ist deine Fragestellung am Ziel vorbei geschossen.

    Zitat von "newbie008"

    Ich möchte gerne Video s, Songs und Bilder streamen.
    Gibt es hier eine andere Software? Funktioniert das mit der Software von Slimserver auch ohne entsprechende Hardware von Logitech? Oder kennt jemand eine andere gute Lösung?


    Softsqueeze unterstützt auch nur Musik!
    Hast du den Qmultimediabereich schon in betracht gezogen?
    Die installierte TwonkyMedia Funktion stellt all deine Wünsche mit einem entsprechenden Gerät zu Verfügung!


    mfg
    Christian