Beiträge von CyberMicha

    Guten Morgen zusammen,

    Meine Nextcloud lässt keine Uploads mehr über den windows client ( 2.6 ) zu.

    Es kommt server replied: ohne was dahinter.

    Habe container und images gelöscht und per pull die aktuelle version ( 17 ) installiert.

    Zuerst hatte ich danach Probleme mit dem verbinden. Kein klicken auf "Zugriff gewähren" möglich. Das habe ich in der config gelöst ( 'overwriteprotocol' => '', )


    Kann man irgendwie auf die 16er zurück gehen? Daten sind alle gesichert. Im compose steht Nextcloud:fpm.


    Bin ratlos.


    Was braucht ihr an Infos? Finde leider keine richtige log datei.


    LG aus Griechenland Michael.


    Edit: Erledigt.

    Zurück auf 16.0.5 über docker-compose.yml mit image: nextcloud:stable-fpm

    Upload:

    uploadsize.conf in den Ordner\Docker-Volumes\nextcloud\nginx-conf.d kopiert und zusätzlich die

    php.ini-development unter /usr/local/etc/php eingestellt auf post_max_size = 20G und upload_max_filesize = 20G

    Container neu gestartet.

    Hallo zusammen,

    ich habe die App Preview Generator installiert. Nun muss ich ja per ssh diverse Dinge durchführen.


    Mod: Zitat ohne Quellenangabe gelöscht! :handbuch::arrow: Die Zitat Funktion des Forums richtig nutzen


    Ich komme per ssh auf mein QNAP aber wie komme ich in den Container von nextcloud?


    LG Michael


    Edit: Erledigt

    Code
    docker exec -u www-data -ti  nextcloud_app_1 bash


    Habe doch noch ein Problem. crontab scheint es in dem container nicht zu geben. Wie mache ich das nun, damit alle 30 Minuten das pre-generate aufgerufen wird?


    Code
    crontab -u www-data -e
    */30 * * * * php /var/www/html/occ preview:pre-generate
    Code
    root@5654d014317c:/var/www/html# crontab -u www-data -e
    bash: crontab: command not found


    Kann ich da ggf den docker exec für missbrauchen und auf dem QNAP den cron anlegen?

    Aktualisierung
    Neue Containerversionen installiert man einfach durch erneutes Aufrufen der Schritte 1 und 2 unter Build and Run. Die Daten bleiben über die Volumes erhalten.

    Funktioniert bei mir leider nicht wenn ich auf die 16.0.1 gehen möchte.



    LG Micha

    Ja habe ich schon raus gefunden. Problem macht jetzt gerade das Verschicken von Mails. Über outlook.de geht es aber über one.com leider nicht obwohl alle Daten korrekt eingegeben sind.


    Hat da vielleicht jemand eine Idee? Es liegt wohl an den Swiftmailer und der Verschlüsselung denke ich. In welchem Docker ist der installiert? dann würde ich mal schauen ob ich Logs finde.


    LG Micha

    EDIT: Geht nun, wieso auch immer..



    Hi zusammen,

    habe alles erfolgreich über den ersten Post hier einrichten können.

    Leider bekomme ich auch nach einem Neustart den Fehler Request Entity Too Large wenn Daten hochladen möchte.


    Kann mir jemand helfen?


    Mod: Zitat ohne Quellenangabe gelöscht. (siehe Forenregeln)


    Geht bei mir leider nicht. Wenn ich einen Stoppen und Starten möchte kommt die Meldung

    pasted-from-clipboard.png



    LG Micha

    Papierkorb und Snapshots habe ich danach aktiviert :)


    Wo hast du die denn so günstig bekommen? Finde es nicht für unter 600 mit 4*4TB.

    Welches Raid hast du dann im Backupsystem laufen? Darf dann ja nix verlieren damit es funktioniert.


    LG Michael

    Hallo zusammen,

    aktuell habe ich ein TVS-663 mit 16GB RAM im Einsatz und suche nun ein Backup NAS. Im jetzigen sind 5*4 TB WD Red im RAID 5 verbaut.

    Nun frage ich was für ein NAS ich als Backup anschaffen könnte. Vielleicht reicht ja auch ein 2bay NAS mit 2x8 TB.

    Hintergrund des Ganze ist, dass ich neulich Daten gelöscht habe und diese unwiderruflich weg sind.


    Braucht ihr noch mehr Informationen oder habt ihr andere Ideen?


    Viele Grüße

    Michael

    Hi,

    ja habe ich auch schon überlegt. Leider gibt es das TVS-663 mit 16GB RAM nicht mehr zu kaufen. Ist natürlich ein Kostenfaktor aber generell gebe ich dir recht, dass ein echtes Backup immer besser ist.

    Habe das NAS komplett neu aufgesetzt. Hatte vor den "Spielereien" eine Sicherung gezogen. Waren "nur" noch 2 TB und da hab ich noch ne Ersatz Platte gehabt und alles auf meinen normalen PC geschoben.

    Werde mich jetzt mal mit dem Snapshot Manager beschäftigen damit sowas nicht nochmal passiert.


    Vielen Dank!!!! Sorry, dass ich eure Zeit verschwendet hab :(

    Da war es, aber nicht mehr.

    Wie muss ich das dann angeben mit extundelete?


    Edit: Nun bekomme ich gar keine vg mehr...


    ubuntu@ubuntu:/$ sudo vgscan   Reading all physical volumes.  This may take a while...



    Edit: Ich gebe es auf. :( Danke dennoch für eure Unterstützung.

    Laut Doku nicht. Versuche es gerade mit

    Code
    ubuntu@ubuntu:/mnt/backup$ sudo extundelete /dev/md0 --restore-inode 2
    
    NOTICE: Extended attributes are not restored.
    Loading filesystem metadata ... 118929 groups loaded.
    Loading journal descriptors ... 101 descriptors loaded.
    Unable to restore inode 2 (file.2): No undeleted copies found in the journal.

    Hmpf

    Man braucht gar keinen Mount :/ da war ich auf dem Holztrip...


    sudo extundelete /dev/md0 --restore-directory /share/CACHEDEV1_DATA


    Man muss nur das device angeben. lasse gerade laufen aber es gibt wohl ein problem mit den inodes.

    Jetzt weiss ich bald auch nicht mehr weiter und werde es denke ich aufgeben. Sehr schade um die ganzen Daten.

    Okay jetzt kommt was neues.


    Code
    ubuntu@ubuntu:/mnt/backup$ sudo extundelete /dev/md0 --restore-directory /share/CACHEDEV1_DATA/Fotos/ 
    extundelete: Bad magic number in super-block when trying to open filesystem /dev/md0

    Hatte ich auch schon versucht. Leider ohne erfolg. Problem ist ja nicht thin sonder thick :( Die Tools gibt es auch nicht mehr im repository.

    Code
    ubuntu@ubuntu:~$ sudo mdadm --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3
    mdadm: /dev/md0 has been started with 5 drives.
    
    ubuntu@ubuntu:~$ sudo mount -t ext4 /dev/md0 /media/x-qnap
    mount: /dev/md0 is already mounted or /media/x-qnap busy

    Mount zeigt aber nix an.