Beiträge von MoeD

    Er meckert schon bei der eingabe des Benutzernamens.
    habe es auf diversen wegen versucht. Am Anfang, in der Mitte, am Ende und mittendrin. Der Bug sitzt tiefer im System :P


    Edit:

    Habe noch etwas herausgefunden. Die "Everyone"-Benutzergruppe hat sich bei den "Protokoll Berechtigungen" für den Freigabeordner nicht finden lassen. Wenn ich aber die "Individuelle Berechtigung" für den Ordner aktiviere und unter ACL versuche eine Benutzergruppe hinzuzufügen, finde ich die "Everyone"-Gruppe wieder... was übersehe ich ???

    Ist das unter hero eventuell anders?


    Ich würde ein Ticket dazu erstellen. Einen neuen Thread wäre das bestimmt auch wert gewesen.

    Wenn ich das wüsste... Ticket gebe ich gleich auf. Danke für die immer schnellen Antworten!


    Mod: Unnötiges Volltext-/Direktzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    Bitte (Zensur musste sein, weil wollte nicht wieder umbauen, es geht um den Freigabeordner):

    pasted-from-clipboard.png

    Hallo,


    ich bin so frei und nutze den Beitrag für eine weitere Frage zum genannten Thema.


    In meine QuTS hero (h5.0.1.2376) habe ich die Benutzergruppe "everyone" und die Gruppe "Everyone". Mein Verdacht ist, dass mir diese Doppelung die Zugriffsrechte auf die Ordner welche ich gerne individuell, wie im obigen Beispiel, vergeben würde.


    Kann mir jemand den Unterschied zwischen Gruppe "everyone" und "Everyone" erklären und wie ich die "Everyone"-Gruppe wieder los werde? Diese ist leider nirgendwo zu finden außer im Fenster "Berechtigung für Freigabeordner bearbeiten". Hier der screenshot dazu:

    pasted-from-clipboard.png


    Hier meine Benutzergruppen:

    pasted-from-clipboard.png


    FunFact: "everyone" kann ich aus der Zugriffsliste löschen, "Everyone" taucht nach dem löschen und speichern der Einstellung einfach wieder auf.


    Ich wäre für eure Hilfe sehr dankbar. Ich weiß nicht mehr weiter.


    Gruß!

    Danke für eure Hilfe.


    vor ein paar jahren habe ich das Initial auch vor Ort gemacht, und ich befürchte mir bleibt auch diesmal nichts anderes als das zu wiederholen.


    Das komische ist, dass der umgekehrte weg Remote-->Local (ich habe quasi den gleichen Job in umgekehrter Reihenfolge laufen) ohne Probleme funktioniert hat.


    Naja, dann hole ich wohl am Wochenende das NAS von meinen Eltern mal zu mir und mache das lokal... mit den 2% die der Backup-Job seit Mittwoch geschafft habe, werde ich bis zum Sommer nicht fertig.

    Guten Abend :qclub:,

    nachdem ich jetzt mein RAID5 mit 4*2TB-RAID5 fast voll hatte und Aufgerüstet habe auf 2*8TB-RAID1 und dabe idas NAS neu aufgesetzt habe kämpfe ich seit einer Woche mit dem Wiederherstellen sämtlicher Verbindungen und vor allem dem Verknüpfen von den Backup-Jobs in HBS3. Daher vorweg gleich die Frage: Warum kann ich mein NAS nicht mit dem Offsite-Backup Verknüpfen und soll jetzt 100-Tage warten bis das gesamte Backup neu übertragen wurde?


    Hier zum Setup und was ich schon alles Probiert habe:

    Onsite System TVS-473e, jetzt neu 2*8TB RAID1, QTS 5.0.0.1891, HBS 18.0.1125

    Offsite System TS-451a, 4*4TB RAID5, QTS 5.0.0.1891, HBS 18.0.1125


    Backup wie folgt immer Abgelaufen: Onsite-->Offsite über RTRR und VPN, immer erfolgreich und zuverlässig, Daten sind alle Safe und einmal Täglich übertragen, Gesamtmenge knapp 5,5TB


    Jetzt neu aufgesetztes NAS wieder mit meinem localen Backup wiederhergestellt und die Ordnerstruktur exakt gleich aufgebaut. Wollte dann in der HBS3 wieder "Erstellen"->"Sicherungsauftrag neu Verknüpfen" was auch im ersten schritt geklappt hat, nachdem ich den Zielordner auf der richtigen Ebene ausgewählt hatte (was umgekehrt beim Backup vom Offsite zum Onsite nicht geklappt hat). Leider hat er dann angefangen alle 5,5TB wieder von vorne zu übertragen (was bei meiner Internetleitung leider über 100 Tage dauern würde). Also habe ich begonnen Sicherungsjobs neu aufzusetzen, Daten in die erzeugten Ordner zu kopieren usw. nichts hat geholfen. Die HBS3 will immer alle komplett neu übertragen. Habe ich was übersehen? Geht das nicht? Wäre um hilfe/tipps sehr Dankbar!


    Wenn ich noch weitere Infos geben kann bezüglich setup mache ich das gerne.


    Gruß,

    MoeD

    Danke für deine Ausführungen tuxflo!

    Du hast alles richtig gedeutet. Das man seit kurzem auch dateien einbinden kann habe ich auch gesehen. Das probiere ich dann mal wenn ich wieder Zeit finde mich mit dem Thema zu beschäftigen.


    Gruß

    Hallo zusammen,


    als Einsteiger beim Thema Container und Docker habe ich das Projekt Paperless-NG gestartet um die Dokumentverwaltung zu Hause ins digitale Zeitalter zu holen. Leider scheitere ich schon kurz nach der Installation des Docker-Containers in der Container Station und die Paperless-NG-Dokumentation hilft mir leider nicht mehr weiter.

    1. Akt: Installaion Container
      Das hat wunderbar geklappt. In der Containerstation auf "Erstellen" und nach "paperless" gesucht. Dort den mit den meinsten Sternen gewählt und etwas recherchiert dazu. Den Container von jonaswinkler/paperless-ng installiert und nach kurzer Zeit lief das ding schon auf dem NAS. Ein kurzer test und dank Netzwerkeinstellung "Bridge" und DHCP war der Container auch gleich mittels Browser über das Netzwerk erreichbar. So mag ich das :D
    2. Akt: Dokumentationen lesen und nur Bahnhof verstehen
      Nur stellte sich sodann die Frage: mit welchen Anmeldeinformationen anmelden? Also habe ich mich auf die Suche gemacht. Die Dokumentationen die ich gefunden habe waren seehr ausführlich. Sowohl auf Dockerhub als auch auf Github und der eigenen Dokumentationsseite von Paperlessbin ich auf viele Seiten ausführlicher Dokumentation gestoßen, leider wurde ich daraus nicht schlau. Zumindest nicht was die kombination mit der Qnap Container Station anging. Zum einloggen habe ich nur etwas gefunden von einem Superuser der eingerichtet werden muss und das war der Einstieg in die Sackgasse in der ich gerade Stecke.
    3. Akt: Fragen and den:qclub:
      Kann ich docker-compose Befehle normalerweise über die Container-Station "Konsole" ausführen? --> bekomme hier keine Reaktion
      Kann ich docker-compose Befehle normalerweise über das Container-Station "Terminal" ausführen? --> bekomme hier nur eine Fehlermeldung
      Code
      Vorgang mit Code 126 beendet
      Gibt es eine Doku dazu wie ich über SSH auf die Qnap einsteige und mir z.B. config-files anlege für Container? finde dazu leider auch nichts


    Ich suche auf jeden fall weiter und hoffe, dass eventuell einer hier ebenfalls Paperless einsetzt und mir helfen kann.


    Gruß,
    MoeD.

    Fange gerade an mich mit der Containerstation und Docker anzufreunden. War bisher mit VM's beschäftigt. Jetzt soll das mal mit Containern gehen.


    Bisher laufen:

    • PiHole (Backup DNS zum Raspi-PiHole)
    • Unifi Controller


    Aktuelles Projekt:

    • Paperless-NG (ich scheiter gerade noch kläglich)

    Welche Platte hast Du dir gegönnt? Geht die schlafen wenn sie nicht gebraucht wird oder hast Du darin 24/7 Platten?

    Habe eine WD-MyBook 12TB. Das ist keine 24/7 soweit ich weiß. Takte das mit dem Backup aktuell noch mit zu viel manueller Arbeit. Tendiere aber zum Zeitschalten der Steckdose. Dann Starte ich die Platte zu einem Zeitpunkt X-Minuten vor Backup-Zeit und lasse sie dann für 5h laufen.
    In der HBS3 lasse ich das Laufwerk nach Backup-Ende auswerfen und damit passt das.

    Die HBS3 spinnt bei mir aktuell mit Übertragungsgeschwindigkeiten und Zuverlässigkeit (und wie das Forum hier zeigt bin ich nicht alleine). Hoffe aber auf QNAP's Updates in naher Zukunft:cup:||

    Hatte mit meiner TVS-473 kürzlich die gleichen Überlegungen. Bin für mich zu der Entscheidung gekommen, dass die TR-002/TR-004 nicht die Lösung sind. Wenn man seine Datenhaltung an 3-2-1 orientiert und nicht mehr als 20TB in den Nächsten 5 Jahren an Daten erwartet, sehe ich die Erweiterungseinheiten als overkill.


    Ich habe jetzt noch ein 4x2TB-RAID5 im TVS-471. Die Wichtigen Daten Sichern sich automatisiert (wenn die HBS3 wieder vernünftig funktioniert) drei mal die Woche auf ein Remote NAS über VPN. Die Lokale Sicherung habe ich mir dann auf eine Externe Festplatte gepackt. Unter anderem war der Grund dafür, dass eine Externe USB-Festplatte mit 12TB ca. 200€ kostet, was alleine schon dem Preis der TR-004 entspricht. Auf die Externe kommt eine komplette Spiegelung der TVS-473. 12TB waren die Sinnvolle Größe, weil ich dann auch 4x4TB-RAID5 voll Backupen kann.


    Der RAID Gedanke ist sehr Sinnvoll gerade für das Produktiv-NAS, nur für "Haushaltsübliche Datenmengen" (frei zur Interpretation wie viel das ist) war mir die Lösung mit USB-Drive ohne RAID und als Backup ausreichend. Zumal ich nicht täglich hunderte GB lese und schreibe. Wenn ich dann doch mal massiv Platznot bekomme baue ich mir die 12TB aus dem externen Gehäuse aus und Packe sie in ein RAID dazu.

    Habe das von Qnap auf mein Ticket empfohlen bekommen.


    Zitat von QNAP Support

    Sehr geehrter Herr MoeD


    vielen dank das Sie sich an den Qnap Support gewendet haben. Das von Ihnen beschriebene Problem ist bekannt und es wird derzeit an einer Lösung gearbeitet. Das Momentane Workaround ist es den Job zu stoppen und dann wieder zu resumen. Für die entstehenden Unannehmlichkeiten möchten wir uns entschuldigen.



    Mit freundlichen Grüßen,

    Nina B.

    Der neue WD-Trümmer ist jetzt in Betrieb und das Backup funktioniert. Probleme macht jetzt nur noch die HBS3 mit ihren aktuellen abbrüchen und den ultra langsamen Übertragungsraten. Nachdem ich das Backup wie von Qnap empfohlen zwei mal gestoppt und neu gestartet habe bis es einmal durchgelaufen ist, funktioniert es jetzt brav von selbst und bringt keine Fehler mehr.


    TVS-473e auf eine WD-MyBook 12TB sichern geht also... [für den Moment] :P

    Nachdem du keinen Hinweis auf SSD's im System gibst, auf denen das Betriebssystem laufen könnte würde ich auf selbiges als Grund tippen. Das Betriebssystem muss ja auch irgendwo laufen und das ist wohl dein RAID5. Die können gar nicht in den Standby.

    Wenn du dann in den Energieeinstellungen keinen Abschaltzeitpunkt eingestellt hast läuft das NAS auch brav durch.

    Also nach viel probieren und sogar dem Zerlegen meiner externen Festplatte und Anschluss über HDD-Docking kann ich sagen:
    mit Western Digital WD Elements Desktop 12TB funktioniert das Hybrid Backup nicht. Laufe jedes mal in 100-Warnungen und dann abbruch mit Fehlercode -22 und "Bad Parameters"-Warnung.

    Die verbaute Festplatte ist übrigens eine CMR und nicht wie zuerst vermutet eine SMR.

    Ich tausche jetzt um und versuche es mit dem nächsten Modell (bzw. einem größerem Bruder) welches auf der Qnap-Kompatibilitätsliste zu finden ist (WD-MyBook).

    War jetzt garnicht so schlimm wie erwartet. Die Gesicherte Datenmenge ist aktuell knapp 4TB groß.


    Nach dem kopieren mit der File-Station habe ich den Sicherungsauftrag neu angestartet. Das lief jetzt sehr gut durch bis auf 4 Warnungen mit Error code -121. Das Ende des Auftrags sah dann so aus:

    pasted-from-clipboard.png


    2 Minuten später dann eine Fehlermeldung mit Backup-Job fehlgeschlagen und dem selben Fehlercode -121 und Fehlermeldung.
    Im Bericht des Backup-Jobs steht nur "Status: Fehler" und den Dateiverlauf als CSV-Datei kann er nicht ausgeben, da kommt dann folgendes:

    Code
    {
      "error": {
        "error_code": "internal_server_error",
        "message": "Traceback (most recent call last):\n  File \"/share/CACHEDEV1_DATA/.qpkg/HybridBackup/CloudConnector3/python/lib/python3.7/site-packages/flask/app.py\", line 1813, in full_dispatch_request\n    rv = self.dispatch_request()\n  File \"/share/CACHEDEV1_DATA/.qpkg/HybridBackup/CloudConnector3/python/lib/python3.7/site-packages/flask/app.py\", line 1799, in dispatch_request\n    return self.view_functions[rule.endpoint](**req.view_args)\n  File \"/var/lib/jenkins/jobs/CC3_PY3_QPKG/workspace/ARCH/x86_64/master/master/qpkg/output/shared/python/lib/python3.7/site-packages/qnap/cloudconnector3/rest/diagnosis_report.py\", line 145, in no_cache\n  File \"/var/lib/jenkins/jobs/CC3_PY3_QPKG/workspace/ARCH/x86_64/master/master/qpkg/output/shared/python/lib/python3.7/site-packages/qnap/cloudconnector3/rest/diagnosis_report.py\", line 190, in get_user_job_detail_log\n  File \"/share/CACHEDEV1_DATA/.qpkg/HybridBackup/CloudConnector3/python/lib/python3.7/zipfile.py\", line 1710, in write\n    zinfo = ZipInfo.from_file(filename, arcname)\n  File \"/share/CACHEDEV1_DATA/.qpkg/HybridBackup/CloudConnector3/python/lib/python3.7/zipfile.py\", line 506, in from_file\n    st = os.stat(filename)\nFileNotFoundError: [Errno 2] No such file or directory: '/mnt/ext/opt/HybridBackup/data/system/nas/af9257b8-7816-11eb-9b7b-6a71b101d940/2021_02_27 19:26/Local_Backup_Transferred files list.CSV'\n"
      }
    }

    Habe das gleiche Problem wie oben beschrieben.

    TVS-473e --> WD-Elements 12TB 3,5"


    läuft bis ca. 180GB, danach Einbruch und Abbruch. Nach Neuverbinden der Platte und Neustart des Sicherungsauftrags braucht er 20 Minuten für exakt 10,45MB und bricht dann wieder ab.


    Ich versuche es jetzt mit der Empfohlenen Methode des File-Station-Kopierens. Bleibt nur die Frage was passiert wenn ich mal mehr als 180GB neue Daten auf die NAS spiele, welche dann gesichert werden wollen.