Beiträge von tuxflo

    Ich habe schon mal versucht meine alten Daten von meiner TS-251+ runter zu bekommen -> erfolglos. Obwohl ich kein nennenswertes RAID einsetze ist die "Standardpartitionierung" in Thin und Thick Volumes von QNAP alles andere als Standard und ich habe es auch nach etlichen Stunden nicht hinbekommen. Bei mir lief es dann tatsächlich darauf hinaus, dass ich mir das gleiche NAS Modell nochmal neu gekauft habe, die Platten habe ich allerdings immernoch hier. Also falls jemand was herausfindet: immer her mit den Infos


    P.S.: Ich hatte auch schon zum Test das Erweiterungsgehäuse hier, in der Hoffnung, dass dieses vielleicht die Partitionen erkennt und ich die Daten transferieren kann leider war auch das Erfolglos.

    Ich verstehe das Problem noch nicht so ganz. Der Docker Daemon läuft doch als root user, kann man dann nicht einfach im jeweiligen Container die Rechte so setzen wie man das gern hätte? Mit meinem IRToy Device (welches intern auch als /dev/ttyACM0 erkannt wird) kann ich jedenfalls problemlos aus dem Container arbeiten, wenn ich das Gerät via --device /dev/ttyACM0:/dev/ttyACM0 beim docker run Befehl mitgebe ohne das ich vorher irgendwelche Berechtigungen anpassen muss.

    Die Frage wäre ja eigentlich "nur" wie man die armhf Anwendung auf dem arm64 System des TS-230 ans laufen bekommt.

    Die einfache Antwort darauf ist: gar nicht. Selbst wenn du es unter Umständen hinbekommen könntest eine einzelne Komponente zum Laufen zu bringen, wie willst du denn sicherstellen, dass alle beteiligten Komponenten (verschiedene Server Dienste, OCR Erkennung, Ordnerüberwachung, Datenbank) auch richtig gestartet werden und miteinander kommunizieren können (wie chef1 ja auch schon geschrieben hat)?
    Weiterhin würde ich so ein "selbstgestricktes" System auf keinen Fall für die tatsächliche Verwaltung von (wichtigen) Dokumenten nutzen. Wenn du das System zunächst nur mal testen willst, kannst du das mittels Docker auf jedem beliebigen 64 Bit Rechner oder eben einem Raspi machen.

    Also EuroDNS unterstützt die CGI-Technik schlicht nicht und schlägt als einzige Möglichkeit den ddclient vor.

    Hmmm OK, aber dann würde ich vermutlich eher den DNS Anbieter wechseln :S
    Inwx kann glaube ich von Haus aus auch DynDNS ohne sowas wie ddclient.

    und zwar als vollwertiges Linux als virtuelle Maschine,

    Wenn du dich mit Containern (noch) nicht auskennst kann das die einfachste Lösung sein. Andernfalls ist es für Sachen die auch in Containern laufen können Ressourcenverschwendung.

    Kann man NICs oder anderweitigen Geräten auch "händisch" eine IPv6 vergeben wie analog IPv4?

    Ja natürlich kannst du das und im Gegensatz zu IPv4 kannst du eben, wie schon oben beschrieben, diese Adresse einfach zusätzlich verwenden ohne auf die andere verzichten zu müssen. Niemand hindert dich deinen Geräten Adressen a la ::3 oder ::42 zu geben.


    Einfaches, praktisches Beispiel für die Verwendung von fe80 Adressen:
    Router Konfiguration: du bist per SSH auf deinem Router eingeloggt, nimmst Änderungen vor und drückst einmal zu schnell auf "Enter" ohne dir den Befehl nochmal genau anzuschauen und hast dich durch die Konfig selbst ausgesperrt. Mit IPv4 musst du jetzt schauen, dass du irgendwie über eine serielle Schnittstelle wieder auf das Teil kommst um die falsche Konfig wieder zu beheben. Bei IPv6 suchst du einfach nach der entsprechenden Link Local Adresse (diese kann über einen ping ermittelt werden), machst ein ssh [f380::xxxxx] und behebst die Konfig.

    Mod: Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Die Zitat Funktion des Forums richtig nutzen

    Ich für mich halte nichts davon und habe das Gefühl, dass damit versucht wird das nachzubilden, was wir vom NAT her gewohnt waren. Von mir aus soll jedes einzelne meiner Geräte identifizierbar sein.

    Das hat weniger was mit NAT zu tun, als damit, dass heutzutage tausende Werbetreibende einen ziemlichen Aufriss machen um Nutzer so gut es geht "wiedererkennbar" zu machen. Dafür gibt es Tracking Pixel, Browser Fingerprints und was weiß ich noch für Techniken. Ohne die Verwendung der Privacy Extensions wäre das für diese Branche ein Fest, da sie dich dann nicht nur zu Hause identifizieren können, sondern auch noch in jedem anderen Netz wo sich dein Gerät einwählt und damit z.B. ohne weiteres sehen, dass du gerade im Urlaub bist und z.B. in welchem Hotel du da wohnst. Aber auch hier hindert dich niemand daran das zu ändern:


    Code
    1. cat >> /etc/sysctl.conf <<EOT
    2. net.ipv6.conf.all.use_tempaddr=0
    3. net.ipv6.conf.default.use_tempaddr=0
    4. EOT
    5. sysctl -p


    Die Vergabemechanismen sind in der Tat ziemlich komplex, hier habe ich selbst auch noch Nachholbedarf. Hier kommt es maßgeblich darauf an ob man möchte das sich das Netz mehr oder minder selbst verwaltet (durch die automatische Generierung von IPv6 Adressen) oder ob man da selbst Hand anlegen möchte.

    Zum Thema:

    Danke für den Link, ich hab sber keine Lautsprecher am Rechner. Bin da Minimalistisch veranlagt.

    die Podcast Episoden sind auch sehr lang, ich würde empfehlen sie entweder bei einer längeren Fahrt oder unterwegs zu hören (wie alle anderen Podcasts auch :))

    Danke fürs Aufteilen!

    Kann eine NIC mit IPv6 etwa mehrere IPs binden?

    Ja genau. Mit IPv6 muss das sogar der Fall sein, weil es bestimmte Adressen mit einem bestimmten Scope gibt. Zum Beispiel sind alle Adressen die mit fe80 anfangen stets "Link local" Adressen und werden nicht ins Internet geroutet.

    Ich glaube mich dunkel erinnern zu können, daß man "0000" durch "::" ersetzen kann.

    Ja genau. Durch eine geschickte Anordnung von Nullen kann man auch in IPv6 "kurze" IP Adressen haben. Kombiniert mit der Fähigkeit mehrere Adressen zu haben kannst du dann wahlweise über die eine oder die andere darauf zugreifen.

    Ich fand das Thema doch schon sehr verwirrend und komplex,

    Ja, direkt einfach ist es nicht, aber das ist IPv4 auch nicht. Hier hat man sich halt nur über die Dauer dran gewöhnt. Die erwähnten Funktionen muss man meiner Meinung nach in großen Teilen auch nicht in und auswendig kennen um IPv6 für den Heimgebrauch einsetzen zu können.


    Für eine Einführung in die Thematik in Audioform kann ich die folgenden Podcast Episoden nur wärmstens empfehlen: https://cre.fm/cre197-ipv6 und https://requestforcomments.de/archives/412 beide mit Clemens Schrimpe der ein ziemlich guter Erklärbär ist (meiner Meinung nach).


    Im Großen und Ganzen will ich ja auch nicht darauf hinaus, dass man IPv4 von jetzt auf gleich ersetzen soll, nur tut es einem absolut nicht weh IPv6 einfach "anzuschalten" und dadurch ggf. sogar ein paar Vorteile des Protokolls nutzen zu können (wie z.B. die länger ausbleibende Zwangstrennung, oder die Verwendung von Link Local Adressen ohne die bestehende Konfiguration abändern zu müssen).

    Ipv4 -> NAT/Portfreigabe. Daran hat man sich gewöhnt und im Laufe der Jahre verinnerlicht.

    Das kannst du, wenn du denn willst mit IPv6 genauso handhaben. Eine Fritzbox ist z.B. ab Werk auch mit IPv6 genau so eingestellt.


    Ich kenne die IPv4-Adressen meiner Geräte @Home überwiegend auswendig. Für alles andere hab ich ne gepflegte Doku.

    Und jetzt merk Dir mal nur eine IPv6. Weiß nicht, bin da halt etwas konservativ.

    Da solltest du dich tatsächlich nochmal ein wenig mit dem Thema befassen, IPv6 Adressen können sogar kürzer als IPv4 Adressen sein. Und dadurch das jedes Interface immer mehrere Adressen unterstützt kannst du wahlweise über eine lange (automatisch generierte oder zugewiesene) oder eben über eine kurze Adresse wie ::3 oder auch über eine IPv4 ähnliche Adresse mit Prefix wie 2001:192:168:1:3 möglich.


    Ich sehe darin halt eine weitere Ebene in der Komplexität wo auch viele Stolpersteine lauern.

    Einer der Hauptgedanken bei der Erstellung des Protokolls war es (soweit ich das mitbekommen habe), eben Komplexität zu entfernen. Das merkt man auch daran, dass man einer Adresse z.B. direkt ansieht in welchem Gültigkeitsbereich sie liegt, oder daran, dass man ohne jegliche Konfiguration direkt mit Geräten kommunizieren kann ohne das man seine aktuelle Netzwerkkonfiguration abändern muss (Zum Beispiel weil ein Hersteller der Meinung ist, das man sein Webinterface immer nur über eine hartcodierte IPv4 Adresse erreichen soll).

    Demnach mein Tipp: mal ein paar Minuten Zeit nehmen und sich die Sache mal anschauen (ggf. über ein Youtube Tutorial oder halt klassisch per Buch) lohnt sich. Dann vielleicht mal mit wenigen Geräten testen und ausprobieren und später das ganze LAN darauf umstellen :P

    Du meinst IPv6? Ich bin froh, davon noch verschont zu sein. :)

    Will das Thema hier eigentlich nicht noch weiter ins Off bringen, aber darf ich trotzdem fragen warum? Ich höre/lese solche Aussagen immer wieder und kann es mir tatsächlich nicht erklären, welche (sinnvollen) Gründe gegen IPv6 sprechen.

    rednag

    auch jedesmal nach einem Connect die öffentliche IPv4.

    Dann frag doch mal deinen Anbieter, ob er die auch ein aktuelles Internet Protokoll bereitstellen kann :P.
    Denn dort wird, soweit ich das mitbekommen habe, auch seltener "zwangsgetrennt", weil es durch die hohe Anzahl an Adressen schlicht und ergreifend nicht notwendig ist.


    Zum eigentlichen Thema:

    Der dyn. DNS-Dienst auf der QNAP-Box ist leider auch nicht brauchbar.

    warum denn genau nicht? Ich betreibe den für meine VPN Verbindung schon seit Jahren ohne Probleme. Ist allemal einfacher als sich auf dem nativen Hostsystem des NAS mit Perl Abhängigkeiten rumzuärgern. Und wenn es doch unbedingt die oben beschriebene Software sein muss, dann würde ich für diese Zwecke einen Ubuntu Dockercontainer verwenden, in dem du ganz normal per apt install die benötigten Sachen installieren kannst.

    Hast du den Befehl genau so wie oben angegeben eingetippt (also mit kleinem "d"?) das ist in der Kommandozeile wichtig. Ansonsten würde ich vermuten, dass ein Entfernen und Neuinstallieren der Container Station vielleicht helfen kann? Aber das ist mehr eine Vermutung.

    Klappt es denn, wenn du das Ganze über SSH (also über die Konsole) versuchst? Ein einfaches docker pull ecodms/allinone müsste da schon reichen um das entsprechende Image herunterzuladen. Andernfalls ist vielleicht etwas mit deiner Repository Konfiguration durcheinandergekommen.

    Bleibt für mich dann immernoch die Frage, wie du z.B. eine Mail mit Anhang über so ein Konstrukt versenden willst.
    Hier dennoch ein weiterer Lösungsvorschlag: Linux Station (mittlerweile Ubuntu Station) verwenden. Dort Thunderbird installieren und wie gewünscht konfigurieren. Dann hättest du schon mal einen Zugriff via Web und VNC. Für eine etwas bessere Performance könntest du dir noch X2Go anschauen und das z.B. so konfigurieren, dass nur die Anwendung (also Thunderbird selbst) übertragen wird und nicht der ganze Desktop. Hier wird weiterhin SSH eingesetzt (was gut ist in Sachen Sicherheit) und Kompression, was sich positiv auf die Performance auswirkt. X2Go Clients gibt es, soweit ich weiß, für alle möglichen Betriebssysteme.

    Ja, du kannst dich aus dem Container heraus problemlos per SSH auf den Host verbinden. Entweder manuell oder per Jump Host (aber da bin ich mir nicht sicher, wie gut die webbasierten Lösungen damit umgehen können.

    Ich hatte vor einer Weile mal GateOne auf dem NAS im Einsatz (im Unternehmen war ein SSH Zugriff durch Firewall Regeln nicht möglich). Scheint sich aber eine Weile nichts getan zu haben. Bastillon ist wohl etwas aktueller, scheint aber auch wesentlich mehr Anforderungen zu brauchen. Ich würde in jedem Fall dazu raten, nach einer Lösung zu suchen die man einfach in einem Container betreiben kann.

    Mal angenommen das Vorhaben klappt, wie willst du den dann auf den Thunderbird zugreifen? Per VNC oder ähnliches? Per Browser? Wie genau willst du dann z.B. mal eine E-Mail mit einem Anhang versenden? Ich will dir dein Vorhaben nicht ausreden, aber ich denke du wärst mit einer Groupware (Kopano oder OpenExchange oder sowas in der Art) wesentlich besser bedient.

    Ich habe auch ein x86 NAS, habe es aber auch schon hinbekommen das Wireguard Modul zu kompilieren, kann dir aber schon mal vorab mitteilen, dass das Unterfangen alles andere als einfahch ist. Man benötigt eine VM die hinreichend alt ist um den alten Kernel des NAS zu unterstützen und aber ein recht frischen gcc Compiler (den Wireguard voraussetzt).


    Die vielleicht bessere Alternative, zu der ich dir raten würde: nimm eine Userspace Implementierung von Wireguard. Zum Beispiel "Boringtun" oder die Go Implementierung von Wireguard. Beides kannst du auch problemlos in einem Docker oder LXC Container betreiben.


    (Falls doch noch x86 Interesse besteht, kann ich das Modul auch noch mal bereitstellen)

    Auch auf die Gefahr hin das Thema noch weiter ins OffTopic zu katapultieren, möchte ich auch ein paar Worte zum "papierlosen Büro" verlieren. Ich kann mich chef1 im Vorpost nur anschließen: wiklich papierlos geht nicht "einfach mal so". Besonders die Thematik OCR spielt hierbei eine entscheidende Rolle. Soll es möglich sein Dokumente "einfach" durchsuchen zu können, steht und fällt das Ganze mit der Qualität der Texterkennung. Und hier muss ich leider bisher von Open Source Lösungen abraten. Ich habe selbst ecoDMS im Einsatz aber als "Vorverarbeitung" noch Abby Finereader, weil die Open Source OCR "tesseract" die bei ecoDMS mit dabei ist nur mäßig gute Ergebnisse liefert. Auch mit anderen freien Lösungen wie OCRmyPDF (welches auch mit Owncloud/Nextcloud kombiniert werden kann) war ich nie wirklich zufrieden. Ich denke auch nicht, dass Tags alleine ausreichend sind, um eine "ordentliche" Verwaltung hinzubekommen, es sei denn man macht sich die Mühe die Tags wirklich akribisch zu vergeben und dann wäre es für mich schon wieder zu viel Arbeit. Oder zumindest nicht weniger Arbeit als alles ordentlich abzuheften.

    Das Verhalten ist übrigens nicht Container Station spezifisch, sondern ein Problem von Docker im allgemeinen. Das ist einer der Gründe, warum Redhat an einer alternativen Container Engine namens Podman arbeitet. Damit ist es auch möglich "root-less" Container zu betreiben. Ich mach dir aber nicht wirklich viel Hoffnung, dass man das auf QTS zum Laufen bekommt (obwohl es natürlich einen Versuch wert ist).

    Noch zu der Thematik mit den Portfreigaben: auch hier kommt es sehr darauf an, was du vor hast. Wenn du die in den Containern betriebenen Dienste nur aus dem Heimnetz oder über das VPN erreichen willst, benötigst du keine Portfreigaben. Diese sind lediglich nötig, wenn du "von außen", also ohne VPN z.B. auf einen Webserver zugreifen möchtest, der auf deinem NAS (oder irgendeinem anderen Gerät in deinem heimischen Netz) zugreifen möchtest. Von daher ist das Abschalten der Portfreigaben schon ganz gut gewesen und sollte vorerst auch so bleiben. Insbesondere wenn du, wie du selbst geschrieben hast, netzwerktechnisch noch nicht soooo fit bist.