Beiträge von fritz_hh

    Hallo zusammen,


    wollte nur kurz zurück melden, bin nun erfolgreich umgezogen mit meinem NAS.

    Habe die Maschinen und Dienste komplett neu aufgesetzt bzgl. meinem geplantem ITX gab es auch noch eine kleine Änderung ich verzichte auf einen Hardware Raid Controller da ich auf Unraid umgestiegen bin. Da Seagate beim zweiten Austausch keine 3 TB Platten mehr am Lager hatte gab es eine 4 TB die nun das Paritydrive macht. Wer nach einer Alternative sucht, sollte sich vielleicht mal Unraid ansehen, bin sehr zufrieden.


    Mein NAS sieht nun wie folgt aus:

    ASRock J5040-ITX, G.Skill 16 GB DDR4-2400, 1x Seagate IroWolf ST4000V008, 1x Seagate IronWolf ST3000VN007, 1x Crucial CT250MX500SSD, Mini-ITX PSU 90W, Inter-Tech IPC SC-2100 ITX-Cube, 1x Gigabit LAN Backup via USB 3

    Da ich mal davon ausgehe, dass dein ITX mit einem X86/64 Prozessor läuft, hast du dir die Antwort quasi selbst gegeben.

    Habe hier und da gelesen das es schon einigen gelungen ist, LXC Container die auf ARM32 Architektur basieren auf X86_64 System zum laufen zu bringen.

    Ansonsten hätte ich alternativ die Möglichkeit, den Container ggf. auf meinem Odroid C2 auszuführen, der wiederum hätte ARM64 und sollte dann ja möglicherweise ARM32 Images ausführen können!?


    Und der Odroid läuft momentan eh als ReverseProxy, der ganze Wildwuchs aus diversen Einplatinenrechnern soll dann halt nach und nach beseitigt werden und auf dem ITX aufgesetzt werden. Hätte ja sein können, das hier schonmal jemand ähnliches umgesetzt hat. Aber vermutlich werde ich dann erstmal auf dem ITX das System und die Container aufsetzen und anschließend den Rest vom QNAP umziehen


    War die Kiste aus dem Internet erreichbar?
    Das ist jedenfalls schon ein komisches Verhalten.

    Weder intern noch extern, APP oder SSH nichts, war nicht rauszubekommen was die Kiste für ne Party feiert.

    Zu dem waren es ja auch verschiedene Firmwareversion, ich denke mal ich habe dem kleinen Kasten einfach zu viel abverlangt.

    Aber komisch war das definitiv....

    Die Dateisystembereinigung sollte man machen, da ist dann ein Eintrag im Journal nicht sauber abgearbeitet worden.
    Verzichtet man darauf, kann das massive Folgefehl inkl. Verlust aller Daten bedeuten, wenn der Fehler so groß wird, das er das ganze Dateisystem killt.

    Ja, im Normalzustand habe ich das natürlich auch angeschmissen, aber auch hier muss ich sagen war der Kasten echt immer übelst lange am rödeln.

    Und jetzt mit nur einer Platte wollte ich das dann nicht unbedingt auch noch laufen lassen...


    Wollen wir einfach mal hoffen, das mir das ITX mehr Freude bereitet und wenn ich damit meine Stromgrundlast mal wieder runter bekomme ist alles :thumbup:

    Das sind Seagate IronWolf Platten ST3000VN007.

    Die Platte die nun ausgetauscht wurde, lief auch noch allerdings fiel sie immer wieder im SMART-Test durch, das NAS hat Warnungen geschmissen und den Austausch empfohlen. Bis zur Entnahme war die zweite Platte komplett okay, die schmeißt nun aber auch diverse Meldungen (1056 Tage).


    Was meine ich mit abgemeldet?

    Ohne das ich was bestätigt habe, war das NAS einfach komplett nicht mehr erreichbar und hat was auch immer auf den Platten betrieben.

    Netzverkehr hat keiner Stattgefunden, aber die LED's waren ordentlich am blinken und nein es waren keine Aufgaben geplant und auch die Container hatten keine so umfangreichen CronTabs. Irgendwann nach 5 - 6,7 Tagen war es dann wieder erreichbar und wollte mir so dann eine Dateisystembereinigung anbieten, was ich dann aber dankend abgelehnt habe. Wenn man denn schonmal Zugriff hat, denn ab und an will man dann ja doch mal was... :D


    Habe mich damit bereits Stunden mit beschäftigt, alles durchgecheckt immer wieder Firmwareupdate gemacht und alles rausgeschmissen was ich nicht brauchte und auf das absolute Minimum reduziert, ohne Erfolg. Drum ist es mir auch irgendwann einfach zu bunt geworden. Daher jetzt die Gunst der Stunde nutzen und die Refurbishden Platten gleich anders nutzen. Auf eigenen System hat man dann halt doch etwas mehr Kontrolle, zwar auch mehr Konfigurationsrisken, Aufwand aber dafür auch ein wenig mehr Leistung und ein 2 Bay mit 16 GB Arbeitsspeicher ist für die Heimanwendung ganz okay.


    Bezüglich der Container


    Es geht mir eigentlich weniger um die Daten, als um die konfigurierten Dienste, da seinerzeit bei Einrichtung nicht ausreichend dokumentiert :rolleyes::sleeping:X/

    Ist zwar nichts dickes, aber wäre natürlich genial wenn man das komplette Image einfach exportieren könnte und in einer anderen LXC Station so wieder anschmeißen könnte. Ähnlich wie man das halt mit Docker Images macht, sofern die Architektur kompatibel ist...

    Hallo zusammen,


    vermutlich da ich mich seinerzeit vorschnell für eine TS-231P entschieden habe, konnte ich mich leider von der QNAP Experience nie wirklich überzeugen.

    Nachdem das NAS nun auf die letzten Tage der 3 Jahre Gewährleistung meine beiden Festplatten nacheinander zerschossen hat, ziehe ich die Reißleine.

    Obwohl es lediglich zu 1/3 belegt war also knapp 700 GB (niedrige Daten Bewegung / Nutzung) bei einem 3TB RAID 1, hat es sich immer wieder 5-6 Tage abgemeldet und ohne Ergebnis die Platten zum glühen gebracht.

    Sollte wohl eine Dateisystembereinigung aus Eigeninitiative werden, die ich auch nirgends abschalten konnte....


    Aufgrund gewachsener Anforderungen, habe ich mich nun dazu entschieden, mein eigenes ITX NAS mit 16 RAM und Hardware RAID Controller zu bauen.


    Um mir vorläufig ein wenig Konfigurationsarbeit zu ersparen, stellt sich mir nun die Frage ob man die LXC Container auf anderen Systemen problemlos zum laufen bekommen kann.

    Hat vielleicht jemand bereits Erfahrung mit der Container Export Funktion gesammelt?


    Ich habe 3x LXC Ubuntu Container von welchen ich mindestens 1 auf dem neuen System, gerne vorläufig wiederherstellen würde.

    Also bei mir läuft die Kombination aus nginx, fail2ban,Ajenti bisher sehr gut :) https://tylermade.net/2017/09/…inx-ssl-webui-management/


    Allerdings werde ich mein Zertifikat auch manuell erneuern müssen, da ich mich ersteinmal für ein Wildcard Zertifikat entschieden habe und dafür bedarf es die DNS Challange und einen TXT Record im externen DNS ohne SSH zu erzeugen dürfte schwierig werden. Zum anderen muss das Zertifikat auch in der von mir genutzten Fritzbox eingespielt werden. Das kann man zumindest noch teilweise automatisieren.


    Tyger2 war auf meinem LowBudget NAS TS231P auch in einem Ubuntu Container nicht zum laufen zu bekommen.


    Tenndenziell hätte mir Traefik aufgrund der Ressourcen Last auch besser gefallen, aber die Konfiguration für meine Anwendungsfälle (z.B. HomeAssistant) hätte mich vermutlich wieder Tage gekostet. Jetzt macht mir nur noch die FritzBox ein wenig Probleme, da mir nun natürlich extern die interne Login-Seite (nur Passwort) ohne Benutzernamen abfrage angezeigt wird, das finde ich etwas semi.

    Danke dir für die Unterstützung :)

    Mit dem Port stimmt natürlich "443" wäre hier natürlich das wichtigste daher kommt ja die ganze Übung überhaupt.

    Um am Ende für alle Dienste ein Let's Encrypt Zertifikat zu erhalten welches vor Ablauf immer schön aktualisiert wird.


    Habe den Container auch bereits kurzzeitig am laufen gehabt, hatte mir das aber etwas komfortabler vorgestellt.

    Ich glaube ich setze mir lieber ein 2. Ubuntu auf und teste mal Tyger2 oder back to Basic nginx + fail2ban + Ajenti.

    Okay, finde jetzt nicht unbedingt das es schlüssig beschrieben ist oder ich werde einfach alt, weil es mir in letzter Zeit bei vielen Doku's so geht 8|:D


    Code
    docker run -d -p 8080:8080 -p 80:80 \
    -v $PWD/traefik.yml:/etc/traefik/traefik.yml \
    -v /var/run/docker.sock:/var/run/docker.sock \
    traefik:v2.1.1

    Das Mapping wird an der Stelle offenbar mit '-v $PWD/traefik.yml:/etc/traefik/traefik.yml \' vollzogen.

    Kann man dieses auch nachholen, wenn der Container bereits erstellt wurde, oder empfiehlt es sich den Container einfach zu löschen un mit dem Aufruf komplett neu anzulegen?


    Z.b. mit "docker container exec" ?

    Hallo zusammen,


    kann mir vielleicht jemand näher bringen wie ich den Docker Container korrekt zum laufen bringen kann?

    Er lässt sich ohne Probleme in der Container Station erstellen, allerdings muss das Image ja noch konfiguriert werden, damit das WebFrontend läuft.

    Und da stehe ich nun auf dem Schlauch, wie komme ich an die Config :/


    https://hub.docker.com/_/traefik

    https://docs.traefik.io/v2.0/


    Das ganze soll bei mir im BidgeMode auf einer Statischen IP Laufen, diese habe ich auch beim erstellen des Containers mitgegeben.

    Hallo zusammen,


    ich habe bei mir aktuell ein Debian lxc Container am laufen, soweit passt das auch alles.

    Ich stolpere nun aber darüber das ich mittels Putty und SFTP nicht als 'root' auf die Virtuelle Maschine zugreifen kann :-/

    Das Qnap admin Passwort greift hier nicht, habe auch bereits das Passwort für root in der Konsole geändert, dies hat aber keine Auswirkung.

    Das Autologin in der Containerstation läuft weiterhin via Putty ist aber kein Login als root möglich, das Passwort falsch.


    Sicher kann ich mir einen neun Benutzer anlegen und mit diesem via Putty und SFTP zugreifen, ohne root bringt mich das aber nicht voran.


    Hat jemand eine Lösung dafür?