Beiträge von ulfilas72

    Ich brauche zu testzwecken ein LDAP Verzeichnis, da ich in einem Projekt Nutzer erstellen muss. Ich habe also den QNAP (451) als DomainController für "domain.tld" eingerichtet.

    Es sind per Default 3 Nutzer eingerichtet. Administrator, Guest und krbtgt. Ich habe dazu noch einen neuen Nutzer angelegt.


    Das Passwort ist erstmal zum Test einfach gewählt als adminPass22


    Mit meinem Code bekomme ich eine Fehlermeldung. Also habe ich jetzt das LDAP Admin Tool eingerichtet.

    Host IP eingetragen, Simple Authentication gewählt.

    User DN dachte ich jetzt cn=Administrator,dc=domain,dc=tld

    Password adminPass22


    Allerdings bekomme ich als Rückmeldung "Invalid Credentials"

    Gleiches beim neuen Benutzer.

    Ich finde selber gerade kein gutes Example für LDAP auf dem QNAP, ohne dass ich nur "falsche" Seite bekomme, die mir nicht weiterhelfen. Habt ihr gute Einstiegsseiten oder Tipps, wo ich gedanklich falsch liege?


    Danke!

    Ich hänge mich hier mal ran..

    Die "alten" Minecraft server starteten nicht mehr. Ich habe also gedacht - auch im Zuge von log4j mal einen neuen zu installieren. Ich nutze die Containerstation und habe die latest Version von itzg gewählt. Auch dieser Container startet und bricht dann ab.

    Die Fehlermeldung lautet

    Code
    Error: LinkageError occurred while loading main class net.minecraft.bundler.Main
    java.lang.UnsupportedClassVersion
    Error: net/minecraft/bundler/Main has been compiled by a more recent version of the Java Runtime (class file version 61.0), this version of the Java Runtime only recognizes class file versions up to 55.0


    Sieht für mich aus, als ob die falsche Javaversion dabei ist. Liegt die im Container, oder ist das die auf dem QNAP vorhandene Javaversion? Bin da gerade etwas ratlos, weil auch die anderen Container mit der Meldung ihren Dienst quittierten...

    jupp.

    Wenn ich das über SSH mache, dann startet er einen komplett neuen Container ohne meine Welten. Wenn ich

    Code
    docker run --name alterName itzg/minecraft-server:java16

    mache, gibt es einen Fehler, dass der Name schon in Verwendung ist.

    Also den Umweg über: "anonyme Daten in einen neuen Container kopieren". Dachte ich.... Der Container startet übrigens, ist nur nicht über die IP, die ich im QNAP Containter Station zugewiesen habe, erreichbar.


    Wie gesagt, ich bin Docker Neuling.

    Wenn der neue Server nicht erreichbar ist, trotz "gleicher" Config ist das schon doof.


    Mittels

    Code
    docker run --rm --volumes-from mc -v mc:/new alpine cp -avT /data /new
    Code
    docker run -d -it --name mc-new -v mc:/data -p 25565:25565 -e EULA=TRUE -e MEMORY=2G itzg/minecraft-server

    habe ich die Daten kopiert...Auch wie beim alten per Bridge eine IP (die gleiche wie vorher) zugewiesen. diese ist aber nicht erreichbar. Sowas finde ich - vor allem, wenn das "Neuland" ist - frustrierend

    Ich bin bzgl. Docker echter Anfänger und vermeide das eigentlihc...nun habe ich aber für die Kids auf dem 451 ein Minecraftserver via Container Station installiert. Das war der itzg/minecraft-server:latest

    Als der installiert wurde, war das die Version 1.16

    Jetzt in den Sommerferien haben die Kids kaum gespielt, ausserdem waren wir im Urlaub und das NAS aus. Nun sollte es langsam wieder losgehen, aber der Container startet nicht.


    Das ist das Log dazu. Anscheinend ist die Version selbst aktualisiert aber Java16 nicht nachgezogen worden. Wie bekomme ich das ohne Verlust der Welten hochgezogen?

    Das Backup auf dem QNAP nervt mich (ja schon länger).

    Eingestellt ist ein tägliches, versioniertes Backup eines Verzeichnisses auf den Front-USB Anschluss an einem TS451. Extern ist das eine USB3 Platte von Toshiba.

    Im zu sichernden Verzeichnis befinden sich knapp 300GB Daten in 200.000 Datein (laut Qnap).

    Bei der Versionierung ist "einfach - 20 Tage" eingestellt.

    Das tägliche Backup umfasst wohl so im Schnitt 100-200MB an geänderten Daten, dauert aber aktuell 6h.

    Ich schätze mal - ganz laienhaft - das die meiste Zeit der Verlgeich der Daten benötigt. Lässt ich da was optimieren? 6h für das Backup ist eindeutig zu viel.

    Da es vor allem um Ausfallsicherheit und nicht Performance geht, wird es RAID6 werden. Die Datenmenge,die es betrifft, ist nicht sooo groß.

    Ich habe mir mal die Vor- und Nachteile zu Gemüte geführt. Und da scheint mir RAID6 bei den zu verwendenden Platten doch flexibler. Bei RAID 10 wird ja schon explizit auf *gleichen* Plattentyp des *gleichen* Herstellers hingewiesen.


    Das System synchronisert gerade auf neuen, leeren Platten. Das darf jetzt vor scih hinrödeln, danach wird das Backup zurückgespielt. Performancetest mache ich aber noch. Wenn das gar nicht geht, muss ich mit dem "Chef" sprechen.

    Das waren jetzt Samsungs mit >5 Jahren Laufzeit ohne SMART Fehler. Die erste zuckte vor 4 Wochen, allerdings war die (nicht durch mich) konfigurierte Versender E-Mail offline, so dass keine Benachrichtigungen kamen, sonst hätte man eher regieren können. Ich werde auch immer erst dann gerufen, wenn es zu spät ist...


    Meine eigenen WDC Platten haben jetzt 4.7 Jahre ohne SMART Fehler, der Bad Block Scan ist auch unauffällig.

    Werden die aber Freitag ersetzen!

    Moin,


    ich habe hier ein QNAP TS419P. Dort ist ein RAID5 mit 3 Platten + Ersatzlaufwerk verbaut. Platte 1+2+3 bildeten das RAID Array, Platte 4 war eine "Globale Reserve".

    Der Status der Platten 1,2 und 4 war gut, Platte 3 warf Fehler. Diese sollte nun ersetzt werden. Backups sind gemacht, Platte 3 wurde dann gestern abend gezogen. Das System erkannte die fehlende Platte, das Raid wurde auf Degraded gestuft und Platte 4 wurde eingebunden. Der Rebuild startet gegen 17:00. Die neue Platte 3 habe ich ins Tray eingebaut, aber das Tray selbst nicht gesteckt, damit der Rebuild erstmal laufen kann.


    Heute Nacht warf Platte 2 dann mehrfach I/O Fehler. Stellenweise WARNINGs mit der Bitte einen Bad Block Scan zu machen, teils als echte I/O Errors.


    /proc/mdstat wirft folgendes aus für das RAID:


    Code
    md0 : active raid5 sdd3[3] sda3[0] sdb3[1]
    1950387200 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]
    [===================>.]  recovery = 99.9% (975193320/975193600) finish=0.0min speed=28K/sec



    Platte 2 hat im Gehäuse ein rotes Lämpchen, die Weboberfläche ist nicht erreichbar.

    Ist das RAID so in der Form jetzt verloren und wir dürfen bei Null mit neuen Platten für Tray 1 und 2 anfangen....oder kann man da noch irgendwas retten?

    Ich hänge mich hier mal dran.

    Ich leide auch gerade unter einer mieserablen Performance einer externen USB3 Platte und der Filestation bzw. Backup Tool an einem TS-431P sowie den irgendwie entäuschenden QNAP Support. Das Problem scheint ja länger vorhanden zu sein, wenn man die Ergbnislisten der Suchmaschinen mal benutzt...


    Bei meinem "ollen" 439Pro habe ich das Problem nicht, obwohl die Hardware älter ist. Anscheinend scheint das Klickibunti OS 4.3.x nicht der burner zu sein.


    Ich habe hier aktuell mal 1 File mit 265GB kopiert und es brauchte 45 Minuten über USB3 auf eine externe Toshiba mit SuperSpeed, was mir eindeutig zu langsam ist.

    Ich fang gar nicht davon an, wie die Performance bei vielen Dateien ist (45 Minuten für 30GB). Es war auch egal ob ich NTFS, ext4 oder exFat als Zieldateisystem nutze, die Performance war immer mies.