Beiträge von was19

    puh da fragste was... ich hab keine Ahnung mehr warum ich da 2 Passwörter hab. Lass es weg.

    Und die 2 Port-Angaben... ich glaub da wollte ich den Ssl-Port nach außen geben. Du kannst so den Container mit und ohne Ssl aufrufen. Das solltest du dir selbst überlegen, welche Ports du nutzen willst. Für eine Umgebung mit mehreren Usern, die du vielleicht nicht mal kennst, solltest du eine solche Konfiguration nicht einsetzen. Für mich privat zu Haus ist das okay.

    korrekt.

    Das funktionierte nicht mit MariaDb5 als ich das eingerichtet hatte. Auf dem Nas war damals nur diese Version. Daraufhin hab ich MariaDb10 als Container eingerichtet. Wie Dolbyman schon sagte in der Oberfläche der Container-Station eine neue Anwendung einrichten und dabei die docker-compose-Datei angeben. Evtl. noch Details nochmal prüfen (Passwort, IP, Ports). Das soll dir ja nur nen Anfang ermöglichen.

    Leider ändert sich nicht nur Qnap und die Oberfläche, sondern auch die Container werden regelmäßig weiter entwickelt. Daher kann ich nur dazu raten, immer die aktuellste Dokumentation der Container zu Rate zu ziehen.

    Daher kann ich auch nur dringend dazu raten, dir lieber die Anwendungen selbst als Container einzurichten und nicht die App von Qnap zu verwenden. Das ist auch ein Frage der Datensicherung der Db, was bei dem Container einfacher ist.

    Die Container über das docker-compose-file anlegen. Das ist wichtig damit beim Update immer die korrekten Einstellungen verwendet werden.

    versuchs mal damit.

    PhpMyAdmin brauchst du nur, wenn du anderweitig auf die Db zugreifen willst.

    Die Link-Einstellung brauchst du mit dieser docker-compose nicht. Das Volume wird automatisch angelegt.

    Ich sag nur, bei mir funktionierts.

    Ich hab bei mir Nextcloud mit MariaDb10 in Containern laufen.

    Erstelle dir eine docker-compose-Datei mit beiden Containern. Wenn du nach Anleitung der jeweiligen Container vorgehst, sollte das auch verständlich und leicht reproduzierbar sein. Legst du die Container manuell an und gibst die Einstellungen manuell an, sind die wahrscheinlich im Popo, wenn du die Container updaten willst. Notfalls kann man dir hier im Forum auch mit Beispiel docker-compose Files behilflich sein.

    Ich sehe das so, dass diese Nutzungsbedingungen vor deutschen Gerichten nicht anerkannt werden würden. Nach wörtlicher Auslegung stellen sie einen unrechtmäßigen Eingriff in die Privatsphäre da, was du ja im Prinzip auch schon erkannt hast. Sie bevorzugen einseitig den Hersteller. Weiterhin sind die Klauseln vage und ungenau spezifiziert und würden daher auch nichtig sein. Will Qnap selbst zur Prüfung vorbeikommen?

    Ich vermute Qnap will damit Telemetrie-Funktionen rechtfertigen, wie das alle großen Hersteller inzwischen machen. Möglicherweise sind schlechter Übersetzungen schuld an diesem "Rechtsdokument".

    Und das der Anwender heutzutage zu Updates genötigt werden muss, dass kann ich als Softwareentwickler nur befürvorworten, wobei ich das als Privatperson einem selbst überlassen sehen wollen würde. Da hat man als Hersteller auch eine gewissen Verantwortung.

    Hallo zusammen,


    mein TS251 hat mich kürzlich gewarnt, dass die Smart-Werte der Festplatte 2 außerhalb des Normbereichs liegen und die Platte möglicherweise vor einem Ausfall steht.

    Bei genauerer Prüfung waren sowohl Current Pending Sectors als auch uncorrectable sector count auf 8. Ich hab nen Intensivtest gestartet und bin ins Bett, da das ja ein paar Stunden dauert.

    Am nächsten Tag hab ich 2 neue (größere) Platten gekauft. Die sind nun angekommen und ich wollte die ersetzen, da zeigen die Smart-Werte wieder 0 an, der Zustand der Platte ist gut.

    Was jetzt? Ist uncorrectable doch correctable? Muss ich mir weiter Sorgen machen, dass die Platte doch ausfällt? Hab ich die neuen Platten umsonst gekauft? Sollte ich sie vielleicht doch ersetzen? Was mach ich jetzt?

    Ich kann in der Container-Station keine Container mehr per yaml-Datei anlegen. Der Erstellen-Button wird nicht aktiv, Obwohl die yaml-Datei als gültig validiert wurde...

    Kennt jemand das Problem?

    Version 2.6.7.44 vom 29.06.2023

    Nas TS251 mit Qts 5.0.1.2425


    Mangels Idee hab ich auf docker-Station V3 aktualisiert. Auch da wollte er den yaml-Krims-Krams für docker-compose nicht akzeptieren. Schliesslich hab ich aus Verzweiflung den Namen der App geändert auf Kleinschreibung und siehe da, Alles wurde wieder angelegt.

    Neueste Infos: Hab einen Widerstand mittels Pin-Connector-Kabel angebaut... Ohne Löten.

    Gerät startet und ist wieder erreichbar. Festplattenzustand ist gut. Aktuell wird die Raid-Gruppe aktualisiert, dauert ne Weile. Sieht aber so aus, als wenn alles wieder ok ist.

    Habt ihr noch sinnvolle Tipps ausser öfter mal Staub saugen?

    Gute Frage... Es hat sich im Gehäuse eine Menge Staub angesammelt. Ich bin aber nicht davon überzeugt, dass das die Hauptursache war. Direkt bevor mir die Temperaturwarnung auffiel (vorher gabs keine), hatte ich die QContacts-App deinstalliert. Das hat gefühlt schon lange gedauert. Direkt nach Abschluss der Deinstallation kam die Temperatur-Warnung.

    Die für mich viel wichtigere Frage ist, bekomme ich das Nas noch wieder zum Laufen? Oder sollte ich die für den Intel Clock-Bug Variante mit dem 100Ohm Widerstand anlöten versuchen? Oder muss ich mir was neues kaufen?

    Temperatur Warnung kam von Platte 2.

    Seagate Nas Hdd ST6000VN0021, kompatibel lt. Liste

    Es waren aber beide Platten recht warm. Ich nehme an, Platte 1 war nur 1 Grad unter der Warnschwelle.

    Sieht so aus, als wenn QFinder das Teil heute auch nicht mehr findet.

    Gestern hat mein Nas TS251 eine Temperatur-Warnung (55 Grad) von Festplatte 2 rausgeschmissen. Gerät runtergefahren, aufgemacht, Staub entfernt, zusammengebaut, neu gestartet. Festplatten-LEDs voll rot. Ich konnte mich dann am Webinterface anmelden und Platte 1 lief noch. Es gab dann die Meldung dass das Raid 1 runtergesetzt wurde. Ich hab dann noch mehrfach die Platten rausgenommen und die Kontakte gereinigt und wieder eingesetzt. Jetzt erkennt nur noch QFinder, dass das NAS existiert. Versuche ich mich im QFinder am Gerät anzumelden, bekomme ich nur noch die Meldung, dass der Server nicht reagiert. Das Webinterface ist auch nicht mehr erreichbar.


    Bin ich Opfer vom CPU-Clock-Bug?

    Ist Platte 2 tot?

    Ist das Nas tot?

    Sollte ich nen Widerstand kaufen und ranlöten auch wenn ich keine Ahnung davon hab und dann evtl. noch eine neue Platte?

    Sollte ich besser ein neues Nas kaufen und beide Platten ersetzen?


    Jetzt ist guter Rat teuer!?

    Ahoi zusammen,


    Ich verwende seit längerer Zeit QFile um Datei (Bilder) in meinem WLan per AutoUpload vom Android Handy auf mein NAS TS251 hochzuladen, was bisher immer gut funktioniert hat. Nun war ich unterwegs und zeitweise in einem fremden WLan. Da mein NAS per privater IP-Adresse (nicht per Inet erreichbar) auf dem Handy eingerichtet ist, war dieses natürlich nicht erreichbar. Dies war früher auch nie ein Problem. Jetzt versucht seitdem die Autoupload-Funktion den Upload anscheinend auch wenn ich mit keinem Netz verbunden bin und ich bekomme ständig eine Benachrichtigung, dass der Upload nicht geklappt hat. Dies passiert auch wenn ich in einem fremden WLan bin, als auch im gleichen. Diese Benachrichtigungen kommen immer wieder auf meinem Handy und in Verbindung mit meinem Benachrichtungston sind die so nervig, dass ich mein Handy auf lautlos stellen musste.

    QFile kann sich bei mir im WLan selbstverständlich mit dem NAS verbinden ohne Fehler. Versuch ich den Upload manuell anzustossen, erhalte ich die Meldung "Fehler". Zeitweise bekam ich auch die Meldung "Keine Berechtigung". Weitere Details sind leider nicht vorhanden. Der Upload-Pfad der Dateien ist auch korrekt.

    Was mir aufgefallen ist, ist dass das Design der QFile-App neu ist. Vermutlich seit nem Update. Ist da was in QFile buggy? Kann ich irgendwo mehr Details über den Fehler erhalten, warum der Upload fehlschlägt? Hat jemand ne Idee zur Fehlersuche?


    was19

    madmax:

    Ich habe gleiches versucht. Azrael hätte natürlich wieder geantwortet, ich solle, mich in die Docker-Doku einlesen. Hab ich gemacht. Letztlich bin in der Meinung, dass deine Konfiguration korrekt ist. Schliesslich hatte ich zuletzt die gleiche.

    Wirf mal einen Blick in die Netzwerkumgebung-Übersicht, wenn die Container angelegt wurden. Da siehst du, dass für die Container ein neuer virtueller Switch angelegt wird. Von diesem gabs bei mir keine Verbindung zum physischen Adapter. Deswegen ist der Container bei mir nicht erreichbar. Lege ich die Container manuell über die GUI an, funktionierts mit den gleichen Einstellungen. Ich hab keine Lösung dafür gefunden und schliesslich die App per Port auf dem Server freigegeben.

    Keine nette Antwort, aber nein Update war mir schon klar, dass das so läuft.

    Ich hatte die Hoffnung, dass man nen Port auch zur Laufzeit ändern kann. Es ist einfacher per yml den Container neu zu erzeugen, aber leider wird die Konfiguration dabei nicht wirklich am Container änderbar hinterlegt. Einmal die yml verlegt oder Konfiguration vergessen, schon ist der Container nach nem Update im Eimer. Neu aufgesetzt mit anderen Einstellungen sind die vorhandenen Volumes u.U. nicht mehr brauchbar. Ich halte das für unpraktikabel und es wundert mich ehrlich gesagt, dass es die World-Community scheinbar nicht schafft oder gewollt ist, dieses Problem anzugehen.