Beiträge von b10126

    So, um das Thema abzuschließen.

    Es war nicht mehr und nicht weniger als eine Defekte Platte....... Die ganze Geschichte:

    Nachdem ich ein Ticket bei qnap aufgemacht hatte, ging die Suche auch bei denen los. Ich führte ein paar Befehle aus, schickte die Screenshots rüber.

    Die Synchronisierung des raid5 wurde immer langsamer, die 600k/s waren noch der Spitzenwert, am Ende waren wir bei 200k/s. Habe das System zwischen zeitlich auch Mal zurückgesetzt, fand ich am Anfang extrem doof, weil alle Settings weg gewesen sind.

    Nachdem sich der Support per Remote dann mal draufgeschalten hatte, bekam ich als Antwort, dass die Platte 2 defekt ist.

    War so genervt (nicht vom Support, vom Zustand), dass ich während der BadBlock für Platte 2 bei 0,5% rumkruschtelte dann im HotSwap die Platte ausgetauscht habe und dann gings ab.

    - Synchronisierung mit Neustart ging mit 100MB/s los

    - BadBlock Scan Platte 1+3 keine Fehler, leicht erhöhte SMART Werte für 197/198 (die bei Platte 3 vorher auch schon da waren)


    Einmal in 2 Abenden alles wieder eingerichtet:

    - Benutzer und Gruppen

    - Freigabeordner analog vorher

    - Dienste und Apps

    - Container Station und alle Container


    Summa Summarum: Back online, und alles einmal sauber dokumentiert.

    Zwar nervig aber mach 8 Jahren Spiel und Spaß auch Mal ganz gut.

    Kein Datenverlust.


    Vielen Dank hier ans Forum für die ganzen Ideen.


    PS: Achja warum das Platte 2 war: keine Ahnung, auch auf Nachfrage hin: die Ableitung der Gesamtumstände.....

    So, es ist mal wieder hochgefahren... Hat ne Weile gedauert.....


    df Bringt das was im ersten Bild kommt: sieht für mich erstmal gut aus.

    IMG_20240512_180317.jpg


    - /tmp ist fast leer 1%

    - None ist bei 75% - eigentlich auch ok, oder?

    - was mich wundert: snaps sind nur 1-4 abgebildet, es gibt aber deutlich mehr....

    lvs

    Dauert ewig (30 min+) bis ein Ergebnis kommt, aber bringt dann 28 Stück, s. Foto.

    IMG_20240512_184033.jpg


    free -m Bringt auch ein Bild was ok ist...

    IMG_20240512_184259.jpg

    So.... Und nun? Auf den ersten Blick irgendwie alles ok, aber Ausführungen brauchen unbeschreiblich lange


    Auch IO bei 75% dauerhaft ist komisch...

    IMG_20240512_184431.jpg


    Ein FW Update bei den jetzigen Umständen ist mir irgendwie zu gewagt, würdet ihr das tun?

    dmesg

    IMG_20240512_184640.jpg


    kmsg | tail -n 20

    IMG_20240512_185117.jpg


    Bin für jeden Tip / Tooltip dankbar....


    Kann man den Raid-Pool und/oder HDD per Konsole überprüfen lassen?

    Guten Morgen :cup:


    vielleicht hat die Schwarmintelligenz ja einen Tip für mich was man tun kann.


    Mein TS-453a (8 Jahre ohne Probleme im Einsatz, 4x4 TB im Raid5, qts 5.1.5 20240219, Backups für die wichtigsten Dinge gibt's....) fuhr nach wöchentlichen Reboot nicht mehr hoch ("System Booting >>>>>" für 10 Stunden), hatte es selten schon Mal. Hartes Runterfahren ("Power Off" Knopf) hilft dann.


    Seit Dienstag braucht es aber über 3 Stunden um hochzufahren und ist über SSH und Web sehr sehr langsam, eher nicht zu gebrauchen


    Die Weboberfläche hat Reaktionszeiten bei Apps im Minutenbereich,

    "Speicher&Volumes" geht gar nicht auf, nur ein Bruchteil der Dienste wird hochgefahren.


    Über Tastatur/Bildschirm (Login Aufforderung nach Alt+F2 brauchte 10 min) bin ich auf der Suche nach Hinweisen mal über ein paar Protokolle gerutscht:


    Code
    dmesg:
    Segmentation fault
    Code
    /mnt/hda_root/kmsg:
    Error 4 in lubiLinux_hal.so

    "top":

    Zeigt mir 95-98% bei I/O.


    Ich tippe auf irgendwas mit dem Speicherpool, kann mir bei vielem mitm Qnap helfen, aber da hört das Latein halt auf.


    Hat jemand ne Idee was da los ist, oder auch welche Logs jetzt helfen? Jemand ne Lösungsidee?


    Danke, habt einen schönen Sonntag,

    B.

    Ich habe auch gerade meine gesamten Apps aktualisiert (wenns grad passt, wirds gemacht) und bin danach ziemlich auf die Nase gefallen mit der neuen 2.5er Version. Katastrophe. Keiner der 19 Docker Container (aller per NAT angebunden, mit eigener stat. IP aus dem LAN erreichbar, Hausautomation, etc.) fuhr mehr hoch.

    workaround oben hat sehr geholfen.

    1) container station gestoppt

    2) app.json per ssh und sudo auf app.json.old umbenannt

    3) 2.4.3.208 installiert (zertifikatefehler gingen eigentlich, eins/zwei vielleicht?)

    4) ohne reboot container station hochgefahren -> sofort alle container wieder da.


    wie kann man nur so ein release freigeben....