100% CPU (utilrequest)

  • Hi!
    Sorry, da hab ich wohl was durcheinandergeschmissen (war gestern ziemlich müde :D ). Die Firmware auf meinem qnap ist 4.1.3. Das mit der Leiche war in dem Sinne gemeint, dass das Problem noch nicht "tot" (bzw. gelöst ist) ist ;) - zumindest für mich nicht. Bin aber auch ein Neuling. Kann sein, dass ich was falsch gemacht oder verstanden habe.
    Nachdem ich die utilrequest.cgi's gestern gekillt habe, läuft er übrigens rund. Werde die Sache mal weiter beobachten und mich melden, sobald ich mehr weiß (oder konkreter fragen kann).


    Habe heute leider wenig Zeit, aber werde mir eure Hinweise die Tage mal zur Gemüte führen.


    Schönes langes WE!

  • Hallo Zusammen,


    mitlerweile ist das Problem wieder aufgetreten (siehe Screenshot). Wieder, nachdem ich Rar-Dateien versucht habe zu entpacken (über das Web-Interface). Entpackt hat der Qnap sie nicht (aufgrund eines Fehlers) allerdings sind noch alle Prozesse aktiv :(




    Wie kann das sein, dass das Problem immer noch besteht und das seit 2012 (und anscheinend nur bei mir, sonst hat sich ja keiner mehr beschwert)?
    Mache ich etwas falsch? Wenn ja, wüsste ich nicht was. Meinem Verständnis nach sollte der Prozess gekillt werden, sobald er durchgelaufen ist oder einen Fehler produziert.


    Danke für eure Hilfe!

  • aktiviere mal optware ipkg bei den apps
    in der konsole dann

    Code
    ipkg update
    ipkg install htop
    htop


    htop ist top in ner verbesserten version, das zeigt auch die komplette befehlszeile der befehle.


    grüße,


    acid

  • Hallo


    Habe seit neustem auch ein ähnliches Problem mit meinem Modell:TS-251 Aktuelle Firmwareversion: 4.2.1
    Und zwar wollte ich gestern mit meinem Handy ein paar Bilder auf das NAS schmeissen und ich war fast am verrückt werden weil es einfach nicht so ging wie ich wollte. Weiss nun nicht recht ob ich da mit meiner Ungeduld und diese vielen utilRequest.cgi produziert habe oder ob diese schon da waren und es dehsalb nicht's ging. Jedenfalls ist im Moment die CPU über 90% beschäftigt.
    Leider hat noch niemand wirklich eine Lösung oder eine Analyse vorgeschlagen (das Windoof MAC gesülze hilft niemandem weiter und finde ich höchst peinlich) also bitte ernsthafte Beiträge. Kann mir jemand sagen wie ich mehr über den Prozess herausfinden kann. Der Standard Befehl PS scheint hier ziemlich kastriert zu sein (erlaubt keine Parameter). Kann man das irgendwie aufheben? Oder sonst eine Idee ausser Neustart.
    Bin ansonsten soweit zufrieden mit dem NAS. Läuft übrigens mit einer Virtuellen UCS (Univention) als Domäne für meine Familie und war bis dato eher gelangweilt so das ich noch eine Virtuele Win7k im Hintergrund laufen lies.



    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Code Block hinzugefügt, siehe Forenregeln!

  • Kann es sein, dass außer den Bildern noch was auf das NAS geladen wird? Wird da zufällig irgendwas synchronisiert?


    Zur Klärung: Wie ist das Smartphone in dein Netzwerk eingebunden? Was ist das für ein Smartphone, welche Version des Betriebssystems läuft da? Wie wurde konkret der Transfer der Bilder auf das NAS angestoßen? Und wie viele und welche Versuche waren das?


    Man braucht hier im Forum schon ein paar mehr Informationen.


    Und OFFTOPIC möchte ich noch sagen, dass ich das Windows und Apfel-Gesülze auch doof finde - allerdings habe ich seit Jahren mit meinen Windows Rechnern und dem Linux des NAS KEINE Probleme. Ergo liegt es wohl an Apple, wenn deren non-Linux mit dem echten Linux des NAS nicht klarkommt. Oder? [/offtopic]

  • Hey folks


    Also nach einigen Stunden. Komme ich zum vorläufigen Ergebnis: Das ist eine eindeutiger BUG im Qfile app und zwar im neusten 4.1 egal auf welchem Android getestet im auf Samsung Galaxy Tablett wie auch auf Sony Z3 und Egal ob direkt über LAN im gleichen Subnetz oder über WLAN in einem anderen Subnetz.
    Was ich ja eigentlich wollte ist von meinem Album auf meinem Z3 per Freigabe ein paar Bilder auf das NAS zu kopieren. Ich glaube ich habe auch zuerst über QPhoto versucht, da aber Qphoto nach dem Xten Verzeichnis runter scrollen abstürzt (Wahrscheinlich gleicher BUG) habe ich Qfile versucht. Nun Qfile hat möglicherweise auch ein ähnlichen Fehler bei mehr als X bei mir 475 Verzeichnisse (alle anderen mit wenigen Unterverzeichnisse gehen) wird eine rekursive "utilRequest.cgi " gestartet welches mind. 50% der CPU braucht. Das heisst nach einer weile wird eine zweites "utilRequest.cgi" gestartet nun teilen sich diese wieder die restliche CPU also 100% Prozent. Dabei ist noch keine Datei kopiert worden sondern er versucht nur das Verzeichnis zu lesen.


    Der Befehl und die Antwort auf meine gestrige Frage um sich dem übel zu entledigen heisst übrigens:
    "killall -kill utilRequest.cgi"
    oder das selbe
    killall -9 utilRequest.cgi"
    Achtung dieser Befehlt löscht alle "utilRequest.cgi" Prozesse!
    Z.B. mit dem Programm Putty über eine SSH Console als admin abgesetzt.


    so es gibt Mittagessen


    Ich hoffe es hilft ein paar Leuten mit ähnlichem Problem weiter. Werde mal nachher schauen ob ich das bei Qnap melden kann als BUG.

  • Moin Moin


    also es gibt Neuigkeiten, aber nicht wirklich gute. Ich habe dem Helpdesk den Bug beschrieben. Als Antwort kommt lapidar und etwas sehr einfach "Yes there is a limitation is better to use small folders.". Also wenn es einfach nur eine Limitation wäre dann könnte man ja noch sagen ok wird vielleicht mal nachgebessert, da aber Qfile den Server Amok laufen lässt und dieser nur noch für einen normal User über Neustart wieder hin zu bekommen ist respektive sonst nur mit Insider wissen und Administratoren Tools, finde ich schon sehr billig.
    Also nie ein Verzeichnis mit mehr als 255 Subfolders in QFile öffnen ausser man hat Langeweile.

  • Hello


    nun scheint das Problem doch gelöst zu sein. jeden falls mit den neusten Updates kann mann sowohl mit Qfile wie auch Qphoto ohne gefahr zulaufen den Server mit 100% CPU Util ins Nirvana zu schicken, fotos hochladen auch in verzeichnisen mit vielen unter Unterverzeichnisen.


    Danke