[2. Sammelthema] Probleme mit Standby Funktion

  • Zitat von "dr_mike"

    Sascha
    NAS Neustart wäre zumimdest mal ne Maßnahme. ;)


    Hat leider alles nichts gebracht.
    Da ich heute im Homeoffice bin, habe ich mich in der Mittagspause nochmal näher damit beschäftigt und dabei folgenden Thread im englischen Forum gefunden, bei dem Der Support das UPnP-Portforwarding am QNAPcloud Service deaktiviert hat.
    Ich habe das nun auch bei mir gemacht (siehe Screenshot) und siehe da, mein NAS ging seit längerer Zeit erstmals wieder in den Standby!


    Ich würde jetzt gerne mein Downgrade wieder rückgängig machen, nach den Fehlern die ich dabei erlebt habe (dennoch läuft das NAS seitdem fehlerfrei), frage ich mich aber, ob ich das gefahrlos wagen kann!?
    Ich mache auf alle Gälle gerade eine SMART-Analyse um die Platten mal zu überprüfen...


    Viele Grüße,
    Sascha.

  • Joachim
    Schau dir mal den ersten Beitrag dieses Themas an.


    Fabi
    Ist der TV noch per Netzwerk verbunden?

    Zitat von "thixo"

    Der Test blkdevtest.sh liefert ein leeres Log - kann das sein?

    Ja, das kann sein. Dann sind zu viele Zugiffe auf das Temp-Filesystem aufgetreten, ohne einen Zugriff auf die Platten. Ersteres filtere ich im Script aus. Du kannst mit vi im Script die Zeile

    Code
    dd if=/proc/kmsg of=/root/bktmp.txt bs=1 count=40960

    editieren und den Wert hinter count erhöhen. Wenn du dir das nicht zutraust, kann ich das gern auch für dich machen.


    Sascha
    MyQnapClaud steht im ersten Beitrag unter den Verursachern. ;) Ich ergänze aber mal noch das UPnP-Portforwarding.
    Ein Downgrade ist immer komplizierter als ein Update. Das erneute Update (manuell) sollte keine Probleme machen.

  • Was könnte hier die Ursache sein?


    Glaub ihr benötigt die Info hier oder?


    Code
    #0 4 * * * /sbin/hwclock -s0 3 * * * /sbin/vs_refresh0 3 * * * /sbin/clean_reset_pwd0-59/15 * * * * /etc/init.d/nss2_dusg.sh0 3 * * * /sbin/clean_reset_pwd30 7 * * * /sbin/clean_upload_file0 3 * * 0 /etc/init.d/idmap.sh dump30 3 * * * /sbin/notice_log_tool -v -R36 * * * * /sbin/qddns_check 2>/dev/null30 7 * * * /sbin/clean_upload_file10 18 * * * /usr/bin/qcloud_cli -c4 3 * * 3 /etc/init.d/backup_conf.sh[~] #


    Was mich mich auf verwundert, ich bin eigentlich auf Firmwarestand 4.2.0 Warum zeigt er im Log 3.3.3 an?


    Code
    [~] # crontab -l
    [System]
    Model = TS-419P
    Internal Model = TS-419
    Server comment = NAS Server
    Version = 3.3.3
    Build Number = 0928T
    Time Zone = Europe/Amsterdam
    Enable Daylight Saving Time = TRUE
  • NeXrom


    Ich glaube, du hast kein Festplattenstanby-Problem sondern ein viel größeres - nämlich eins mit korrupten Konfigurationsdateien.


    Ist das wirklich die Ausgabe des crontab-Befehls?

    Zitat von "NeXrom"
    Code
    [~] # crontab -l
    [System]
    Model = TS-419P
    Internal Model = TS-419
    Server comment = NAS Server
    Version = 3.3.3
    Build Number = 0928T
    Time Zone = Europe/Amsterdam
    Enable Daylight Saving Time = TRUE
  • Ja, das ist ein Teil der Ausgabe :| Wie gesagt hat mich auch gewundert, weil über die Webgui alles aktuell ist...


    Gut dann setz ich wohl mal das komplette System zurück und meld mich dann wieder mit den Standbyproblemen :handbuch:


    Kann man mit einem Befehl checken ob das System korrupt ist, ein chkdsk o.ä?

  • Wie bekomme ich die Log von dem NAS? Kenn mich mit Linux und SSH noch nicht sooo aus. Gibts irgendwie ein "dir" command oder so? Bzw, in kurz form, was muss ich tun um die in ein Public ordner zu bekommen. :) Weil meine Platten gehen auch nicht in den standby ... :(

  • NeXrom


    Die crontab sieht ja sehr besch...eiden aus.
    Markiere bitte den gesamten Inhalt der folgenden Codebox (nicht den Link "Code: Alles auswählen" verwenden) und kopiere ihn mit Strg+C und füge ihn anschliessend per rechter Maustaste in die Konsole ein. Die Zeilen werden dann sofort ausgeführt und erstellen dir eine neue crontab. Das Ergebnis bitte hier Posten:


    Ich kann auch gerne mal einen Blick per TeamViewer aufs NAS werfen.

  • Hallo zusammen,


    seit einiger Zeit und ohne mein Zutun rattern die Festplatten alle paar Sekunden in meinem NAS. Ich habe das Admin-Passwort geändert und nochmal versucht alles, was nicht benötigt wird abzuschalten. Dennoch gibt das NAS keine Ruhe. Ich habe keinen HDD-Standby aktiviert und will auhc gar nicht dahin, aber das "rt rt" alle paar Sekunden und auch noch im unregelmässigen Abstand nervt mich, wenn ich im gleichen Raum sitze. Natürlich werde ich aus dem LOG nicht schlau:


    Code
    ============= 0/100 test, Wed Apr 13 16:12:38 CEST 2016 ===============<7>[687964.212598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687964.212649] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687975.602691] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687975.602749] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687975.842603] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687975.842651] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687984.012746] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687984.012799] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687984.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687984.252643] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688004.012752] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688004.012805] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688004.252594] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688004.252632] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688015.632688] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688015.632747] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688015.872600] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688015.872643] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688024.012748] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688024.012800] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688024.252596] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688024.252644] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688043.972749] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688043.972801] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688044.212593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688044.212641] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688055.662698] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688055.662753] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688055.892609] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688055.892661] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688063.972751] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688063.972807] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688064.202598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688064.202652] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688084.012752] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688084.012804] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688084.252617] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688084.252665] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687964.212598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687975.602691] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687975.842603] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687984.012746] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687984.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688004.012752] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688004.252594] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688015.632688] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688015.872600] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688024.012748] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688024.252596] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688043.972749] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688044.212593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688055.662698] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688055.892609] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688063.972751] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688064.202598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688084.012752] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688084.252617] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[687964.212649] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687975.602749] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687975.842651] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687984.012799] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[687984.252643] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688004.012805] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688004.252632] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688015.632747] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688015.872643] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688024.012800] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688024.252644] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688043.972801] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688044.212641] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688055.662753] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688055.892661] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688063.972807] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688064.202652] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688084.012804] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688084.252665] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)============= 1/100 test, Wed Apr 13 16:14:50 CEST 2016 ===============<7>[688095.682687] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688095.682740] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688095.922620] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688095.922677] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688104.012757] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688104.012811] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688104.252590] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688104.252626] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688124.002755] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688124.002808] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688124.242633] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688124.242689] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688135.712699] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688135.712758] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688135.952600] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688135.952649] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688148.012750] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688148.012806] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688148.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688148.252642] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688167.972755] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688167.972810] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688168.252598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688168.252648] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688180.271265] vgdisplay(11677): READ block 0 on md1 (8 sectors)<7>[688180.404279] vgdisplay(11682): READ block 0 on md1 (8 sectors)<7>[688180.540426] vgdisplay(11687): READ block 0 on md1 (8 sectors)<7>[688180.673767] vgdisplay(11691): READ block 0 on md1 (8 sectors)<7>[688180.742696] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688180.742750] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688180.982603] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688180.982651] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688188.012746] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688188.012803] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688188.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688188.252642] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688208.012747] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688208.012800] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688208.252594] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688208.252634] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688220.773094] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688220.773146] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688095.682687] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688095.922620] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688104.012757] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688104.252590] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688124.002755] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688124.242633] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688135.712699] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688135.952600] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688148.012750] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688148.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688167.972755] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688168.252598] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688180.742696] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688180.982603] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688188.012746] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688188.252593] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688208.012747] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688208.252594] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688220.773094] md1_raid1(1866): WRITE block 5840623504 on sda3 (1 sectors)<7>[688095.682740] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688095.922677] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688104.012811] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688104.252626] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688124.002808] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688124.242689] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688135.712758] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688135.952649] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688148.012806] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688148.252642] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688167.972810] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688168.252648] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688180.742750] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688180.982651] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688188.012803] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688188.252642] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688208.012800] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688208.252634] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)<7>[688220.773146] md1_raid1(1866): WRITE block 5840623504 on sdb3 (1 sectors)============= 2/100 test, Wed Apr 13 16:16:56 CEST 2016 ===============


    Die Windows Netzlaufwerke hatte ich für den Test nicht getrennt.
    WinSCP hat mir leider die Verbindung gekappt, nachdem ich 60 Sekunden nicht in der App den Mauszeiger bewegt habe.


    Da es oft gefragt wird, hier noch das crontab, was auch immer das heisst.


    Ich möchte mein NAS übrigens nur benutzen und es stand auch auf der Packung nicht drauf, dass ich Linux Shell beherrschen muss, um ein NAS zu bekommen, das jeden tag so funktioniert, wie es von ihm erwarte. Dass die Performance nicht wie angegeben ist, nehme ich schon hin und würde vermutlich trotzdem wieder QNAP kaufen. :qnap:


    Und hier noch ein Screenshot der Dienste:



    Übrigens wäre es toll im Startpost nicht nur zu schreiben was das Problem sein könnte, sondern wie man es in diesem Fall selbst diagnostizieren und beheben kann.


    Danke für hilfreiche Tipps :thumb:

  • Hallo Tom_tm,


    dein Log ist leider viel zu kurz.
    Lass es gemäß der Anleitung aus dem ersten Post bitte *mindestens* solange laufen, wie die Idle-Time deiner Platten eingestellt ist, damit wenigstens einmal ein Zugriff geloggt wird.
    Idealerweise solange, bis die 100 Durchläufe durch sind und das Tool sich selbst beendet.


    Achte im Log bitte auf die Einträge der Form

    Code
    <Auslösender Prozess> (13366): dirtied inode 6920 (<zugegriffene Datei>) on md9


    Alles darauf folgende sind nur die dadurch ausgelösten konsekutiven Zugriffe und nicht relevant zur Ursachenermittelung.


    EDIT: in deiner Crontab sieht man, dass jede Stunde zur 4. Minute der DDNS Dienst läuft; QCloud ist auch einmal eingetragen. Eines davon / beide könnte(n) Verursacher sein, siehe hierzu auch den viel zitierten ersten Post dieses Threads. Wenn man ein paar Linux-Kenntnisse hat, ist im Übrigen auch ein komplettes Durchlesen dieses Threads eine lohnenswerte Lektüre. Klar, ist sicher keine triviale Thematik, aber wenn einem das Thema wichtig ist, sollte man sich auch damit auseinandersetzen.


    Viele Grüße,
    Sascha.

  • Hallo Sascha,


    herzlichen Dank schon mal für deine Unterstützung.


    Was wäre denn unter


    Code
    <7>[693298.290504] vgdisplay(8731): dirtied inode 14795 (vg1) on md9


    zu verstehen?


    Habe ich in Test #20 entdeckt.

  • Hier das gewünschte Log Mike, schonmal danke vorab!


    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Daten aus Anhang in Codeblock eingefügt. Anhang gelöscht.

  • Hallo zusammen,


    seit kurzer Zeit (seit dem letzten QTS-Update?) hat es mich auch erwischt. Mein HS-251 rattert im Sekunden-Rhythmus durch. Laut blkdevMonitor_v2 greift immer wieder mysqld zu:


    Code
    <7>[43134.743519] mysqld(22405): dirtied inode 12255487 (StorageTable.MYI) on dm-0<7>[43134.752201] mysqld(5809): dirtied inode 12255490 (TrashBin.MYI) on dm-0


    Habe schon alles ausgeschaltet, was mir aufgefallen ist. Hat jemand von euch eine Idee?


    Hier, falls hilfreich noch meine crontab:



    Viele Grüße, Dominik.

  • Dominik
    Was hast du denn auf dem NAS noch laufen?
    Laut Cron ist bei dir zumindest noch Antivir aktiv. Auch scheinst du einen DHCP-Server eingerichtet zu haben.
    MySQL greift auf zwei Tabellen zu (StorageTable.MYI, TrashBin.MYI), die es bei mir auf den NAS nicht gibt, was den Schluß zulässt, das eine App installiert ist, die standardmässig nicht aktiv ist.

  • dr_mike
    Danke für die schnelle Antwort. Habe alle Apps deinstalliert bis auf PhotoStation, VideoStation, MusicStation und "Network & Virtual Switch". Letzteres scheint neu zu sein und lässt sich nicht deinstallieren. Vielleicht ist das der von dir vermutete DHCP-Server. Der ist aber in den Einstellungen nicht aktiviert.


    Kann man irgendwie herausfinden, wer die genannten Tabellen (StorageTable.MYI, TrashBin.MYI) beschreibt. Die beiden Dateien sind winzig (4k bzw. 1k), aber das File-Datum ändert jede Minute.


    Was hat es eigentlich mit der letzten Zeile in meiner crontab auf sich:


    Code
    * * * * * /mnt/ext/opt/netmgr/util/lock_timer.sh
  • Dominik
    DHCP-Server muss für eine Schnittstelle aktiviert worden sein, damit ein dhcpd läuft. Auf meiner TS-251 läuft dieser Dienst z.B. nicht - trotz Network Virtual Switch.

    Zitat von "donner0815"

    Die beiden Dateien sind winzig (4k bzw. 1k),

    Wo liegen diese denn?


    Zitat von "donner0815"

    Was hat es eigentlich mit der letzten Zeile in meiner crontab auf sich

    Meine Vermutung - Erkennung von Netwok-Loop-Locks, wenn der Virtual-Switch falch konfiguriert wurde. Näheres dazu könnte nur QNAP sagen.

  • dr_mike


    Zitat von "dr_mike"

    DHCP-Server muss für eine Schnittstelle aktiviert worden sein, damit ein dhcpd läuft.


    Ja, das NAS bezog seine Adresse über DHCP. Habe jetzt auf statisch umgestellt. Auf die beiden "Problem-Dateien" wird aber immer noch dauernd zugegriffen.


    Zitat von "dr_mike"

    Wo liegen diese denn?


    Sie liegen im Verzeichnis


    Code
    /share/CACHEDEV1_DATA/.system/data/s01


    Hast du sie auch? Wie finde ich heraus, woher die Zugriffe kommen?