[4. Sammelthema] Probleme mit Festplatten-Standby
- christian
- Geschlossen
- Unerledigt
-
-
Leider rattern die Festplatte die ganze Zeit, so das es für mich extrem schwierig is zu sehen "wann" die Fesplatten anfangen zu Rattern...
Hier hab ich mal alle Prozesse drinnen:
Und hier noch die Prozesse welche nicht den Zustand Ruhemodus haben:
Ich kann es mir effektiv nicht erklären wieso die Festplatten nicht in den Ruhemodus wechseln
Falls ich etwas spezielles euch geben muss, gebt mir einfach bescheid...
-
Hi Draxs
ich kenne das Problem, bei mir rattern die Platten auch seit ich eine TS453 habe, meine alte 859 hatte das Problem nie. Ich habe alle Dienste abgeschalten, die Qnap vom Netz genommen und die Platten rattern immer noch .. witziger weise ergibt ein iotop den ich extra installiert hatte 0 kb/s lese/Schreibzugriff ... obwohl die Platten rödeln. Manchmal legen die Platten sich echt schlafen, ein einziger Zugriff reicht dann aus und die Platten rödeln wieder tagelang. Ich habe manchmal den Eindruck es ist ein Eigenleben der HDD's selbst(ich habe ein Raid 5 auf Seagate Ironport NAS Platten) - als wenn die sich selbst optimieren und Daten umkopieren.
Aber ich habe inzwischen aufgegeben und hoffe halt das es auf Dauer die Platten nicht "zerstört".
-
Hallo
Ich habe ein HS 251+ was bisher immer tadelos funktioniert, seit dem Vorletzten Systemupdate auf HS-251_20190308-4.3.6.0875 geht das NAS nicht mehr in den Standby Modus, ein Update auf HS-251_20190316-4.3.6.0883 brachte auch keinen Erfolg. Alle 2 Sekunden werden kurz die Festplatten angesteuert, auch wenn kein PC angeschaltet ist, hat mir jemand Rat?
-
wie lange ist seit dem update vergangen?
Könnte es vielleicht die Erstellung des indexes sein?
-
Die Updates kamen am 13. bzw. 21.03.2019 drauf, mit der Einstellung des Indexes kann ich absolut nichts anfangen, da ich Laie bin
-
Ok,
die Index_erstellung ist für die Musik, Filme und Bilder, also der Streamingfunktion von deinem NAS aber das dauert eigentlich nicht länger als einen Tag, somit kann man das eigentlich schon ausschließen bei einer Laufzeit von mindestens einer Woche.
Bei mir gingne mit den letzten beiden Updates die Platten immer schlafen, somit könnte es eventuell an erweiterungen liegen.
Nutzt du irgendwelche Erweiterungen, also soetwas wie Qsync oder eine andere Sync-Funktion oder MyQNAPCloud?
Ich würde eher vermuten, dass es an einem Zusatzprogramm, als am QTS liegt.
-
Hallo
Nein, ich nutze nichts dergleichen, der alle 2 sek. Ansteuerung der Platten ist auch bei ausgesteckten LAN
-
Spannend. Naja ich hoffe auch mal das es nichts kaputt macht 😂 aber ist echt komisch wieso die Festplatten die ganz Zeit Rattern.
Das mit den iops habe ich auch... es wird effektiv nicht geschrieben.
Komidch
UPDATE:
Sehr interessant, mit dem Diagnostic Tool habe ich nun einfach mal einen StandBy versucht.... und ZACK! Ruhe im Schacht!
Das bedeutet doch, dass effektiv irgend etwas auf die Festplatten schreibt oder liest... die Frage ist allerdings nun, wie finde ich das heraus?
Hier habe ich euch noch die LOG Datei der Analyse.Falls diese jemandem helfen kann
-
Hab heute das neueste Betriebsystem augespielt, null Erfolg.
Nun einige Apps deinstalliert bzw. abgeschalten. Jetzt gehts
Freu
-
Kannst du die Apps die deaktiviert und deinstalliert wurden auch bitte nenne, damit andere von deinen Erfahrungen partizipieren können.
Danke
-
Moin liebes Forum,
ich habe ein QNAP TVS682, betreibe dies mit 2x 1TB SSD im RAID1 und 4x4TB HDD im RAID5. Ich möchte gerne, dass mein RAID5 in den Ruhemodus geht, einzig mein RAID1 soll laufen. Ich habe bisher das 3. Sammelthema durchgelesen und auch das 4. Sammelthema und habe alle für mich möglichen Dienste deaktiviert.
Einzig meine Virtualization Station läuft auf dem RAID1.
Ich habe mir auch schon das Testprogramm runtergeladen und laufen gelassen.
Anhand einer messbaren Steckdose kann ich genau eingrenzen, wann mein RAID5 hochfährt. Nun muss ich nur noch wissen / verstehen, was genau in diesem Moment passiert.
Dazu habe ich genau den Log-Auszug hier angehangen, wo ein Schreibzugriff auf mein RAID5 erfolgt.
Code
Alles anzeigen============= 94/100 test, Sun Apr 7 12:59:54 CEST 2019 =============== <7>[49912.762342] qemu-system-x86(26375): dirtied inode 48760205 (FHEM_Beacons_00.1554591615) on dm-0 <7>[49912.762349] qemu-system-x86(26375): dirtied inode 48760205 (FHEM_Beacons_00.1554591615) on dm-0 <7>[49914.042213] qemu-system-x86(27671): dirtied inode 48760205 (FHEM_Beacons_00.1554591615) on dm-0 02] kworker/u8:1(12630): WRITE block 864026736 on dm-0 (8 sectors) <7>[49900.154666] kworker/u8:1(12630): WRITE block 867279888 on dm-0 (8 sectors) <7>[49900.154682] kworker/u8:1(12630): WRITE block 867280040 on dm-0 (8 sectors) <7>[49900.154690] kworker/u8:1(12630): WRITE block 867280136 on dm-0 (8 sectors) <7>[49901.222302] qemu-system-x86(18129): WRITE block 850498832 on dm-0 (8 sectors) <7>[49901.228230] qemu-system-x86(18129): WRITE block 850500408 on dm-0 (16 sectors) <7>[49901.228253] qemu-system-x86(18129): WRITE block 850500536 on dm-0 (8 sectors) <7>[49901.228259] qemu-system-x86(18129): WRITE block 850500952 on dm-0 (8 sectors) <7>[49901.228267] qemu-system-x86(18129): WRITE block 867858744 on dm-0 (24 sectors) <7>[49901.230324] qemu-system-x86(18129): WRITE block 867858768 on dm-0 (8 sectors) <7>[49902.257349] jbd2/dm-0-8(26410): WRITE block 885477632 on dm-0 (8 sectors) <7>[49902.262904] jbd2/dm-0-8(26410): WRITE block 885477640 on dm-0 (8 sectors) <7>[49902.262991] jbd2/dm-0-8(26410): WRITE block 885477648 on dm-0 (8 sectors) <7>[49907.255789] qemu-system-x86(18129): WRITE block 867858776 on dm-0 (24 sectors) <7>[49907.262574] qemu-system-x86(18129): WRITE block 867858800 on dm-0 (8 sectors) <7>[49912.430003] jbd2/dm-0-8(26410): WRITE block 885477656 on dm-0 (8 sectors) <7>[49912.435556] jbd2/dm-0-8(26410): WRITE block 885477664 on dm-0 (8 sectors) <7>[49912.435639] jbd2/dm-0-8(26410): WRITE block 885477672 on dm-0 (8 sectors) <7>[49914.042545] qemu-system-x86(27671): WRITE block 795886208 on dm-0 (128 sectors) <7>[49906.346775] setcfg(8977): dirtied inode 4026 (CACHEDEV1_DATA.log) on md9 <7>[49906.346793] setcfg(8977): dirtied inode 4026 (CACHEDEV1_DATA.log) on md9 <7>[49906.348840] setcfg(8978): dirtied inode 4023 (CACHEDEV1_DATA.lo~) on md9 <7>[49906.350977] setcfg(8979): dirtied inode 4026 (CACHEDEV1_DATA.lo~) on md9 <7>[49906.353030] sed(8982): dirtied inode 4023 (CACHEDEV1_DATA.logZX4XGm) on md9 <7>[49906.357355] setcfg(8985): dirtied inode 4026 (CACHEDEV1_DATA.lo~) on md9 <7>[49906.375946] setcfg(9007): dirtied inode 4023 (CACHEDEV1_DATA.lo~) on md9 <7>[49906.405023] setcfg(9035): dirtied inode 4026 (CACHEDEV1_DATA.lo~) on md9 <7>[49906.415673] setcfg(9070): dirtied inode 3907 (CACHEDEV2_DATA.log) on md9 <7>[49906.415697] setcfg(9070): dirtied inode 3907 (CACHEDEV2_DATA.log) on md9 <7>[49906.420061] setcfg(9073): dirtied inode 4023 (CACHEDEV2_DATA.lo~) on md9 <7>[49906.422220] sed(9077): dirtied inode 3907 (CACHEDEV2_DATA.logNDNMaq) on md9 <7>[49906.428257] setcfg(9083): dirtied inode 4023 (CACHEDEV2_DATA.lo~) on md9 <7>[49906.453308] setcfg(9114): dirtied inode 3907 (CACHEDEV2_DATA.lo~) on md9 <7>[49906.484901] setcfg(9143): dirtied inode 4023 (CACHEDEV2_DATA.lo~) on md9 <7>[49906.589632] setcfg(9232): dirtied inode 3982 (vg1.log) on md9 <7>[49906.589682] setcfg(9232): dirtied inode 3907 (vg1.lo~) on md9 <7>[49906.591652] sed(9235): dirtied inode 3982 (vg1.logXu16hC) on md9 <7>[49906.595993] setcfg(9238): dirtied inode 3907 (vg1.lo~) on md9 <7>[49906.730973] setcfg(9360): dirtied inode 3645 (vg2.log) on md9 <7>[49906.731023] setcfg(9360): dirtied inode 3982 (vg2.lo~) on md9 <7>[49906.733064] sed(9363): dirtied inode 3645 (vg2.logYRYCcQ) on md9 <7>[49906.737509] setcfg(9366): dirtied inode 3982 (vg2.lo~) on md9 <7>[49906.755063] setcfg(9385): dirtied inode 3645 (vg2.lo~) on md9 <7>[49906.780650] setcfg(9409): dirtied inode 3982 (vg2.lo~) on md9 <7>[49906.827947] setcfg(9462): dirtied inode 3574 (vg1_snapshot_usage.log) on md9 <7>[49906.827999] setcfg(9462): dirtied inode 3645 (vg1_snapshot_usage.lo~) on md9 <7>[49906.830030] sed(9465): dirtied inode 3574 (vg1_snapshot_usage.logzTDmcU) on md9 <7>[49906.834256] setcfg(9468): dirtied inode 3645 (vg1_snapshot_usage.lo~) on md9 <7>[49906.880611] setcfg(9516): dirtied inode 3992 (vg1_snapshot_reservation.log) on md9 <7>[49906.880662] setcfg(9516): dirtied inode 3574 (vg1_snapshot_reservation.lo~) on md9 <7>[49906.882707] sed(9519): dirtied inode 3992 (vg1_snapshot_reservation.log6A0MTY) on md9 <7>[49906.887064] setcfg(9522): dirtied inode 3574 (vg1_snapshot_reservation.lo~) on md9 <7>[49906.933967] getcfg(9572): dirtied inode 3513 (vg1_snapshot_recycle.log) on md9 <7>[49906.938083] setcfg(9574): dirtied inode 3992 (vg1_snapshot_recycle.lo~) on md9 <7>[49906.940067] sed(9581): dirtied inode 3513 (vg1_snapshot_recycle.logIwCFA5) on md9 <7>[49907.245649] setcfg(9852): dirtied inode 4006 (vg2_snapshot_usage.log) on md9 <7>[49907.245701] setcfg(9852): dirtied inode 3992 (vg2_snapshot_usage.lo~) on md9 <7>[49907.247747] sed(9855): dirtied inode 4006 (vg2_snapshot_usage.logsDd6Mi) on md9 <7>[49907.252146] setcfg(9858): dirtied inode 3992 (vg2_snapshot_usage.lo~) on md9 <7>[49907.298912] setcfg(9904): dirtied inode 3916 (vg2_snapshot_reservation.log) on md9 <7>[49907.298963] setcfg(9904): dirtied inode 4006 (vg2_snapshot_reservation.lo~) on md9 <7>[49907.300932] sed(9907): dirtied inode 3916 (vg2_snapshot_reservation.logYwAp2k) on md9 <7>[49907.305396] setcfg(9910): dirtied inode 4006 (vg2_snapshot_reservation.lo~) on md9 <7>[49907.358540] getcfg(9963): dirtied inode 3978 (vg2_snapshot_recycle.log) on md9 <7>[49907.363102] setcfg(9966): dirtied inode 3916 (vg2_snapshot_recycle.lo~) on md9 <7>[49907.364990] sed(9969): dirtied inode 3978 (vg2_snapshot_recycle.logQ9ynbq) on md9 <7>[49911.421041] kjournald(2760): WRITE block 704560 on md9 (8 sectors) <7>[49911.421067] md9_raid1(2747): WRITE block 1060216 on sdd1 (1 sectors) <7>[49911.421077] md9_raid1(2747): WRITE block 1060216 on sde1 (1 sectors) <7>[49911.421082] md9_raid1(2747): WRITE block 1060216 on sdf1 (1 sectors) <7>[49911.421086] md9_raid1(2747): WRITE block 1060216 on sdb1 (1 sectors) <7>[49911.421090] md9_raid1(2747): WRITE block 1060216 on sda1 (1 sectors) <7>[49911.421094] md9_raid1(2747): WRITE block 1060216 on sdc1 (1 sectors) <7>[49900.355846] md1_raid1(3168): WRITE block 1933615504 on sdd3 (1 sectors) <7>[49900.355857] md1_raid1(3168): WRITE block 1933615504 on sdc3 (1 sectors) <7>[49901.222333] md1_raid1(3168): WRITE block 1933615504 on sdd3 (1 sectors) <7>[49901.222343] md1_raid1(3168): WRITE block 1933615504 on sdc3 (1 sectors) <7>[49901.431987] md1_raid1(3168): WRITE block 1933615504 on sdd3 (1 sectors) <7>[49901.431998] md1_raid1(3168): WRITE block 1933615504 on sdc3 (1 sectors) <7>[49902.257384] md1_raid1(3168): WRITE block 1933615504 on sdd3 (1 sectors) <7>[49902.257395] md1_raid1(3168): WRITE block 1933615504 on sdc3 (1 sectors) ....
Er greift auf "CACHEDEV2_DATA" zu und macht dort irgendwas mit einem Snapshot, die Frage ist nun, was für ein Snapshot? Ich habe alles mir erdenkliche bzgl. Snapshots ausgestellt.
Ich hoffe, ihr könnt etwas Licht ins Dunkle bringen.
Gruß
Mathze
-
Sicherst du deine VMs automatisch per Snapshot, wenn ja wohin?
-
Nein, die VM's werden nicht per Snapshot gesichert.
Nachts um 1Uhr laufen VM BackUp Jobs auf das RAID5.
Snapshots benutze ich gar keine!
Ich habe nun etwas weiter getestet.
Virtualization Station -> deaktviert -> NAS geht in den Ruhemodus!
Virtualization Station -> aktiviert -> NAS geht in den Ruhemodus
Virtualization Station -> eine VM aktiviert (wohl gemerkt, diese läuft im RAID1 auf den SSD's) -> alle 10Minuten wird das RAID5 aus dem Schlaf geholt.
Aufzeichnungen:
1. RAID5 fährt gegen 15:15:xx herunter
2. RAID5 fährt um genau 15:20:00 wieder hoch
3. RAID5 fährt um 15:25:xx herunter
4. RAID5 fährt um genau 15:30:00 wieder hoch
Zu genau diesen Zeiten erfolgt laut Monitor Job folgendes:
Code
Alles anzeigen<7>[58314.195566] setcfg(8931): dirtied inode 4023 (CACHEDEV1_DATA.log) on md9 <7>[58314.195585] setcfg(8931): dirtied inode 4023 (CACHEDEV1_DATA.log) on md9 <7>[58314.197492] setcfg(8932): dirtied inode 4006 (CACHEDEV1_DATA.lo~) on md9 <7>[58314.199511] setcfg(8933): dirtied inode 4023 (CACHEDEV1_DATA.lo~) on md9 <7>[58314.201494] sed(8936): dirtied inode 4006 (CACHEDEV1_DATA.logPydYyZ) on md9 <7>[58314.226091] setcfg(8982): dirtied inode 3968 (CACHEDEV2_DATA.log) on md9 <7>[58314.226108] setcfg(8982): dirtied inode 3968 (CACHEDEV2_DATA.log) on md9 <7>[58314.230032] setcfg(8984): dirtied inode 4023 (CACHEDEV2_DATA.lo~) on md9 <7>[58314.231947] sed(8987): dirtied inode 3968 (CACHEDEV2_DATA.logP1Yta2) on md9 <7>[58314.339529] setcfg(9085): dirtied inode 3569 (vg1.log) on md9 <7>[58314.339579] setcfg(9085): dirtied inode 4023 (vg1.lo~) on md9 <7>[58314.341636] sed(9088): dirtied inode 3569 (vg1.logqoCf29) on md9 <7>[58314.445808] setcfg(9179): dirtied inode 3918 (vg2.log) on md9 <7>[58314.445857] setcfg(9179): dirtied inode 4023 (vg2.lo~) on md9 <7>[58314.447907] sed(9182): dirtied inode 3918 (vg2.log86cJzk) on md9 <7>[58314.509387] setcfg(9250): dirtied inode 3907 (vg1_snapshot_usage.log) on md9 <7>[58314.509441] setcfg(9250): dirtied inode 4023 (vg1_snapshot_usage.lo~) on md9 <7>[58314.511410] sed(9253): dirtied inode 3907 (vg1_snapshot_usage.log5s6AEp) on md9 <7>[58314.530001] setcfg(9271): dirtied inode 3989 (vg1_snapshot_reservation.log) on md9 <7>[58314.530051] setcfg(9271): dirtied inode 4023 (vg1_snapshot_reservation.lo~) on md9 <7>[58314.533473] sed(9274): dirtied inode 3989 (vg1_snapshot_reservation.logLfdQ7n) on md9 <7>[58314.552378] getcfg(9293): dirtied inode 3454 (vg1_snapshot_recycle.log) on md9 <7>[58314.556444] setcfg(9295): dirtied inode 4023 (vg1_snapshot_recycle.lo~) on md9 <7>[58314.558391] sed(9298): dirtied inode 3454 (vg1_snapshot_recycle.logGimcms) on md9 <7>[58314.611206] setcfg(9360): dirtied inode 3645 (vg2_snapshot_usage.log) on md9 <7>[58314.611257] setcfg(9360): dirtied inode 4023 (vg2_snapshot_usage.lo~) on md9 <7>[58314.613272] sed(9363): dirtied inode 3645 (vg2_snapshot_usage.logcg7LNw) on md9 <7>[58314.632372] setcfg(9381): dirtied inode 3995 (vg2_snapshot_reservation.log) on md9 <7>[58314.632430] setcfg(9381): dirtied inode 4023 (vg2_snapshot_reservation.lo~) on md9 <7>[58314.634410] sed(9384): dirtied inode 3995 (vg2_snapshot_reservation.logRMdUCw) on md9 <7>[58314.653648] getcfg(9403): dirtied inode 3574 (vg2_snapshot_recycle.log) on md9 <7>[58314.657665] setcfg(9405): dirtied inode 4023 (vg2_snapshot_recycle.lo~) on md9 <7>[58314.659516] sed(9408): dirtied inode 3574 (vg2_snapshot_recycle.logj0XCny) on md9
Warum um Himmels Willen, wird ein Zugriff auf das RAID5 gemacht? Und warum genau alle 10Minuten bzw. 600 Sekunden? Irgendwo muss ich doch eine falsche Konfiguration vorgenommen haben?! Anders kann ich mir das sonst nicht erklären.
Im Anhang sind genau die Auszüge, wo auf mein RAID5 zugegriffen wird:
<7>[58914.785015] setcfg(30174): dirtied inode 3968 (CACHEDEV2_DATA.log)
Gruß
Mathze
-
ähm, das sieht nach nem Log der virtualization station aus...
-
Es handelte sich um einen Cronjob, welcher alle 10Minuten ausgeführt wurde und das RAID5 immer aufgeweckt hat, um dort einen Log zu schreiben. Habe mir nun alle Cronjobs angeschaut und diese vernünftig geordnet. Leider ist eine Dokumentation nur zu wenigen Standard-Cronjobs vorhanden.
Des Weiteren sorgte von 2-5Uhr ein Plex-Media-Server Wartungsjob dafür, dass die Festplatten in dem genannten Zeitraum auch ordentlich zu tun hatten.
Gruß
Mathze
-
Guten Tag zusammen,
mein NAS TS-451+ verlässt mitten in der Nacht öfters grundlos den Datenträgerbereitschaftsmodus.
Firmware: v4.3.6.0923
Alle Clients sind während dieser Zeit abgeschaltet.
Das einzige Gerät im Netzwerk ist der Router.
Applikationen sind soweit möglich gestoppt:
Dienste ebenfalls (bis auf SMB):
Das ist sehr ärgerlich.
Was kann ich tun?
Viele Grüße
Felix
-
Die Logs anschauen, ob sich zu diesem Zeitpunkt etwas ereignet hat …
Den Router auch ausschalten und checken, ob sich das NAS dann auch noch aktiviert.
PS.: Wenn es immer die selbe Uhrzeit ist, dann würde ich mir die einfach notieren und dann bei Gelegenheit die crontab checken. Schätze da ist genau um diese Zeit ein Eintrag zu finden ist. Per Default hat die QNAP so ab Mitternacht (gegen 2:00, 3:00 Uhr) einige Jobs laufen ...
-
Hallo,
mir fällt seit zwei Tagen auf, dass meine Festplatten im NAS 453B fast permanent laufen.
Ich bin ziemlicher Laie und kann nicht rausfinden, was das Teil macht.
Ich habe nichts kopiert bzw. wenn dann nur 100 Fotos (vor drei Tagen) und ich kann permanent die Festplatten "rödeln" hören.
Es läuft keine Hintergrundaufgabe und aus dem Ressourcenmonitor werde ich auch nicht schlau. Kann man irgendwo sehen, was
das Teil macht?
VG
Robert
-
Hallöle,
auch ich kämpfe damit, dass meine Festplatten nicht mehr in den Standby gehen, bzw, sie fahren herunter und gleich wieder hoch.
Ich habe per QNAP diagnostis tool mal einen Standby Test laufen lassen. Da ich unter Prozesse Kernelprozesse hab laufen sehen, habe ich auch den Kernel Protokoll Analysator bemüht.
Ich bin etwas schockiert, da ich dort so oft "error" gelesen habe. Aber ich habe keine Ahnung wie die beiden Logs zu deuten sind.
Könnte mir bitte jemand bei der Such helfen?
Vielen Dank!
LG,
trulla