Hardware - Wenn der SSD zu warm wird

00 Titel.png

Folgendes Szenario ist jetzt nicht auf einem QNAP-NAS passiert, könnte so oder so ähnlich aber auch hier stattgefunden haben. Deshalb…


Auch wenn die Meisten im NAS noch klassisch auf Magnetfestplatten (HDD) setzen, da diese sowohl vom Preis her als auch von der Speicherkapazität die Nase vorne haben und in einem NAS zum reinen Speichern von Daten deshalb noch besser geeignet sind. Aber immer mehr User setzen SSDs ein. Sei es als Heimat für die virtuellen Maschinen auf dem NAS, als Cache-Beschleunigung oder einfach weil SSDs im Gegensatz zu HDDs geräuschlos sind.


Den meisten dürfte durchaus bekannt sein, dass Elektronik im Betrieb Wärme erzeugt und diese an die Umgebung abgibt, oder zumindest sollte. So auch HDDs (Hardware – Hard Disk Drive (HDD): Festplattentemperatur) aber auch SSDs.


Zufälligerweise hat tiermutter vor kurzem zum Thema Temperatur einen interessanten Artikel veröffentlicht. Auch mal hier rein lesen:

Optimierung der Luftzirkulation/ Temperatur durch HDD-Dummies


Aber von Anfang an.



WIE ALLES BEGANN

Nein, nicht Adam und Eva. Soweit wollte ich nicht ausholen. ;)


Wer kennt das nicht. Man startet seinen PC / Notebook und unter Umständen ist selbiger schon eine Weile nicht mehr in Betrieb gewesen. Bei Windows bedeutet dies erst mal Update-Orgie: Das Betriebssystem an vorderster Front will Updates installieren. Die Sicherheitssoftware, der Browser, der Microsoft Store für deren Apps und auch viele andere Programme telefonieren alle gleichzeitig nach Hause: Updates bitte – und noch mehr. Wenn der Rechner etwas betagt ist bedeutet dies, dass eine Weile nicht gearbeitet werden kann oder eben nur sehr schlecht.

Wenn alle Updates durch sind führt dies bei den Windows-Updates zu dem obligatorischen Neustart. Nach 20 bis 30 Minuten ist dann Windows endlich soweit, dass man Arbeiten könnte. In meinem Fall hat es dieses Mal auch noch ein Update der SSD-Software von Samsung „Samsung Magician“ gegeben. Nach dem Neustart die Software geöffnet. Einen Integritätstest durchlaufen lassen. Anschließend einen SMART-Check. Und wenn ich schon mal in der Software bin einen Performance-Test. Eigentlich wollte ich gleich weiter aber, WTF???


01 Performance.JPG


Was soll diese unterirdische sequenzielle Schreibrate? Sequenziell bedeutet Schreiben oder Lesen an einem Stück, wie eine große Datei. Jede HDD ist schneller. Also nochmals getestet. Nop. Immer noch unterirdisch. Vielleicht liegt es an der Test-Software. Also mit „CrystalDiskMark“ auf die SSD los.


02 Crystal1.JPG


Keine Änderung. Ich habe eine Baugleiche SSD im meinem Ubuntu-Notebook verbaut. Also hier einen schnellen Test laufen lassen. Alles i.o. Der Test war aber auch arg kurz. Also einen intensiven Test laufen lassen. Sieht bis jetzt immer noch alles gut aus. Ob die Festplatte im Windows-PC … WTF??? Die Daten-Raten brechen auch auf dem Ubuntu-Notebook nach einer gewissen Zeit ein. Und sogar noch schlimmer als auf dem Windows-PC.



WAS GEHT DA VOR?

Auf dem Ubuntu-Notebook habe ich dann kurzerhand alle Temperatur-Daten ausgelesen. Eigentlich keine dramatischen Werte dabei. Die SSD hat zwar 45°C, aber eigentlich sollte dies kein kritischer Wert für eine SSD sein. Würde man meinen. Habe die Werte der SSD einfach mal eine Weile beobachtet. Schon nach kurzer Zeit ist die Temperatur um mehrere Grad gesunken. Aber auch bei 41°C immer noch schlechte Werte. Um das Ganz zu beschleunigen habe ich das Notebook in den Standby geschickt und ein paar Minuten gewartet. Nach dem Standby hatte die SSD 35°C. Und siehe da, die Werte sind wieder normal.


03 Leistungstest1.png


Auch auf dem Windows PC nach ein paar Minuten der Ruhe wieder alles normal.




KURZ ERKLÄRT

Immer wieder spannend. Auch wenn man etwas weiß, ist es doch immer wieder etwas anderes, wenn man es miterlebt und mit Werten messen kann.


Der SSD wurde schlicht weg zu warm. Von heiß kann man hier ja wohl nicht reden. 41° - 45°C ist ja nur warm und nicht heiß. Ich weiß zwar, dass SSDs wenn ihnen zu warm wird die Datenraten reduzieren, aber in diesem Maße und so früh, das war mir nicht wirklich bewusst. Durch das Updaten und Neustarten, bzw. durch die Leistungstest wurde es den Platten schon zu viel.


Bei den von mir eingesetzten SSDs handelt es sich um Samsungs SSD 860 QVO im 2,5“ Format in der Größe von 1 TB am SATA Port. Dieses Modell ist bzw. war zum Kaufzeitpunkt vor ca. 2 ½ Jahren, das günstigste von Samsung. Macht ja wenig Sinn, wenn die Festplatte mehr wert ist als der restliche Computer.

Verbaut sind diese in einem Notebook (Ubuntu) und in einem All-in-One PC (Windows 10) – also eigentlich auch nichts anderes als ein Notebook, denn es sind Notebook-Komponenten verbaut. Also temperaturtechnisch nicht die idealen Bedingungen für eine SSD-Festplatte. Für mein Einsatzszenario in diesen Geräten spielt dies keine wesentliche Rolle. Die Datenrate beim Lesen bleibt ja fast komplett erhalten. Viel Schreiben müssen diese im Normalfall nicht. Also mehr als ausreichend für mich.



UND IM NAS?

Was in einem Notebook oder PC keine wesentliche Rolle spielen muss, kann in einem NAS der Overkill sein. Schreibraten die in unterirdische Gefilde wie 75 MB/s gehen, können den Einsatz einer SSD ad absurdum führen. Man stelle sich vor, man rüstet ein 10 GbE Power-NAS komplett mit SSDs aus und will darauf ein Backup von 1 TB und mehr erstellen. Nach ein paar Minuten würde die Transferrate auf 75 MB/s sinken. Da wird Freude und Ratlosigkeit herrschen.

Auch für SSD-Caching würde so etwas für einen Schreib-Cache keinen Sinn ergeben.



ALSO KEINE SSD IM NAS?

Bei SSDs stellt sich heraus, dass die Auswahl der richtigen Platte noch wichtiger ist als bei den HDDs. So eine temperaturempfindliche SSD kann man sich im NAS direkt schenken. Billig kann manchmal ganz schön teuer werden. Viele hier im Forum setzten ja mit jahrelangen guten Erfahrungen Desktop HDDs in ihren NAS ein. Weil sie etwas günstiger sind. Bei SSDs – egal ob 2,5“ oder M.2, NVMe oder SATA – würde ich davon Abstand nehmen und SSD-Platten explizit für NAS, Server oder Storages verbauen.


Billig will ich“


und


Geiz ist geil“


...ist hier falsch am Platz. Selbst dann kann es wohl nicht schaden die SSDs mit ausreichend Kühlung zu versorgen.


Ich frage mich gerade, wie viele von Euch mit niedrigen Transferraten zu kämpfen haben, weil sie die falsche SSD verbaut haben.



IM EIGENEN NAS

Im TS-473A habe ich selbst zwei M.2 NVMe SSDs in den Build-In-Slots auf dem Motherboard verbaut. Diese werden als Lese- und Schreibe-Cache im RAID1 verwendet. Es sind M.2 SSDs vom Modell Ironwolf von Seagate. Also M.2 SSDs spezielle für die Verwendung im NAS. Leider kann man Festplatten die als SSD-Cache in Verwendung sind nur noch schlecht testen. Unter


> Systemsteuerung > Speicher & Snapshots > Datenträger/VJOB > Leistungstest


kann man sowohl SSDs (M.2 oder 2,5“) als auch HDDs auf sequenzielles Lesen und IOPS (Input/Output Operations Per Second – also Ein- Ausgaben pro Sekunde) lesend testen. So auch die SSDs des Cache. Aber leider nur lesend und nicht schreibend.



Auch mit der Konsole gehen nur Lesetests. Aber genau das sind die Werte die eher konstant bleiben.


Mit dem SSD Profiling Tool ist da etwas mehr möglich. Dieses kann man jedoch nur verwenden, wenn die SSDs noch nicht als Cache verwendet werden. Deshalb greife ich auf Test-Ergebnisse zurück, welche vor bzw. für das Erstellen des SSD-Cache entstanden sind.


08 Overprov.png


Leider testet das SSD Profiling Tool nur zu Beginn die Datenrate und danach nur noch die IOPS, dafür aber schreibend. Aus dem ersten Diagramm kann man entnehmen, dass zumindest die schreibenden IOPS auch nach Stunden der Vollbelastung konstant bleiben. Die unterschiedlichen aber konstanten Schreibwerte ergeben sich durch die unterschiedlichen Over Provisioning Einstellungen. Das SSD Profiling Tool dient dem ermitteln der optimalen Over Provisioning Einstellungen der SSDs.

Die Temperatur ist mit über 60°C bei weitem höher als bei den Samsung SSDs. Im normalen „Schnarchbetrieb“ sind die Temperaturen so zwischen 39° - 42°C, also hier schon höher als bei den Samsung SSDs. Die liegt bei mir im Ubuntu-Notebook so bei 36°C.



FAZIT

SSD im NAS: Ja, aber die richtigen bitte. Ansonsten gibt es nur Frust. Nicht immer ist billig auch günstiger. Und am Schluss gibt man dann QNAP die Schuld, weil sie … ja was eigentlich? … nichts dafür können.

Kommentare 5

  • Das ja spätestens seit den ersten M.2 NVMe Teilen bekannt, das diese im Luftstrom hängen sollten um nicht in das thermische Limit zu geraten.


    Im Notbook ist das halt schwer mit der Kühlung, die Evo 970er wird hier auch teilweise bis zu 85°C heiß, dann ist die auch nicht mehr so schnell wie sie sein könnte.


    Im NAS sehe ich das, wegen dem Luftstrom nicht so kritisch.


    Die Frage ist aber, wo bei deiner SSD die Temp gemssen wird, der Controller selber wird sicherlich nicht bei 4x°C drosseln, da wird der Sensor irgendwo hängen, ggf. am Gehäuse.

    Und wenn das Thermal PAD dann nicht ganz optimal sitzt, kann der Controller intern kochen und das Gehäuse hat gerade mal 4x°C.


    Bei meinen beiden A2000 M.2 im NAS liegt immer um die 35°C an. Der Kühler der QM2 Karte ist aber auch gigantisch im Vergleich zu den kleinen M.2.

    • Hat mich eben auch verwundert, dass die SSD bei so niedrigen Temperaturen schon abgeriegelt wird. Wo hier Samsung den Temperaturfühler im 2,5" Gehäuse angebracht hat weiß ich allerdings auch nicht. Aber da es sich bei der QVO-SSD um ein billiges Modell handelt, kann ich mir schon gut vorstellen, dass hier schon geringere Temperaturen ein Reduzieren auslösen.


      Kühlmöglichkeiten in den beiden Geräten ist durchaus begrenzt, bzw. der Luftstrom vermutlich nicht optimal. Beide Geräte wurden ursprünglich mit HDDs ausgeliefert und von mir nachträglich nachgerüstet.

  • Daß eine SATA-SSD thermisch begrenzt, habe ich noch nie erlebt und ich glaube ehrlich gesagt auch nicht, daß das hier die Ursache war. Dafür sind die ausgelesenen Temperaturen auch viel zu niederig. Dass QLC-SSDs beim Schreiben extrem einbrechen, wenn der Cache voll ist, sollte eigentlich bekannt sein. Wahrscheinlich liegt es daran...

    • Das Volllaufen des Cache ist normalerweise nicht Temperaturabhängig. Wenn ich genau den selben Test einmal bei "hohen" und einmal bei niedrigen Temperaturen durchführe, bekomme ich bei niedrigen Temperaturen gute Werte und bei hohen Temperaturen schlechte Werte.

      Das beim längeren intensiveren Test die Rate einbricht könnte man ja noch verstehen. Aber hier wurden zum einen 100 MB Files geschoben, was den Cache ja nicht überfordern sollte. Zum anderen hatte danach auch der kurze Test schlechte Werte. Zumindest bis die SSD abgekühlt war. Danach alles wieder gut.

  • Als hätten wir uns zu abgesprochen :)

    Dass Temperatur Auswirkungen auf das Verhalten von elektrischen Bauteilen hat war mir schon immer bewusst, aber dass sich das so stark äußern kann......


    Das wollte ich natürlich auch direkt mal für meine Kingston SUV500M8240G M.2 SATA im QNAP testen. Dazu habe ich einfach einige Performance Tests durchgeführt um auf Temperatur zu kommen.

    Nach nur drei Seq. Lesen Tests ist die Temperatur von 37°C auf 49°C angestiegen, viel wärmer habe ich sie im Verlauf aber nicht bekommen. Ich konnte ebenfalls beobachten, dass die Ergebnisse mit steigender Geschwindigkeit immer weiter sank. Einst hatte ich hier mal gut 500MB/s, der erste Test lieferte allerdings nur 320MB/2 (vermutlich weil die SSD mittlerweile zu 75% belegt ist, 10% OP). Beim letzten Test waren es nur noch 230MB/s.


    Ein bisschen frustrierend :(

    Umso schöner finde ich jetzt, dass ich die SSD Temperatur in meinem System idle um 1-2 Grad (oder Kelvin? ;) ) senken konnte.