SSD Reboot

Storage & Speicher | HT4U.net | Seite 21

Fazit


In diesem Reboot-Review stand erst einmal der neue Test-Parcours selbst im Mittelpunkt. Was macht er und was kann er? Warum muss oder sollte man das tun? Bei anderen Komponenten wie Grafikkarten, Prozessoren usw. reicht es doch auch einfach die Geschwindigkeit zu messen? Nun ja, das Marketing der SSD-Hersteller lenkt die Aufmerksamkeit der Kunden gerne auf die "üblichen" Parameter der maximalen Lese- und Schreibraten und der maximalen IOPS. Wenn man sich beim Testen der SSDs aber zu sehr auf diese Parameter festlegt, übersieht man teils wesentliche Dinge.

Unser neuer Parcours sollte möglichst die Eigenheiten von SSD-Laufwerken zu Tage bringen. Nehmen wir als Beispiel die Ergebnisse der Samsung 840 mit 120 GByte Kapazität und der Neutron GTX 480 GB. Bei den synthetischen Leseraten liegen beide mehr oder weniger gleichauf, im Webserver-Lastprofil kann sich die Samsung jedoch einen Vorsprung von 24 Prozent erarbeiten. Beim Anwendungsstart-Profil von PCMark7 sind es immer noch 11 Prozent. In der Praxis hängt dies stark davon ab, inwiefern dann schon die CPU zum Flaschenhals wird. Letztlich macht es deutlich, dass man sich auf synthetische Maximalraten nicht allein verlassen kann, wenn man die Leistung der Laufwerke beurteilen will.

Ebenso tauchen bei den Schreibraten-Tests starke Schwankungen beim AS-SSD-Benchmark auf, wenn man mit Lastszenarien gearbeitet hat. Hier ist es sinnvoller, sich an den Workstation- oder Fileserverprofilen zu orientieren, wenn man eine praxisbezogenere, realistischere Last betrachten möchte.

Bild: SSD Reboot

Mit den SteadyState-Tests können wir deutlich sehen, wie sehr ein Hersteller die Garbage Collection in Anspruch nimmt. Dies war besonders gut bei der Neutron GTX darzustellen. Egal ob nach 30 Minuten oder 12 Stunden Pause, in beiden Fällen hatte der SSD-Controller während der Pause genügend Flash-Seiten (Pages) wieder frei geschaufelt, um die Schreibperformance zu steigern. Die Sandisk Extreme und Samsungs 840 unterlassen dies, mutmaßlich vorrangig um die Speicherzellen zu schonen.

Ebenso können wir mit den SteadyState-Tests das Mindestlevel sehen, auf welches die Laufwerke nach einer Weile kontiniuierlicher Nutzung im schlimmsten Fall absacken. Für den einen oder anderen Server-Dienst ist das eine relevante Information.

Bei der Nutzung von SSDs gibt es zu Genüge verschiedene Nutzerprofile im Alltag. Da gibt es die beispielsweise die Spieler-Gruppe: deren SSDs müssen primär schnell Daten liefern können. Die Schreibraten sind dort eher unwichtig, denn geschrieben wird hier hauptsächlich nur bei der Installation, und diese kommt meist von langsameren Datenträgern.

Für Multimedia- und erst recht für Office-Nutzer sind die Leistungswerte weitaus weniger wichtig, hier geht es fast nur um den Preis. Für (private) Server ist dagegen eine aktive und erfolgreiche Garbage Collection in Verbindung mit hohen kombinierten Lese- und Schreibraten wichtig (SteadyState-Tests plus Workstation- und Fileserverprofil).

Unser neuer SSD-Parcours zeigt im Vergleich zum Alten nun deutlich besser Unterschiede in den praxisrelevanten Umgebungen und auch Lastabhängigkeiten auf. Damit sind die Grundlagen gelegt, um aktuelle und zukünftige SSDs auch für die Praxis besser einordnen zu können und das ist unser Plan.

[ri], 26. Dezember 2013