Neben den bekannten Vorteilen wie Robustheit, geringe Wärmeentwicklung und Energieeffizienz zeichnen sich Solid State Disks auch durch schnellere Zugriffszeiten aus und lassen sich einfacher verwalten als herkömmliche Festplatten. [...]
Solid State Disks (SSD) für Server und Speicher waren der große Trend auf der Fachmesse Storage Networking World in Frankfurt am Main. Fast alle großen Speicherhersteller sind auf den Zug aufgesprungen und präsentierten ihre Neuheiten. Zum einen geht es darum, die Haltbarkeit der Flashspeicher insbesondere bei Schreibvorgängen zu verbessern. Das zweite Kriterium ist der Preis, denn SSD sind in der Anschaffung noch immer relativ teuer.
Noch spannender als die Technik der Bausteine ist die Frage nach dem optimalen Ort für SSD. Im Rahmen von Tiered-Storage-Konzepten werden sie am häufigsten als Tier-0-Speicher im Speicherverbund aus schnellen, langsamen und Archivmedien eingesetzt. Die wichtigsten und aktuellsten Informationen und die mit den meisten Zugriffen sollen im SSD abgelegt werden. Das senkt Zugriffs- und Latenzzeiten enorm. Veralten die Daten, wandern sie auf kostengünstigere Festplatten ab. „SSD müssen unbedingt in eine mehrstufige Speicherlandschaft eingebunden werden“, sagt Hans Schramm, Field Product Manager Enterprise bei Dell. Denn die automatische Verlagerung der Informationen empfiehlt sich – um Platz für neue Daten zu schaffen – schon wegen der knappen Kapazitäten, mit denen SSD meist ausgestattet sind.
Automatisches Tiering, da sind sich die Speicherhersteller einig, muss sein, wenn SSD verwendet werden sollen. Doch was bedeutet in diesem Zusammenhang automatisch? Wann wird geprüft, ob Daten noch heiß sind, also oft gebraucht werden oder ob sie bereits den Weg hinab in der Speicherhierarchie auf günstigere Speicher antreten sollen? Meist untersuchen die Softwareroutinen nur alle acht, zwölf oder gar nur 24 Stunden, wie es um die Bedeutung der Informationen bestellt ist. Automatisch ist also relativ.
AUTOMATISCHES TIERING
Anders macht es der Hersteller Dot Hill. Dessen Realtime-Data-Movement-Technik überprüft alle fünf Sekunden, ob sich schon etwas auslagern lässt. „Die Daten werden aber nur dann verlagert, wenn wichtigere und aktuellere hereinkommen“, beschreibt Warren Reid, Director Marketing EMEA, das Vorgehen. Tests haben gezeigt, dass sich mit der Echtzeitverlagerung der Daten die Leistung um das zweieinhalbfache steigern lässt. Parallel dazu erhöht sich die Anzahl der möglichen Datenbanktransaktionen um mehr als das Doppelte, während die I/O-Antwortzeiten um zwei Drittel sinken.
Hitachi Data Systems (HDS) nutzt SSD außer als Tier-0-Speicher auch als Beschleuniger für das Speichersystem, denn das stellt inzwischen vielfach einen Flaschenhals dar. „Der Server hat dank Flash-Erweiterung mehr Power erhalten und kann die Daten schnell entladen, aber die Entladung im Speicher passt nicht mehr dazu“, beschreibt Jürgen Krebs, Director Business Development und Field Marketing bei HDS, das Problem. HDS hat aus diesem Grund eine Flash-Erweiterung entwickelt, die als Cache-Speicher für Highspeed-Beschleunigung verwendet wird. „Die Flash-Acceleration mit 1,6 Terabyte wird wie ein Festplatten-Array angeschlossen“, erklärt Krebs das System. „Durch das Asic erkennt der Speicher-Controller, dass darin ein Cache-Speicher enthalten ist.“ Bei schnellen Applikationen sollen sich auf diese Weise Transaktionsraten von einer Million I/O in der Sekunde (IOPS) erreichen lassen.
Dass Flash-basierende Speicher früher oder später herkömmliche Highend-Festplatten ablösen werden, ist abzusehen. Zu groß sind die Vorteile dieser Technik, die jeder bereits von seinen Mobilgeräten her kennt. Steigen Speicherkapazitäten und Haltbarkeit weiter bei sinkenden Preisen, ist bald der Punkt erreicht, wo das Preis-Leistungsverhältnis der SSD das Niveau von klassischen Festplatten erreicht. „Von da ab gibt es keine magnetischen Laufwerke mehr“, prognostiziert Hitachi-Manager Krebs. (idg/oli)
Be the first to comment