Eine aktuelle Studie von Emerson Network Power hat weltweit 800 Rechenzentrumsspezialisten befragt, wie sie die zukünftigen Entwicklungen im Rechenzentrum einschätzen. Herausgekommen ist unter anderem, das die durchschnittliche Leistungsdichte pro Rack signifikant ansteigen wird, wodurch sich zusätzlich Herausforderungen beim Wärmemanagement ergeben. Die Studie befasste sich auch damit, wie die Stromversorgung von Rechenzentren im Jahr 2025 aussehen würde. Energieeffizienz ist demnach ein großes Thema während fast zwei Drittel der Befragten davon ausgehen, dass Rechenzentren in zehn Jahren deutlich weniger Energie verbrauchen werden als heute, um die gleiche Rechenleistung bereitzustellen. [...]
Wie können die Anforderungen des „Rechenzentrums der Zukunft“ also erfüllt werden? Dies gilt insbesondere für die beiden gegensätzlichen Ziele: das enorme Datenwachstum bewältigen und gleichzeitig den Energieverbrauch senken.
„Dabei gibt es bereits heute Technologien, die das Problem der Datenflut mit einem alternativen Ansatz in den Griff bekommen. Die Virtualisierung von Datenkopien bietet ein enormes Potential für effizientere Datenverwaltung“, erklärt Gregor Hansbuer, Sales Director bei Actifio. „Trotz zunehmender Rechenkapazität und verbesserter Energieeffizienz sollten Unternehmen dem eigentlichen Grund für das Datenwachstum mehr Beachtung schenken. Neben dem Datenzuwachs im Zuge der allgemeinen Digitalisierung liegt das grundlegende Problem darin, dass Unternehmen mehrfache, redundante Kopien ein und derselben Datensätze vorhalten in einer Anzahl, die im zwei- bis dreistelligen Bereich liegt.“
Die Erwartungen an immer weiter steigende Kapazitäten sind an das bereits exorbitante Wachstum des Datenvolumens geknüpft. Hier kann nach Meinung von Actifio die Verwaltung virtueller Datenkopien entscheidend dazu beitragen, den immer weiter steigenden Kapazitätsbedarf zu bremsen und so die Effizienz im Rechenzentrum zu maximieren.
Laut der Emerson Network Power-Studie mangelt es derzeit an „Transparenz über die verschiedenen Systeme“ hinweg. Datenvirtualisierung ermöglicht es, den Zugriff auf Anwendungsdaten zentral zu steuern, wodurch automatisch eine bessere Transparenz für die Datenverwaltung gegeben ist. In vielen Rechenzentren herrschen jedoch noch „siloartige Strukturen“ vor, weil die einzelnen Systeme mit unterschiedlichen Protokollen kommunizieren. Die große Herausforderung sei es, „Lösungen zu entwickeln, die Daten über alle Systeme hinweg sammeln und übersetzen, so dass eine Management-Lösung damit arbeiten kann“.
Silo-Strukturen haben viel mit dem traditionellen Ansatz der Datenverwaltung zu tun, in denen Kopien der jeweils gleichen Daten für verschiedene Zwecke vorgehalten werden: Analyse, Backup, Entwicklung, Tests, Wiederherstellung im Notfall etc. Diese Daten-Silos können durch eine zentrale Copy Data Management Platform abgelöst werden. Daten werden dann direkt aus den Anwendungen heraus erfasst, zentral gespeichert, verwaltet und global de-dupliziert.
Anstelle physischer Datenkopien für jeden Einsatzzweck wird nur eine einzige physische – auch als „golden“ bezeichnete – Masterkopie erstellt und gesichert. Geänderte Blöcke werden stets inkrementell gespeichert, die Masterkopie ist somit immer auf dem aktuellen Stand. Von dieser lassen sich bei Bedarf unzählige virtuelle Kopien erstellen, die für jeden Zweck unmittelbar zur Verfügung stehen. Auf diese Weise werden weitaus weniger Speicherressourcen beansprucht, da nur eine physische Kopie Speicherplatz benötigt. Virtuelle Datenkopien stehen jederzeit zur Verfügung – und das sogar wesentlich schneller als bei herkömmlichen Speichervarianten.
„Die Zukunft des Rechenzentrums liegt also in einer klugen und effizienten zentralen Verwaltung und zur Verfügung Stellung von Daten – und nicht in der permanenten Erweiterung der Infrastruktur. Die zunehmende Nutzung der Cloud, statt Daten im eigenen Rechenzentrum vorzuhalten und zu verwalten, ist Teil des Trends zu mehr Effizienz“, fasst Thorsten Eckert, Vertriebsleiter DACH zusammen. „Virtualisierte Datenverwaltung wiederum sorgt, egal ob in der Cloud oder im eigenen Rechenzentrum vor Ort, für den entscheidenden Effizienzschub, um die Datenflut effektiv in den Griff zu bekommen.“ (pi)
Be the first to comment