Hitachi Data Systems: Business-definierte IT

Auf dem Weg zum Software Defined Data Center hat HDS sein Hitachi Storage Virtualization Operating System sowie die Virtual Storage Platform G1000 vorgestellt. Die COMPUTERWELT sprach mit Produktmanager Sean Moser von HDS. [...]

Was macht den Wert eines Unternehmens aus? Zu durchschnittlich 40 Prozent sind es die Firmendaten, Tendenz stark steigend, so die Berechnung von Symantec in Sachen Unternehmenswert in Deutschland. „Die wertvollsten Daten nutzen jedoch wenig, wenn sie frei im Unternehmen umherschwirren – sei es in lokalen oder Cloud-Silos“, sagt Sean Moser, Senior Vice President Global Portfolio & Product Management bei Hitachi Data Systems, bei einer Produktpräsentation im HDS European Distribution Centre (EDC) im niederländischen Zaltbommel. Es geht also verstärkt um das Datenmanagement, das über Gedeih oder Verderb entscheidet.

Moser ist kein Freund der Datenklassifikation, wie er im Gespräch mit der COMPUTERWELT verrät: „Daten werden schneller generiert, als sie klassifiziert werden können. Und selbst wenn das funktionieren würde: Was fangen wir mit Datenkatalogen an?“

Um den Wert der Daten für das Business praxistauglich bestimmen zu können, brauche es laut Produktmanager einen möglichst automatisierten und einfachen Weg, auf dem die Daten ihrem Wert entsprechend verarbeitet und möglichst unterbrechungsfrei eingesetzt werden können. Das trifft besonders dann zu, wenn wie heute die Datenberge extrem schnell wachsen und auch die Geschäftsanforderungen einem steten Wandel unterworfen sind.

Der japanische Storage-Spezialist bringt zu diesem Zweck das Hitachi Storage Virtualization Operating System (SVOS) auf den Markt, die erste Stand-alone-Ausführung der hauseigenen Speichervirtualisierung. Damit ebnet das Unternehmen den Weg seiner Kunden in Richtung Software Defined Data Center (SDDC). Und auf diese Weise wandert die Intelligenz der Systeme zunehmend in die Software, die Hardware selbst wird langfristig gesehen zur Commodity.

Zu den wichtigsten Merkmalen von SVOS zählen Flash-Optimierung, automatisches Tiering, unterbrechungsfreie Datenmigrationen und eine neue native Active-Device-Funktionalität. Letztere ermöglicht Active-Active-Fähigkeiten über mehrere Systeme und mehrere Rechenzentren hinweg, ohne dass eine Appliance nötig wäre, so die Angaben von HDS.

Kunden genießen mit dem Einsatz des Storage Virtualization Operating Systems unter anderem die „Verdoppelung des Nutzungszeitraums der Hardware-Architekturen“. Außerdem kann SVOS für das gesamte Infrastruktur-Portfolio von Hitachi Data Systems verwendet werden.

HITACHI VIRTUAL STORAGE PLATFORM G1000
Das erste System, das SVOS bereits installiert hat, ist die Hitachi Virtual Storage Platform (VSP) G1000, die ebenfalls in Zaltbommel, das zwischen Utrecht und ’s-Hertogenbosch liegt, vorgestellt wurde. Der Datendurchsatz liegt laut HDS bei drei Millionen Input-Output-Operationen pro Sekunde (IOPS). Die nutzbare Bandbreite beträgt mehr als 48 GB pro Sekunde. Die Leistung in Network File Systems (NFS) beziffert Hitachi mit 1,2 Millionen IOPS in Unified-Konfigurationen.

Der Hersteller sieht die VSP G1000 als eine Plattform für alle Daten. Sie ermögliche nahtloses Wachstum, um eine Reihe von Anforderungen zu erfüllen, darunter:

  • ein Virtualisierungs-Controller ohne interne Kapazität;
  • ein Unified Storage-System mit bis zu acht Node-Cluster mit der Hitachi NAS-Plattform (HNAS);
  • eine hochverfügbare Infrastruktur für Umgebungen mit der Hitachi Content Platform (HCP).

Neben dem OS und der G1000 hat Hitachi Unified Compute Platform (UCP) und Unified Compute Platform Director 3.5 sowie die jüngste Version der Hitachi Command Suite (HCS) vorgestellt. All die gezeigten Komponenten sollen Unternehmen bei der Einführung einer sogenannten „Business-definierten IT“ helfen. Dank des hohen Software-Anteils passt sich die Architektur an die wechselnden Bedürfnissen des Geschäftsalltags an – und zwar ohne ständige Re-Designs, Unterbrechungen oder gefährliche Downtimes. (wf)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*