Neue Lösungen von HDS

Hitachi Data Systems (HDS) hat Neuigkeiten in den Bereichen Flash und x86-Server präsentiert, die in Zusammenarbeit mit der Konzernmutter Hitachi entstanden sind. [...]

Hitachi Data Systems (HDS) stellt Neuerungen aus den Bereichen Flash und x86-Server vor, darunter eine Beschleunigung der SAN-Speichersysteme und neue Blades für die hauseigenen Hitachi Compute Blade Server. Alle Innovationen hat das HDS Global Office of Technology and Planning (Global OTP) in Zusammenarbeit mit der Konzernmutter Hitachi Ltd. und Mitarbeitern beider Forschungs- und Entwicklungsabteilungen auf den Weg gebracht. Zudem verfügen die Unternehmen nun über eine Gold-Mitgliedschaft in der OpenStack Foundation.

Im Bereich Flash-Technologie setzt HDS mit der erweiterten Nutzung des von Hitachi Ltd. entwickelten Controllers den im September 2012 eingeschlagenen Weg fort. Die jüngsten Errungenschaften beider Unternehmen bauen den erreichten technologischen Vorsprung weiter aus – Unternehmen profitieren vom schnelleren und einfacheren Einsatz, mehr Leistung und reduzierten Betriebskosten (OPEX).

FLASH
Die Enterprise-Technologie hält nun auch im Midrange-Bereich Einzug: Die Hitachi Unified Storage 150 (HUS 150) unterstützt jetzt ebenfalls die Hitachi-Flash-Module. Die ab sofort erhältlichen neuen Hitachi-Accelerated-Flash-Module für die HUS VM und die Virtual Storage Platform (VSP) verfügen über eine Kapazität von 3,2 Terabyte, doppelt so viel wie bisher.

Für die virtualisierungsfähige HUS VM ist eine optimierte Software erhältlich. Mit ihr steigt die Leistung von All-Flash-Arrays auf über 1.000.000 Input-Output-Operationen pro Sekunde (IOPS). Die Response-Zeit von weniger als einer Millisekunde liegt dabei unter der eines einfachen Systems (100% Random Read, 4K IO). Damit steigt die Leistungsfähigkeit nachweisbar.

Kürzlich veröffentlichte Testergebnisse des SPECsfs2008 NFS Benchmarks für die HUS VM in All-Flash-Konfiguration mit der integrierten Hitachi NAS-Plattform (HNAS) belegen den Leistungsvorsprung: Die 2-Node-Konfiguration hat den besten jemals gemessenen Wert mit einer Response-Zeit von 0,59 Millisekunden erreicht. Als 4-Node-Ausführung übertrumpfte die HDS-Speicherlösung bei den NFS-Operationen pro Sekunde eine vergleichbare, vollständig mit Solid State Disks bestückte EMC VNX8000, obwohl sie nur über die Hälfte an Fileservern sowie nur über ein Achtel der Solide State Disks verfügte.

SERVER & CONVERGED
Neben dem kontinuierlichen Ausbau des Flash-Bereichs schreibt Hitachi auch seine mehr als 50 Jahre dauernde Server-Erfolgsgeschichte fort. Mit Blick auf die Anforderungen zeitgemäßer Rechenzentren hat Hitachi auf Basis der Intel-Xeon-Prozessoren neue Server mit x86-Technologie entwickelt. Insbesondere in den Bereichen Zuverlässigkeit, Verwaltung und Leistungsfähigkeit ergeben sich so Vorteile.

Konkret sind neue „High Performance Blades“ für die Server der Baureihen Hitachi Compute Blade 500 (CB500) und Hitachi Compute Blade 2000 (CB2000) verfügbar. Sie basieren auf Intels Xeon E5-2600v2 Ivy-Bridge-Prozessoren, die in einem 22-nm-Fertigungsverfahren hergestellt werden. Damit sinkt trotz Leistungszuwachs der Stromverbrauch. Wie gewohnt bieten die neuen Server Hitachi-spezifische Besonderheiten, darunter die hardwarebasierte logische Partitionierung (LPAR) und automatisches Failover bei Cold-Standby.

Für die CB500 ist zudem ein neues PCI-Erweiterungs-Blade erhältlich. Mit ihm können Anwender existierende integrierte und gesharte Netzwerk-Switches mit dedizierten PCIe-basierten Host-Bus-Adaptern (HBAs) und -Karten kombinieren – etwa mit nVidia GRID K“ GPUs für geteilte virtuelle Desktops (VDIs) und Server-based Flash wie es typischerweise bei der Anwendungsbeschleunigung etwa im Oracle- und SAP-HANA-Umfeld Verwendung findet.

OPENSTACK
Im Bestreben, sich dem Ansatz des Software-Defined Data Center (SDDC) offen zu nähern, unterstützen nun Hitachi Ltd. und Hitachi Data Systems die OpenStack Foundation im Rahmen einer Gold-Mitgliedschaft. Damit sollen Anwender bei der Errichtung von Private-Cloud-Umgebungen die größtmögliche Flexibilität erhalten. Die neue Partnerschaft führt die langjährige Tradition von Hitachi im Bereich Open Source fort.

„Anwender sehen OpenStack als eine Möglichkeit, Flexibilität in ihre eigenen Private-Cloud-Umgebungen zu bringen“, erläutert Horst Heftberger, General Manager Hitachi Data Systems Austria. „Hitachi und HDS blicken auf eine lange Historie in der Open Source Community zurück. Unser Engagement bei der OpenStack Foundation ist von großer Bedeutung für integrierte und flexible Private-Cloud-Konzepte, wie sie Unternehmen und Service Provider heutzutage benötigen.“

Das im Sommer 2013 ins Leben gerufene Global OTP ist eine gemeinsame Initiative von HDS und der IT Platform Division Group (ITPD) von Hitachi Ltd. Als virtuelles Kompetenzzentrum vereint es das Wissen hunderter Ingenieure beider Unternehmen. (pi)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*