Software regiert die Rechenzentren

„Höher, weiter, schneller” – das olympische Motto seit der Antike hat lange Zeit auch die Welt der IT-Infrastruktur geprägt. Die Nase vorn im Wettbewerb hatte nicht selten das Unternehmen mit der leistungsfähigsten Hardware. Unter dem Aspekt der digitalen Transformation hat jedoch ein Umdenken stattgefunden. [...]

Herr Alexander Spörker ist Geschäftsführer von Hitachi Vantara Österreich (c) Fabian Thum, 3C-DESIGN.at

Heute geht es darum, Geschäftsprozesse und IT-Prozesse möglichst eng aufeinander abzustimmen und dafür muss sich die IT jederzeit flexibel anpassen lassen. Am besten eignen sich dafür virtualisierte Umgebungen und Cloud-Architekturen in den Rechenzentren. Diese haben aber in den vergangenen Jahren die Komplexität der Infrastrukturen noch einmal deutlich erhöht, was in einer Umfrage der Enterprise Strategy Group (ESG) 2019 nahezu zwei Drittel der Befragten bestätigten.

Haupttreiber für diese Entwicklung sind der Studie zufolge neben der zunehmenden Zahl und Vielfalt an Anwendungen, Geräten und Daten vor allem die Notwendigkeit, komplexe neue Technologie wie Datenanalysen und künstliche Intelligenz (KI) oder maschinelles Lernen mit einzubeziehen. Bei dem aktuellen Fokus auf virtuelle Server, Desktops, private, öffentliche (public) und hybride Clouds kann diese Komplexität aber selbst den besten Absichten in punkto Höchstleistung, einfachem Management und hoher Verfügbarkeit einen Strich durch die Rechnung machen.

Mit SDDC wird das Rechenzentrum flexibel

Bei der Konzeption interner Rechenzentren wird die Cloud immer mehr zum Maßstab und Vorbild. Die IT-Infrastrukturen sollen so konzeptioniert werden, dass sie sich über Software regeln lassen. Bei den großen Hyperscalern funktioniert das Deployment schon entsprechend, Ressourcen für Compute oder Storage lassen sich bei Bedarf einfach provisionieren und wieder deprovisionieren, bezahlt wird nach Verbrauch. On-Premise sieht dies bislang noch anders aus. Noch, denn künftig werden Skripte, Templates oder MachineLearning-Algorithmen nahezu in Echtzeit und automatisch die Infrastruktur auf die laufenden Prozesse und Applikationen abstimmen.

Das Konzept dahinter nennt sich SDDC (Software Defined Datacenter). Ein SDDC besteht mindestens aus einem Software-Layer für Speicher und Compute und wird gerne auch als „hyperkonvergente Infrastruktur” (englisch hyperconverged Infrastructure, kurz HCI) bezeichnet. Eines der führenden Betriebssysteme dafür liefert der Virtualisierungsspezialist VMware mit seinen vSphere- und vSAN-Lösungen, die sich mit der Cloud Foundation (VCF)- Plattform des Herstellers zu einer privaten Cloud im eigenen Rechenzentrum erweitern lassen.

Die Public-Cloud „out of the box”

HCI-Plattformen als Unterbau für VCF gibt es von verschiedenen Herstellern. Hitachi Vantara hat sich bereits frühzeitig in Richtung hyperconverged positioniert. Den Ausgangspunkt der Hyperconverged-Strategie des Unternehmens bildet die UCP HC-Plattform, bestehend aus VMwares softwaredefinierten Lösungen vSphere (Computing) und vSAN (Storage) auf Hitachis UCP-Servern. UCP HC lässt sich von zwei auf bis zu 64 Nods ausbauen und fasst lokal angeschlossenen Speicher in virtuellen Data-Stores zusammen, die dann für jede VM im Cluster zur Verfügung stehen.

Jeder einzelne Node kann mit 16 bis 48 Prozessorkernen und einer nutzbaren Speicherkapazität zwischen einem und 192 Terabyte ausgestattet werden . Um die Nodes optimal an die Workloads anzupassen, können NVMe- oder SATA-SSDs, Intel Optane SCM (Storage Class Memory), KI-Grafikchips (GPUs) sowie Netzwerke mit zehn oder 25 GBit/s zum Einsatz kommen. Die Unified Compute Platform Rackscale (kurz UCP RS) ergänzt die UCP HC um Netzwerkkomponenten (mit NSX) und SDDC-Management-Software. Das Ganze funktioniert dann „out of the box” wie eine Public-Cloud, läuft aber on-premise. Leistungsfähige Server-Komponenten liefern dabei genügend Performance auch für extrem anspruchsvolle Anwendungen wie etwa SAP Hana.

Die Software macht den Unterschied

Den entscheidenden Unterschied macht dabei allerdings die Software, Hitachis UCP Advisor, mit dem sich HCIs nicht nur schnell bereitstellen, sondern auch ganz einfach verwalten und steuern lassen. Der UCP Advisor automatisiert das Lifecycle-Management von Servern, Netzwerk- und Speicherkomponenten von der Bereitstellung und Installation („Day 0”) über den täglichen Betrieb („Day-1”) bis hin zu Firmware- und Software-Upgrades oder der Integration in die VMware vRealize-Suite. VMware bietet mit der vCenter-Suite eine Software zum zentralen Management virtualisierter Umgebungen. Der UCP Advisor ist in der Lage, mehrere, verbundene vCenter in einer Instanz zu verwalten und reduziert dadurch die benötigten Ressourcen. Die Software kann sowohl als Plugin von VMware als auch „standalone” mit einer unabhängigen Benutzeroberfläche eingesetzt werden, so dass Anwender ihre UCP-Lösungen oder Container ganz flexibel steuern können.

Mit ihrer Deployment-Manager-Funktion ermöglicht die Software eine extrem schnelle Bereitstellung von UCP-Systemen für den produktiven Betrieb, indem sie mehr als 600 Aufgaben regelbasiert automatisiert. Dadurch lassen sich Converged oder Hyperconverged Infrastructures in wenigen Stunden statt bisher drei bis vier Tagen komplett einrichten. Der UCP Advisor kann einzelne oder mehrere UCP-Systeme verwalten. Bestehende StorageSysteme wie Hitachis VSP-Plattform, aber auch Zusatzsoftware wie der Hitachi Ops Center Automator oder der Hitachi Data Instance Director lassen sich problemlos integrieren, um manuelle Aufgaben zu automatisieren und Datensicherheit zu gewährleisten. Weitere Automatisierungsdienste können dank REST API hinzugefügt werden.

Flexibel und sicher Richtung Zukunft

Es klingt zuerst einmal paradox, aber die Antwort auf die immer weiter ansteigende Komplexität und Skalierung moderner Infrastrukturen ist eine möglichst einfache, weitgehend automatisierte Verwaltung von einzelnen Servern, Netzwerk- und StorageKomponenten sowie auch virtualisierten Umgebungen. Um sowohl zukünftige als auch aktuelle Anwendungen zu automatisieren, bedarf es eines programmgesteuerten Ansatzes. Durch seine Erweiterbarkeit bietet der Ansatz von Hitachi Vantara Unternehmen die nötige Planungssicherheit beim Management der IT-Infrastruktur.

*Alexander Spörker ist Geschäftsführer von Hitachi Vantara Österreich.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*