Bacher Systems bringt Nutanix nach Österreich

Bacher Systems ist der erste Nutanix-Partner für hyper-converged Web-Scale-Lösungen in Österreich. Gemeinsam sollen heimische Rechenzentren "revolutioniert" werden. Auch die klassische Servervirtualisierung soll sich damit einfach umsetzen lassen. [...]

Computing und Storage auf ein und derselben Hardware zu integrieren, gilt als zukunftsweisendes Konzept für IT-Infrastrukturen und als zentraler Baustein für ein Next Generation Data Center. Internet-Giganten wie Google oder Amazon arbeiten schon länger nach diesem völlig anderen Ansatz, der durch lineare Skalierbarkeit und einfache Administration punktet – und hilft, Kosten zu sparen. Mittlerweile sind die Lösungen für einen breiten Einsatz solcher hyper-converged Web-Scale-Infrastrukturen marktreif entwickelt. Bei den Herstellern bewertet Gartner in seinem Magic Quadrant vom Juni 2014 den internationalen Lösungsanbieter Nutanix als führend, mit der „überzeugendsten Vision und einer innovativen Architektur, die den Mitbewerbern generationsmäßig voraus liegt“. Einige Nutanix-Ingenieure waren auch an der Entwicklung von Googles File-System beteiligt.

Durch die Kooperation mit dem Wiener Systemintegrator Bacher Systems kommt die Nutanix-Technologie nun nach Österreich und soll die heimischen Rechenzentren revolutionieren. „Anwendungsbereiche für hyper-converged Web-Scale-Infrastrukturen sind überall dort, wo eine Organisation die flexible Skalierbarkeit für stark wachsende, aber schwer abschätzbare IT-Services braucht – wie virtuelle Desktops, Big-Data-Applikationen oder Web-Plattformen“, erklärt Manfred Köteles, Geschäftsführer von Bacher Systems. „Aber auch die klassische Servervirtualisierung lässt sich damit sehr einfach umsetzen.“

SERVER UND STORAGE ALS EINHEIT
Die Bezeichnung „Web-Scale“ ist auf die ursprüngliche Anwendung durch große Internet-Unternehmen zurückzuführen und hat keinen kausalen Bezug zu Web-Anwendungen. „Hyper-converged“ zielt darauf ab, dass Computing und Storage auf derselben Hardware integriert sind. Dabei werden die Daten und Services mittels intelligenter Software über den ganzen Cluster ausfallsicher verteilt und die Verwaltung des gesamten Systems geschieht über eine gemeinsame Oberfläche. So wird nicht nur die Administration, sondern auch die Skalierbarkeit wesentlich vereinfacht. Denn die hyper-converged Web-Scale-Infrastruktur verwendet keine großvolumigen Hardware-Einheiten, sondern Standard-Server-Hardware. Für System-Erweiterungen wird jeweils ein kompakter „Node“ – eine Kombinationen aus Server mit internem Storage – hinzugefügt. „So lassen sich Kapazitäten je nach Bedarf flexibel und zeitnah erweitern“, betont Manfred Pichlbauer, IT-Consultant bei Bacher Systems. Diese lineare Skalierbarkeit in kleinen Schritten ist ein Vorteil gegenüber klassischen IT-Infrastrukturen, die nur so lange leicht erweiterbar sind, bis das externe Speichersystem ausgeschöpft ist. Dann steht der Betreiber vor der Wahl, ein neues oder ein weiteres kostenintensives Storage anzuschaffen, welches zu Beginn naturgemäß überdimensioniert sein muss, um auch künftige Anforderungen erfüllen zu können.

DISTRIBUTED FILESYSTEM
Die Virtual-Computing-Plattform von Nutanix bietet in einer Hardware App­liance sowohl Server, Storage und Virtualisierung. Im Unterschied zu anderen Web-Scale-Lösungen ist hier bereits ein eigenes File-System integriert. Das Distributed-Filesystem verwaltet alle Daten und Meta-Daten und schafft eine vollständige Konvergenz von Computing und Storage in einem Gerät. Zu den wichtigen Architektur-Prinzipien gehören auch die API-gesteuerte Automatisierung sowie das selbstheilende System – bei Ausfall eines Servers wird von den replizierten Daten automatisch eine neue Sicherungskopie angelegt.

SOFTWARE-DEFINED DATA CENTER
Eine hyper-converged Web-Scale-Infrastruktur gehört als ein wesentliches Element zu dem vieldiskutierten Konzept des Software-defined Datacenter. Im Rahmen eines Software-defined Data Center wird über die virtualisierten Bestandteile wie Server, Storage und Netzwerk eine intelligente Abstraktionsschicht gelegt, welche die gesamte Infrastruktur steuert, kontrolliert, provisioniert und automatisiert. Manfred Pichlbauer bekräftigt: „Web-Scale-Infrastrukturen sind linear skalierbar, effizient und bringen die Einfachheit zurück ins Rechenzentrum.“ (pi/aw)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*