Das müssen Sie über Hyper Converged Integrated Systems wissen

Nahezu jeder namhafte Infrastrukturanbieter hat Hyper-Converged-Infrastructure-Systeme (HCI) im Angebot. Um diese neue Technologie ranken sich viele Wahrheiten, Halbwahrheiten und Mythen. Die Experten von Gartner haben Fakten und Fiktionen analysiert. [...]

Systeme basierend auf Hyper-Converged-Infrastructure-Technologie (HCI) sind voll im Trend. Diese bestehen in der Regel aus Standard-Hardware-Komponenten, die aber auf spezielle Workloads zugeschnitten sind. Die Veredelung der Systeme, sprich die Optimierung für einen bestimmten Arbeitszweck, erfolgt final durch eine entsprechende Software-Ausstattung.
Da die Hyper-Converged-Infrastructure-Technologie noch lange nicht ausgereizt ist, bietet sie viel Spielraum für zukünftige Entwicklungen und spezifische Lösungen. Sei es im BigData-Umfeld beziehungsweise Analytics-Umfeld, High-Performance-Anwendungen oder gar Speziallösunge für Digitalisierungsprojekte.
Wie bei vielen neuen Technologien ist die Erwartungshaltung im Anfangsstadium sehr hoch, es wird viel versprochen und theoretisiert. Aber erst in der Praxis entpuppt sich schnell die Leistungsfähigkeit einer Technologie wie etwa bei HCI.
Die Analysten von Gartner haben sich deshalb die Mühe gemacht und die wichtigsten Fakten, Hypes und Fiktionen rund um die Hyper-Converged-Infrastructure-Technologie zusammengetragen. Diese Aspekte sind laut den Experten unerlässlich, um eine objektive Kaufentscheidung zu Gunsten dieser Technologie zu treffen.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

ALLE IMPLEMENTIERUNGEN VON HCI BAUEN AUF STANDARDS- UND OFFENE ARCHITEKTUREN
In diesem Zusammenhang müssen sich die IT-Verantwortlichen zuerst Fragen, was ist eigentlich eine Standard und eine offene Architektur? Diese Frage ist nicht so einfach zu beantworten, denn in einer Software-definierten Umgebung hängt der Grad der Standarisierung beziehungsweise Offenheit überwiegend von der verwendeten Codebasis ab. Deshalb ist es wichtig zu definieren, wer den Programm-Code kontrolliert und wer für seine Entwicklung, Wartung und Leistung verantwortlich ist. Grundsätzlich sollte aber eines klar sein: Es gibt keine Software-definierten Standards. Das bedeutet, dass ein Management-Stack eines Herstellers nicht zwingend die Geräte eines anderen Unternehmens verwalten kann oder gar einen Zugriff auf dessen Software-definiertes Netzwerk frei gibt.
ALLE HCI-IMPLEMENTATIONEN SIND SO AUFGEBAUT, DASS SIE TESTS IN BEZUG AUF SKALIERBARKEIT UND ELASTIZITÄT IM MISSION-CRITICAL-UMFELD NICHT BESTEHEN.
HCI-Implementierungen variieren stark in Bezug auf Robustheit, Skalierbarkeit und Sicherheit. Der entscheidende Faktor, der berücksichtigt werden muss, ist der geplante Anwendungsfall. In der Regel sind HCI-Systeme für hochverfügbare und virtualisierte Workloads konzipiert. Doch auch in diesem Umfeld ist die Bandbreite der Einsatzmöglichkeiten groß.
In Bezug auf Skalierbarkeit lassen sich einige HCI-Cluster nur bis zu acht Knoten einwandfrei skalieren. Allerdings gibt es auch Angebote, die versprechen, auf Hunderten oder sogar Tausenden von HCI-Clustern problemlos zu skalieren. Die Gartner Experten warnen vor solchen Offerten, da diese Art der angebotenen Skalierbarkeit oft nicht der Gartner-Definition einer nahtlos gemanagten HCI-Appliance entspricht.

Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen

Hyper-converged infrastructure von Igor Malts

DAS HCI-BEREITSTELLUNGSMODELL IST SEHR PREISWERT
Die Hyper-Converged-Infrasturcture kann in kleinen Schritten inkrementell angepasst werden, indem zusätzliche Knoten hinzugefügt werden. Allerdings könnte über einen längeren Zeitraum, in dem die Nutzungsbedarfsanforderung steigt und regelmäßig zusätzliche Knoten benötigt, die Investition in HCI leicht die kalkulierten Anfangsinvestitionen übersteigen.
DER WICHTIGSTE ANWENDUNGSFALL FÜR HCI-SYSTEME IST VIRTUAL DESKTOP INFRASTRUCTURE (VDI)
Für die Realisierung von VDI-Installationen ist die HCI-Technologie prädestiniert und dadurch sehr populär geworden. Zudem sind durch die verbesserte Leistung, Skalierung oder den Datenschutz sowie eine einfache Bereitstellung inklusive eines erweiterten hybriden Cloud-Ökosystem auch andere performante Workloads für die HCI-Plattform ideal.
Die IT-Verantwortlichen sollten sich aber in den nächsten drei Jahren auf eine weitere Expansion im IT-Umfeld einstellen und drauf vorbereiten, um Projekte mit größerer Agilität, DevOps, Containern, bimodalen Anwendungen und verbraucherbasierten Diensten zu bewältigen.
HCI BESCHLEUNIGT DEN NIEDERGANG DER TRADITIONELLEN STORAGE-ARRAYS EIN
HCI hat ein großes Potential, kleine bis mittelgroße Festplatten-basierte Storage-Arrays in hoch virtualisierten Umgebungen zu ersetzen. Für Mission-Critcal-Geschäftsprozesse, die hoch zuverlässig arbeiten müssen, kann HCI seine Vorteile allerdings nicht so wirksam ausspielen. Berücksichtigt man aber alle Faktoren, wie Kapazitätsauslastungen und Kosten, sind moderne Hybrid- oder Flash-Array-Installationen langfristig gesehen rentabler.
HCI ELIMINIERT RECHENZENTRUMSINTEROPERABILITÄT UND SILOS
Aktuell fehlt HCI noch eine enge Integration mit bestehenden traditionellen IT-Infrastrukturen, die die IT-Verantwortlichen dazu zwingt, HCI in Silo-Implementierungen zu positionieren. Der Silo-Ansatz beinhaltet die Administration und technische Unterstützung von Alt-Operationen.
Allerdings verlangt die Implementierung von HCI auch neue Modelle der Teamzusammenarbeit und Fachwissen über Spezialintegrationen, die sich von bestehenden Legacy-Lösungen unterscheiden.
HCI-Bereitstellungsmodelle werden am Häufigsten von IT-Verantwortlichen genutzt, die von Hardware-basierten IT-Infrastrukturen auf einfach zu implementierende virtualisierte Umgebungen wechseln möchten,
DIE TRADITIONELLE AUSWAHL DER LIEFERANTEN BLEIBT ERHALTEN
Gartners Fokusgruppenteilnehmer haben gezeigt, dass die Loyalität gegenüber traditionellen Lieferanten nach verschiedenen Kriterien geprüft werden sollte:
– Ist der Lieferant in allen Belangen mit der neuen HCI-Technologie vertraut?
– Ist dieser ernsthaft bereit, seine traditionellen Lösungen in Frage zu stellen?
– Hat der Lieferant den Weitblick, um Innovationen voranzutreiben?
– Kann dieser sich gegen die aufkommende, agile Konkurrenz behaupten und ihre IT-Kosten reduzieren?
Zwar gibt es Risiken im Umgang mit HCI-Anbietern, da oft eine solide langfristige Erfolgsbilanz in Hinblick auf der neue Technologie fehlt. Allerdings reduziert der Preisvorteil der HCI-Technologie das Risiko. Im Worst-Case-Fall lässt sich so der Ausfall des Anbieters leichter verkraften.
Mehr zum Thema: Die zweite Cloud-Welle erfasst Unternehmen *Bernhard Haluschak ist als Redakteur bei der IDG Business Media GmbH tätig


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*