Verdoppelung der Cloud-Native-Nutzung bis 2029

In der heutigen, sich schnell verändernden Welt ist es keine Option mehr, schnell und effizient zu arbeiten. Unternehmen müssen Container einsetzen, um wettbewerbsfähig zu bleiben, und sie investieren ihr Geld entsprechend. [...]

Modernisierte Infrastrukturen sind nachweislich dynamischer, portabler und schlanker als herkömmliche Infrastrukturen wie virtuelle Maschinen, was zu niedrigeren Infrastrukturkosten und schnellerer Anwendungsentwicklung führt. (c) stock.adobe.com/mh.desing

Dieses Jahr feiert Kubernetes sein zehnjähriges Jubiläum. Was 2014 als Open-Source-Projekt bei Google begann, hat sich zum Goldstandard für die Container-Orchestrierung entwickelt. Unternehmen aller Branchen setzen Kubernetes nicht nur ein, sondern priorisieren ihre containerisierten Workloads. Gartner stellt fest, dass „bis 2029 mehr als 95 Prozent der globalen Unternehmen containerisierte Anwendungen in der Produktion einsetzen werden – ein deutlicher Anstieg von weniger als 50 Prozent im Jahr 2023“.

Modernisierte Infrastrukturen sind nachweislich dynamischer, portabler und schlanker als herkömmliche Infrastrukturen wie virtuelle Maschinen, was zu niedrigeren Infrastrukturkosten und schnellerer Anwendungsentwicklung führt. In der heutigen, sich schnell verändernden Welt ist es keine Option mehr, schnell und effizient zu arbeiten. Unternehmen müssen Container einsetzen, um wettbewerbsfähig zu bleiben, und sie investieren ihr Geld entsprechend. Portworx by Pure Storage erläutert die zentrale Erkenntnisse der Studie „Voice of Kubernetes Experts“.

Die meisten neuen Anwendungen werden auf Cloud-nativen Plattformen entwickelt

Um die neuesten Containertrends zu ermitteln, hat Portworx by Pure Storage in Zusammenarbeit mit Dimensional Research eine Umfrage unter mittelständischen und großen Unternehmen durchgeführt, die Daten auf Kubernetes laufen lassen. Von den mehr als 500 Personen, die für die Studie mit dem Titel „Voice of Kubernetes Experts Report 2024: The Data Trends Driving the Future of the Enterprise“ befragt wurden, haben 56 Prozent mehr als vier Jahre Erfahrung mit Kubernetes und sind damit Experten für diese nun zehn Jahre alte Technologie. Daher spiegeln die Ergebnisse der Umfrage die Kubernetes-Trends unter erfahrenen Benutzern wider.

Die Befragten waren sich über ihre zukünftigen Prioritäten im Klaren: Cloud-native Plattformen, in der Umfrage definiert als „moderne Technologien wie Container, Kubernetes, unveränderliche Infrastruktur, Microservices und Service Mesh zur Entwicklung skalierbarer Anwendungen“, sind die Plattformen der Zukunft. 80 Prozent der Befragten gaben an, dass sie in den nächsten fünf Jahren die meisten ihrer neuen Anwendungen auf Cloud-Native-Plattformen entwickeln wollen, verglichen mit 41 Prozent heute, was im Wesentlichen eine Verdoppelung der Investitionen in eine Cloud-Native-Zukunft bedeutet.

Experten vertrauen nicht nur darauf, dass ihre kritischsten Anwendungen auf Cloud-Native-Plattformen entwickelt werden, sondern sie räumen diesen Plattformen auch Priorität ein. Dies deutet darauf hin, dass Cloud Native sein Versprechen der Skalierbarkeit, Flexibilität und Agilität erfüllt hat. Während sie klare Vorteile sehen, müssen Unternehmen darauf vorbereitet sein, die Komplexität von Cloud-Native-Umgebungen zu handhaben, um den vollen Nutzen aus diesen Plattformen zu ziehen.

Dies bedeutet, dass Anwendungsentwicklungsteams und die sie unterstützenden Teams wie z. B. Plattformingenieure einen Infrastruktur-Stack benötigen, der containerfähig ist und die Agilität der Entwickler maximieren kann. Wenn diese Teams nicht darauf vorbereitet sind, die strategische Investition in eine Cloud-Native-Infrastruktur zu unterstützen, können sie möglicherweise nicht den vollen Wert ihrer Plattformen ausschöpfen.

Hybrid-Cloud sorgt für Kosteneinsparungen, Anwendungsportabilität und Ausfallsicherheit

Viele Unternehmen nutzen die Flexibilität von Cloud-Native-Plattformen, indem sie die Bereitstellungsumgebungen nach ihren Bedürfnissen auswählen. Der Studie zufolge entscheiden sich 86 Prozent der Unternehmen aller Größenordnungen für die Bereitstellung ihrer Cloud-Native-Technologien in Hybrid-Cloud-Umgebungen, wobei größere Unternehmen größere On-Premises-Footprints bevorzugen. Kubernetes ermöglicht es Unternehmen, nahtlos sowohl vor Ort (On-Premises) als auch in der Cloud zu arbeiten, um das Beste aus beiden Welten zu nutzen und folgende Vorteile zu erzielen:

  • Kosteneinsparungen: Unternehmen können ihre Infrastrukturkosten optimieren, indem sie Arbeitslasten auf eine beliebige Umgebung ihrer Wahl verteilen und so Kosteneinsparungen erzielen. Auf diese Weise lässt sich auch eine Anbieterbindung vermeiden, so dass kein Team oder Unternehmen zu sehr von einem einzigen Anbieter abhängig ist.
  • Portabilität von Anwendungen: Kubernetes sorgt für Konsistenz zwischen den Umgebungen, sodass ein Wechsel von einer Umgebung in eine andere ohne großen betrieblichen Aufwand möglich ist. Infrastrukturteams können die Vorteile jeder Umgebung nutzen, und Entwickler können ihre bevorzugte Umgebung verwenden.
  • Höhere Ausfallsicherheit: Ein Hybrid-Cloud-Modell kann die Ausfallsicherheit von Daten erhöhen, indem es mehrere Umgebungen für Failover bereitstellt. Mit effektiven Disaster-Recovery-Protokollen können Unternehmen bei einem Ausfall eines Cloud-Anbieters oder Rechenzentrums auf eine verfügbare Replik ausweichen.

Obwohl Kubernetes hochgradig portabel ist und die zugrundeliegende Infrastruktur konsistent hält, egal ob sie sich vor Ort oder in der Cloud befindet, kann die getrennte Verwaltung dieser unterschiedlichen Umgebungen viele Herausforderungen mit sich bringen. Diese können sich auf die Geschwindigkeit der Anwendungsbereitstellung, die Ressourcennutzung und die Kosten auswirken.

Container-Datenmanagement nutzt die Vorteile der Cloud-Native-Plattform

Trotz seiner zahlreichen Vorteile ist Kubernetes nicht einfach zu verwalten – vor allem im Day-0- und Day-2-Betrieb. Daher müssen Unternehmen, die sich für eine containerisierte Infrastruktur entscheiden, darauf vorbereitet sein, die Komplexität dieser Umgebungen zu bewältigen, indem sie einen zentralisierten, konsistent verwalteten Software-Stack schaffen, der so dynamisch ist wie ihre Daten.

Eine wichtige Komponente des Infrastruktur-Stacks einer Cloud-Native-Plattform muss eine Container-Datenmanagement-Lösung mit Daten- und Speichermanagement-Funktionen für containerisierte Umgebungen sein. Das Container-Datenmanagement automatisiert, sichert und vereinheitlicht Anwendungen und vereinfacht das Daten- und Speichermanagement. Durch die Verbesserung der Entwicklererfahrung mit Self-Service-Storage können Unternehmen die Produktivität von Entwicklern steigern und die kognitive Belastung reduzieren, die mit der Verwaltung der Komplexität der integrierten Hybrid- und Multi-Cloud-Umgebungen von Cloud-Native-Plattformen einhergeht.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*