Verdoppelung der Cloud-Native-Nutzung bis 2029

In der heutigen, sich schnell verändernden Welt ist es keine Option mehr, schnell und effizient zu arbeiten. Unternehmen müssen Container einsetzen, um wettbewerbsfähig zu bleiben, und sie investieren ihr Geld entsprechend. [...]

Modernisierte Infrastrukturen sind nachweislich dynamischer, portabler und schlanker als herkömmliche Infrastrukturen wie virtuelle Maschinen, was zu niedrigeren Infrastrukturkosten und schnellerer Anwendungsentwicklung führt. (c) stock.adobe.com/mh.desing

Dieses Jahr feiert Kubernetes sein zehnjähriges Jubiläum. Was 2014 als Open-Source-Projekt bei Google begann, hat sich zum Goldstandard für die Container-Orchestrierung entwickelt. Unternehmen aller Branchen setzen Kubernetes nicht nur ein, sondern priorisieren ihre containerisierten Workloads. Gartner stellt fest, dass „bis 2029 mehr als 95 Prozent der globalen Unternehmen containerisierte Anwendungen in der Produktion einsetzen werden – ein deutlicher Anstieg von weniger als 50 Prozent im Jahr 2023“.

Modernisierte Infrastrukturen sind nachweislich dynamischer, portabler und schlanker als herkömmliche Infrastrukturen wie virtuelle Maschinen, was zu niedrigeren Infrastrukturkosten und schnellerer Anwendungsentwicklung führt. In der heutigen, sich schnell verändernden Welt ist es keine Option mehr, schnell und effizient zu arbeiten. Unternehmen müssen Container einsetzen, um wettbewerbsfähig zu bleiben, und sie investieren ihr Geld entsprechend. Portworx by Pure Storage erläutert die zentrale Erkenntnisse der Studie „Voice of Kubernetes Experts“.

Die meisten neuen Anwendungen werden auf Cloud-nativen Plattformen entwickelt

Um die neuesten Containertrends zu ermitteln, hat Portworx by Pure Storage in Zusammenarbeit mit Dimensional Research eine Umfrage unter mittelständischen und großen Unternehmen durchgeführt, die Daten auf Kubernetes laufen lassen. Von den mehr als 500 Personen, die für die Studie mit dem Titel „Voice of Kubernetes Experts Report 2024: The Data Trends Driving the Future of the Enterprise“ befragt wurden, haben 56 Prozent mehr als vier Jahre Erfahrung mit Kubernetes und sind damit Experten für diese nun zehn Jahre alte Technologie. Daher spiegeln die Ergebnisse der Umfrage die Kubernetes-Trends unter erfahrenen Benutzern wider.

Die Befragten waren sich über ihre zukünftigen Prioritäten im Klaren: Cloud-native Plattformen, in der Umfrage definiert als „moderne Technologien wie Container, Kubernetes, unveränderliche Infrastruktur, Microservices und Service Mesh zur Entwicklung skalierbarer Anwendungen“, sind die Plattformen der Zukunft. 80 Prozent der Befragten gaben an, dass sie in den nächsten fünf Jahren die meisten ihrer neuen Anwendungen auf Cloud-Native-Plattformen entwickeln wollen, verglichen mit 41 Prozent heute, was im Wesentlichen eine Verdoppelung der Investitionen in eine Cloud-Native-Zukunft bedeutet.

Experten vertrauen nicht nur darauf, dass ihre kritischsten Anwendungen auf Cloud-Native-Plattformen entwickelt werden, sondern sie räumen diesen Plattformen auch Priorität ein. Dies deutet darauf hin, dass Cloud Native sein Versprechen der Skalierbarkeit, Flexibilität und Agilität erfüllt hat. Während sie klare Vorteile sehen, müssen Unternehmen darauf vorbereitet sein, die Komplexität von Cloud-Native-Umgebungen zu handhaben, um den vollen Nutzen aus diesen Plattformen zu ziehen.

Dies bedeutet, dass Anwendungsentwicklungsteams und die sie unterstützenden Teams wie z. B. Plattformingenieure einen Infrastruktur-Stack benötigen, der containerfähig ist und die Agilität der Entwickler maximieren kann. Wenn diese Teams nicht darauf vorbereitet sind, die strategische Investition in eine Cloud-Native-Infrastruktur zu unterstützen, können sie möglicherweise nicht den vollen Wert ihrer Plattformen ausschöpfen.

Hybrid-Cloud sorgt für Kosteneinsparungen, Anwendungsportabilität und Ausfallsicherheit

Viele Unternehmen nutzen die Flexibilität von Cloud-Native-Plattformen, indem sie die Bereitstellungsumgebungen nach ihren Bedürfnissen auswählen. Der Studie zufolge entscheiden sich 86 Prozent der Unternehmen aller Größenordnungen für die Bereitstellung ihrer Cloud-Native-Technologien in Hybrid-Cloud-Umgebungen, wobei größere Unternehmen größere On-Premises-Footprints bevorzugen. Kubernetes ermöglicht es Unternehmen, nahtlos sowohl vor Ort (On-Premises) als auch in der Cloud zu arbeiten, um das Beste aus beiden Welten zu nutzen und folgende Vorteile zu erzielen:

  • Kosteneinsparungen: Unternehmen können ihre Infrastrukturkosten optimieren, indem sie Arbeitslasten auf eine beliebige Umgebung ihrer Wahl verteilen und so Kosteneinsparungen erzielen. Auf diese Weise lässt sich auch eine Anbieterbindung vermeiden, so dass kein Team oder Unternehmen zu sehr von einem einzigen Anbieter abhängig ist.
  • Portabilität von Anwendungen: Kubernetes sorgt für Konsistenz zwischen den Umgebungen, sodass ein Wechsel von einer Umgebung in eine andere ohne großen betrieblichen Aufwand möglich ist. Infrastrukturteams können die Vorteile jeder Umgebung nutzen, und Entwickler können ihre bevorzugte Umgebung verwenden.
  • Höhere Ausfallsicherheit: Ein Hybrid-Cloud-Modell kann die Ausfallsicherheit von Daten erhöhen, indem es mehrere Umgebungen für Failover bereitstellt. Mit effektiven Disaster-Recovery-Protokollen können Unternehmen bei einem Ausfall eines Cloud-Anbieters oder Rechenzentrums auf eine verfügbare Replik ausweichen.

Obwohl Kubernetes hochgradig portabel ist und die zugrundeliegende Infrastruktur konsistent hält, egal ob sie sich vor Ort oder in der Cloud befindet, kann die getrennte Verwaltung dieser unterschiedlichen Umgebungen viele Herausforderungen mit sich bringen. Diese können sich auf die Geschwindigkeit der Anwendungsbereitstellung, die Ressourcennutzung und die Kosten auswirken.

Container-Datenmanagement nutzt die Vorteile der Cloud-Native-Plattform

Trotz seiner zahlreichen Vorteile ist Kubernetes nicht einfach zu verwalten – vor allem im Day-0- und Day-2-Betrieb. Daher müssen Unternehmen, die sich für eine containerisierte Infrastruktur entscheiden, darauf vorbereitet sein, die Komplexität dieser Umgebungen zu bewältigen, indem sie einen zentralisierten, konsistent verwalteten Software-Stack schaffen, der so dynamisch ist wie ihre Daten.

Eine wichtige Komponente des Infrastruktur-Stacks einer Cloud-Native-Plattform muss eine Container-Datenmanagement-Lösung mit Daten- und Speichermanagement-Funktionen für containerisierte Umgebungen sein. Das Container-Datenmanagement automatisiert, sichert und vereinheitlicht Anwendungen und vereinfacht das Daten- und Speichermanagement. Durch die Verbesserung der Entwicklererfahrung mit Self-Service-Storage können Unternehmen die Produktivität von Entwicklern steigern und die kognitive Belastung reduzieren, die mit der Verwaltung der Komplexität der integrierten Hybrid- und Multi-Cloud-Umgebungen von Cloud-Native-Plattformen einhergeht.


Mehr Artikel

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

News

Risiken beim Einsatz von GenAI in vier Schritten senken

Die Themen Datenschutz und Modellverwaltung sind in der Datenwissenschaft zwar nicht neu, doch GenAI hat ihnen eine neue Dimension der Komplexität verliehen, die Datenschutzbeauftragte vor neue Herausforderungen stellt. Die Data-Science-Spezialisten von KNIME haben die Potenziale und Risiken der KI-Nutzung beim Einsatz bei der Datenarbeit zusammengefasst und empfehlen vier Schritte zur Risikominimierung. […]

Otto Neuer, Regional VP und General Manager bei Denodo. (c) Denodo
Kommentar

Wie logisches Datenmanagement das ESG-Reporting vereinfacht

Mit zunehmendem Bewusstsein für Nachhaltigkeitsthemen wächst auch der Druck, den Stakeholder diesbezüglich auf Unternehmen ausüben. Gerade auf Seiten der Gesetzesgeber entstehen vermehrt Richtlinien, die „ESG“ (Enviornmental, Social und Governance)-Anliegen vorantreiben und Unternehmen zu mehr Transparenz in Form von entsprechender Berichterstattung verpflichten. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*