Consol: DevOps und Container – das perfekte Paar

Der IT-Dienstleister Consol nennt vier Gründe, warum Container und DevOps gemeinam das perfekte Paar bilden. [...]

(c) consol.de

Wo früher Entwicklung und Betrieb strikt getrennt waren, arbeiten sie heute eng verzahnt. Und obwohl DevOps vor allem eine Frage der Unternehmenskultur ist, geht die praktische Umsetzung heute typischerweise mit der Verwendung von Container-Technologie einher.

Container ermöglichen es, die Anwendungsprozesse eines Rechners so zu isolieren, als wäre jeder auf einem eigenen, dedizierten System. Die Containerisierung erleichtert durch diese Entkopplung von der eigentlichen Plattform den robusten Software-Betrieb. Doch warum ist das gerade im DevOps-Kontext so wichtig? IT-Dienstleister Consol hat auf diese Frage vier Antworten.

1. Container erleichtern die Zusammenarbeit

DevOps ist vor allem eine Sache der richtigen Unternehmenskultur und der Einstellung im Team. Wie gut die Zusammenarbeit allerdings im Tagesgeschäft vonstatten geht, ist dennoch auch von technischen Details abhängig. Wo früher Entwickler-Setups etwa für das Testing einer Software noch wenig mit der tatsächlichen Produktionsumgebung gemein hatten, können Container ein gemeinsames Setup der Laufzeitumgebung für beide zur Verfügung stellen. Container sind sozusagen in beiden Welten zuhause und daher ein geeigneter gemeinsamer Nenner für die recht unterschiedlichen Arbeitsbereiche.

2. Container brechen Silos auf

DevOps bedeutet, dass sich Entwicklung und Betrieb gemeinsam einen komplexen Prozess, also das Erstellen und Betreiben eines Software-Artefakts, teilen. Diesen Lebenszyklus müssen beide Parteien ganzheitlich verstehen, denn sie tragen auch gleichermaßen die Verantwortung für ihn. Das Software-Artefakt kann der Container abbilden beziehungsweise das Container-Image, auf dem die laufenden Container basieren. Da Container als Werkzeuge sowohl der Entwicklung als auch dem Betrieb bekannt sind, erhalten Dev und Ops ein tieferes Verständnis für sämtliche Abläufe eines auf dieser Technologie basierenden Prozesses. So helfen Container beim Abbau von Wissenssilos.

3. Container beflügeln die Automatisierung

Die verbesserte Zusammenarbeit zwischen Dev und Ops in Verbindung mit dem Aufbrechen von Wissenssilos öffnet die Türe für Praktiken wie Continuous Delivery. Diese Sammlung von Techniken, Prozessen und Werkzeugen verbessert die Auslieferung von Software und ermöglicht einen hohen Grad an Automatisierung. Insbesondere für automatisierte Tests sind Container konkurrenzlos: etwa beim Build-up und Pull-down komplexer Architekturen für Integrations- sowie End-to-End-Tests.

Noch einen Schritt weiter geht Continuous Deployment, bei dem das Team nicht nur automatisiert „deploybare“ Software ausliefert, sondern die Software tatsächlich automatisiert in Produktion bringt.

4. Container sorgen für mehr Sicherheit

Je weniger manuelle Schritte die Teams im Entwicklungsprozess und dem Betrieb einer Software durchführen müssen, desto geringer ist die Fehleranfälligkeit. Da Container für eine sehr viel höhere Automatisierung im Software-Lebenszyklus sorgen, verbessern sie mittelbar auch die Sicherheit. Dank automatisierter Tests, die DevOps-Teams im Deployment- und Release-Prozess von Anwendungen integrieren können, sind Fehler häufig schneller auffindbar. Entwickler haben so die Chance, sehr kurzfristig auf Sicherheitslücken und Bugs zu reagieren – oft bevor sie in Produktion geraten.

DevOps ist vor allem eine Sache der Unternehmenskultur“, betont Oliver Weise, Principal Software Engineer bei Consol in München. „Eine Zusammenarbeit zwischen Dev und Ops lässt sich nicht allein durch Tools forcieren. Dennoch unterstützt der Einsatz technischer Hilfsmittel wie Container die Transformation des Unternehmens und die praktische Umsetzung einer DevOps-Strategie.“Weitere Informationen finden Sie hier.

*Bernhard Lauer ist unter anderem freier Redakteur der dotnetpro und betreut hier beispielsweise die Rubrik Basic Instinct. Mit Visual Basic programmiert er privat seit der Version 1.0.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*