Viel DevOps gibt’s schon zum kleinen Preis!

Das Einreißen der Barrieren zwischen Development und Operations brachte DevOps hervor und ist das Trendthema schlechthin. Doch etablierte Unternehmen haben einen engen Gürtel an, wenn es um IT-Budget zur Umsetzung des Konzeptes geht. [...]

Agil, innovativ, cloudbasiert – nur ein paar Schlagworte, die oftmals im Kontext mit DevOps fallen. Seit Jahren schon machen große Internetkonzerne wie Google, Facebook und Amazon anderen Unternehmen vor, wie digitale Geschäftsprozesse ablaufen können und sollten. Ihr Vorteil ist, dass sie schon von Beginn an auf Cloud-Infrastrukturen gesetzt haben. Verständlich daher, dass Unternehmen sich ein Beispiel nehmen und nach Effizienz und Geschwindigkeit der Giganten streben. Das müssen sie auch, wenn sie im Wettbewerb mit von Grund auf digitalisierten Geschäftsmodellen und Unternehmen konkurrieren wollen. Überall können Führungskräfte daher zurzeit von DevOps lesen.
In diesem Zusammenhang spricht man davon, Silos aufzulösen, Prozesse zu optimieren und Barrieren einzureißen. Das Kofferwort DevOps umschreibt dabei die Verbindung von Entwicklung und Betrieb. Start-Ups zeigen zudem immer wieder, wie es geht. Doch für die meisten Unternehmen ist die Ausgangslage eine gänzlich andere.
Das größte Problem ist dabei der Anfang und wie sie zu ihrer DevOps-Strategie kommen sollen. DevOps im eigenen Unternehmen umzusetzen ist keine 1-Abteilung-Aufgabe und von Unternehmen zu Unternehmen unterschiedlich. Denn jede Organisation bringt eine andere Ausgangslage mit, auf der aufgebaut werden muss. Ein Start-Up beispielsweise hat den großen Vorteil, dass es sein Geschäft vom Fundament auf errichtet und demnach direkt auf die modernen Technologien wie eine cloudbasierte IT-Infrastruktur und agile Arbeitsmethoden setzen kann. So fließen direkt DevOps-typische Methoden und die Technik in die Unternehmensphilosophie mit ein und auch die Mitarbeiter müssen sich nicht erst umgewöhnen. Anders sieht das bei bereits etablierten Unternehmen aus, die sich bereits seit mehreren Jahren auf ihre umfangreichen und hoch komplexen Legacy-Systeme verlassen. Dass diese zumeist noch im COBOL-Umfeld und auf Mainframe-Struktur laufen, macht die Angelegenheit noch schwieriger.
Die überlebenswichtigen, geschäftskritischen Systeme können nämlich nicht einfach abgeschaltet werden, geschweige denn ausgetauscht werden. Zumal die Kosten für den Aufbau einer neuen IT-Infrastruktur und Anschaffung der benötigten Tools den Rahmen der meisten IT-Budgets sprengen dürfte. Erschwerend kommt hinzu, dass Unternehmen auch durch die Richtlinien und Regulierungen des Datenschutzes in ihrer Entscheidungsfreiheit bezüglich der Cloud-Technologien begrenzt werden.
Die im nächsten Jahr in Kraft tretende EU-Datenschutzgrundverordnung schreibt etwa vor, dass Kundendaten jederzeit löschbar sein müssen und revisionssicher gespeichert werden. Um am Markt relevant bleiben zu können, sind Unternehmen jedoch in Zugzwang. Die digitale Konkurrenz wirbt mit Innovationen, die etablierte Organisationen noch nicht in dieser Geschwindigkeit bereitstellen können. Es gilt daher Wege zu finden, die Effizienz und Deployment-Geschwindigkeit mit den entsprechenden Mitteln zu steigern – abhängig von der gegebenen Ausgangslage.
Automatisiert und kategorisiert
Denn darum geht es letztendlich: Um die Steigerung der Effizienz und den Abbau von Engpässen in Geschäftsprozessen. Die DevOps-Methodik baut dafür auf den sogenannten CAMS-Prinzipien (Culture, Automation, Measurement, Sharing) auf. Die Umsetzung dieser Prinzipien auf etablierte Geschäftsmodelle lässt sich sogar bewerkstelligen, ohne neue Experten dafür anwerben zu müssen. Im Fokus steht der Gesamtkontext der Application Delivery. Mithilfe eines umfangreichen systembasierten Ansatzes soll diese angepasst und optimiert werden.
Besonders leistungsfähige DevOps-Anwender setzen auf ein hohes Maß an Automatisierung und eine funktionierende Versionsverwaltung. Das hat gleich mehrere Gründe. Ein hoher Automatisierungsgrad spart unnötige Zeitfresser ein und reduziert dank standardisierter Bearbeitungsprozesse die Fehleranfälligkeit. Die Anforderungen für derartige Vorhaben sind zudem recht gering. Einfache Scripts oder die Nutzung von bereits vorhandenen Tools reichen für den Anfang bereits aus. Verwaltungssysteme hingegen sollen sicherstellen, dass die Transparenz für alle Beteiligten jederzeit gegeben ist und alle benötigten Informationen zu den Deploy-Versionen neutral abgespeichert wurden.
Transparent und menschlich
Viele Änderungen an Prozessen bergen auch ein gewisses Konfliktpotenzial. Denn nicht nur ändern sich das Arbeitsumfeld und die Software, mit der die Mitarbeiter im Unternehmen umgehen können müssen, sondern auch die Arbeitsweise muss sich an die DevOps-Struktur anpassen. DevOps ist ebenso abhängig von der zugrundeliegenden Technik wie von den ausführenden Menschen. Damit bei diesem Philosophie-Wandel die Mitarbeiter nicht auf der Strecke bleiben, müssen Unternehmen dafür sorgen, dass der Neuorientierung und den damit einhergehenden Fragen mit genügend Bedacht und Transparenz begegnet wird. Das Unternehmen hat dafür zu sorgen, dass sich die Arbeitnehmer nicht im Umstrukturierungsprozess verloren fühlen und muss sie dafür mit klaren Zielen und starken Leitlinien an die Hand nehmen. Schließlich wird gegebenenfalls verlangt, dass sich ganze Handlungsprozesse und bewährte Strategien grundlegend ändern müssen.
Analysiert und optimiert
Jede Unternehmens-IT hat ihre eigenen Mittel und Wege, ihre Software auszurollen. Ziel ist es, diese Software-Delivery-Prozesse, auch Deployment Pipeline genannt, so effizient und reibungslos wie möglich zu gestalten. Dazu müssen Engstellen beseitigt werden, die die Produktivität des Unternehmens einschränken. Um das zu erreichen sollten zunächst einmal die Deployment-Kanäle dokumentiert sowie beobachtet und im Anschluss nach Prioritäten geordnet werden. Per Value Stream Mapping können dann Probleme ausgemacht werden. Sind diese klar definiert, ist es leicht ersichtlich, warum es an welcher Stelle zu langen Lead Times kommt und die Optimierung der Werkzeug-Kette kann beginnen. Somit können Hindernisse zielgenau erkannt und behoben und so die Effizienz des Unternehmens an den entscheidendsten Stellen gesteigert werden. Woher lange Lead Times kommen, erklärt Mark Levy von Micro Focus in diesem Beitrag noch einmal im Detail.
Kompatibel, skalierbar und kosteneffizient
Eine weitere Herausforderung für IT-Spezialisten im Unternehmen ist die Kompatibilität der unterschiedlichen Anwendungen. Besonders ältere Software, die nach noch dem Prinzip der Wasserfall-Methode entwickelt wurde, muss mit neueren agilen Apps reibungslos und über verschiedene Plattformen hinweg funktionieren. Zudem erleichtert eine plattformübergreifende Implementierung standardisierter Werkzeuge die Verwaltung der Tools und ermöglicht zudem die Automatisierung des Software Testings, was wiederum die Fehleranfälligkeit reduziert. Gleichzeitig wird die IT-Struktur so noch flexibler und skalierbarer. Der Bonus für die Entwickler: Sie können noch früher fehlerhaften Code entdecken sowie beheben und damit unnötige Mehrarbeit einsparen, die sie aufbringen müssten, wenn sie die Fehler erst spät entdeckt hätten. Somit können Unternehmen außerdem die Kosten für die zusätzliche Entwicklungsarbeit einsparen. Diese Verschiebung der Überprüfung der Software nach vorne nennt sich „Shift Left Testing“, da sie im Entwicklungszyklus früher eintritt.
Kostengünstig und individuell zum DevOps-Start
Letztendlich gibt es keine Standard-Formel, die Unternehmen einfach anwenden können, um DevOps in ihrer Umgebung implementieren zu können. Wie DevOps „richtig“ umgesetzt wird hängt also von mehreren Faktoren ab, bestimmt durch die Ausgangssituation des Unternehmens. Die IT-Abteilungen müssen daher ihr Unternehmen genau untersuchen und die Schrauben finden, an denen sie drehen können, um die größte Effizienzsteigerung zu erhalten. Werden jedoch die entsprechenden Vorbereitungen getroffen, der Umzug auf Cloud-Architektur vollzogen sowie den Mitarbeitern klare Richtlinien an die Hand gegeben, können Unternehmen eine individuelle DevOps-Lösung für ihre ganz spezifischen Probleme erarbeiten.
* Der Autor Mark Levy ist Director of Strategy bei Micro Focus.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*