Software Lifecycle Management: Bessere Software, besseres Business?

Die Qualität der Software-Entwicklung und -verwaltung führt in vielen Unternehmen offenbar auch zu handfesten wirtschaftlichen Vorteilen. [...]

Die Art und Weise, wie Unternehmen Software entwickeln und verwalten soll sich direkt auf das Business und die Mitarbeiterzufriedenheit auswirken (c) pixabay.com

„Software is eating the world“ schrieb Investor Marc Andreessen 2011 im Wall Street Journal. Weil in den letzten knapp zehn Jahren fast jeder wirtschaftliche, politische und private Lebensbereich digital durchdrungen wurde, hatte er damit wohl recht. Für Unternehmen stellt sich die Frage: Wie wirkt sich diese Entwicklung auf das Geschäft aus und wo liegen Verbesserungspotenziale?

Eine Studie des Software-Anbieters New Relic beschäftigt sich mit diesem Thema. Die Kalifornier haben 400 Business-Entscheider weltweit danach befragt, wie sie Software entwickeln und verwalten. Zudem sollte beantwortet werden, wie sich in den letzten Jahren beispielsweise Umsatz, Marktposition oder Mitarbeiterzufriedenheit der jeweiligen Unternehmen entwickelt haben.

Fünf Faktoren für gute Software

Die Studienautoren untersuchten fünf Bereiche der Software-Entwicklung und -verwaltung. Die Befragten sollten auf einer Skala von eins bis zehn angeben, inwiefern sie folgende Faktoren in ihren Unternehmen berücksichtigen:

  • Cloud – Wie viele Anwendungen und Teile der Infrastruktur werden in der Cloud betrieben?
  • Sichtbarkeit – Existiert eine zentrale Plattform, die die Performance von Systemen und Software nahezu in Echtzeit überwacht?
  • Kontext – Können diese Performance-Daten mit Business- und Customer-Experience-Informationen korreliert werden?
  • Resilienz – Wird Software so robust entwickelt, dass Fehler in einzelnen Releases möglichst wenige Ausfälle provozieren? Sind automatisierte Korrektur-Tools im Einsatz, um Ausfallzeiten durch Fehler zu reduzieren?
  • Eigenverantwortung – Haben Entwickler-Teams die Kompetenz, die Daten und die Tools, selbst darüber zu entscheiden, was, wann, wie entwickelt wird?

Im Durchschnitt schätzen sich die Unternehmen in den fünf Bereichen mit einem Wert von 6,2 mittelmäßig ein. Etwa ein Viertel der Entscheider hat sich überdurchschnittliche Werte jenseits der 7,5 gegeben – die Autoren nennen sie „Leader“. Von diesen sagen 90 Prozent, die Software-Produktion zu verbessern sei ein strategisches Ziel in ihren Betrieben. Darüber hinaus berichten Sie über eine höhere Innovationsgeschwindigkeit, Markensichtbarkeit und Mitarbeiterzufriedenheit sowie mehr Umsätze als die anderen Studienteilnehmer.

Die Mehrzahl der Leader gibt an, sie habe in den letzten drei Jahren mehr als sechs Prozent Umsatzwachstum erwirtschaftet. Demgegenüber verzeichnet die Hälfte derjenigen Teilnehmer, die sich unterdurchschnittlich bewertete, gleichbleibende oder sinkende Umsätze.

Im Ländervergleich entfallen auf Japan die meisten Leader-Unternehmen. In Deutschland, Frankreich und den USA gibt es eine knappe Mehrheit an unterdurchschnittlichen Betrieben, während diese in Australien und Großbritannien das Gros der Teilnehmer ausmachen.

Best Practices

Damit Unternehmen Software besser für die Geschäftsziele nutzen können, nennt die Studie einige Best Practices, die viele der Leader anwenden. Sie gliedern sich in die fünf abgefragten Bereiche.

Die meisten der überdurchschnittlich bewerteten Unternehmen betreiben den Großteil ihrer Systeme und Software in der Cloud. Sie verfolgen entlang des gesamten Software-Lebenszyklus einen Cloud-native-Ansatz und liefern neue Releases automatisiert in Continuous-Integration- und Delivery-Prozessen (CI/CD) aus. So soll mit agilen Methoden die Time-to-market verringert werden. Als Hürden bei der Cloud-Nutzung geben die Befragten Sicherheitsbedenken und regulatorische Vorgaben an. Bei den schlechter bewerteten Teilnehmern mangelt es meist an internem Know-how. Auch hohe Investitionen in On-premises-Lösungen behindern die Cloud-Migration.

Tools, mit denen Software- und Infrastruktur-Daten, wie etwa Log- und Event-Informationen, ausgewertet werden können, sollen dabei helfen, Systeme stabiler laufen zu lassen. Fehler können rasch gefunden und behoben werden, ohne dass lange Ausfallzeiten entstehen. Das beschleunigt auch die Time-to-market neuer Releases und Updates.

Werden diese Informationen mit Business- und Endnutzer-Daten in einen Kontext gesetzt, lässt sich beurteilen, wie sich neue Software auf die User Experience und das Geschäft als Ganzes auswirkt. Dadurch können die Teile der IT identifiziert und priorisiert werden, in denen neue Software-Releases oder Updates den größten Mehrwert für die Kunden bringen.

Um ihre Software widerstandsfähiger zu machen, nutzen drei Viertel der Leader automatisierte Prozesse zur Fehlerbehebung und sogenanntes Chaos-Testing. Letzteres basiert auf der Annahme, dass jede Software im Betrieb irgendwann Fehler produziert, wenn sie komplexer wird und auf vielen Geräten läuft. Die Entwickler bauen beim Testen daher vorsätzlich Fehler in die Software ein, um herauszufinden, ob Systeme und Prozesse trotzdem stabil laufen. Durch diesen „Build for failure“-Ansatz sollen Ausfallzeiten und systemkritische Fehler reduziert werden. 83 Prozent der Leader geben an, sie hätten pro Monat weniger als fünf Ausfälle. Der weltweite Durchschnitt aller Befragten liegt zwischen elf und 20.

Auf Basis dieser technischen Voraussetzungen haben die Entwickler in fast allen der Leader-Unternehmen mehr Eigenverantwortung. Sie können größtenteils selbst entscheiden, wie sie Software erstellen. Die erhobenen Daten geben ihnen Aufschluss darüber, wo Korrekturen notwendig und Innovationen zielführend sind. Das können sie meist schneller tun als durchschnittlich eingestufte Studienteilnehmer, da eventuelle Fehler hinnehmbar sind und rasch korrigiert werden können. Das führt dazu, dass die „Leader-Teams“ drei Viertel ihrer Zeit für Innovationen statt für Fehlerbehebung nutzen können. Bei den unterdurchschnittlichen Unternehmen ist es nur etwa die Hälfte.

*Jens Dose ist Redakteur des CIO Magazins. Neben den Kernthemen rund um CIOs und ihre Projekte beschäftigt er sich auch mit der Rolle des CISO und dessen Aufgabengebiet.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*