Software Lifecycle Management: Bessere Software, besseres Business?

Die Qualität der Software-Entwicklung und -verwaltung führt in vielen Unternehmen offenbar auch zu handfesten wirtschaftlichen Vorteilen. [...]

Die Art und Weise, wie Unternehmen Software entwickeln und verwalten soll sich direkt auf das Business und die Mitarbeiterzufriedenheit auswirken (c) pixabay.com

„Software is eating the world“ schrieb Investor Marc Andreessen 2011 im Wall Street Journal. Weil in den letzten knapp zehn Jahren fast jeder wirtschaftliche, politische und private Lebensbereich digital durchdrungen wurde, hatte er damit wohl recht. Für Unternehmen stellt sich die Frage: Wie wirkt sich diese Entwicklung auf das Geschäft aus und wo liegen Verbesserungspotenziale?

Eine Studie des Software-Anbieters New Relic beschäftigt sich mit diesem Thema. Die Kalifornier haben 400 Business-Entscheider weltweit danach befragt, wie sie Software entwickeln und verwalten. Zudem sollte beantwortet werden, wie sich in den letzten Jahren beispielsweise Umsatz, Marktposition oder Mitarbeiterzufriedenheit der jeweiligen Unternehmen entwickelt haben.

Fünf Faktoren für gute Software

Die Studienautoren untersuchten fünf Bereiche der Software-Entwicklung und -verwaltung. Die Befragten sollten auf einer Skala von eins bis zehn angeben, inwiefern sie folgende Faktoren in ihren Unternehmen berücksichtigen:

  • Cloud – Wie viele Anwendungen und Teile der Infrastruktur werden in der Cloud betrieben?
  • Sichtbarkeit – Existiert eine zentrale Plattform, die die Performance von Systemen und Software nahezu in Echtzeit überwacht?
  • Kontext – Können diese Performance-Daten mit Business- und Customer-Experience-Informationen korreliert werden?
  • Resilienz – Wird Software so robust entwickelt, dass Fehler in einzelnen Releases möglichst wenige Ausfälle provozieren? Sind automatisierte Korrektur-Tools im Einsatz, um Ausfallzeiten durch Fehler zu reduzieren?
  • Eigenverantwortung – Haben Entwickler-Teams die Kompetenz, die Daten und die Tools, selbst darüber zu entscheiden, was, wann, wie entwickelt wird?

Im Durchschnitt schätzen sich die Unternehmen in den fünf Bereichen mit einem Wert von 6,2 mittelmäßig ein. Etwa ein Viertel der Entscheider hat sich überdurchschnittliche Werte jenseits der 7,5 gegeben – die Autoren nennen sie „Leader“. Von diesen sagen 90 Prozent, die Software-Produktion zu verbessern sei ein strategisches Ziel in ihren Betrieben. Darüber hinaus berichten Sie über eine höhere Innovationsgeschwindigkeit, Markensichtbarkeit und Mitarbeiterzufriedenheit sowie mehr Umsätze als die anderen Studienteilnehmer.

Die Mehrzahl der Leader gibt an, sie habe in den letzten drei Jahren mehr als sechs Prozent Umsatzwachstum erwirtschaftet. Demgegenüber verzeichnet die Hälfte derjenigen Teilnehmer, die sich unterdurchschnittlich bewertete, gleichbleibende oder sinkende Umsätze.

Im Ländervergleich entfallen auf Japan die meisten Leader-Unternehmen. In Deutschland, Frankreich und den USA gibt es eine knappe Mehrheit an unterdurchschnittlichen Betrieben, während diese in Australien und Großbritannien das Gros der Teilnehmer ausmachen.

Best Practices

Damit Unternehmen Software besser für die Geschäftsziele nutzen können, nennt die Studie einige Best Practices, die viele der Leader anwenden. Sie gliedern sich in die fünf abgefragten Bereiche.

Die meisten der überdurchschnittlich bewerteten Unternehmen betreiben den Großteil ihrer Systeme und Software in der Cloud. Sie verfolgen entlang des gesamten Software-Lebenszyklus einen Cloud-native-Ansatz und liefern neue Releases automatisiert in Continuous-Integration- und Delivery-Prozessen (CI/CD) aus. So soll mit agilen Methoden die Time-to-market verringert werden. Als Hürden bei der Cloud-Nutzung geben die Befragten Sicherheitsbedenken und regulatorische Vorgaben an. Bei den schlechter bewerteten Teilnehmern mangelt es meist an internem Know-how. Auch hohe Investitionen in On-premises-Lösungen behindern die Cloud-Migration.

Tools, mit denen Software- und Infrastruktur-Daten, wie etwa Log- und Event-Informationen, ausgewertet werden können, sollen dabei helfen, Systeme stabiler laufen zu lassen. Fehler können rasch gefunden und behoben werden, ohne dass lange Ausfallzeiten entstehen. Das beschleunigt auch die Time-to-market neuer Releases und Updates.

Werden diese Informationen mit Business- und Endnutzer-Daten in einen Kontext gesetzt, lässt sich beurteilen, wie sich neue Software auf die User Experience und das Geschäft als Ganzes auswirkt. Dadurch können die Teile der IT identifiziert und priorisiert werden, in denen neue Software-Releases oder Updates den größten Mehrwert für die Kunden bringen.

Um ihre Software widerstandsfähiger zu machen, nutzen drei Viertel der Leader automatisierte Prozesse zur Fehlerbehebung und sogenanntes Chaos-Testing. Letzteres basiert auf der Annahme, dass jede Software im Betrieb irgendwann Fehler produziert, wenn sie komplexer wird und auf vielen Geräten läuft. Die Entwickler bauen beim Testen daher vorsätzlich Fehler in die Software ein, um herauszufinden, ob Systeme und Prozesse trotzdem stabil laufen. Durch diesen „Build for failure“-Ansatz sollen Ausfallzeiten und systemkritische Fehler reduziert werden. 83 Prozent der Leader geben an, sie hätten pro Monat weniger als fünf Ausfälle. Der weltweite Durchschnitt aller Befragten liegt zwischen elf und 20.

Auf Basis dieser technischen Voraussetzungen haben die Entwickler in fast allen der Leader-Unternehmen mehr Eigenverantwortung. Sie können größtenteils selbst entscheiden, wie sie Software erstellen. Die erhobenen Daten geben ihnen Aufschluss darüber, wo Korrekturen notwendig und Innovationen zielführend sind. Das können sie meist schneller tun als durchschnittlich eingestufte Studienteilnehmer, da eventuelle Fehler hinnehmbar sind und rasch korrigiert werden können. Das führt dazu, dass die „Leader-Teams“ drei Viertel ihrer Zeit für Innovationen statt für Fehlerbehebung nutzen können. Bei den unterdurchschnittlichen Unternehmen ist es nur etwa die Hälfte.

*Jens Dose ist Redakteur des CIO Magazins. Neben den Kernthemen rund um CIOs und ihre Projekte beschäftigt er sich auch mit der Rolle des CISO und dessen Aufgabengebiet.


Mehr Artikel

News

9 Mythen über BigQuery-Backups

BigQuery ist ein vollständig verwaltetes Data Warehouse von Google für Analysen im Petabyte-Bereich und kommt vielerorts zum Einsatz. Viele IT-Fachkräfte glauben, dass BigQuery automatisch eine vollständige Sicherung gewährleistet, doch das ist ein gefährlicher Irrtum. […]

News

Mikrosegmentierung als Basis für Zero Trust

90 Prozent der von Zero Networks befragten IT- und Sicherheitsexperten sehen Zero Trust als entscheidend für die Verbesserung ihrer Cybersicherheit an. 75 Prozent sind der Meinung, dass Mikrosegmentierung „sehr“ oder „äußerst“ wichtig ist, um Zero Trust zu erreichen. Nur fünf Prozent setzen jedoch Mikrosegmentierung bereits ein. […]

Jens Hungershausen, DSAG-Vorstandsvorsitzender (c) Deutschsprachige SAP-Anwendergruppe e. V. (DSAG)
News

DSAG-Investitionsreport 2025

Auch in diesem Jahr hat die Deutschsprachige SAP-Anwendergruppe e. V. (DSAG) wieder nach den Investitionsplanungen der Unternehmen in Deutschland, Österreich und der Schweiz gefragt. Zentrale Ergebnisse: Die generelle Investitionsbereitschaft in IT-Lösungen und auch in SAP-Lösungen steigt weiter. […]

News

Ein Schritt zu mehr digitaler Souveränität für Europa

CISPE (Cloud Infrastructure Services Providers in Europe) und Gaia-X integrieren das CISPE Gaia-X Digital Clearing House in das Gaia-X-Ökosystem. Das ermöglicht es Cloud-Kunden, Dienste auszuwählen und zu erwerben, die nachweislich den im Gaia-X Compliance-Dokument (Release 24.11) beschriebenen Richtlinien entsprechen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*