Legacy-Modernisierung: Unternehmen müssen lernen loszulassen

In vielen Branchen fußt die IT auf teils jahrzehntealten Software-Monolithen. Unternehmen scheuen die Legacy-Modernisierung wegen der hohen Komplexität und Unsicherheiten hinsichtlich der Kosten. Experten raten hier zu Transparenz und einem klaren Plan. [...]

Legacy Modernisierung betrifft nicht nur Mainframe-Anwendungen. Auch verhältnismäßig neue Technologie kann binnen kurzer Zeit Legacy werden (c) pixabay.com

Die Modernisierung von Legacy-Altsystemen gilt als Dauerbrenner der Digitalisierungsdebatte. Monolitische, teils über Jahrzehnte gewachsene Mainframe-Anwendungen werden spätestens dann zum Problem, wenn veränderte Markt- und Fachanforderungen nicht mehr abgebildet werden können. Kritisch wird es etwa, wenn Teile der Lösung so veraltet sind, dass Sicherheitsrisiken drohen, oder schlichtweg niemand im Unternehmen mehr versteht, wie das Altsystem aufgebaut ist.

Doch wie geht man die Modernisierung teils hochkomplexer Legacy-Systeme richtig an, ohne dass das Alltagsgeschäft darunter leidet, horrende Kosten entstehen oder gar sensible Daten unwiderruflich verloren gehen? Mit dieser Frage beschäftigte sich die Expertenrunde anlässlich des Roundtables der Foundry Research Services zum Thema „Legacy-Modernisierung“.

Was ist Legacy? Die Definition ist selten trennscharf

Schon zu Beginn der Runde wird deutlich, dass die Frage, ab wann Softwaresysteme als „Legacy-Systeme“ gelten, gar nicht so einfach zu beantworten ist. Dr. Jens Krüger, Chief Product Architect von Workday, steckt den Definitionsrahmen bewusst möglichst weitläufig ab und spricht von Softwaresystemen, die auf Basis veralteter Technologien arbeiten. Das Bild vom vergilbten und angestaubten Mainframe im Bürokeller treffe dabei nicht immer den Kern der Wirklichkeit: Auch verhältnismäßig neue Anwendungen könnten bereits nach kurzer Zeit nicht mehr State-of-the-art sein, beispielsweise, wenn sich die Fachanforderungen entscheidend ändern oder der Markt andere Standards setzt.

Auch Kai Wähner, Field CTO & Global Technology Advisor von Confluent, hält eine trennscharfe Definition von Legacy-Systemen für schwierig. Selbst auf Kundenseite seien völlig unterschiedliche Vorstellungen anzutreffen. „Selbst unsere Cloud-native Kunden sprechen von Altsystemen,“ erklärt Wähner und betont daher, es sei wichtig, jeden Anwendungsfall individuell zu betrachten und stets die Gründe für den Modernisierungswunsch im Blick zu behalten.

Doch wie lassen sich Systeme gezielt modernisieren, wenn gar nicht genau klar ist, was Legacy ist und was nicht? Genau aus diesem Grund sei Software Intelligence, also das Verständnis für die eigenen Systeme, so entscheidend, bekräftigt Mesut Bakir, Managing Director DACH bei CAST. „Legacy-Applikationen bauen auf ganz verschiedenen Schichten auf, in denen interagiert werden kann. Wir, aber auch der Kunde, müssen die Abhängigkeit der einzelnen Applikationen voneinander begreifen, damit nicht auch bestehende Fehler in die neuen Umgebung übertragen werden.“ Das Ziel sei nicht, alten Wein in neue Schläuche zu gießen, so Bakir. „Man muss erstmal verstehen, was man überhaupt modernisieren möchte. Für welche Teile meiner Anwendungen lohnt sich ein Reconnect, was ist Dead Code? Muss ich überhaupt alles integrieren?“

Zustimmung erhält Bakir von Alexander Markert, Evangelist bei FreeSoft. Als Beispiel nennt er die Arbeit mit Kernbankensystemen, die teilweise über Jahrzehnte ausgebaut wurden. „Wir sprechen da von Millionen von Zeilen undokumentierten Codes. Da gibt es aber nichts rauszulösen, da ist kein Dead Code, das funktioniert oft alles. Oft gibt es aber einfach keine Entwickler mehr, die verstehen, warum das System so gewachsen ist und wie man noch Anpassungen vornehmen kann.“ Es sei entscheidend, Know-How-Silos zwischen „Alten Hasen“ in der IT und nachfolgenden Entwickler-Generationen im Unternehmen aufzubrechen und so früh wie möglich Transparenz zu schaffen, um das bestehende System voll funktionsfähig in einen modernen Unterbau zu überführen.

Den „Big Bang“ der Modernisierung gibt es nicht

So unterschiedlich Altsysteme und ihre Bestandteile sind, so divers sind auch die Ansätze zur Modernisierung. Zwar nutzen viele Unternehmen die Chance, im Zuge einer Modernisierung den Wandel von On-Premises-Lösungen zu cloud-basierten Ansätzen zu vollziehen. Doch ist der Umzug in die Cloud immer das erstrebenswerteste Ziel?

Keineswegs, betont Jürgen Bernert, Geschäftsführer von Avision. „Man muss nicht immer alles automatisch in die Cloud bringen, vielmehr gilt es, differenziert zu betrachten. Nur, weil eine Anwendung beispielsweise in C++ geschrieben ist, ist sie noch nicht automatisch veraltet,“ so Bernert. Wenn Teile des Systems gut funktionierten und dies auch in absehbarer Zukunft tun würden, gäbe es keinen Grund, diese nicht auch weiterlaufen zu lassen. Bernert gibt jedoch auch zu bedenken, dass nicht alle Systeme, die sich bereits lange im Einsatz bewährt hätten, auch gut wären und plädiert erneut für differenzierte Betrachtungen im Einzelfall.

Confluent-Mann Wähner ergänzt, dass ein „Big Bang“, ab dem mit einem Schlag das komplette System modernisiert ist, kein realistisches Szenario ist. Unternehmen hätten immer komplexe Ökosysteme verschiedener Anwendungen, die Stück für Stück modernisiert werden müssten. Ziel müsse also sein, die Systeme immer weiter voneinander zu entkoppeln, da immer alte und neue Systeme parallel zueinander betrieben werden würden. Es sei entscheidend, dass alle Anwendungen langfristig möglichst unabhängig voneinander laufen könnten, damit die Modernisierung der einen Software nicht zu Problemen bei einer anderen führt.

Studie „Legacy Modernisierung 2022“: Sie können sich noch beteiligen!
Zum Thema Legacy Modernisierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Entscheidern durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, hilft Ihnen Regina Hermann (rhermann@idgbusiness.de, Telefon: 089 36086 161) gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Können Standardlösungen Komplexität mindern?

Workday-Manager Krüger wirft ein, dass Legacy-Systeme nicht selten gerade deshalb so komplex seien, da Unternehmen oft dazu neigten, Lösungen selbst zu entwickeln, für die bereits Anwendungen im Markt existieren. „In vielen Fällen ist man überzeugt, dass die eigene Situation eine ganz spezielle ist und deshalb maßgeschneiderte Lösungen benötigt werden,“ so Krüger. Teilweise wären ganze Abteilungen monatelang damit beschäftigt, Anwendungen zu entwickeln, für die es bereits etablierte Lösungen am Markt gäbe. „Die Gewohnheit spielt hier eine große Rolle. Modernisierung bedeutet deshalb auch immer, ein Stück weit loszulassen,“ verweist Krüger in Hinblick auf das Change Management in Unternehmen.

Für Alexander Markert hingegen geht es nicht darum, alte Strukturen zu standardisieren. Monolithische Legacy-Systeme seien kein Wildwuchs, den man beseitigen müsse. „Es hat einen Grund, dass die Altsysteme beim Kunden in der Form gewachsen sind, wie wir sie vorfinden.“ so Markert. Diese würden tief im Unternehmen verankerte Prozesse und Alleinstellungsmerkmale abbilden, die es zu erhalten gelte. Oftmals sei das Problem nicht die Funktionalität, sondern dass durch demografischen Wandel häufig nicht mehr das Know-How im Unternehmen vorhanden sei, bestehende Systeme zu verwalten und zu erweitern. Ziel sei daher die vollständige Modernisierung der Technik bei gleichzeitigem Erhalt sämtlicher Funktionen.

Ist Legacy-Modernisierung ein Wettbewerbsfaktor?

Indes mahnt Thomas Huber, Director Channel & OEM Sales Central Europe bei Nutanix, jedoch an, dass man die LegacyModernisierung nicht komplizierter wirken lassen sollte als den Fortbetrieb bestehender Altsysteme. Sonst laufe man Gefahr, Unternehmen auf dem Weg der Modernisierung zu verlieren. Zwar wollten Unternehmen in der Regel weg von Legacy-Systemen. „Wenn sich das allerdings für Entscheider so anhört, als wäre der Vorgang noch komplizierter als die veralteten Systeme, passiert erst einmal gar nichts“, so Huber. Die gemeinsame Aufgabe der Dienstleister bestünde darin, aufzuzeigen, dass durch die Modernisierung der Betrieb auch tatsächlich einfacher werde. Einige Kunden bräuchten etwas mehr Zeit. Denen müsse man zugestehen, das Thema Legacy-Modernisierung etwas langsamer anzugehen.

Etwas anders sieht das Kai Wähner. Der Confluent-Mann wirft ein, dass die Modernisierung veralteter Systeme ein klarer Wettbewerbsfaktor ist. So manches Unternehmen würde sich Zeit nehmen, die es eigentlich nicht hat. „Manche unserer Kunden sagen uns ganz klar: Wenn wir so weitermachen, dann sind wir in 10 Jahren auf dem Markt nicht mehr konkurrenzfähig,“ erklärt Wähner. Teilweise drängten in zahlreichen Branchen neue Startups auf den Markt, die mit schlankeren Prozessen und modernerer Technologie besseren Zugang zu Absatzwegen generieren könnten. Wer in so einem Umfeld noch erfolgreich am Markt partizipieren wolle, müsse so früh wie möglich tragfähige Modernisierungskonzepte entwickeln.

Auch Mesut Bakir sieht das Zeitproblem und ergänzt, dass es ein Migrieren auf Knopfdruck, wie manch einer sich vorstellen mag, nicht gäbe. Zusätzlich würde die demografische Komponente die Dringlichkeit nochmals erhöhen, denn teilweise stünden in vielen Unternehmen die letzten Mitarbeiter, welche noch Know-How für den Code und die Struktur der Legacy-Systeme besitzen, kurz vor der Rente. Man habe für Modernisierungsprojekte also bereits jetzt nur wenige Jahre Vorlaufzeit, wenn man diese Kenntnisse noch nutzen wolle.

Versteckte Kosten von Altsystemen sind oft nicht überschaubar

Wie lassen sich dann jedoch Unternehmen davon überzeugen, die LegacyModernisierung möglichst frühzeitig anzugehen und als kontinuierlichen Prozess zu integrieren? Inwieweit spielt das Kostenargument eine Rolle? Jürgen Bernert von Avision weist zunächst darauf hin, dass die Kosten für die meisten Legacy-Systeme überschaubar sind. In den wenigsten Fällen würde sich beispielsweise die Cloud-Migration rein finanziell lohnen – denn in der Regel liefen die Systeme zuverlässig und lang. „Die Probleme, die sie jedoch tatsächlich haben, sind Risiken. Teilweise gibt es im Unternehmen nur noch eine Person, die sich mit dem System auskennt. Ich muss also fragen, was mich das kostet, wenn dieser eine Mitarbeiter von heute auf morgen ausfällt,“ erklärt Bernert.

Doch wie gehen Unternehmen die Modernisierung am besten an? Hier sind sich die Experten am Tisch einig: Transparenz im Applikationsportfolio schaffen ist der erste, wichtige Schritt. Wenn klar ist, welche Teile des Systems modernisiert werden müssen und welche obsolet sind, gehe es zunächst darum, sinnvolle Blöcke zu bilden, die nach und nach voneinander losgelöst und anschließend modernisiert werden können. Krüger resümiert an der Stelle, dass hier die Betrachtung nach separaten Domänen wie HR oder Finance besonders zielführend sei, da sich Prozesse und Entscheidungswege innerhalb von Domänen sehr stark gleichen würden.

Zum Schluss beruhigt Kai Wähner gerade Entscheider, welche angesichts der hohen Komplexität Angst vor einer unlösbaren Mammutaufgabe haben: Wer sich bereits früh im Prozess externes Know-How sowohl von Hersteller- als auch Beraterseite ins Haus hole, könne sich sicher sein, auch die Modernisierung seiner Legacy-Systeme zu bewältigen.

*Richard Ruf ist Autor und Texter in München. Im Fokus seiner Arbeit bei der Agentur „Medienstürmer“ liegen vor allem die Themen Modern Work, Projektmanagement, Office-Kollaboration und Open Source.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*