Immer mehr Konzerne verlagern Kernsysteme in die Public Cloud

Vom SAP-System bis zur kompletten Analytics-Infrastruktur: Große Unternehmen nutzen die Public Cloud zunehmend auch für ihre Kernanwendungen. Dabei geht es längst nicht nur um Kosteneinsparungen. [...]

Einmal mehr durften sich die Marketiers von Amazon Web Services (AWS) über einen dicken Fisch in ihrem Kundenstamm freuen. Auf dem AWS Summit in London erläuterte Claire Dickson, CIO bei BP Downstream, wie sie die IT-Infrastruktur des Energiekonzerns samt SAP-Anwendungen in die Public Cloud verlagert. Der Konzern habe auf diesem Weg die Kosten für den SAP-Betrieb um ein Drittel gesenkt. Im Rahmen der Public-Cloud-Strategie sei es zudem gelungen, die Kosten der gesamten IT-Infrastruktur um 40 Prozent zu drücken.
BP ist kein Einzelfall. Schon 2015 begann die italienische Enel als einer der ersten großen Energiekonzerne damit, eigene Rechenzentren zu schließen und Cloud-Ressourcen von AWS und SAP zu nutzen. Zwar gab es auch hier positive Kosteneffekte. Doch Enel-CIO Carlo Bozzoli machte deutlich, dass unterm Strich andere Aspekte ausschlaggebend für die „Cloud-first“-Strategie waren: Zuverlässigkeit, Flexibilität und Skalierbarkeit hätten dafür gesprochen, aber auch die fortgeschrittenen Automatisierungs-Features moderner Cloud-Plattformen. IT-Ressourcen ließen sich in der Cloud wesentlich einfacher skalieren als im bisher praktizierten On-Premise-Modell, so der IT-Chef.
Großbank HSBC analysiert Daten in der Google-Cloud
Die Cloud-Welle hat mittlerweile auch so konservative Branchen wie den Finanzsektor erfasst. HSBC etwa, eine der weltgrößten Banken mit 37 Millionen Kunden, will im Rahmen seiner Cloud-Strategie große Datenmengen in der Wolke analysieren und via APIs auf Machine-Learning-Tools zugreifen. „Banken sind im Grunde Datenorganisationen“, erklärt David Knott, Chief Architect bei HSBC die Hintergründe. „Wir verfügen über riesige Datenmengen und sehen immer mehr die Notwendigkeit, daraus Erkenntnisse zu gewinnen und unser Geschäft voranzubringen.“ Machine-Learning-Tools spielten für HSBC dabei eine Schlüsselrolle. Und diese ließen sich mittlerweile über APIs in der Cloud wesentlich einfacher nutzen als über eine selbst aufgebaute On-Premise-Infrastruktur.
Darryl West, CIO der Großbank, arbeitet dazu eng mit Google zusammen und hat bereits mehrere Proof-of-Concepts mit dem Suchmaschinenkonzern hinter sich. Auf der Google Cloud-Konferenz Next erläuterte er, in welchen Bereichen er Googles Analytics und Machine-Learning-Dienste nutzen will. Dazu gehören etwa Maßnahmen zur Bekämpfung von Geldwäsche und diverse Risikosimulationen. Die Cloud-Strategie helfe HSBC dabei, eine „einfachere, bessere und schnellere Organisation“ zu werden, die flexibler auf Kundenanforderungen reagieren könne. Gegenwärtig sei man dabei, mehrere Terabyte Daten in die Google-Cloud zu schaufeln.
Dort nutzt HSBC inzwischen eine ganze Reihe von Tools, darunter BigTable und BigQuery für die Datenanalyse sowie Dataflow und PubSub für das Event-Handling. Hinzu kommen Googles Machine-Learning-APIs beispielsweise für das kritische Thema Data Loss Prevention.
Google ist indes nicht der einzige Cloud-Anbieter, mit dem HSBC zusammenarbeitet. Wie viele Großunternehmen setzt auch der Finanzdienstleister auf einen Multicloud-Ansatz. So nutzt der Konzern beispielsweise Azure für den Betrieb einiger Microsoft-Anwendungen, für Entwicklungs- und Testaufgaben greifen die Mitarbeiter auf die Amazon-Cloud zurück. Im Backend laufen ferner auch SaaS-Dienste wie Oracles Fusion-Apps.
Künftig werden Banken immer mehr Teile ihrer Technologie in der Cloud betreiben, erwartet Chief Architect Knott. In vielen Fällen spielten Kostenargumente eine Rolle. Sie seien aber nicht der einzige Grund für ein Cloud-Engagement.
Boeing setzt auf Analytics in der Azure-Cloud
Ähnlich argumentiert der Luftfahrtkonzern Boeing, der seine Analytics-Anwendungen künftig auf Microsofts Azure-Plattform betreiben will. Dabei sollen auch die Cortana-Analytics- und die IoT-Suite des Cloud-Anbieters zum Einsatz kommen. Mit den neuentwickelten Anwendungen könnten die rund 300 Airline-Kunden Boeings ihre Flotten effizienter verwalten und den Treibstoffverbrauch optimieren, berichtet Andrew Gendreau, Director in der Digital-Aviation-Sparte. Dessen ungeachtet nutzt Boeing in anderen Bereichen aber weiterhin auch Cloud-Dienste von AWS.
Legacy-Modernisierung und Cloud-native-Entwicklung
Eine andere Stoßrichtung in Sachen Cloud Computing verfolgt der Ticketvermarkter Ticketmaster. Zwar verlagert auch das 1976 gegründete Unternehmen seine Data-Center-Infrastruktur in die Amazon-Cloud, um IT-Ressourcen bedarfsgerecht und skalierbar zur Verfügung zu stellen. Das ist insbesondere für die Online-Transaktionsplattformen geschäftskritisch, über die in Spitzenzeiten bis zu 150 Millionen Transaktionen in wenigen Minuten abgewickelt werden. Viel wichtiger aber ist den Verantwortlichen der Aufbau einer „Cloud-native-Kultur“, um die Modernisierung von Produkten und Services zu beschleunigen. „Hinter der Entscheidung für die Public Cloud steht der Entschluss, ein Cloud-native-Unternehmen zu werden“, sagt Bindi Belanger, Executive Program Manager bei Ticketmaster
Derartige „Transformationen“ erforderten allerdings grundlegende kulturelle Veränderungen im Unternehmen, erläutert die Managerin. Neben dem Aufbau von DevOps-Teams für eine schnellere Softwareentwicklung hat Ticketmaster historisch bedingt mit einem Wust an Legacy-Systemen zu kämpfen. Allein für den Ticketverkauf betreibt das Unternehmen 21 verschiedene Systeme, zu denen mehr als 250 unterschiedliche Produkte und Services gehören. Ticketmaster nutzt eine Mischung aus Legacy-Systemen und neuen Technologien, die weltweit mehr als 1.400 Mitarbeiter betreuen. Die interne Infrastruktur sei groß und komplex, berichtet Belanger. „Wir nennen Sie scherzhaft das Tech-Museum, weil wir Software aus praktisch jeder IT-Ära in Betrieb haben.“
Ein DevOps-Ansatz soll nun helfen, die IT Stück für Stück zu modernisieren und insbesondere die Softwareentwicklungszeiten zu beschleunigen. Mit den DevOps-Teams sei es zunächst gelungen, die Releasezeiten von teilweise mehreren Monaten auf wenige Wochen zu verkürzen. Der Fokus auf Cloud-Technologien soll es künftig sogar erlauben, neue Features mehrmals am Tag auszuliefern.
Geschwindigkeit zählt in der Cloud
Geschwindigkeit ist auch für BP ein gewichtiges Argument. Die erste Standalone-Anwendung, die der Energiekonzern in die AWS-Cloud migrierte, trägt den Namen Spiral und wird von Asset-Planern im Raffinerie-Bereich eingesetzt. Nach dem Transfer in die Cloud konnten Nutzer ihren Job, für den Sie zuvor sieben Stunden brauchten, mit dem gleichen Datensatz in wenigen Minuten erledigen, so IT-Managerin Dickson. Diesen Effekt habe man vor dem Cloud-Engagement kaum für möglich gehalten.
Dennoch sei es kein einfacher Prozess gewesen, die komplette IT-Organisation in die Cloud zu verlagern. Insbesondere Sicherheitsbedenken hätten von Anfang an eine große Rolle gespielt. So sei es für BP eine Herausforderung gewesen, genügend Knowhow im Bereich Security Monitoring in der Cloud aufzubauen. Andererseits gehe etwa der Patching-Prozess erheblich schneller vonstatten als in der On-Premise-Welt.
AWS-CTO Vogels: Security ist Priorität Nummer eins
Angesichts stetig wachsender Bedrohungen etwa durch Cyber-Attacken gehörte Cloud-Security auch auf dem AWS Summit zu den Kernthemen. Aus Sicht von AWS sei Sicherheit die „Priorität Nummer eins“, erklärte CTO Werner Vogels auf der Veranstaltung: „Die Zeiten, in denen eine Firewall ausreichend Schutz bot, sind lange vorbei“. Er verwies unter anderem auf das hauseigene Produkt „AWS Shield“, eine verwaltete Lösung zum Schutz gegen DDoS-Angriffe. AWS arbeite kontinuierlich an dem Thema, was IT-Verantwortliche auch zu schätzen wüssten. So habe man nicht zuletzt wegen der herausragenden Security-Features bereits mehrere Kunden aus dem Finanzsektor gewonnen.
* Wolfgang Herrmann ist Deputy Editorial Director der IDG-Publikationen COMPUTERWOCHE und CIO.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*