Die wenigsten Unternehmen verlassen sich auf nur eine Cloud-Umgebung. Doch der Preis, den sie für ihren Multi-Vendor-Ansatz zahlen, ist hoch, wie eine Diskussion zeigt. [...]
Die CIO.com, US-Schwester von COMPUTERWOCHE.de und CIO.de, hat 30 IT-Verantwortliche aus der Finanzindustrie zum virtuellen Dialog gebeten, um sich über Best Practices im Multi-Cloud-Management auszutauschen. In der von Dell Technologies unterstützten Diskussion wurden fünf Herausforderungen ausgemacht, deren Überwindung über den Erfolg einer Multi-Cloud-Strategie entscheidet.
Multi-Coud-Strategie: Warum eigentlich?
Bevor sich die Teilnehmer damit beschäftigten, stand die Frage im Raum: Warum überhaupt ein Multi-Cloud-Ansatz? Der ebenfalls geladene IDC-Analyst Deepak Mohan nannte Flexibilität und Resilienz als entscheidende Vorteile. Unternehmen müssten in der Lage sein, ihre Infrastrukturanforderungen schnell an sich ändernde geschäftliche Rahmenbedingungen anpassen zu können. Außerdem seien redundante Auslegung und Backup-Strategien unverzichtbar, wenn geschäftskritische Workloads in die Public Cloud wanderten.
Für viele geht es auch darum, die unterschiedlichen funktionalen Schwerpunkte von Cloud-Angeboten zu nutzen. Während die Rechen-, Speicher- und Netzwerkfähigkeiten der Hyperscaler im Prinzip auf hohem Niveau vergleichbar sind, entscheiden ausgefeilte, differenzierende Services über den Zuschlag der Kunden. Der eine Provider spielt seine Vorteile beispielsweise in der Verarbeitung von Massendaten aus, der andere punktet auf Feldern wie KI und Machine Learning.
Mohan Putcha vom Professional-Services-Provider Aon sagte, sein Unternehmen habe sich grundsätzlich für Amazon Web Services (AWS) entschieden, weil der Anbieter fortgeschrittene Funktionen für Analytics biete – ein Muss für sein Unternehmen. Doch Microsoft Azure ist ebenfalls im Rennen: „Ehrlich gesagt lieben unsere Entwickler dieses Ökosystem. Und wenn man zufriedene, produktive Entwickler hat, ist das wahrscheinlich das Beste, was einem passieren kann.“
Navdeep Singh, beim Financial-Services-Technologieanbieter Fiserv für Cloud- und IT-Sicherheitsthemen zuständig, betonte zudem die Notwendigkeit, sich nicht vollständig von einem Provider abhängig zu machen. Noch weiter ging Christ Gates, CTO von Allstate: Er würde etliche Workloads am liebsten immer opportunistisch woanders platzieren, um wie an einem Spot-Markt stets das beste Angebot nutzen zu können.
Multi-Cloud: 5 zentrale Herausforderungen
Teil eines Multi-Cloud-Szenarios ist auch die für viele Unternehmen unverzichtbare Private Cloud: Vor allem gesetzliche beziehungsweise regulatorische Anforderungen zwingen Unternehmen, sensible Daten on Premises auf eigenen Servern zu verwalten. Doch was sind nun die fünf wichtigsten Herausforderungen in Sachen Multi-Cloud-Management?
1. Governance
In der Diskussionsrunde kam ein Ausdruck von Thomas Sweet, Vice-President für IT-Lösungen bei GM Financial, sehr gut an. Er sprach von der „Minimum Viable Governance“ – ein Ziel, das sein Unternehmen hartnäckig verfolge. Mithilfe der notwendigsten Leitplanken wolle er eine Cloud-Landschaft aufbauen, deren Nutzung für die Unternehmensbereiche mit weniger Hindernissen verbunden sei als der Einsatz von On-Premises-Software. Wie viele andere Diskutanten setzt Sweet auf einen Katalog ausgewählter, geprüfter Cloud-Dienste. In seinem Unternehmen könne niemand mal eben die Kreditkarte zücken und einfach so einen Cloud-Service ordern.
Die Governance-Probleme in Multi-Cloud-Umgebungen sind auch deshalb gravierend, weil es gerade im Platform-as-a-Service-(PaaS-)Umfeld enorm große Ökosysteme an Services gibt. Oft machen sich einzelne Entwickler oder sogar ganze Unternehmensbereiche selbstständig, um Cloud-Anwendungen zu entwickeln oder öffentliche Cloud-Dienste zu nutzen, ohne dass ihre IT-Abteilung davon weiß. „Ich hasse das Wort Governance, weil ich mir der negativen Konnotation bewusst bin“, sagte Visa-Manager Ryan Brown. Gerade für Entwickler gebe es enorm viel Interessantes zu entdecken und auszuprobieren. Aber es brauche einfach ein paar Regeln.
Aon-Manager Putcha wies auf einen grundlegenden Konflikt zwischen Governance und Agilität hin: Das eine geht fast immer auf Kosten des anderen. Sein Unternehmen habe sich für einen Mittelweg entschieden und einen via Policies regulierten Raum geschaffen, in dem sich Mitarbeiter und Entwickler frei bewegen und beliebig auf Services zugreifen könnten. „In diesem Rahmen können sie tun was sie wollen – aber wir limitieren eben den Aktionsradius“, sagte Putcha.
Richard Wiedenbeck, CIO bei der Versicherungsgesellschaft Ameritas, hat ebenfalls ein Problem mit dem „G-Wort“. Für ihn gibt es gute und schlechte Governance. „Wir haben ein Schild aufgestellt, darauf steht: ‚Wir wollen durchdachte und zielgerichtete Technologieentscheidungen treffen auf einer sehr guten Informationsbasis. Ziel ist es, Kosten, Risiken und die zu erwartenden Werte optimal ausbalancieren.'“ Dies sei mittlerweile das Mantra für alle Beteiligten, alle wüssten, sie könnten nicht einfach „ihr Ding“ machen.
2. Interoperabilität
„In der Multi-Cloud-Welt mangelt es an Standards. Ich glaube das sehen und spüren wir alle“, sagte Fiserv-Manager Singh. „Workloads laufen auf der Plattform A so und auf Plattform B ganz anders. Gäbe es Standards, würde wohl ein noch ganz anderer Run auf Multi-Cloud-Angebote einsetzen.“
Die schlechte Interoperabilität ist für alle Diskutanten ein Problem. „Man sieht diese wirklich guten Cloud-Anbieter mit ihren erstklassigen Entwicklungsplattformen, aber das Zusammenspiel zwischen deren Clouds funktioniert überhaupt nicht“, klagte Eddie Contreras von der Frost Bank. Viele Anwendungen müsse man komplett neu schreiben, wenn man einen Plattformwechsel anstrebe, ergänzte Sankara Ramakrishnan von MetLife.
Ein Beispiel nannte CIO Steve Randich von FINRA. Sein Unternehmen hat viel Geld in eine mächtige Analytics-Implementierung auf AWS gesteckt, die sich von dort im Grunde nicht mehr wegbewegen lässt. „Es wäre ein gewaltiger Aufwand für uns, unsere Big-Data-Anwendungen mit insgesamt 200 Petabyte an Daten in die Azure-Welt umzuziehen.“ Architektur, Automatisierung, Sicherheit – all dies und vieles andere müsste dann komplett neu gedacht und gebaut werden.
Gates von Allstate bestätigte, dass das Verschieben von Workloads zwischen Cloud-Umgebungen den Kunden ausgesprochen schwer gemacht werde. Ein Hindernis dabei sei auch die unterschiedliche Nomenklatur: „Wenn wir uns über die Sprachverwirrung nicht einmal grundlegend unterhalten, werden wir uns irgendwann in Semantik verstricken“, warnte Gates.
IDC-Analyst Mohan sieht in der Frage der Interoperabilität ein Spannungsfeld zwischen zwei Extremen. Auf der einen Seite könnten sich Anwender ein gewisses Maß an Portabilität offenhalten, indem Sie sich auf solche Funktionen beschränkten, die in den verschiedenen Cloud-Umgebungen ähnlich seien. Auf der anderen Seite lade die Cloud immer wieder zu einem „Hyper-Customizing“ ein, weil sie proprietäre Dienste biete, die sich optimal für ganz spezielle Anwendungsfälle eignen. Leider seien solche Funktionen oft besonders reizvoll für Kunden, so Mohan. Sie versprächen Differenzierung und Wettbewerbsvorsprung.
Zum Thema Interoperabilität forderten die Teilnehmer einhellig ein größeres Engagement der Hyperscaler in Sachen Standardisierung sowie das Bereitstellen von mehr Services in Form von APIs. Gleichzeitig zeigten sie sich skeptisch, dass hier der Stein ins Rollen kommen könne. „Momentan sehe ich die Cloud-Provider nicht von ihrer Lock-in-Strategie abweichen“, zeigte sich Walt Carter, CIO und Chief Data Officer bei Homestar Financial desillusioniert. Die Anwender müssten mehr Druck ausüben, um Portabilität und Flexibilität zu bekommen.
Einen Ausweg sehen die IT-Chefs in der Verwendung von Open-Source-Lösungen, vor allem aber von Container-Technologien. „Immer wenn wir eine Lösungsarchitektur designen, sollten wir weniger auf spezifische Herstellerimplementierungen und mehr auf Open-Source-Kompetenz achten“, mahnte FINRA-CIO Randich.
Docker-Container und das quelloffene Container-Orchestrierungsprojekt Kubernetes bieten zumindest im Ansatz eine Lösung, zumal sie von allen Cloud-Anbietern unterstützt werden. IDC traut Kubernetes zu, sich zu einer Art Abstraktions-Layer zwischen den verschiedenen Cloud-Angeboten zu entwickeln. Schon jetzt sei das oft dort der Fall, wo hybride Cloud-Szenarien umgesetzt und Workloads zwischen Private- und Public-Cloud-Umgebungen verteilt würden. Anbieter wie VMware und Red Hat spielen hier eine wichtige Rolle.
3. Datenportabilität
Während die Applikationsportabilität technisch lösbar zu sein scheint, bereitet den Anwendern das Portieren von Daten größere Kopfzerbrechen. Die Cloud-Anbieter tendieren den Aussagen der CIOs zufolge dazu, Kunden zum Upload ihrer Daten zu ermutigen, aber Schwierigkeiten zu machen, wenn Daten ihre Cloud-Umgebung wieder verlassen sollen. Dann werde oft schmerzhaft zur Kasse gebeten. Hinzu kommen Architekturprobleme: Wie lassen sich Daten verteilen und synchronisieren, die von verschiedenen Anwendungen in verschiedenen Cloud-Umgebungen genutzt werden?
„Das ist ganz sicher unsere größte Sorge“, sagte Kalika Gupta, Vice President für IT bei der Cetera Financial Group. „Wie können wir zum Beispiel im Vermögensmanagement Daten so nutzen, dass wir sie nicht in sechs verschiedenen Systemen replizieren müssen?“ Gupta fügte hinzu, dass ein zu langsames Bewegen von Daten zwischen verschiedenen Systemen unterschiedlicher Anbieter unmittelbar negative Auswirkungen auf die Agilität habe.
Auch andere IT-Manager betonten die enorme Bedeutung der Daten-Governance. Visa beispielsweise arbeitet mit verschiedenen Public-Cloud-Anbietern zusammen und hat auch eine Private-Cloud-Infrastruktur. „Wir müssen wissen, wo unsere Daten sind, wir müssen sie kontrollieren und im Notfall schnell wiederherstellen können“, sagte Brown. Andere stimmten zu und verwiesen auf die besondere Problematik, die sich in stark regulierten Märkten ergebe. Sie forderten von den Cloud-Providern einen Mechanismus, um Daten zwischen den Cloud-Welten ohne große Zusatzkosten hin- und herbewegen zu können.
4. Security
Keiner der Teilnehmer sorgt sich, dass Unternehmensdaten bei den großen Cloud-Providern nicht vor Angriffen sicher wären. Risiken entstünden aber dennoch, weil sich die Hyperscaler einmal mehr uneinig seien und verschiedene Sicherheitsmechanismen und -kontrollen favorisierten. Die Kunden müssten ihre internen Sicherheitsmodelle an jede Cloud auf eine andere Weise anpassen. Dabei gilt es auch noch, die Unterschiede hinsichtlich der Einhaltung gesetzlicher Vorschriften in den verschiedenen Regionen zu beachten.
Für Singh ist die Herausforderung klar: „Wie können wir in einer Multi-Cloud-Umgebung sicherstellen, dass unser gesamtes Sicherheitsgefüge, das wir uns auf Unternehmensebene erarbeitet haben, auf alle Workloads in den verschiedenen Clouds und Regionen eins zu eins abgebildet werden?“ Er fragte sich auch, wie ein konsistentes und weltweit einheitliches Vorgehen aussehen könnte, nach dem Partner und Stakeholder sicher auf Unternehmensdaten zugreifen können.
Auch die Einhaltung der regulatorischen und gesetzlichen Vorschriften in den Ländern macht CIOs zu schaffen. Besonders wichtig ist ihnen, jederzeit zu wissen, wo welche Daten vorgehalten werden. Die CIOs würden sich ein Multi-Cloud-Szenario wünschen, in dem sie ihren weltweit verteilten IT- und Business-Teams erlauben könnten, Workloads in die Cloud-Umgebung ihrer Wahl zu schieben, und überall die gleichen Sicherheits-Policies gültig wären. Diese Workloads müssten in den verschiedenen Cloud-Umgebungen so hin- und her bewegt werden können, wie es gerade gebraucht wird.
Die IT-Chefs glauben allerdings nicht ernsthaft daran, dass die Provider ihre Sicherheitsvorrichtungen jemals standardisieren werden. Sie fürchten vielmehr, selbst aktiv werden oder einen Dienstleister dafür anheuern zu müssen. Wichtig sei in jedem Fall, die IT-Sicherheitsspezialisten bei einem Multi-Cloud-Szenario von Anfang an im Boot zu haben.
5. Cloud-Management-Lösungen
Die Verwaltung mehrerer Cloud-Umgebungen mit all ihren Feinheiten und Unterschieden ist eine große Herausforderung. Warum also nicht das gesamte Management an einem Ort konsolidieren? Am besten wäre es, Workloads über eine zentrale Schaltstelle immer dorthin verschieben zu können, wo es gerade am sinnvollsten ist, sagte Ryan Brown von Visa. Gautam Roy von Unum schloss sich dieser Meinung an. Governance, Monitoring und Sicherheit müssten auf einem Layer abstrahiert werden, so dass Anwender in verschiedenen Cloud-Umgebungen sicher und ungestört arbeiten könnten.
Paul Hamman bei Truist Financial hat einen ähnlichen Traum. „Ich habe an die Zeit vor acht, neun Jahren gedacht, als wir angefangen haben, uns immer intensiver mit Virtualisierung zu beschäftigen. Wie toll wäre es, wenn ich heute etwas hätte, das meine Workloads automatisiert dorthin verschiebt, wo ich gerade die billigste virtuelle Maschine bereitgestellt bekomme.“
Multi-Cloud-Management-Lösungen gibt es reichlich, doch die Anwender haben eher durchwachsene Erfahrungen gemacht. Jeff Farinich von New American Funding etwa hat sich viele Angebote angesehen, darunter Morpheus, CloudBolt und Optima von Flexera. „Jedes dieser Produkte hat so seine Lücken. Die eine überragende Lösung gibt es derzeit nicht.“ Und Matt McComas, DevOps Engineering Leader bei GM Financial, ergänzte: „Es ist eine riesige Chance für Softwareanbieter, die Cloud-Management-Plattform der Zukunft zu bauen, die all diese Multi-Cloud-Probleme löst.“
Andere wiederum fürchten das Risiko, sich dann wieder in die Abhängigkeit eines großen Softwarelieferanten zu begeben. „Sobald wir uns einem solchen Cloud Broker anvertrauen, machen wir genau das, was wir mit unserem Multi-Cloud-Ansatz eigentlich vermeiden wollen: Wir riskieren eine Vendor Lock-in“, warnte Truist-Financial-Manager Hammann. Er war sich mit den anderen CIOs darin einig, dass die Management-Verantwortung im Multi-Cloud-Zeitalter vollständig im eigenen Hause liegen müsse.
*Eric Knorr schreibt für unsere US-Schwesterpublikation CIO.com.
Be the first to comment