Die Public Cloud ist ein Segen, wenn es darum geht, Anwendungen im Handumdrehen zum Laufen zu bringen. Doch einige CIOs haben festgestellt, dass die geschäftliche Agilität einen hohen Stellenwert besitzt, und überdenken nun ihre Einsätze via Repatriierung. [...]
Die Public Cloud bietet das Potenzial für eine höhere Geschäftsflexibilität, aber die Auslagerung kritischer Computing-Ressourcen birgt eine Schattenseite. Manche IT-Führungskräfte haben erkannt, dass die Ausführung bestimmter Anwendungen in einer öffentlichen Cloud mehr kosten kann als die Ausführung vor Ort, was sie dazu veranlasst, ihre Strategien zu überdenken, und diese Anwendungen stattdessen wieder ins Haus zu holen.
Eine Lektion, die Ravi Naik, CIO des Speicheranbieters Seagate, wohl gelernt hat. Naik erkannte schnell die Vorteile des Elastic Computing für Geschäftsanwendungen, als er zu Amazon Web Services (AWS) migrierte – als Teil eines globalen Plans zur Konsolidierung von vier Rechenzentren in ein einziges. Aber Naik nahm auch ein Big Data-System von AWS zurück, als er erkannte, dass die von ihm generierten Datenfunde in Verbindung mit der hohen Bandbreite, die für die Verschiebung der Daten erforderlich ist, viel mehr kosten würden, als der Betrieb des Systems in seinem eigenen Rechenzentrum.
„Die Berechnung erfolgt nach Bedarf, also ist sie perfekt für die Cloud, die ja elastisch ist“, sagt Naik. „Mit der Speicherung steigen die Kosten jede Sekunde eines jeden Tages.“
Ein Rückschritt in der Cloud-Entwicklung
Die Kehrtwende in Bezug auf über das Internet gemietete Computersysteme hat ein eigenes Schlagwort bekommen: Cloud-Rückführung (Cloud-Repatriierung). Und trotz der Zunahme des öffentlichen Cloud-Konsums wird Repatriierung immer üblicher. Laut IDC geben 85 Prozent der IT-Manager an, dass sie bereits Arbeitslasten aus öffentlichen Cloud-Umgebungen repatriiert haben.
Zunächst „heben und verlagern“ die meisten Unternehmen Geschäftsanwendungen von lokalen Systemen in öffentliche Cloud-Umgebungen, erklärt IDC-Analyst Sriram Subramanian. Ermutigt durch diese Umstellung versuchen die Unternehmen dann, die Anwendungen so zu modernisieren, dass sie Cloud-nativ sind, was ein Refactoring und die Verpackung in Microservices, Software-Container und andere neumodische Konstrukte beinhaltet.
In der Modernisierungsphase haben CIOs normalerweise Schwierigkeiten, die Arbeitslast so zu optimieren, dass sie kosteneffizient ausgeführt werden kann, und versuchen stattdessen, sie zurückzufahren, sagt Subramanian. Er zählt die Ressourcenkonsolidierung, die Gesamtbetriebskosten (Total Cost of Ownership, TCO) und Bedenken hinsichtlich der Datensicherheit zu den drei wichtigsten Gründen für eine Cloud-Rückführung. „Das bedeutet nicht, dass die Cloud teuer ist“, so Subramanian. „Es bedeutet, dass (einige Unternehmen) nicht den besten Migrationspfad für diese Arbeitslast genutzt haben“.
Für Seagate war TCO ein wichtiger Faktor bei einer eventuellen Rückführung seines Hadoop-Datensees.
Das Unternehmen, das sowohl Speichersysteme der Verbraucherklasse als auch der Unternehmensklasse anbietet, erzeugt in seinen Fabriken täglich 30 Terabyte an parametrischen Daten. Obwohl Seagate nur einen Teil dieser Daten in seinen Datenspeicher aufgenommen hat, hätte die Rechnung für den Datentransport zwischen sieben Fabriken auf drei Kontinenten jedes Jahr Millionen von Dollar betragen können, so Naik. Außerdem dauert es Tage, um diese Datenmenge über das Netzwerk zu bewegen. Beide Einschränkungen zwangen Seagate dazu, die Daten zu filtern und nur das nötige Minimum aufzunehmen.
Rückführung eines Datensees
Nach einer Neubewertung seiner Cloud-Strategie – und nachdem Seagate viel aus der Anwendung von AWS gelernt hat – hat das Unternehmen seine Analyse-Lösungen mit Hilfe von cloud-nativen Tools und Architekturen überarbeitet. Bald darauf erkannte das Team, dass die optimierte Architektur und die Cloud-Tools es ihm ermöglichen würden, ein weitaus effizienteres Ökosystem außerhalb der öffentlichen Cloud zu betreiben. Also repatriierte es den Datensee und verlegte ihn in den Speicher von Seagate, der in einer privaten Cloud betrieben wird. Heute transportiert Seagate große Datensätze zu einem Bruchteil der Kosten für die Übertragung über das WAN weltweit und reduziert gleichzeitig die Aufnahmezeiten von Wochen auf 72 Stunden, so Naik.
„Die Repatriierung unseres großen Datenökosystems zusammen mit der physischen Datenübertragung mit Hochgeschwindigkeits-Datenshuttles und Cloud-Architekturen ermöglicht es uns, alle unsere parametrischen Daten aufzunehmen und unseren Technik- und Operations-Teams eine reichhaltigere Datenanalyse zu einem Bruchteil der Kosten der öffentlichen Cloud zu ermöglichen“, erklärt Naik.
Durch den Umzug konnte Seagate seine Ausgaben um bis zu 25 Prozent reduzieren. „Die Disziplin, die sie Ihnen auferlegt, hilft Ihnen, Geld zu sparen“, meint Naik und fügt hinzu, dass Seagate derzeit eine hybride Umgebung betreibt, die AWS, Azure und eigene Rechenzentren umfasst.
Eine Menge Vorsicht in der Cloud
Aus Vorsicht vor den Fallstricken, die mit der Kostenspirale verbunden sind, die die Rückführung von Mitarbeitern beschleunigt, sind einige Unternehmen bei der Verlagerung von Arbeitsbelastungen in die Public Cloud von vornherein gewissenhafter.
ApolloMD, ein Spezialdienstleister für Krankenhäuser, wählt nur Cloud-Dienste, die seine Technologie und seine Geschäftsanforderungen aufeinander abstimmen, so CIO Anthony Mascitti. Er nutzt Cloud-Software über Anbieter, die auf AWS gehostet werden, und nutzt SaaS-Anwendungen wie PowerBI für die Datenvisualisierung und Adaptive Insights für die Finanzanalyse.
ApolloMD betreibt immer noch Data Mining und Warehousing im eigenen Rechenzentrum, aber die IT-Abteilung ist bestrebt, Mitarbeitern und Partnern mehr Self-Service-Fähigkeiten, die auch Cloud-Dienste umfassen könnten, zur Verfügung zu stellen. „Mein Ansatz ist es, mit den geschäftlichen Anforderungen und dem Wertangebot zu beginnen“, sagt Mascitti. „Die technische Komponente überbrückt die ersten beiden.“
Was die Entscheidung von Seagate betrifft, seine großen Datenoperationen zurückzufahren, sagt Naik, dass dies Teil der Lernerfahrung bei der Migration zur öffentlichen Cloud war. Und es war kaum die einzige Hürde, da das Änderungsmanagement eine weitere Herausforderung darstellte.
In Vorbereitung auf den Wechsel zur Cloud richtete Naik eine IT-Schulungsgruppe mit Mitarbeitern der Personalabteilung ein, die bei der Kommunikation der nächsten Schritte helfen sollte. Die Gruppe half den Mitarbeitern bei der Teilnahme an Online-Schulungen, die von Udemy angeboten wurden. Naik schickte auch Mitarbeiter zu AWS Loft-Sitzungen für das Refactoring in der Cloud. „Das war eine bedeutende Veränderung“, sagt Naik.
CIOs müssen sich außerdem vor der Bindung an die Cloud hüten, da die meisten Cloud-Anbieter einen Anreiz haben, ihre Kunden auf benachbarte Cloud-Dienste umzustellen. Ein Kunde, der beispielsweise Data-Warehousing-Dienste in Anspruch nimmt, kann es einfacher finden, Analysen und maschinelles Lernen vom selben Anbieter zu nutzen. Aber je mehr Daten und Ressourcen CIOs sich auf eine einzige Plattform festlegen, desto schwieriger ist es, ihre Daten zurückzuziehen. CIOs wünschen sich mehr Auswahl und Flexibilität bei der Wahl des Ortes und der Art und Weise, wo und wie sie ihre Arbeitslasten ausführen.
Naik erwartet, dass die Anbieter, die gegenüber verärgerten Kunden misstrauisch sind, schließlich echte Multi-Cloud-Umgebungen ermöglichen werden, in denen Unternehmen die Berechnung vom Speicher entkoppeln und vollständige oder teilweise Arbeitslasten zwischen Clouds und lokalen Systemen verschiedener Anbieter verschieben können. „Die Anbieter von Cloud-Lösungen werden sich darum bemühen“, sagt Naik.
*Clint Boulton ist ein leitender Autor bei CIO.com, der über IT-Führung, die Rolle des CIO und die digitale Transformation berichtet.
Be the first to comment