Google Cloud Anthos: Hier ist alles, was Sie wissen müssen

Bei der Entwicklung von Google Cloud Anthos achtete Google speziell auf die Wünsche der Kunden, Workloads sowohl vor Ort als auch in der Cloud auszuführen. Mit Anthos können Kunden jetzt auch zwischen den Clouds anderer Anbieter wechseln. [...]

Anthos macht den Wechsel zwischen Cloud-Angeboten von Drittanbietern möglich und vereinfacht es den Unternehmen so, unterschiedliche Technologien zu verwenden (c) Google

Google Cloud hat gestern die allgemeine Verfügbarkeit von Anthos verkündet: Eine Plattform, auf der Kunden Anwendungen vor Ort, in der Google Cloud, aber vor allem mit anderen großen Public Cloud-Anbietern wie Microsoft Azure und Amazon Web Services (AWS) ausführen können.

Auf der Google Cloud Next gestern in San Francisco erklärte der CEO von Google, Sundar Pichai, die Idee hinter Anthos mit „einmal schreiben, überall ausführen“.

„Es gibt Ihnen die Flexibilität, On-Prem-Apps in die Cloud zu bringen, wenn Sie bereit sind. Außerdem können Sie die von Ihnen verwendeten Technologien auch weiterhin nutzen und gleichzeitig die Sicherheit verbessern“, sagte er.

„Heute findet der Großteil des Enterprise Computing noch immer vor Ort statt“, fügte er hinzu. „Es ist noch nicht in der Cloud umgezogen, weil der Weg nach vorne komplex und erschreckend ist und viele schwierige Entscheidungen bereithält. Wie können Sie modernisieren, ohne völlig in die Cloud zu übersiedeln? Wie überbrücken Sie inkompatible Architekturen während des Übergangs? Wie bleiben Sie flexibel und vermeiden Lock-in?“

Die zuvor veröffentlichte Google Kubernetes Engine (GKE) und GKE On-Prem ermöglichten daher Hybridbereitstellungen. Die Kunden jedoch forderten weiterhin eine Plattform, die es einfacher machte, mehrere, konkurrierende Cloud-Anbieter gleichzeitig zu nutzen.

Nick McQuire, Vice President in Enterprise Research bei CCS Insight, erklärte: „Mit der Ankunft von Anthos und insbesondere der Unterstützung von Open Source, vor allem Kubernetes, geht Google jetzt einen viel realistischeren Weg, Kunden dort zu begegnen, wo sie sich in ihrem Cloud-Übergang befinden, und strebt an, in dieser nächsten Phase des Cloud-Markts zum Standard für Hybrid- und Multi-Cloud-Dienste zu werden.“

Thomas Kurian, der neue CEO von Google Cloud, stimmte dem zu: „Anthos hörte sich die Kunden an, die allem voran drei wichtige Dinge von ihren Cloud-Anbietern wollten: Erstens, einen Technologie-Stack, der in ihrem Rechenzentrum neben Enterprise-Workloads laufen soll, die sie noch nicht in die Cloud wechseln konnten. Zweitens: Ein einziges Programmiermodell, das ihnen die Wahl und Flexibilität gibt, um Workloads ohne Änderung in die Google Cloud und zu anderen Cloud-Anbietern zu verschieben. Drittens: Eine Plattform, mit der diese Infrastruktur ohne große Komplexität betrieben werden und auf eine einzige, konstante Weise über mehrere Clouds hinweg gesichert und verwaltet werden kann.“

Der Nutzen

Später sprach Kurian bei einem Pressegespräch über den Kundennutzen. Er demonstrierte erneut die Neigung eines Politikers, Ideen zu drei Gruppen zusammenzufassen: „Erstens, aufgrund der oft nur begrenzten Fähigkeiten, Cloud zu lernen, hilft es ihnen dabei, diese anhand einer einzigen Technologie zu trainieren. Sie müssen sich nicht mit der individuellen Technologie eines jeden Cloud-Anbieters auseinandersetzen. Stattdessen können sie eine Technologie erlernen und sie überall auf die gleiche Weise einsetzen. Zweitens haben sie eine Wahl. Sie sind nicht an einen einzelnen Cloud-Anbieter gebunden, sondern können in eben die Cloud wechseln, von der sie am meisten profitieren.“

„Drittens gibt es ihnen Betriebskonsistenz – und das ist eine sehr wichtige Sache. Zum Beispiel kann so die Sicherheit auf dieselbe Weise konfiguriert werden wie das Monitoring oder die Policy. Auch das ist wichtig, denn andernfalls kommt es zu einem erhöhten Risiko.“

Die Konkurrenz

Die Angst vor dem Lieferanten-Lock-In ist für Unternehmenskunden heutzutage ein sehr reales Problem. Die Bereitstellung eines flexiblen und offenen Weges zur Cloud ist für Cloud-Anbieter heutzutage ein heiliger Gral. Doch einige von ihnen möchten gerne profitieren, indem sie speziell diese Kunden in ihrem eigenen Ökosystem einschließen, sobald sie sich dazu entscheiden, Workloads in ihre Cloud zu verlagern.

Amazon Web Services kündigte Ende letzten Jahres AWS Outposts an, um Kunden dabei zu helfen, den Übergang in die On-Prem- und Cloud-Welt so nahtlos wie möglich zu gestalten. Oracles Cloud at Customer und Microsoft Azure Stack sind ähnliche Hybrid-Cloud-Angebote anderer großer Anbieter.

Mit Outposts erhalten Kunden zum Beispiel AWS-konfigurierte Hard- und Software, die direkt in ihr On-Premise-Rechenzentrum oder zu ihrer Co-Location geliefert wird. Hier können Anwendungen auf Cloud-native Weise ausgeführt werden, ohne die AWS-Rechenzentren dazu anrühren zu müssen. Dies könnte einen einfacheren Weg darstellen, Apps von der vorhandenen Infrastruktur in die AWS-Cloud „anzuheben“ und dorthin zu verschieben. Dies gilt jedoch nicht für rivalisierende öffentliche Cloud-Anbieter wie Azure oder GCP.

Mit Anthos will Google die einzig wirklich flexible Option auf dem Markt sein.

Die Plattform ist auf Fluidität ausgelegt, erklärte der SVP der technischen Infrastruktur Urs Hölzle und VP of Engineering bei Google Cloud Eyal Manor in einem Google Cloud-Blogpost: „Mit Anthos können Sie auch Workloads verwalten, die in Clouds von Drittanbietern wie AWS und Azure laufen. Sie können Ihre Anwendungen in der Cloud Ihrer Wahl bereitstellen, ausführen und verwalten, ohne dass Administratoren und Entwickler dazu erst unterschiedliche Umgebungen und APIs kennenlernen müssten.“

Zum Thema Fertigkeiten meinte Kurian weiterhin: „Viele große Unternehmen möchten ihre Mitarbeiter wirklich einmal in einer ganzen Reihe von Technologien trainieren, die sie überall einsetzen können. Kein anderer Cloud-Anbieter löst das.“

„Wenn Sie heute mit Azure sprechen, werden sie sagen, dass Sie Azure Stack ebenfalls vor Ort und in der Cloud ausführen können. Amazon wird sagen, dass Sie Outposts vor Ort und in der AWS-Cloud ausführen können. Das sind alles gute Unternehmen, aber keine von ihnen hat eine Lösung für Multi-Cloud-Problem parat.“

Die Partner

Anthos ist die natürliche Evolution der im letzten Jahr angekündigten Google Cloud Services-Plattform. Es vereint eine Kombination aus der vorhandenen Google Kubernetes Engine (GKE), GKE On-Prem und der Anthos Config Management Console für einheitliche Verwaltung, Richtlinien und Sicherheit in hybriden Kubernetes-Bereitstellungen.

Anthos „ist eine zu 100 Prozent Software-basierte Lösung“, sagte Hölzle in seinem Blogbeitrag. Er behauptet weiterhin, dass es einfach sei, vorhandene Hardware ohne erzwungene Stack-Aktualisierung zu starten und auszuführen, und dass es auf GKE basiert und dass Kubernetes-Updates und Sicherheitspatches automatisch hinzugefügt werden, sobald sie freigegeben werden.

Anthos ist außerdem hardwareunabhängig und kann daher auf vorhandenen Servern ausgeführt werden. Es wurde auch mit einer Reihe von Hardware-Partnern gearbeitet, darunter gab es Zusagen von VMware, Dell EMC, HPE, Intel und Lenovo, die Anthos in ihren hyperkonvergenten Infrastrukturen bereitstellen wollen.

Beta-Phase und Preis

Um Kunden den Einstieg zu erleichtern, hat Google Anthos Migrate heute die Beta-Phase erreicht. Dieser Dienst „migriert VMs mit minimalem Aufwand automatisch aus lokalen oder anderen Clouds direkt in Container in GKE“, so der Blogpost.

Für Neukunden bedeutet der erste Schritt zum Ausführen von Anthos das Einrichten eines GKE-On-Prem-Clusters und das Migrieren über eine vorhandene Anwendung. Sobald dieser Cluster bei GCP registriert ist, können Sie das Istio-Service-Mesh installieren, um die Workload-Sichtbarkeit für alle Cluster zu vernetzen. Durch das Aktivieren der Anthos Config-Verwaltung für Ihre GKE-Cluster können dann alle Kubernetes- und Istio-Richtlinien an einem Ort verwaltet werden.

Anthos wird als monatliches Laufzeitabonnement mit einer Mindestvertragsbindung von einem Jahr abgerechnet. Der Preis wird dann stufenweise für Blöcke von je 100 vCPUs festgesetzt, beginnend bei 10.000 US-Dollar pro Block, unabhängig davon, wo dieser Workload letztendlich ausgeführt wird.

*Scott Carey ist Redakteur bei Computerworld.com


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*