Netzwerk-Service-Mesh: Verknüpfung von Multicloud-Workloads

Die Cloud Native Computing Foundation entwickelt Technologien, um Multi-Cloud-Unternehmens-Workloads auf der Netzwerkebene zu verbinden, unabhängig davon, wo sie ausgeführt werden. [...]

Foto: pixabay.com

Die Vernetzung von Multicloud-basierten Unternehmens-Workloads kann kompliziert und mühsam sein, aber es gibt ein Open-Source-Softwareprojekt, das dies ändern könnte. Unter dem Namen Network Service Mesh [engl.] würde das Projekt Cloud-basierte Kubernetes-Workloads in die Lage versetzen, sicher zu kommunizieren, unabhängig davon, wo sie sich in verschiedenen Clouds befinden.

Es steht unter der Federführung der Cloud Native Computing Foundation, die Teil der Linux Foundation ist.

Und der Bedarf an derartigen Technologien wächst. Cisco hat vor kurzem eine Studie veröffentlicht [engl.], wonach Unternehmen mit 5.000 oder mehr Mitarbeitern wahrscheinlich mehr als 10 Public Cloud-Anbieter und 20 bis 100 SaaS-Anbieter in Kategorien wie E-Mail, Kollaboration und Videotelefonie sowie Customer Relationship- und Human Capital Management nutzen.

Für die Befürworter von Network Service Mesh ist das eine potenziell sehr attraktive Arbeitsumgebung.

Niedrigere Komplexität

„Network Service Mesh ermöglicht es dem Kunden, einzelne Workloads, wo auch immer sie laufen – ob Multi-Cloud oder Hybrid-Cloud – mit einem Service Mesh zu verbinden, ohne die Komplexität von [Layer 7]-Gateways oder die Orchestrierung einer einzelnen, großen, komplexen, flachen [Layer 3]-Domäne“, so Ed Warnicke, Principal Engineer im Office of Open Source Initiatives von Cisco.

Das traditionelle Application Service Mesh funktioniert auf Layer 7 (HTTPS) mit den Hauptmerkmalen Service Discovery und Routing der HTTPS-Anfragen von den Workloads zu den Services. „Network Service Mesh übernimmt einige der Ideen des traditionellen Application Service Mesh und bringt sie auf L3. Die wichtigste Funktion ist die Erkennung und das Routing von Netzwerkdiensten – die Verbindung einzelner Workloads mit ‚Netzwerkdiensten‘ über virtuelle Leitungen oder vWires“, sagte er.

Im Grunde schafft Network Service Mesh nach Bedarf dynamische, flache L3-Overlays, auf denen Unternehmen ein Service-Mesh betreiben und in die sie alle autorisierten Workloads einbinden können. „Letztendlich können Teams so die besten Optionen für den Betrieb ihrer Workloads wählen – über mehrere Cluster hinweg, in Legacy-Umgebungen, vor Ort oder in Public Clouds – ohne sich Gedanken über zusätzliche Komplexitätsebenen oder zusätzliche Risiken machen zu müssen“, so Warnicke.

Bisher wurde versucht, die Herausforderung der Multi-Cloud-Kommunikation zu lösen, indem man entweder alle Arbeitslasten und die Service-Mesh-Kontrollebene in einem einzigen flachen L3-Netz unterbrachte oder ein System von L7-Gateways einsetzte, die ihrerseits über ein flaches L3-Netz andere erreichen. Laut Warnicke ist ein flaches L3-Netz in einer Multi-Cloud-/Hybrid-Umgebung nur sehr schwer zu arrangieren, und die L7-Gateways sind äußerst komplex zu warten und zu konfigurieren und stellen einen Flaschenhals im System dar.

Network Service Mesh selbst bietet keine traditionellen L7-Dienste an. Es bietet den ergänzenden Service einer flachen L3-Domäne, mit der sich einzelne Workloads verbinden können, so dass das herkömmliche Service Mesh seine Aufgaben in einem größeren Bereich besser und einfacher erfüllen kann, so Warnicke.

Network Service Mesh ermöglicht auch Multi-Service-Mesh, d. h. die Fähigkeit eines einzelnen Container-Pods, sich mit mehr als einem Service-Mesh gleichzeitig zu verbinden, unabhängig von seinem Standort, so Warnicke.

Network Service Mesh verfügt über Funktionen zur Identitätsföderation und Zulassungsrichtlinien, die es einem Unternehmen ermöglichen, die Arbeitslasten eines anderen Unternehmens selektiv in sein Service Mesh aufzunehmen, so Warnicke.

Die Cloud Foundation nennt einige typische Anwendungsfälle für Network Service Mesh, darunter:

  • Eine gemeinsame flache vL3-Domäne, die es DBs, die in mehreren Clustern/Clouds/Hybriden laufen, ermöglicht, nur zur DB-Replikation miteinander zu kommunizieren.
  • Ein einziges L7-Service-Mesh (Istio/Linkerd/Consul/Kuma), das Workloads verbindet, die in mehreren Clustern/Clouds/On-Prem laufen.
  • Eine einzelne Workload, die mit mehreren L7-Service-Meshes verbunden ist.
  • Workloads aus mehreren Unternehmen, die sich mit einem einzigen „kollaborativen“ Service Mesh für unternehmensübergreifende Interaktionen verbinden.

Network Service Mesh ist ein Open-Source-Projekt der CNCF, an dem eine Reihe von Anbietern wie Cisco, Xored und Ericsson arbeiten, und laut Warnicke sind bereits einige Implementierungen verfügbar. „Mit der regelmäßigen Veröffentlichung (etwa alle 60 Tage) werden weitere Anwendungsfälle verfügbar werden. Die ‚Istio Extender‘-Anwendungsfälle sollen Anfang Juni als Teil der Version 1.4 veröffentlicht werden, so Warnicke.

*Michael Cooney ist Senior Editor bei Network World und schreibt seit mehr als 25 Jahren über die IT-Welt.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*