Die neue Ära des Edge Computing

Für schnelle Apps reicht eine Skalierung des Netzwerks und der Rechenzentren nicht mehr aus. Heute müssen Anwendungen näher an den Benutzern sein. So sind in der neuen Ära des Edge Computing die Applikationen genauso mobil wie ihre Nutzer. Das erfordert ein großes, flexibles Netz von Ressourcen, in dem sich Apps nach Bedarf bewegen können. [...]

Lori MacVittie, Principal Technical Evangelist, Office des CTO bei F5. (c) F5

Noch vor wenigen Jahren waren Nutzer hauptsächlich Menschen, die am Büro-Arbeitsplatz von ihrem PC aus auf Anwendungen und Informationen zugriffen. In dieser Ära der Rechenzentren wurden die Applikationen über firmeneigene Server bereitgestellt – oder fest auf dem Rechner installiert.

In der darauf folgenden Cloud-Ära ermöglicht das Internet ein neues Betriebsmodell, mit dem Nutzer auch von zu Hause aus auf Anwendungen zugreifen können. Die Apps müssen somit schnell und einfach von vielen Standorten aus zugänglich sein. Die Lösung besteht aus mehreren Rechenzentren an verschiedenen Orten.

Maschinen als Nutzer 

Heute kommen jedoch immer neue Kategorien von Nutzern hinzu. Dazu zählen neben Menschen auch Software, Maschinen, Geräte und Sensoren. Sie greifen von überall auf Anwendungen zu. So stammten im November 2020 in den USA bereits rund 45 Prozent des Web-Traffics von Mobiltelefonen. Aber auch Fernseher, Haushaltsgeräte und sogar Glühbirnen nutzen Anwendungen über das Internet.

Diese Veränderung in der Definition und Verteilung der Nutzer treibt Edge Computing deutlich voran. Zum Beispiel sagt der Annual Internet Report von Cisco voraus, dass es bis 2023 mehr als dreimal so viele vernetzte Geräte auf der Erde geben wird wie Menschen. Etwa die Hälfte der weltweiten Verbindungen werden Machine-to-Machine-Verbindungen sein, und der M2M-Bereich wird von Consumer-Geräten in Smart Homes und Autos dominiert.

Hohes Tempo gefragt

Unternehmen haben schon immer versucht, die Anwendungen dort bereitzustellen, wo die Nutzer sind. Doch nun müssen sie Nutzer aller Art an den Rändern des Internets erreichen. Das bedeutet: Damit Menschen und Maschinen ihre Aufgaben schnell und effizient erledigen können, sollten die Anwendungen in der Nähe der Benutzer sein – und damit quasi überall.

Einer der Hauptgründe dafür ist der universelle Bedarf an hoher Geschwindigkeit. Ganz gleich, ob es um die Leistung einer Anwendung oder um eine schnelle Reaktion für die Steuerung eines Geräts geht: Geschwindigkeit ist etwas, das sowohl Menschen als auch Maschinen von Edge Computing erwarten.

So sind zwei der drei wichtigsten Anwendungsfälle für Edge Computing laut den Befragten der jährlichen State of Application Strategy-Studie von F5:

  • Verbesserung der Anwendungsleistung (43 Prozent)
  • Berechnung/Verarbeitung/Analyse in Echtzeit mit einer Latenz von weniger als 20 ms (34 Prozent)

Daraus lässt sich ableiten, dass die aktuellen Geschwindigkeiten nicht hoch genug sind. Ein Grund dafür ist die Struktur klassischer, monolithischer Anwendungen, die zu einer großen Latenz führt. Aufgrund ihrer unzähligen Komponenten, von denen jede eine gewisse Zeit benötigt, bringt selbst eine höhere Netzwerkgeschwindigkeit und -kapazität keine Beschleunigung.

Anwendungen an den Rand verlagern 

Moderne Container-basierte Apps weisen dagegen kurze Reaktionszeiten auf. Auch die Rechenleistung der Server und Geräte ist in den letzten Jahren deutlich gestiegen. Gerade bei mobilen Apps bestimmt daher die Netzwerkverbindung, wie schnell Daten gesendet und empfangen werden. Doch bei immer mehr Nutzern – ob Menschen, Maschinen oder Systeme – an immer mehr Standorten ist eine weitere Erhöhung der verfügbaren Bandbreite oft aufgrund physikalischer und wirtschaftlicher Gesetze einfach nicht möglich. Ob hier neue Technologien wie 5G die Lösung bringen, bleibt erst noch abzuwarten.

In der Zwischenzeit gibt es eine praktische Alternative: die Verlagerung von Anwendungen – insbesondere von solchen, die Daten verarbeiten und analysieren – in die Nähe des Nutzers. Denn der Standort einer Anwendung ist die flexibelste Variable in der Leistungsgleichung.  

So steht eine neue Ära bevor, in der Anwendungen genauso mobil sein müssen wie es ihre Nutzer bereits sind. Dabei bleiben Rechenzentren und Public Clouds zwar nach wie vor wichtig, aber nur noch als Teil eines größeren, flexibleren Netzes von Ressourcen für Rechenleistung, Netzwerk und Speicher. Dieses Ressourcen-Netz erstreckt sich über Standorte, zwischen denen sich Anwendungen fließend und nach Bedarf bis an den Rand des Netzwerks bewegen können. 

Von Edge 1.0 zu Edge 2.0 

Diese neue Ära des Edge Computing hat ihren Ursprung bei den Edge-Lösungen der ersten Generation. Bei „Edge 1.0“ handelt es sich um Content Delivery Networks (CDNs), die große Dateien wie Videos physisch näher am Nutzer zwischenspeichern. Die nächste Version „Edge 1.5“ fügt den CDNs das eigentliche Edge Computing hinzu. Damit werden dynamische Inhalte als SaaS-Lösung bereitgestellt. In beiden Fällen handelt es sich um in sich geschlossene Lösungen, deren Kapazität auf die eigene physische Infrastruktur beschränkt ist. Unternehmen müssen daher ihre Anwendungen an jeden Edge-Anbieter anpassen.

Mit „Edge 2.0“ kommt nun eine universelle Multi-Cloud-Technologie, welche die Ausführung von Containern nach Branchenstandard in jeder Public Cloud, Private Cloud oder on-Premises ermöglicht. Denn die dahinter liegende Technologie verwendet die riesige Infrastruktur, die von den Public-Cloud-Anbietern aufgebaut wurde, und reicht nahtlos bis in die eigenen Rechenzentren der Unternehmen. Die Plattform ist dabei sicherheitsorientiert, App-gesteuert und unbegrenzt skalierbar. Sie bietet eine Kombination aus SaaS zur nahtlosen Bereitstellung von Netzwerk- und Sicherheitslösungen sowie PaaS zur Erstellung und Ausführung moderner Kubernetes-basierter Apps. Dies ermöglicht unternehmenskritische Services zur Bereitstellung und Absicherung von Anwendungen am Edge.

Ausblick 

Edge 2.0 bietet nicht nur eine flexible Bereitstellung von Apps, die sich fließend zwischen Clouds und on-Premises-Systemen bewegen können. Sie bildet auch die Basis für neuartige adaptive Apps, die sich automatisch an ihre Umgebung anpassen. Je nach aktuellem Bedarf erweitern, reduzieren, verteidigen und reparieren sie sich selbstständig. So wird die Geschwindigkeit und Zuverlässigkeit der Anwendungen noch weiter optimiert.

*Lori MacVittie ist Principal Technical Evangelist, Office des CTO bei F5.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*