Die neue Ära des Edge Computing

Für schnelle Apps reicht eine Skalierung des Netzwerks und der Rechenzentren nicht mehr aus. Heute müssen Anwendungen näher an den Benutzern sein. So sind in der neuen Ära des Edge Computing die Applikationen genauso mobil wie ihre Nutzer. Das erfordert ein großes, flexibles Netz von Ressourcen, in dem sich Apps nach Bedarf bewegen können. [...]

Lori MacVittie, Principal Technical Evangelist, Office des CTO bei F5. (c) F5

Noch vor wenigen Jahren waren Nutzer hauptsächlich Menschen, die am Büro-Arbeitsplatz von ihrem PC aus auf Anwendungen und Informationen zugriffen. In dieser Ära der Rechenzentren wurden die Applikationen über firmeneigene Server bereitgestellt – oder fest auf dem Rechner installiert.

In der darauf folgenden Cloud-Ära ermöglicht das Internet ein neues Betriebsmodell, mit dem Nutzer auch von zu Hause aus auf Anwendungen zugreifen können. Die Apps müssen somit schnell und einfach von vielen Standorten aus zugänglich sein. Die Lösung besteht aus mehreren Rechenzentren an verschiedenen Orten.

Maschinen als Nutzer 

Heute kommen jedoch immer neue Kategorien von Nutzern hinzu. Dazu zählen neben Menschen auch Software, Maschinen, Geräte und Sensoren. Sie greifen von überall auf Anwendungen zu. So stammten im November 2020 in den USA bereits rund 45 Prozent des Web-Traffics von Mobiltelefonen. Aber auch Fernseher, Haushaltsgeräte und sogar Glühbirnen nutzen Anwendungen über das Internet.

Diese Veränderung in der Definition und Verteilung der Nutzer treibt Edge Computing deutlich voran. Zum Beispiel sagt der Annual Internet Report von Cisco voraus, dass es bis 2023 mehr als dreimal so viele vernetzte Geräte auf der Erde geben wird wie Menschen. Etwa die Hälfte der weltweiten Verbindungen werden Machine-to-Machine-Verbindungen sein, und der M2M-Bereich wird von Consumer-Geräten in Smart Homes und Autos dominiert.

Hohes Tempo gefragt

Unternehmen haben schon immer versucht, die Anwendungen dort bereitzustellen, wo die Nutzer sind. Doch nun müssen sie Nutzer aller Art an den Rändern des Internets erreichen. Das bedeutet: Damit Menschen und Maschinen ihre Aufgaben schnell und effizient erledigen können, sollten die Anwendungen in der Nähe der Benutzer sein – und damit quasi überall.

Einer der Hauptgründe dafür ist der universelle Bedarf an hoher Geschwindigkeit. Ganz gleich, ob es um die Leistung einer Anwendung oder um eine schnelle Reaktion für die Steuerung eines Geräts geht: Geschwindigkeit ist etwas, das sowohl Menschen als auch Maschinen von Edge Computing erwarten.

So sind zwei der drei wichtigsten Anwendungsfälle für Edge Computing laut den Befragten der jährlichen State of Application Strategy-Studie von F5:

  • Verbesserung der Anwendungsleistung (43 Prozent)
  • Berechnung/Verarbeitung/Analyse in Echtzeit mit einer Latenz von weniger als 20 ms (34 Prozent)

Daraus lässt sich ableiten, dass die aktuellen Geschwindigkeiten nicht hoch genug sind. Ein Grund dafür ist die Struktur klassischer, monolithischer Anwendungen, die zu einer großen Latenz führt. Aufgrund ihrer unzähligen Komponenten, von denen jede eine gewisse Zeit benötigt, bringt selbst eine höhere Netzwerkgeschwindigkeit und -kapazität keine Beschleunigung.

Anwendungen an den Rand verlagern 

Moderne Container-basierte Apps weisen dagegen kurze Reaktionszeiten auf. Auch die Rechenleistung der Server und Geräte ist in den letzten Jahren deutlich gestiegen. Gerade bei mobilen Apps bestimmt daher die Netzwerkverbindung, wie schnell Daten gesendet und empfangen werden. Doch bei immer mehr Nutzern – ob Menschen, Maschinen oder Systeme – an immer mehr Standorten ist eine weitere Erhöhung der verfügbaren Bandbreite oft aufgrund physikalischer und wirtschaftlicher Gesetze einfach nicht möglich. Ob hier neue Technologien wie 5G die Lösung bringen, bleibt erst noch abzuwarten.

In der Zwischenzeit gibt es eine praktische Alternative: die Verlagerung von Anwendungen – insbesondere von solchen, die Daten verarbeiten und analysieren – in die Nähe des Nutzers. Denn der Standort einer Anwendung ist die flexibelste Variable in der Leistungsgleichung.  

So steht eine neue Ära bevor, in der Anwendungen genauso mobil sein müssen wie es ihre Nutzer bereits sind. Dabei bleiben Rechenzentren und Public Clouds zwar nach wie vor wichtig, aber nur noch als Teil eines größeren, flexibleren Netzes von Ressourcen für Rechenleistung, Netzwerk und Speicher. Dieses Ressourcen-Netz erstreckt sich über Standorte, zwischen denen sich Anwendungen fließend und nach Bedarf bis an den Rand des Netzwerks bewegen können. 

Von Edge 1.0 zu Edge 2.0 

Diese neue Ära des Edge Computing hat ihren Ursprung bei den Edge-Lösungen der ersten Generation. Bei „Edge 1.0“ handelt es sich um Content Delivery Networks (CDNs), die große Dateien wie Videos physisch näher am Nutzer zwischenspeichern. Die nächste Version „Edge 1.5“ fügt den CDNs das eigentliche Edge Computing hinzu. Damit werden dynamische Inhalte als SaaS-Lösung bereitgestellt. In beiden Fällen handelt es sich um in sich geschlossene Lösungen, deren Kapazität auf die eigene physische Infrastruktur beschränkt ist. Unternehmen müssen daher ihre Anwendungen an jeden Edge-Anbieter anpassen.

Mit „Edge 2.0“ kommt nun eine universelle Multi-Cloud-Technologie, welche die Ausführung von Containern nach Branchenstandard in jeder Public Cloud, Private Cloud oder on-Premises ermöglicht. Denn die dahinter liegende Technologie verwendet die riesige Infrastruktur, die von den Public-Cloud-Anbietern aufgebaut wurde, und reicht nahtlos bis in die eigenen Rechenzentren der Unternehmen. Die Plattform ist dabei sicherheitsorientiert, App-gesteuert und unbegrenzt skalierbar. Sie bietet eine Kombination aus SaaS zur nahtlosen Bereitstellung von Netzwerk- und Sicherheitslösungen sowie PaaS zur Erstellung und Ausführung moderner Kubernetes-basierter Apps. Dies ermöglicht unternehmenskritische Services zur Bereitstellung und Absicherung von Anwendungen am Edge.

Ausblick 

Edge 2.0 bietet nicht nur eine flexible Bereitstellung von Apps, die sich fließend zwischen Clouds und on-Premises-Systemen bewegen können. Sie bildet auch die Basis für neuartige adaptive Apps, die sich automatisch an ihre Umgebung anpassen. Je nach aktuellem Bedarf erweitern, reduzieren, verteidigen und reparieren sie sich selbstständig. So wird die Geschwindigkeit und Zuverlässigkeit der Anwendungen noch weiter optimiert.

*Lori MacVittie ist Principal Technical Evangelist, Office des CTO bei F5.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*