Die neue Ära des Edge Computing

Für schnelle Apps reicht eine Skalierung des Netzwerks und der Rechenzentren nicht mehr aus. Heute müssen Anwendungen näher an den Benutzern sein. So sind in der neuen Ära des Edge Computing die Applikationen genauso mobil wie ihre Nutzer. Das erfordert ein großes, flexibles Netz von Ressourcen, in dem sich Apps nach Bedarf bewegen können. [...]

Lori MacVittie, Principal Technical Evangelist, Office des CTO bei F5. (c) F5

Noch vor wenigen Jahren waren Nutzer hauptsächlich Menschen, die am Büro-Arbeitsplatz von ihrem PC aus auf Anwendungen und Informationen zugriffen. In dieser Ära der Rechenzentren wurden die Applikationen über firmeneigene Server bereitgestellt – oder fest auf dem Rechner installiert.

In der darauf folgenden Cloud-Ära ermöglicht das Internet ein neues Betriebsmodell, mit dem Nutzer auch von zu Hause aus auf Anwendungen zugreifen können. Die Apps müssen somit schnell und einfach von vielen Standorten aus zugänglich sein. Die Lösung besteht aus mehreren Rechenzentren an verschiedenen Orten.

Maschinen als Nutzer 

Heute kommen jedoch immer neue Kategorien von Nutzern hinzu. Dazu zählen neben Menschen auch Software, Maschinen, Geräte und Sensoren. Sie greifen von überall auf Anwendungen zu. So stammten im November 2020 in den USA bereits rund 45 Prozent des Web-Traffics von Mobiltelefonen. Aber auch Fernseher, Haushaltsgeräte und sogar Glühbirnen nutzen Anwendungen über das Internet.

Diese Veränderung in der Definition und Verteilung der Nutzer treibt Edge Computing deutlich voran. Zum Beispiel sagt der Annual Internet Report von Cisco voraus, dass es bis 2023 mehr als dreimal so viele vernetzte Geräte auf der Erde geben wird wie Menschen. Etwa die Hälfte der weltweiten Verbindungen werden Machine-to-Machine-Verbindungen sein, und der M2M-Bereich wird von Consumer-Geräten in Smart Homes und Autos dominiert.

Hohes Tempo gefragt

Unternehmen haben schon immer versucht, die Anwendungen dort bereitzustellen, wo die Nutzer sind. Doch nun müssen sie Nutzer aller Art an den Rändern des Internets erreichen. Das bedeutet: Damit Menschen und Maschinen ihre Aufgaben schnell und effizient erledigen können, sollten die Anwendungen in der Nähe der Benutzer sein – und damit quasi überall.

Einer der Hauptgründe dafür ist der universelle Bedarf an hoher Geschwindigkeit. Ganz gleich, ob es um die Leistung einer Anwendung oder um eine schnelle Reaktion für die Steuerung eines Geräts geht: Geschwindigkeit ist etwas, das sowohl Menschen als auch Maschinen von Edge Computing erwarten.

So sind zwei der drei wichtigsten Anwendungsfälle für Edge Computing laut den Befragten der jährlichen State of Application Strategy-Studie von F5:

  • Verbesserung der Anwendungsleistung (43 Prozent)
  • Berechnung/Verarbeitung/Analyse in Echtzeit mit einer Latenz von weniger als 20 ms (34 Prozent)

Daraus lässt sich ableiten, dass die aktuellen Geschwindigkeiten nicht hoch genug sind. Ein Grund dafür ist die Struktur klassischer, monolithischer Anwendungen, die zu einer großen Latenz führt. Aufgrund ihrer unzähligen Komponenten, von denen jede eine gewisse Zeit benötigt, bringt selbst eine höhere Netzwerkgeschwindigkeit und -kapazität keine Beschleunigung.

Anwendungen an den Rand verlagern 

Moderne Container-basierte Apps weisen dagegen kurze Reaktionszeiten auf. Auch die Rechenleistung der Server und Geräte ist in den letzten Jahren deutlich gestiegen. Gerade bei mobilen Apps bestimmt daher die Netzwerkverbindung, wie schnell Daten gesendet und empfangen werden. Doch bei immer mehr Nutzern – ob Menschen, Maschinen oder Systeme – an immer mehr Standorten ist eine weitere Erhöhung der verfügbaren Bandbreite oft aufgrund physikalischer und wirtschaftlicher Gesetze einfach nicht möglich. Ob hier neue Technologien wie 5G die Lösung bringen, bleibt erst noch abzuwarten.

In der Zwischenzeit gibt es eine praktische Alternative: die Verlagerung von Anwendungen – insbesondere von solchen, die Daten verarbeiten und analysieren – in die Nähe des Nutzers. Denn der Standort einer Anwendung ist die flexibelste Variable in der Leistungsgleichung.  

So steht eine neue Ära bevor, in der Anwendungen genauso mobil sein müssen wie es ihre Nutzer bereits sind. Dabei bleiben Rechenzentren und Public Clouds zwar nach wie vor wichtig, aber nur noch als Teil eines größeren, flexibleren Netzes von Ressourcen für Rechenleistung, Netzwerk und Speicher. Dieses Ressourcen-Netz erstreckt sich über Standorte, zwischen denen sich Anwendungen fließend und nach Bedarf bis an den Rand des Netzwerks bewegen können. 

Von Edge 1.0 zu Edge 2.0 

Diese neue Ära des Edge Computing hat ihren Ursprung bei den Edge-Lösungen der ersten Generation. Bei „Edge 1.0“ handelt es sich um Content Delivery Networks (CDNs), die große Dateien wie Videos physisch näher am Nutzer zwischenspeichern. Die nächste Version „Edge 1.5“ fügt den CDNs das eigentliche Edge Computing hinzu. Damit werden dynamische Inhalte als SaaS-Lösung bereitgestellt. In beiden Fällen handelt es sich um in sich geschlossene Lösungen, deren Kapazität auf die eigene physische Infrastruktur beschränkt ist. Unternehmen müssen daher ihre Anwendungen an jeden Edge-Anbieter anpassen.

Mit „Edge 2.0“ kommt nun eine universelle Multi-Cloud-Technologie, welche die Ausführung von Containern nach Branchenstandard in jeder Public Cloud, Private Cloud oder on-Premises ermöglicht. Denn die dahinter liegende Technologie verwendet die riesige Infrastruktur, die von den Public-Cloud-Anbietern aufgebaut wurde, und reicht nahtlos bis in die eigenen Rechenzentren der Unternehmen. Die Plattform ist dabei sicherheitsorientiert, App-gesteuert und unbegrenzt skalierbar. Sie bietet eine Kombination aus SaaS zur nahtlosen Bereitstellung von Netzwerk- und Sicherheitslösungen sowie PaaS zur Erstellung und Ausführung moderner Kubernetes-basierter Apps. Dies ermöglicht unternehmenskritische Services zur Bereitstellung und Absicherung von Anwendungen am Edge.

Ausblick 

Edge 2.0 bietet nicht nur eine flexible Bereitstellung von Apps, die sich fließend zwischen Clouds und on-Premises-Systemen bewegen können. Sie bildet auch die Basis für neuartige adaptive Apps, die sich automatisch an ihre Umgebung anpassen. Je nach aktuellem Bedarf erweitern, reduzieren, verteidigen und reparieren sie sich selbstständig. So wird die Geschwindigkeit und Zuverlässigkeit der Anwendungen noch weiter optimiert.

*Lori MacVittie ist Principal Technical Evangelist, Office des CTO bei F5.


Mehr Artikel

News

Experte warnt vor globaler Quanten-Krise

Harald A. Summa, Chairman der Initiative Quantum Leap beim Think Tank Diplomatic Council, warnt vor einer globalen Quanten-Krise („Quantum Crisis“). Er macht darauf aufmerksam, dass Quantencomputer schon in wenigen Jahren in der Lage sein werden, alle heute geläufigen Verfahren zur Datenverschlüsselung zu knacken. […]

News

Sicher buchen, sicher reisen: So erkennen Sie Hotelbetrug

Für Hacker beginnt mit dem Start der Ferien eine Hochsaison: Mit fiesen Tricks versuchen sie, Urlauber um ihr Geld zu bringen. Besonders Buchungsportale für Hotels und Ferienwohnungen stellen für Cyberkriminelle ein beliebtes Werkzeug dar, um ihre Opfer zu erreichen. Der IT-Sicherheitshersteller ESET erklärt, wie sie dabei vorgehen und wie Nutzer sich schützen können. […]

News

Von der Idee zur Akzeptanz: So meistern Unternehmen die Einführung von Compliance-Tools

Trotz anfänglicher Begeisterung stoßen neue Softwaretools in Unternehmen oft auf Herausforderungen bei der langfristigen Akzeptanz. Dies trifft im Besonderen auf Compliance-Tools zu, welche häufig direkt als zusätzliche Belastung von weiten Teilen des Unternehmens aufgefasst werden, da sie im ersten Moment in den Köpfen der Mitarbeiter vor allem eins bedeuten: mehr Arbeit. […]

News

ERP-Betriebsmodelle der Zukunft

Zentrales Thema der Fachtagung ERP Future – Business, die heuer am 14. November 2024 an der FH Technikum Wien stattfindet, sind zukünftige Betriebsmodelle von ERP-Systemen sowie deren Chancen und Risiken. […]

(c) envatoelements, By seventyfourimages
News

Die Rolle von Währungssystemen in Online-Games

Währungssysteme in Online-Games sind ein wichtiger Bestandteil der Spielerfahrung. Sie ermöglichen es Spielern, Items und Dienstleistungen innerhalb des Spiels zu erwerben, Handel zu treiben und ihre Spielfiguren sowie Fähigkeiten zu verbessern. Diese virtuellen Ökonomien spiegeln oft komplexe wirtschaftliche Modelle wider und bieten den Spieleentwicklern eine zusätzliche Einnahmequelle durch Mikrotransaktionen. […]

Das Grazer Tietoevry Team von l.n.r.: Patrick Monschein (Solution Consultant), Martin Strobl (Director, Public Austria), Alexander Jeitler (Solution Consultant), Josef Schmid (Solution Consultant), Daniel Wonisch (Solution Consultant), Martin Bauer (Solution Consultant) & Kristina Hristova (HR Business Partner) (c) Tietoevry
News

Tietoevry eröffnet neues Büro in Graz

Der nordeuropäische IT-Dienstleister Tietoevry hat letzte Woche sein Büro im Salix Campus unweit des Stadtentwicklungsgebiets „Smart City“ in Graz eröffnet. Mit diesem Schritt will das Unternehmen seine Expertise in Software engineering und digitaler Innovation tiefer in die Technologieszene der Steiermark einbringen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*