Edge Computing gewinnt im Zeitalter von IoT und 5G enorm an Bedeutung. Lesen Sie, was Sie zum Thema wissen müssen. [...]
Edge Computing revolutioniert die Art und Weise wie aggregiert, verarbeitet und auf Millionen von Devices weltweit übertragen werden. War das Ziel der Adoption von Edge Computing zunächst, die Distanzen für die Datenübertragung zu reduzieren, geht es inzwischen um mehr: Insbesondere das rasante Wachstum des Internet of Things (IoT) und die Entstehung neuartiger Applikationen, die Daten in Echtzeit benötigen, tragen dazu bei, dass Edge-Computing-Systeme immer wichtiger werden und immer häufiger gefragt sind.
Edge Computing – Definition
Geht es nach den Analysten von Gartner, definiert sich Edge Computing als „Teil einer verteilten Computing-Topologie, in der die Datenverarbeitung am Netzwerkrand stattfindet – dort, wo Dinge oder Menschen die Informationen konsumieren“.
Anders ausgedrückt setzt Edge Computing auf eine dezentrale Verarbeitung von Daten: Statt dazu auf ein weit entferntes zurückzugreifen, werden die Daten in den Devices verarbeitet, die die Daten aggregieren – oder zumindest in direkter Nähe. Das geschieht in erster Linie, um die Latenzzeiten zu reduzieren – was insbesondere bei Applikationen, die Nahezu-Echtzeit-Daten benötigen, einen wesentlichen Geschwindigkeitsvorteil bringt. Darüber hinaus können Unternehmen auch Kosten in Sachen Bandbreite, Datenvolumen und Cloud-Speicherplatz sparen, wenn die Datenverarbeitung lokal stattfindet. Sensible Daten und speziell entwickelte Algorithmen bleiben auf dem Firmengelände und wandern nicht in die Cloud. Entwickelt wurde die Technologie vor allem, um dem exponentiellen Wachstum der IoT Devices und den damit aufgeworfenen Datenmengen Herr werden zu können.
Als Edge Devices kann eine Vielzahl von Gerätschaften zum Einsatz kommen – vom IoT-Sensor an einer Maschine in der Produktionshalle über ein Smartphone bis hin zur Mikrowelle mit Online-Funktion. Als Edge Gateways werden Edge Devices innerhalb einer Edge-Computing-Infrastruktur bezeichnet.
Computing am Netzwerkrand – Vor- & Nachteile
Für viele Unternehmen sind bereits die Kosteneinsparungen Grund genug, auf eine Edge-Computing-Architektur zu setzen. Insbesondere Unternehmen, die früh auf die Cloud setzten, wurden vielfach von den tatsächlichen Kosten für die Bandbreite überrascht.
Die Fähigkeit, Daten schneller zu verarbeiten und zu speichern, wird zunehmend als größter Benefit von Edge Computing wahrgenommen, schließlich sind Echtzeit-Applikationen für immer mehr Unternehmen erfolgskritisch. Ohne Edge Computing müsste ein Smartphone mit Gesichtserkennung die Scan-Daten beispielsweise erst an eine Cloud-Instanz schicken und dann auf Rückmeldung warten. Mit Edge Computing hingegen kann der Algorithmus die Daten lokal auf einem Edge Server oder Gateway (beispielsweise dem Smartphone selbst) verarbeiten. Insbesondere Technologien wie Virtual und Augmented Reality, autonomes Fahren, Smart Cities oder auch Systeme zur Gebäudeautomatisierung erfordern eine besonders schnelle Datenverarbeitung.
„Die verbesserte Interkonnektivität sowie neue IoT- und branchenspezifische Use Cases machen Edge Computing in den nächsten zehn Jahren – und darüber hinaus – zu einem der wesentlichen Wachstumsfelder im Server- und Storage-Markt“, ist Kuba Stolarski, Research Director bei IDC, überzeugt.
Unternehmen wie Nvidia haben den steigenden Bedarf für Datenverarbeitung am Netzwerkrand längst erkannt und arbeiten an neuen System-Modulen, die auch Künstliche Intelligenz beinhalten. Ein Beispiel hierfür ist etwa Jetson Xavier NX:
Wie das mit neuen Technologien so ist, gibt es auch beim Edge Computing Schattenseiten: Aus Security-Perspektive können Daten am Netzwerkrand ein Problem darstellen. Insbesondere dann, wenn die Datenverarbeitung verschiedene Devices miteinbezieht, die deutlich schlechter abgesichert sind als zentralisierte Systeme oder Cloud-Instanzen. Es ist deshalb unabdingbar, dass die beteiligten IT-Spezialisten sich der potenziellen Sicherheitsgefahren von IoT-Devices bewusst sind, und diese entsprechend absichern. Das beinhaltet zum Beispiel:
- die Verschlüsselung von Daten
- nachhaltige Zugangskontrollen
- die Nutzung von Virtual Private Networks
Darüber hinaus können sich auch die variierenden Anforderungen der IoT-Gerätschaften an Rechenleistung und Konnektivität auf die Zuverlässigkeit von Edge Devices auswirken. Das macht Redundanz- und Failover Management für Geräte, die Daten am Netzwerkrand verarbeiten, zur Pflicht. Nur so ist sichergestellt, dass alle Daten korrekt übertragen und verarbeitet werden, falls ein einzelner Netzwerkknoten ausfällt.
Edge Computing – Welche Rolle 5G spielt
Die 5G-Technologie entwächst weltweit zunehmend dem Experimentierstatus. Immer mehr Netzbetreiber rollen die drahtlose Technologie aus, die hohe Bandbreiten bei niedriger Latenz verspricht. Dabei integrieren viele Carrier Edge-Computing-Strategien in ihre 5G Deployments, um Datenverarbeitung in Echtzeit zu realisieren – etwa mit Fokus auf mobile Devices sowie vernetzte und autonome Fahrzeuge.
Laut der aktuellen Futuriom-Studie „5G, IoT and Edge Computing Trends“ entwickelt sich die 5G-Technologie zum Katalysator für Edge Computing. Auch die Analysten von Forrester gehen in ihren Vorhersagen für 2020 davon aus, dass der steigende Bedarf für On-Demand-Rechenleistung und Echtzeit-Applikationen ein wesentlicher Treiber für Edge Computing sein wird.
*Keith Shaw ist freier Autor bei der US-Schwesterpublikation Computerworld und schreibt seit 20 Jahren über IT-Themen.
Be the first to comment