Was ist Edge Computing?

Edge Computing gewinnt im Zeitalter von IoT und 5G enorm an Bedeutung. Lesen Sie, was Sie zum Thema wissen müssen. [...]

Unternehmen, die auf Echtzeit-Datenverarbeitung angewiesen sind, kommen an Edge Computing nicht vorbei (c) pixabay.com

Edge Computing revolutioniert die Art und Weise wie aggregiert, verarbeitet und auf Millionen von Devices weltweit übertragen werden. War das Ziel der Adoption von Edge Computing zunächst, die Distanzen für die Datenübertragung zu reduzieren, geht es inzwischen um mehr: Insbesondere das rasante Wachstum des Internet of Things (IoT) und die Entstehung neuartiger Applikationen, die Daten in Echtzeit benötigen, tragen dazu bei, dass Edge-Computing-Systeme immer wichtiger werden und immer häufiger gefragt sind.

Edge Computing – Definition

Geht es nach den Analysten von Gartner, definiert sich Edge Computing als „Teil einer verteilten Computing-Topologie, in der die Datenverarbeitung am Netzwerkrand stattfindet – dort, wo Dinge oder Menschen die Informationen konsumieren“.

Anders ausgedrückt setzt Edge Computing auf eine dezentrale Verarbeitung von Daten: Statt dazu auf ein weit entferntes zurückzugreifen, werden die Daten in den Devices verarbeitet, die die Daten aggregieren – oder zumindest in direkter Nähe. Das geschieht in erster Linie, um die Latenzzeiten zu reduzieren – was insbesondere bei Applikationen, die Nahezu-Echtzeit-Daten benötigen, einen wesentlichen Geschwindigkeitsvorteil bringt. Darüber hinaus können Unternehmen auch Kosten in Sachen Bandbreite, Datenvolumen und Cloud-Speicherplatz sparen, wenn die Datenverarbeitung lokal stattfindet. Sensible Daten und speziell entwickelte Algorithmen bleiben auf dem Firmengelände und wandern nicht in die Cloud. Entwickelt wurde die Technologie vor allem, um dem exponentiellen Wachstum der IoT Devices und den damit aufgeworfenen Datenmengen Herr werden zu können.

Als Edge Devices kann eine Vielzahl von Gerätschaften zum Einsatz kommen – vom IoT-Sensor an einer Maschine in der Produktionshalle über ein Smartphone bis hin zur Mikrowelle mit Online-Funktion. Als Edge Gateways werden Edge Devices innerhalb einer Edge-Computing-Infrastruktur bezeichnet.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Computing am Netzwerkrand – Vor- & Nachteile

Für viele Unternehmen sind bereits die Kosteneinsparungen Grund genug, auf eine Edge-Computing-Architektur zu setzen. Insbesondere Unternehmen, die früh auf die Cloud setzten, wurden vielfach von den tatsächlichen Kosten für die Bandbreite überrascht.

Die Fähigkeit, Daten schneller zu verarbeiten und zu speichern, wird zunehmend als größter Benefit von Edge Computing wahrgenommen, schließlich sind Echtzeit-Applikationen für immer mehr Unternehmen erfolgskritisch. Ohne Edge Computing müsste ein Smartphone mit Gesichtserkennung die Scan-Daten beispielsweise erst an eine Cloud-Instanz schicken und dann auf Rückmeldung warten. Mit Edge Computing hingegen kann der Algorithmus die Daten lokal auf einem Edge Server oder Gateway (beispielsweise dem Smartphone selbst) verarbeiten. Insbesondere Technologien wie Virtual und Augmented Reality, autonomes Fahren, Smart Cities oder auch Systeme zur Gebäudeautomatisierung erfordern eine besonders schnelle Datenverarbeitung.

„Die verbesserte Interkonnektivität sowie neue IoT- und branchenspezifische Use Cases machen Edge Computing in den nächsten zehn Jahren – und darüber hinaus – zu einem der wesentlichen Wachstumsfelder im Server- und Storage-Markt“, ist Kuba Stolarski, Research Director bei IDC, überzeugt.

Unternehmen wie Nvidia haben den steigenden Bedarf für Datenverarbeitung am Netzwerkrand längst erkannt und arbeiten an neuen System-Modulen, die auch Künstliche Intelligenz beinhalten. Ein Beispiel hierfür ist etwa Jetson Xavier NX:

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie das mit neuen Technologien so ist, gibt es auch beim Edge Computing Schattenseiten: Aus Security-Perspektive können Daten am Netzwerkrand ein Problem darstellen. Insbesondere dann, wenn die Datenverarbeitung verschiedene Devices miteinbezieht, die deutlich schlechter abgesichert sind als zentralisierte Systeme oder Cloud-Instanzen. Es ist deshalb unabdingbar, dass die beteiligten IT-Spezialisten sich der potenziellen Sicherheitsgefahren von IoT-Devices bewusst sind, und diese entsprechend absichern. Das beinhaltet zum Beispiel:

  • die Verschlüsselung von Daten
  • nachhaltige Zugangskontrollen
  • die Nutzung von Virtual Private Networks

Darüber hinaus können sich auch die variierenden Anforderungen der IoT-Gerätschaften an Rechenleistung und Konnektivität auf die Zuverlässigkeit von Edge Devices auswirken. Das macht Redundanz- und Failover Management für Geräte, die Daten am Netzwerkrand verarbeiten, zur Pflicht. Nur so ist sichergestellt, dass alle Daten korrekt übertragen und verarbeitet werden, falls ein einzelner Netzwerkknoten ausfällt.

Edge Computing – Welche Rolle 5G spielt

Die 5G-Technologie entwächst weltweit zunehmend dem Experimentierstatus. Immer mehr Netzbetreiber rollen die drahtlose Technologie aus, die hohe Bandbreiten bei niedriger Latenz verspricht. Dabei integrieren viele Carrier Edge-Computing-Strategien in ihre 5G Deployments, um Datenverarbeitung in Echtzeit zu realisieren – etwa mit Fokus auf mobile Devices sowie vernetzte und autonome Fahrzeuge.

Laut der aktuellen Futuriom-Studie „5G, IoT and Edge Computing Trends“ entwickelt sich die 5G-Technologie zum Katalysator für Edge Computing. Auch die Analysten von Forrester gehen in ihren Vorhersagen für 2020 davon aus, dass der steigende Bedarf für On-Demand-Rechenleistung und Echtzeit-Applikationen ein wesentlicher Treiber für Edge Computing sein wird.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

*Keith Shaw ist freier Autor bei der US-Schwesterpublikation Computerworld und schreibt seit 20 Jahren über IT-Themen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*