Was ist Edge Computing und warum ist es so wichtig?

Mit der Bereitstellung von IoT-Geräten und der Einführung von 5G Fast Wireless ist die Platzierung von Computing und Analytik in der Nähe der Datenerstellung ein Argument für Edge Computing. [...]

Edge Computing ist ein Mittel zur Verringerung der Latenzzeiten bei der Datenverarbeitung und wird gerade im Hinblick auf 5G besonders attraktiv (c) Pixabay.com

Edge Computing verändert die Art und Weise, wie Daten von Millionen von Geräten auf der ganzen Welt verarbeitet, bearbeitet und verteilt werden. Das explosionsartige Wachstum von Geräten mit Internetanschluss – das IoT – und neue Anwendungen, die Echtzeit-Rechenleistung erfordern, treiben weiterhin Spitzen-Computersysteme voran.

Schnellere Netzwerktechnologien, wie z.B. 5G Wireless, ermöglichen es Edge-Computing-Systemen, die Erstellung oder Unterstützung von Echtzeitanwendungen wie Videoverarbeitung und -analyse, selbstfahrende Autos, künstliche Intelligenz und Robotik zu beschleunigen, um nur einige zu nennen.

Während die ersten Ziele des Edge Computing darin bestanden, die Kosten für die Bandbreite von Daten, die aufgrund des Wachstums von IoT-generierten Daten über weite Strecken reisen, zu senken, wird der Anstieg von Echtzeitanwendungen, die eine Verarbeitung am Edge benötigen, die Technologie voranbringen.

Was ist Edge Computing?

Gartner definiert Edge Computing als „einen Teil einer verteilten Computertopologie, in der sich die Informationsverarbeitung nahe am Rand befindet – wo Dinge und Menschen diese Informationen produzieren oder verbrauchen“.

Auf seiner grundlegenden Ebene bringt Edge Computing die Berechnung und Datenspeicherung näher an die Geräte, auf denen sie erfasst wird, anstatt sich auf einen zentralen Standort zu verlassen, der Tausende von Meilen entfernt sein kann. Dies geschieht, damit Daten, insbesondere Echtzeitdaten, keine Latenzprobleme erleiden, die die Leistung einer Anwendung beeinträchtigen können. Darüber hinaus können Unternehmen Geld sparen, indem sie die Verarbeitung lokal durchführen lassen und so die Datenmenge reduzieren, die an einem zentralen oder Cloud-basierten Standort verarbeitet werden muss.

Edge Computing wurde aufgrund des exponentiellen Wachstums von IoT-Geräten entwickelt, die sich mit dem Internet verbinden, um entweder Informationen aus der Cloud zu empfangen oder Daten an die Cloud zurückzugeben. Und viele IoT-Geräte erzeugen im Laufe ihres Betriebs enorme Datenmengen.

So funktioniert Edge Computing (c) Network World / IDG

Denken Sie an Geräte, die Fertigungseinrichtungen in einer Fabrikhalle überwachen, oder an eine mit dem Internet verbundene Videokamera, die Live-Material von einem entfernten Büro aus sendet. Während ein einzelnes Gerät, das Daten produziert, diese relativ einfach über ein Netzwerk übertragen kann, entstehen Probleme, wenn die Anzahl der Geräte, die gleichzeitig Daten übertragen, wächst. Anstelle einer Videokamera, die Live-Material überträgt, multiplizieren Sie dieses mit Hunderten oder Tausenden von Geräten. Nicht nur die Qualität leidet unter der Latenz, auch die Kosten für die Bandbreite können enorm sein.

Edge-Computing-Hardware und -Dienste helfen, dieses Problem zu lösen, indem sie eine lokale Quelle der Verarbeitung und Speicherung für viele dieser Systeme sind. Ein Edge-Gateway kann beispielsweise Daten von einem Edge-Gerät verarbeiten und dann nur die relevanten Daten durch die Cloud zurücksenden, was den Bandbreitenbedarf reduziert. Oder es kann Daten an das Edge-Gerät zurücksenden, wenn es um Echtzeit-Anwendungen geht.

Diese Edge-Geräte können viele verschiedene Dinge beinhalten, wie z.B. einen IoT-Sensor, den Laptop eines Mitarbeiters, sein neuestes Smartphone, die Überwachungskamera oder sogar den mit dem Internet verbundenen Mikrowellenherd im Pausenraum im Büro. Edge-Gateways selbst gelten als Edge-Geräte innerhalb einer Edge-Computer-Infrastruktur.

Warum ist Edge Computing wichtig?

Für viele Unternehmen können allein die Kosteneinsparungen ein Faktor für den Einsatz einer Edge-Computing-Architektur sein. Unternehmen, die die Cloud für viele ihrer Anwendungen nutzen, haben vielleicht entdeckt, dass die Kosten für die Bandbreite höher waren als erwartet.

Der größte Vorteil von Edge Computing besteht jedoch zunehmend darin, dass Daten schneller verarbeitet und gespeichert werden können, was effizientere Echtzeitanwendungen ermöglicht, die für Unternehmen von entscheidender Bedeutung sind. Vor dem Edge Computing müsste ein Smartphone, das das Gesicht einer Person zur Gesichtserkennung scannt, den Gesichtserkennungsalgorithmus über einen Cloud-basierten Dienst ausführen, was viel Zeit in Anspruch nehmen würde. Mit einem Edge-Computing-Modell könnte der Algorithmus lokal auf einem Edge-Server oder -Gateway oder sogar auf dem Smartphone selbst laufen, da die Leistung von Smartphones zunimmt. Anwendungen wie Virtual and Augmented Reality, selbstfahrende Autos, Smart Cities und sogar Gebäudeautomationssysteme erfordern eine schnelle Verarbeitung und Reaktion.

„Edge Computing hat sich aus den Tagen der isolierten IT an den Standorten von ROBO [Remote Office Branch Office] deutlich entwickelt“, sagt Kuba Stolarski, Forschungsdirektor bei IDC, im Bericht „Worldwide Edge Infrastructure (Compute and Storage) Forecast, 2019-2023„. „Mit verbesserter Interconnectivity, die einen verbesserten Edge-Zugang zu mehr Kernanwendungen ermöglicht, und mit neuen IoT- und branchenspezifischen Business Use Cases wird die Edge-Infrastruktur in den nächsten zehn Jahren und darüber hinaus zu einer der wichtigsten Wachstumsmotoren auf dem Server- und Speichermarkt werden.“

Unternehmen wie NVIDIA haben den Bedarf an mehr Verarbeitung am Rande erkannt, weshalb wir neue Systemmodule mit integrierter Künstlicher Intelligenz zu sehen bekommen. Das neueste Jetson Xavier NX-Modul des Unternehmens ist beispielsweise kleiner als eine Kreditkarte und kann in kleinere Geräte wie Drohnen, Roboter und medizinische Geräte eingebaut werden. KI-Algorithmen benötigen große Mengen an Rechenleistung, weshalb die meisten von ihnen über Cloud Services laufen. Das Wachstum von KI-Chipsätzen, die die Verarbeitung am Rande bewältigen können, wird eine bessere Echtzeitreaktion bei Anwendungen ermöglichen, die Instant Computing benötigen.

Datenschutz und Sicherheit

Wie bei vielen neuen Technologien kann die Lösung eines Problems jedoch auch andere verursachen. Aus Sicherheitssicht können Daten am Rande lästig sein, insbesondere wenn sie von verschiedenen Geräten verarbeitet werden, die möglicherweise nicht so sicher sind wie ein zentrales oder Cloud-basiertes System. Da die Anzahl der IoT-Geräte steigt, ist es unerlässlich, dass die IT-Abteilung die potenziellen Sicherheitsprobleme rund um diese Geräte kennt und sicherstellt, dass diese Systeme gesichert werden können. Dazu gehört auch, dass die Daten verschlüsselt werden und dass die richtigen Zugriffskontrollmethoden und sogar VPN-Tunneling verwendet werden.

Darüber hinaus können unterschiedliche Geräteanforderungen an Rechenleistung, Strom und Netzverbindung einen Einfluss auf die Zuverlässigkeit eines Edge-Gerätes haben. Dies macht Redundanz- und Failover-Management für Geräte, die Daten am Rand verarbeiten, unerlässlich, um sicherzustellen, dass die Daten korrekt geliefert und verarbeitet werden, wenn ein einzelner Knoten ausfällt.

Was ist mit 5G?

Weltweit setzen Carrier 5G-Funktechnologien ein, die die Vorteile einer hohen Bandbreite und geringer Latenzzeiten für Anwendungen versprechen und es Unternehmen ermöglichen, mit ihrer Datenbandbreite vom Gartenschlauch zum Feuerwehrschlauch zu wechseln. Anstatt nur die schnelleren Geschwindigkeiten anzubieten und Unternehmen anzuweisen, die Daten weiterhin in der Cloud zu verarbeiten, arbeiten viele Carrier an Edge-Computing-Strategien in ihren 5G-Bereitstellungen, um eine schnellere Echtzeitverarbeitung zu ermöglichen, insbesondere für mobile Geräte, vernetzte Autos und selbstfahrende Autos.

In seinem aktuellen Bericht „5G, IoT and Edge Compute Trends“ schreibt Futuriom, dass 5G ein Katalysator für die Edge-Compute-Technologie sein wird. „Anwendungen mit 5G-Technologie werden die Verkehrsnachfragemuster verändern und den größten Antrieb für Edge Computing in Mobilfunknetzen darstellen“, schreibt das Unternehmen. Es werden Anwendungen mit geringer Latenz zitiert, die IoT-Analysen, maschinelles Lernen, Virtual Reality, autonome Fahrzeuge als solche beinhalten, die „neue Bandbreiten- und Latenzeigenschaften aufweisen, die Unterstützung durch die Edge-Compute-Infrastruktur erfordern“.

In seinen Prognosen für 2020 verwies Forrester auch auf die Notwendigkeit der On-Demand-Berechnung, und Echtzeit-Anwendungsverpflichtungen würden eine Rolle beim Wachstum des Edge Computing im Jahr 2020 spielen.

Es ist klar, dass das ursprüngliche Ziel von Edge Computing zwar darin bestand, die Bandbreitenkosten für IoT-Geräte über weite Strecken zu senken, aber das Wachstum von Echtzeitanwendungen, die lokale Verarbeitungs- und Speicherfähigkeiten erfordern, wird die Technologie in den kommenden Jahren vorantreiben.

*Keith Shaw ist ein freiberuflicher Digitaljournalist, der seit mehr als 20 Jahren über die IT-Welt schreibt.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*