Edge und Cloud Computing: So kombinieren Sie richtig

Wo sollten Unternehmen Edge Computing nutzen? Wann ist die Cloud die probate Lösung? Unser Beitrag zeigt, wie Sie Cloud und Edge richtig kombinieren. [...]

Lesen Sie, wie Sie Edge und Cloud Computing richtig kombinieren (c) pixabay.com

Bis 2029 werden mehr als 15 Milliarden IoT-Devices mit Unternehmensnetzen verbunden sein – so die Prognose der Gartner-Analysten. Damit steigen auch die Datenmengen, die von der Vielzahl an Geräten, Maschinen und Sensoren erfasst werden, um mehrere Milliarden Terabyte pro Jahr. Viele Unternehmen wird diese Datenflut überfordern. So ist es bei Anwendungsszenarien, die weitgehend auf IoT aufbauen, zeitaufwändig, die enormen Mengen an Informationen in eine zentralisierte Cloud zu überführen. Fertigungsstraßen oder vernetzte Fahrzeuge erzeugen beispielsweise so viele Daten und benötigen so schnelle Antwortzeiten, dass eine zentrale Berechnung in der Cloud zu lange dauert. Viele dieser Daten lassen sich jedoch auch lokal berechnen – am Edge.

Hierbei handelt es sich um eine verteilte, offene IT-Architektur, die Daten dezentral in der Netzwerkperipherie verarbeitet, und zwar in der Nähe des Geräts, von dem sie erfasst wurden – etwa einer Produktionsanlage. Damit ermöglicht Edge Computing geringere Latenzen und eine bessere Reaktionsfähigkeit. Massenweise erfasste Informationen aus intelligenten Fabriken oder vernetzten Fahrzeugen lassen sich auf diese Weise ohne Zeitverzögerung auswerten und entsprechende Maßnahmen einleiten. Darüber hinaus sparen Unternehmen durch die lokale Datenverarbeitung Kosten für Bandbreite und Datenvolumen ein, da nur aggregierte Daten oder Durchschnittswerte in die Cloud übertragen werden müssen.

Vorteil Edge Computing

Damit eignet sich Edge Computing vor allem für Bereiche, die auf eine besonders schnelle Datenverarbeitung und -speicherung angewiesen sind – neben der Fertigung etwa Augmented/Virtual Reality oder Bewegtbild, speziell Filmaufnahmen oder Live-Übertragungen wie Formel-1-Rennen. Denn hier müssen zunächst enorme Datenmengen gespeichert werden. Gleichzeitig muss das Material schnell verfügbar sein.

In besonderem Maße können Anwendungen von Edge Computing profitieren, wenn es um die Vermeidung von Risiken und Kosteneinsparungen geht. Dazu zählen die Steuerung von Fertigungsstraßen oder komplette Fabriken sowie das vernetzte und autonome Fahren. Bei letzterem erfassen Sensoren, Kameras und Radar permanent Daten der Fahrzeugumgebung, um Kollisionen zu vermeiden. Aufgrund der geringen Bandbreite im fahrenden Auto können nicht alle Daten in die Cloud übertragen werden. Ihre Verarbeitung ist daher nur lokal, also im Fahrzeug selbst möglich.

Edge in der Fertigung

Ein typisches Beispiel aus der Fertigung ist die Qualitätsanalyse von Produkten anhand von Bilddaten. Diese werden in der Nähe der Kamera mithilfe von maschinellem Lernen (ML) verarbeitet. Das heißt, es wird ein ML-Modell ausgeführt, um die Produkte zu überprüfen. Auf Basis der Ergebnisse werden nicht alle erfassten Bilddaten in die Cloud übertragen, sondern nur Aufnahmen, die etwa Abweichungen oder Fehler aufzeigen.

Die ML-Modelle werden dabei zunächst in der skalierbaren Cloud trainiert, da dies eine hohe, aber nicht kontinuierliche Rechenleistung erfordert. Anschließend lassen sie sich auf der Edge-Hardware ausführen, überwachen und bei Abweichungen entsprechend anpassen. Da die ML-Modelle auf unterschiedlichen Hardware-Plattformen laufen und besonders leistungsfähig sein müssen, kann es allerdings je nach Rechenleistung und Speicherkapazität der Edge-Hardware zeitaufwendig sein, ein Modell von Hand zu optimieren und Prognosen daraus abzuleiten. Durch Rechenkapazität der Cloud kann man die ML-Modelle in der Cloud automatisch für die jeweiligen Hardware- und Betriebssysteme optimieren. Dabei erfolgt die Ausführung mit bis zu doppelter Leistung – ohne Einbußen bei der Genauigkeit.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Machine Learning und Edge

Mithilfe spezieller Hardware lassen sich auch im Bewegtbildbereich ML-Modelle direkt auf den Streams der Kameras ausführen. So läuft etwa die ML-Appliance AWS Panorama am Edge, ist aber gleichzeitig in die Cloud integriert. Dort werden die ML-Modelle dort trainiert, verwaltet, überwacht und angepasst. IP-Kameras, die mithilfe von Computer Vision sehr genaue Prognosen aufstellen und mit niedriger Latenz arbeiten, automatisieren auf diese Weise Überwachungs- und Prüftätigkeiten, die bislang nur von Menschen erledigt werden konnten.

Edge Computing bietet sich auch für das Speichern sensibler Informationen an, die nicht unbedingt in die Cloud verschoben werden müssen – zum Beispiel können Vibrationsdaten schon vorausgewertet und nur die entsprechenden Ergebnisse, also das Frequenzspektrum, übermittelt werden. Für Sicherheit sorgt zudem die logische Aggregation von Sensor- und Gerätedaten am Edge, die sich dann als Datenpunkt über eine verschlüsselte Verbindung in die Cloud verschieben lassen und sich mit einer zentralen Applikation austauschen können.

Unterstützt durch Funktionen für den lokalen Ressourcenzugriff sind damit schnelle Reaktionen auf Ereignisse am Edge möglich, während die Cloud der Verwaltung, Analytik und beständigen Speicherung dient. Mit AWS IoT Greengrass beispielsweise sind verbundene Geräte wie Server, Gateways und Industrie-PCs in der Lage, Funktionen und Docker-Container auszuführen, anhand von ML-Modellen Prognosen zu erstellen – auch ohne Verbindung zum Internet.

Hybride Architekturen aus Cloud und Edge

Voraussetzung für solche Anwendungen ist eine hybride Architektur, die es ermöglicht, Services zum Teil in der Cloud und zum Teil am Edge zu nutzen. Darauf kommt es vor allem in der Fertigung an, um Ausfälle von Produktionsanlagen oder Maschinen zu vermeiden, wenn gerade keine Internetverbindung verfügbar ist. Rein Cloud-basiert müsste dafür eine redundante Internet-Verbindung eingerichtet werden, wobei die Latenz trotzdem nicht alle Anwendungsfälle abdeckt. Mit einer hybriden Infrastruktur aus Cloud und Edge lässt sich dieses Risiko ausschließen.

Grundsätzlich rechnet sich Edge Computing vorrangig für Bereiche, die hohe Margen erzielen. Denn die entsprechende Hardware ist vergleichsweise teuer, da sie viel Rechenleistung und Speicherplatz benötigt und für den Einsatz von ML optimiert ist. Zudem muss sie über bestimmte Branchenspezifikationen verfügen und so robust sein, dass sie sich auch in rauen Umgebungen einsetzen lässt. Umso wichtiger ist die Entscheidung, welche Aufgaben die Cloud erledigen kann, und welche am Edge ausgeführt werden.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Neue Impulse durch die 5G-Technologie

Experten zufolge werden das rasante IoT-Wachstum und die zunehmende Nutzung von Echtzeit-Applikationen sowie On-Demand-Rechenleistung zu einer steigenden Nachfrage nach Edge-Computing-Systemen führen. Auch die 5G-Technologie treibt das Thema voran, da sie hohe Bandbreiten bei niedriger Latenz verspricht. Zudem können am Edge über das Mobilfunknetz unterschiedlichste Medien angesprochen werden – etwa verschiedene Protokolle oder Maschinen. Immer mehr Netzbetreiber rollen 5G mit integrierten Edge-Computing-Strategien aus, um die Datenverarbeitung – etwa auf mobilen Geräten und autonomen Fahrzeugen – in Echtzeit realisieren zu können. Auch hybride Applikationen für 5G lassen sich mithilfe spezieller Dienste erstellen. Der Studie „5G, IoT and Edge Computing Trends“ von Futuriom zufolge wird sich die 5G-Technologie damit zum Katalysator für das Edge Computing entwickeln.

Vor diesem Hintergrund ist der Einsatz der Edge-Technologie aus vielen Bereichen nicht mehr wegzudenken. Das Beratungsunternehmen ISG prognostiziert dem Edge-Computing-Markt kurz- bis mittelfristig jährliche Steigerungsraten von mehr als 30 Prozent.

*Sabine Prehl ist freie Journalistin und lebt in München.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*