Mit Edge Computing die IoT-Datenflut bewältigen

Milliarden vernetzter IoT Devices lassen immer mehr Daten entstehen. Doch wie kann diese Flut noch sinnvoll analysiert werden? Ein Ansatz ist das Edge Computing. [...]

Aus Milliarden an Daten verwertbare Informationen zu gewinnen, das gehört zu den primären IoT-Werttreibern. Milliarden von Geräten sollen in den nächsten Jahren dem Internet vernetzt werden. Diese zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt höchste Anforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor großen Herausforderungen. Und dank der relativ kostengünstigen Integration von Sensoren in allerlei Geräte, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder des Standorts, ist ein Ende noch lange nicht in Sicht. Aber wie lassen sich diese riesigen Datenmengen sinnvoll in der Cloud erfassen, verarbeiten, speichern und analysieren und vor allem: wie können Cloud-Server diesen massiven Input bewältigen? Die Antwort ist einfach: Indem sie es nicht alleine bewältigen, sondern ein großer Teil dieser Prozesse „an den Rand der Cloud“ verlagert wird, dort wo sich Gerät und Anwender treffen. Edge Computing nennt sich dieses alternative Architekturkonzept.

Cloud-Konzepte sind weiterhin gefragt
Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn eine schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie vorausschaubare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz. Die dezentrale Architektur des Cloud Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?
Intelligenz bewegt sich an den Rand
„Edge Computing“ oder auch „Fog Computing“ ist ein Ansatz dafür. Die Daten werden hierbei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet – etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batchverarbeitung noch netzwerkbedingte Latenzzeiten ausgebremst werden. Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. So wird nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der „Außenwelt“ möglich, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss also nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera. Über diese läuft dann die Verteilung an alle anderen Geräte.
WERBUNG
Zugegeben, dieser Ansatz ist nicht ganz neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr auf Hochleistungshardware laufen muss. Zudem erlauben die Geräte selbst jetzt diese Form der Datenverarbeitung, da sie Speicher, Rechenleistung und Netzverbindung in sich vereinen – früher waren diese Komponenten nur im zentralen Rechenzentrum zu finden.

Müssen die Daten vorher zunächst über ein Netzwerk an ein solches Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorgangs im selbstfahrenden Auto schon zu spät sein. Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann aber auch am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer kleinen Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerks platziert wird.
Gründe für Edge Computing
Wie das Beispiel zeigt, wird die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netz bald zu einem Problem in der Cloud. Heutzutage mag das noch für die meisten IT- und Kommunikationsprozesse funktionieren. Mit der drastischen Zunahme an intelligenten, vernetzten Geräten wird dies in der IoT-Welt zu einer echten Herausforderung. Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeit-Analysen von Daten, um kurzfristig Entscheidungen treffen zu können und dadurch Wettbewerbsvorteile zu erzielen.

Spätestens mit der zunehmenden Automatisierung der Produktion oder selbstfahrenden Autos, Bahnen oder Bussen wird die direkte Verarbeitung sogar essentiell, um frühzeitig auf drohende Maschinenausfälle, Unfälle und Schäden reagieren zu können. Edge Computing bietet hier die Möglichkeit, die Daten bereits zu verarbeiten und zu analysieren, bevor sie zentral gesammelt werden. So können im Anschluss etwa nur bestimmte Datensätze, sofern sinnvoll oder durch Richtlinien für Datenverarbeitung und -schutz vorgegeben, an das Rechenzentrum übermittelt und dort abgelegt werden.

Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung vor Ort auch, um mögliche Sicherheitsrisiken zu vermeiden. Daten werden beim Edge Computing eben nicht in weit entfernten Rechenzentren oder im Ausland verarbeitet, wo womöglich andere Vorschriften im Umgang mit Daten herrschen. Darüber hinaus sind die Geräte selbst sichererer und verringern die Zahl möglicher Zugangspunkte für mögliche Angriffe von außen.

Ein weiterer wesentlicher Grund für die Verlagerung an den Rand des Netzwerks sind die hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud. Ein einfaches Beispiel illustriert diese Datenmengen: Ein intelligenter Stromzähler, der alle 15 Minuten misst, generiert 400 Megabyte im Jahr. Eine größere Stadt mit 500.000 Kunden kommt damit jährlich auf 200 Terabyte an Daten – eine gewaltige Menge, die es zu sammeln, verarbeiten und speichern gilt (The Evolving Digital Utility). Dabei sind nicht immer alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird von der Anwendung selbst getroffen und hängt davon ab, welche Daten dringend mitgeteilt werden müssen und welche nicht.
Datenauswahl in Zukunft wichtig
Aber welche Daten werden schnell benötigt und welche nicht? In Unternehmen beeinflussen drei Akteure die Entscheidung über die Datenverarbeitung am Rande des Netzwerks oder in der Cloud: der Unternehmens- und damit Dateninhaber (Produktionsleiter, CEO, CFO), ein technischer Entscheider, der die Anforderungen an die IT-Infrastruktur im Blick hat und zu guter Letzt ein Sicherheitsbeauftragter, der einschätzt wie sensibel die Daten sind und wie hoch ihr benötigter Schutz ist.

Im Zuge der Datenausdünnung werden unnötige Daten entfernt, sodass nur die wirklich relevanten zum Vorschein kommen. Bei dem täglich steigenden Volumen produzierter Daten wird dieser Auswahl künftig unumgänglich. Ein autonomes Auto zum Beispiel erzeugt jährlich Petabytes an Daten, etwa über den Gegenverkehr oder zu Straßenverhältnissen, die nicht zwangsläufig gebraucht und deshalb langfristig gespeichert werden müssen. Spätestens die zunehmende Vernetzung von intelligenten Produkten im Internet der Dinge wird zeigen, dass nicht die Masse der Daten entscheidend ist, sondern der wertvolle und nützliche Inhalt der Daten.
Technische Anforderungen des Edge Computing

Ergänzend zu den strategischen Überlegungen in Bezug auf Datenauswahl und -verarbeitung bedarf es für das Edge Computing auch zusätzlicher Hardware- und Softwareausstattung. Nehmen wir beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten eingesetzt werden. Bisher waren diese lediglich für den Transport von Informationen in und aus dem Netzwerk zuständig – eine Verarbeitung der Daten war nicht vorgesehen und nicht möglich. Solch ein einfaches Gateway reicht aber nicht länger aus, wenn die Rechenleistung und analytische Verarbeitung am Rande des Netzes passieren soll. Die bestehende Hardware muss quasi um Edge-Computing-Komponenten erweitert werden. Unternehmen wie HPE und DELL passen deshalb ihr Hardware-Angebot an die Anforderungen des Edge Computing an.
Neue Werkzeuge für die Echtzeit-Datenanalyse gebraucht

Ergänzend zur Erweiterung der Hardwareinfrastruktur benötigen Unternehmen auch neue Softwarewerkzeuge für die Datenanalyse. Natürlich könnten traditionelle Business Intelligence-Software oder Reporting-Tools dafür in Betracht gezogen werden. Diese arbeiten auf Basis einer Batchverarbeitung und genügen so zwar für die grundsätzliche Datenanalyse gemäß den heutigen Anforderungen. Allerdings wurden sie nicht zur Analyse von Datenströmen „vom Rande“ der Cloud entwickelt. Um maximalen Nutzen aus den erhobenen Sensordaten zu ziehen, sollten diese nicht erst im Nachgang analysiert, sondern ständig überwacht und in maschinellen Lernverfahren übertragen werden, um in Echtzeit Anomalien zu erkennen und Fehler vorhersagen zu können.
Ausblick
Edge Computing wird weiter an Fahrt gewinnen und eine integrale Rolle bei IoT-Anwendungen spielen, wo Latenzzeiten und der hohe Bandbreitenbedarf problematisch sind. Sicherlich wird Edge Computing die Cloud nicht verdrängen, sondern eine Komplementärlösung in zukünftigen IoT-Konzepten sein. Die Anwendung von Edge Computing steckt heute noch in den Kinderschuhen, hat aber langfristig das Potenzial, sich durchzusetzen, da wichtige Aspekte wie Verarbeitungsgeschwindigkeit und Sicherheit dafür sprechen. Die Technologie steht schon heute bereit, ist ausgereift und bezahlbar. Das letzte Hindernis sind die Anwender selbst: Sie müssen innerhalb ihres Unternehmens evaluieren, was mit der Implementierung eines Edge-Konzeptes erreicht werden soll und wie sich Mehrwerte generieren lassen. Da viele Unternehmen in der Praxis noch über die passende Cloud-Strategie nachdenken: Warum nicht gleich über ein hybrides Szenario nachdenken, das über kurz oder lang sowieso notwendig wird.

*Der Autor Stephan Ellenrieder ist Senior Vice President Zentral- und Osteuropa sowie Geschäftsführer Deutschland bei PTC.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*