Für manche IoT-Anwendungen reichen Daten-Volumina und Latenzzeiten klassischer IT-Services nicht aus. Abhilfe verspricht Edge Computing. Für die erfolgreiche Umsetzung sind allerdings ein paar Punkte zu beachten. [...]
Edge Computing und das Internet of Things (IoT) stehen für eine dezentrale IT-Architektur: Anstatt Daten an ein weit entferntes Rechenzentrum – etwa in der Cloud – weiterzuleiten, werden sie näher am Ort ihrer Entstehung analysiert und verarbeitet. Die permanent wachsende Anzahl von IoT-Devices und ihre Sensoren generieren stetig neue Datenberge. Eine einzelne Flugzeugturbine erzeugt pro Minute etwa 333 Gigabyte an Daten, eine mittelgroße Erdöl-Plattform bringt es auf sieben bis acht Terabyte pro Tag, und ein autonomes Fahrzeug generiert jeden Tag ein ganzes Petabyte oder mehr.
Die Mehrheit dieser Informationen sind „Wegwerfdaten“, gekennzeichnet durch ein geringes oder sogar fehlendes Potenzial für eine spätere Wiederverwendung. Das IoT-Gerät benötigt das Gros der Daten aber für die sofortige Entscheidungsfindung in Echtzeit. Diese Kombination aus beidem – Datenmenge und geringe Latenzzeiten – zwingt das konventionelle Computing-Modell in die Knie.
Herkömmliche, also zentrale Rechenzentren sind quasi per Definition geografisch zu weit entfernt, um die notwendige schnelle Reaktion der Datenverarbeitung zu garantieren. Edge Computing bildet eine Zwischenschicht zwischen dem Core-Data-Center und der IoT-Sensorik der Endgeräte. Nach der ersten Analyse werden echtzeitrelevante Daten gelöscht und nur die daraus abgeleiteten Erkenntnisse an den Server oder die Cloud weitergeleitet.
Eine gute Vorbereitung ist das A und O
Damit Unternehmen von diesen Vorteilen profitieren, ist eine gute Vorbereitung vor der eigentlichen Implementierung einer Edge-Plattform das A und O. Vorbereitung heißt in diesem Fall, dass die Firmen erst einmal verstehen und analysieren müssen, welche Systemanforderungen die einzelnen Anwendungen haben. Ferner ist zu klären, wie die derzeitige Auslastung der IT-Infrastruktur ist, wann es zu Lastspitzen kommt und wo es Optimierungspotenzial gibt, um Anforderungen besser zu meistern. Hilfreich sind in diesem Zusammenhang Tools zur Live-Analyse der IT-Infrastruktur, mit denen sich die IT-Umgebung nahezu in Echtzeit visualisieren und so ein Verständnis für die Projektanforderungen entwickeln lässt.
Nehmen Unternehmen zwei zeitlich versetzte Messungen vor, bekommen sie ein Gefühl für ihr Datenwachstum und können so realistische Prognosen treffen. Ein solches Tool, das mit Live-Daten „gefüttert“ werden sollte, liefert also die notwendige Transparenz, beschleunigt dadurch die Entscheidungsfindung und minimiert geschäftliche Risiken, indem sich die Unternehmen bei der Anschaffung der Plattform nicht auf reine Mutmaßungen verlassen müssen. Eine kostspielige Überdimensionierung der IT-Systeme gehört damit der Vergangenheit an.
Hardware für Edge Computing
Was die Hardware an sich betrifft, bringt Edge Computing keine grundsätzlich neue Architektur hervor. Vielmehr werden unter dieser Bezeichnung kleine, multifunktionale Systeme in kompakten Gehäusen angeboten, die häufig für den Einsatz außerhalb klimatisierter Rechenzentren ausgelegt sind.
Bei der Wahl der Edge-Plattform sollten Unternehmen allerdings darauf achten, dass mit Hilfe von Analytics-Software und Deep-Learning-Funktionen die Daten direkt am Data Entry Point gefiltert und anschließend nur die relevanten Informationen zur weiteren Verarbeitung und Auswertung in die Cloud geschickt werden. Grundlegende Voraussetzung sind dabei Streaming-Data-Plattformen, die durch die Erfassung, Speicherung und Auswertung von Datenströmen am Netzwerkrand eine leistungsstarke Echtzeitanalyse erst ermöglichen.
Nur so lässt sich beispielsweise beim Predictive Maintenance anhand definierter Wiedererkennungsmuster vorhersagen, wann ein Maschinenteil auszufallen droht, und darauf basierend automatisch die Bestellung des Ersatzteiles auslösen und ein Reparaturfenster einplanen. Ebenfalls hilfreich, wenn auch nicht unbedingt notwendig, können branchenspezifische Referenzarchitekturen für Edge-Lösungen sein, die gemeinsam mit Industriespezialisten entwickelt wurden.
Security am Edge
Ein anderer Punkt, den Unternehmen beim Edge Computing auf dem Radar haben müssen, ist das Thema Sicherheit: Die zahlreichen IoT-Systeme am Netzwerkrand werden schnell zu einem Security-Risiko, denn in der Regel sind sie deutlich schlechter abgesichert als zentrale Systeme. Damit bieten sie Hackern zahlreiche Einfallstore. Zudem bringen viele Endgeräte von Haus aus Sicherheitsmängel mit, etwa schwache Anmeldeinformationen, Zero-Day-Lücken, fehlende Sicherheits-Updates und die Verwendung veralteter Protokolle, die nicht gegen moderne Hackermethoden gewappnet sind.
Die Tatsache, dass manche Kommunikationsprotokolle und Standards rund um das Edge Computing noch nicht ausgereift sind, verschärft das Problem zusätzlich. Unternehmen sollten deshalb zunächst einmal bei der Auswahl der Geräte auf die Sicherheitsarchitektur und den Umgang mit Patches und Updates achten, beziehungsweise diese nachrüsten. Selbstverständlich sollten alle Daten sowohl im Ruhezustand als auch während der Übertragung verschlüsselt sein. Zudem gilt es, abgestufte Zugangskontrollen für die einzelnen Geräte und Systeme umzusetzen.
Die Migration selbst hält dann, eine gute Planung vorausgesetzt, keine Stolpersteine mehr bereit – ein Fall-back-Szenario gehört trotzdem zu einer professionellen Vorbereitung. Die Erfahrungen zeigen allerdings, dass IoT– oder Edge-Projekte in den ersten drei Monaten scheitern, wenn zu viele Parteien mit im Boot sitzen.
Müssen unterschiedliche Nischen-Lösungen zu einer funktionierenden Plattform verschmolzen werden, sorgen Inkompatibilitäten und anderweitige Ansätze immer wieder für Probleme. Richtig genutzt, versetzt Edge Computing Unternehmen in die Lage, Ressourcen zu sparen, Abläufe zu automatisieren, Produkte und Services zu verbessern sowie völlig neue Geschäftsmodelle aufzubauen. (hi)
*Uwe Wiest ist General Manager & Director Sales OEM & IoT Solutions DACH bei Dell Technologies.
Be the first to comment