Edge Computing: So klappt der Umstieg

Für manche IoT-Anwendungen reichen Daten-Volumina und Latenzzeiten klassischer IT-Services nicht aus. Abhilfe verspricht Edge Computing. Für die erfolgreiche Umsetzung sind allerdings ein paar Punkte zu beachten. [...]

Edge Computing steht für eine dezentrale IT-Architektur, bei der Daten näher am Ort ihrer Entstehung verarbeitet werden. So erzeugt etwa eine mittelgroße Erdöl-Plattform sieben bis acht Terabyte pro Tag (c) pixabay.com

Edge Computing und das Internet of Things (IoT) stehen für eine dezentrale IT-Architektur: Anstatt Daten an ein weit entferntes Rechenzentrum – etwa in der Cloud – weiterzuleiten, werden sie näher am Ort ihrer Entstehung analysiert und verarbeitet. Die permanent wachsende Anzahl von IoT-Devices und ihre Sensoren generieren stetig neue Datenberge. Eine einzelne Flugzeugturbine erzeugt pro Minute etwa 333 Gigabyte an Daten, eine mittelgroße Erdöl-Plattform bringt es auf sieben bis acht Terabyte pro Tag, und ein autonomes Fahrzeug generiert jeden Tag ein ganzes Petabyte oder mehr.

Die Mehrheit dieser Informationen sind „Wegwerfdaten“, gekennzeichnet durch ein geringes oder sogar fehlendes Potenzial für eine spätere Wiederverwendung. Das IoT-Gerät benötigt das Gros der Daten aber für die sofortige Entscheidungsfindung in Echtzeit. Diese Kombination aus beidem – Datenmenge und geringe Latenzzeiten – zwingt das konventionelle Computing-Modell in die Knie.

Herkömmliche, also zentrale Rechenzentren sind quasi per Definition geografisch zu weit entfernt, um die notwendige schnelle Reaktion der Datenverarbeitung zu garantieren. Edge Computing bildet eine Zwischenschicht zwischen dem Core-Data-Center und der IoT-Sensorik der Endgeräte. Nach der ersten Analyse werden echtzeitrelevante Daten gelöscht und nur die daraus abgeleiteten Erkenntnisse an den Server oder die Cloud weitergeleitet.

Eine gute Vorbereitung ist das A und O

Damit Unternehmen von diesen Vorteilen profitieren, ist eine gute Vorbereitung vor der eigentlichen Implementierung einer Edge-Plattform das A und O. Vorbereitung heißt in diesem Fall, dass die Firmen erst einmal verstehen und analysieren müssen, welche Systemanforderungen die einzelnen Anwendungen haben. Ferner ist zu klären, wie die derzeitige Auslastung der IT-Infrastruktur ist, wann es zu Lastspitzen kommt und wo es Optimierungspotenzial gibt, um Anforderungen besser zu meistern. Hilfreich sind in diesem Zusammenhang Tools zur Live-Analyse der IT-Infrastruktur, mit denen sich die IT-Umgebung nahezu in Echtzeit visualisieren und so ein Verständnis für die Projektanforderungen entwickeln lässt.

Nehmen Unternehmen zwei zeitlich versetzte Messungen vor, bekommen sie ein Gefühl für ihr Datenwachstum und können so realistische Prognosen treffen. Ein solches Tool, das mit Live-Daten „gefüttert“ werden sollte, liefert also die notwendige Transparenz, beschleunigt dadurch die Entscheidungsfindung und minimiert geschäftliche Risiken, indem sich die Unternehmen bei der Anschaffung der Plattform nicht auf reine Mutmaßungen verlassen müssen. Eine kostspielige Überdimensionierung der IT-Systeme gehört damit der Vergangenheit an.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Hardware für Edge Computing

Was die Hardware an sich betrifft, bringt Edge Computing keine grundsätzlich neue Architektur hervor. Vielmehr werden unter dieser Bezeichnung kleine, multifunktionale Systeme in kompakten Gehäusen angeboten, die häufig für den Einsatz außerhalb klimatisierter Rechenzentren ausgelegt sind.

Bei der Wahl der Edge-Plattform sollten Unternehmen allerdings darauf achten, dass mit Hilfe von Analytics-Software und Deep-Learning-Funktionen die Daten direkt am Data Entry Point gefiltert und anschließend nur die relevanten Informationen zur weiteren Verarbeitung und Auswertung in die Cloud geschickt werden. Grundlegende Voraussetzung sind dabei Streaming-Data-Plattformen, die durch die Erfassung, Speicherung und Auswertung von Datenströmen am Netzwerkrand eine leistungsstarke Echtzeitanalyse erst ermöglichen.

Nur so lässt sich beispielsweise beim Predictive Maintenance anhand definierter Wiedererkennungsmuster vorhersagen, wann ein Maschinenteil auszufallen droht, und darauf basierend automatisch die Bestellung des Ersatzteiles auslösen und ein Reparaturfenster einplanen. Ebenfalls hilfreich, wenn auch nicht unbedingt notwendig, können branchenspezifische Referenzarchitekturen für Edge-Lösungen sein, die gemeinsam mit Industriespezialisten entwickelt wurden.

Security am Edge

Ein anderer Punkt, den Unternehmen beim Edge Computing auf dem Radar haben müssen, ist das Thema Sicherheit: Die zahlreichen IoT-Systeme am Netzwerkrand werden schnell zu einem Security-Risiko, denn in der Regel sind sie deutlich schlechter abgesichert als zentrale Systeme. Damit bieten sie Hackern zahlreiche Einfallstore. Zudem bringen viele Endgeräte von Haus aus Sicherheitsmängel mit, etwa schwache Anmeldeinformationen, Zero-Day-Lücken, fehlende Sicherheits-Updates und die Verwendung veralteter Protokolle, die nicht gegen moderne Hackermethoden gewappnet sind.

Die Tatsache, dass manche Kommunikationsprotokolle und Standards rund um das Edge Computing noch nicht ausgereift sind, verschärft das Problem zusätzlich. Unternehmen sollten deshalb zunächst einmal bei der Auswahl der Geräte auf die Sicherheitsarchitektur und den Umgang mit Patches und Updates achten, beziehungsweise diese nachrüsten. Selbstverständlich sollten alle Daten sowohl im Ruhezustand als auch während der Übertragung verschlüsselt sein. Zudem gilt es, abgestufte Zugangskontrollen für die einzelnen Geräte und Systeme umzusetzen.

Die Migration selbst hält dann, eine gute Planung vorausgesetzt, keine Stolpersteine mehr bereit – ein Fall-back-Szenario gehört trotzdem zu einer professionellen Vorbereitung. Die Erfahrungen zeigen allerdings, dass IoT– oder Edge-Projekte in den ersten drei Monaten scheitern, wenn zu viele Parteien mit im Boot sitzen.

Müssen unterschiedliche Nischen-Lösungen zu einer funktionierenden Plattform verschmolzen werden, sorgen Inkompatibilitäten und anderweitige Ansätze immer wieder für Probleme. Richtig genutzt, versetzt Edge Computing Unternehmen in die Lage, Ressourcen zu sparen, Abläufe zu automatisieren, Produkte und Services zu verbessern sowie völlig neue Geschäftsmodelle aufzubauen. (hi)

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

*Uwe Wiest ist General Manager & Director Sales OEM & IoT Solutions DACH bei Dell Technologies.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Brian Wrozek, Principal Analyst bei Forrester (c) Forrester
Interview

Cybersicherheit in der Ära von KI und Cloud

Die Bedrohungslandschaft im Bereich der Cybersicherheit hat sich zu einer unbeständigen Mischung von Bedrohungen entwickelt, die durch zunehmende Unsicherheit und steigende Komplexität bedingt ist. Zu diesem Schluss kommt der Report »Top Cyber-security Threats In 2024« von Forrester. ITWelt.at hat dazu mit Studienautor Brian Wrozek ein Interview geführt. […]

Alexander Graf ist Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH. (c) Antares-NetlogiX Netzwerkberatung GmbH
Interview

Absicherung kritischer Infrastrukturen

NIS2 steht vor der Tür – höchste Zeit, entsprechende Maßnahmen auch im Bereich der Operational Technology (OT) zu ergreifen. »Wenn man OT SIEM richtig nutzt, sichert es kritische Infrastrukturen verlässlich ab«, sagt Alexander Graf, Experte für OT-Security (COSP) und Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH, im ITWelt.at-Interview. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*