Business-IT Herausforderungen: Edge Computing

Was Entwickler beherrschen müssen, um die künftigen Herausforderungen durch Edge-Computing, KI und Cloud-Computing zu meistern. [...]

Edge-Lösungen und die zunehmende Bereitstellung von Cloud-Diensten in Unternehmensnetzwerken beschleunigen den Bedarf an Distributed Cloud-Infrastrukturen (c) pixabay.com

Die nächste Phase der digitalen Transformation findet am intelligenten Netzwerkrand statt. Anwendungsbereiche wie autonome Fahrzeuge, intelligente Energienetze und fortschrittliche Industrieroboter erfordern die Verarbeitung großer Datenmengen in Echtzeit. Nur so können Systeme intelligente Entscheidungen direkt in den smarten Endgeräten am Netzwerkrand treffen, statt diese Prozesse über zentrale Rechenzentren leiten zu müssen. Die fortschreitende Einführung von 5G in Europa, Nordamerika und Teilen Asiens liefert die Basis für die schnellen Reaktionszeiten, die für Edge Computing erforderlich sind. Der Trend zu Cloud-native Technologien, befeuert durch KI, 5G und intelligente Systeme am Netzwerkrand, führt zu einem Anstieg der Nachfrage nach Entwicklern mit neuen Fähigkeiten. Edge-Technologie Experte Wind River beleuchtet die zentralen Herausforderungen für Unternehmen und Entwickler von Distributed Cloud-Umgebungen und fasst besonders wichtige Fähigkeiten und Ansatzpunkte zusammen.

Edge-Lösungen und die zunehmende Bereitstellung von Cloud-Diensten in Unternehmensnetzwerken beschleunigen den Bedarf an Distributed Cloud-Infrastrukturen. In Verbindung mit dem globalen Übergang zu 5G wird sich Distributed Cloud nach Meinung vieler Experten als bevorzugtes Infrastrukturmodell herauskristallisieren, getrieben durch die steigende Nachfrage nach Flexibilität, geringen Latenzzeiten und der Unterstützung einer dezentralen Belegschaft. Allerdings bringt die Bereitstellung und Entwicklung von intelligenten Edge-Systemen eine Reihe von Herausforderungen aus der alten und neuen Welt mit sich.

Matt Jones: Edge-Technologie-Experte und Vice President Global Engineering bei Wind River (c) windriver.com

Generationswechsel bei Systemen und Entwicklern

Wir befinden uns in einer Phase des Umbruchs. Neue Technologietrends, sich ständig verändernde Kundenanforderungen sowie neue Geschäftsmodelle und Dynamiken in den Märkten schaffen einen Präzedenzfall für das, was von Entwicklern in den kommenden Jahren erwartet wird. Systeme sollen möglichst autonom sein und kritische Daten müssen in Echtzeit verarbeitet werden. In der Zwischenzeit läuft weiterhin Legacy-Code in Embedded Systemen für wichtige Sektoren – wie Industrie, Luft- und Raumfahrt, Verteidigungswesen, Transportwesen, Versorgungsunternehmen – denn es braucht Zeit, um diese Systeme mit mehr Rechenleistung, automatisierten und intelligenten Funktionen zu modernisieren. Hinzu kommt eine Altersverschiebung in der Belegschaft der Entwickler von Baby-Boomern hin zu Millennials und der Generation Z.

Die Generation von Entwicklern, die sich mit Legacy-Code in älteren Sprachen auskennen, geht demnächst in den Ruhestand. An vielen Hochschulen spielt die Ausbildung der nachfolgenden Generation für die Arbeit mit diesen Legacy-Systemen jedoch eine untergeordnete Rolle. Für Unternehmen, die mehr Flexibilität in ihre Geschäftsprozesse und Infrastruktur bringen und neue Anforderungen erfüllen wollen, kann dies eine große Hürde darstellen. Sie müssen daher rasch handeln und in entsprechende Schulungen und Tools investieren, um diesen Wandel in der Belegschaft zu unterstützen und Qualifikationslücken entgegenzuwirken. Auch wenn dies noch unbekanntes Terrain zu sein scheint, ist es in erster Linie eine Chance, die Zukunft intelligenter Edge-Systeme auf die modernen Cloud-native Fähigkeiten und Denkweisen der heutigen Hochschul-Absolventen auszurichten.

Die wichtigsten Fähigkeiten für Entwickler

Die Welt der intelligenten Edge-Systeme erfordert ein neues Spektrum an Fähigkeiten, Denkansätzen und Qualifikationen. Detaillierte Kenntnisse über unternehmenskritische intelligente Systeme und Funktionen, einschließlich KI und Machine Learning (ML), Echtzeit-Analysen, Sicherheit und Netzwerkzuverlässigkeit, ist grundlegend für die Realisierung von Edge-Computing-Systemen oder eingebetteten Systemen für Edge-Computing.

Big Data Analyse mittels KI und ML: Angesichts der enormen Datenmengen, die in einer Edge-Umgebung in Echtzeit verarbeitet und analysiert werden, müssen Entwickler Automatisierungs-, KI- und ML-Funktionen nutzen, um die vorliegenden Daten besser zu verstehen und einzusetzen. Auf diese Weise können sie nicht nur das Auftreten von Fehlern verringern, sondern auch Details verstehen, die im Vorfeld eines Fehlers passiert sind. So lässt sich die Wahrscheinlichkeit, dass solche Fehler erneut auftreten, erheblich reduzieren. Mithilfe von Echtzeit-Analysen können Entwickler zudem Störungen oder Fehler vorhersehen, erkennen und beheben, sobald oder bevor sie auftreten.

Programmiersprachen und Data Science: Entwicklungsteams müssen eine Vielzahl von Programmiersprachen beherrschen und sich mit Datenanalyse (Data Science) auskennen, bevor sie die „höheren Sphären“ der KI- und ML-Systeme erreichen. Ebenso müssen die Teams ein Verständnis für die Bereitstellung, Wartung und Sicherheit von Anwendungen in Cloud– und Edge-Umgebungen entwickeln.

Flexibles System-Design: Anpassungsfähigkeit wird eine weitere Schlüsselkompetenz für Entwickler, um Systeme und Software in diesen neueren, flexibleren Umgebungen zu aktualisieren und neu zu programmieren. Zukunftsfähige Systeme sollten möglichst offen und modular gestaltet werden, damit sie anpassungsfähiger sind und einen Mehrwert aus den Echtzeitdaten und -analysen ableiten können.

Steigende Sicherheitsanforderungen: DevSecOps wird weiterhin eine entscheidende Rolle bei der Entwicklung von Systemen spielen, die eine Fülle von neuen Anwendungsfällen und Applikationen am Netzwerkrand hervorbringen. Durch die stärker dezentralisierte Systemumgebung wächst auch die Angriffsfläche. Daher muss die DevSecOps-Umgebung gesichert und müssen Tools bereitgestellt werden, um zu gewährleisten, dass der Output höchsten Sicherheitsanforderungen gerecht wird.

Abstimmung auf Unternehmensanforderungen: Es ist außerdem wichtig, dass Entwickler harmonisch mit dem Rest des Unternehmens zusammenarbeiten, um die Herausforderungen der Kunden und der Branche vollständig zu verstehen. Voraussetzung dafür ist aber natürlich zunächst, dass die Qualifikationslücken angegangen werden.

Die größten Herausforderungen für Unternehmen

Angesichts der wachsenden Verbreitung von Edge-Computing-Systemen, müssen sich Entwickler nicht nur gezielt weiterbilden, sondern auch die allgemeinen Herausforderungen im Auge behalten, mit denen ihre Unternehmen und deren Kunden täglich konfrontiert sind.

Softwarequalität im Blick behalten: In einer zunehmend Software-definierten Welt hat das Entwickeln qualitativ hochwertiger Software oberste Priorität. Edge-Computing-Systeme verfügen heute über eine Vielzahl von Funktionen, die jeweils durch Software differenziert werden. Es wird erwartet, dass immer mehr Funktionen in kürzerer Zeit und zu geringeren Kosten bereitgestellt werden, ohne dass die Qualität der Software darunter leidet. Die Anforderung einer kontinuierlichen Bereitstellung bedeutet, dass der gesamte Prozess stärker automatisiert und zuverlässiger sein muss.

Mit der Entwicklung schritthalten: Methoden und Best Practices für Software entwickeln sich schnell weiter. Agile und DevOps Praktiken für die Entwicklung von Software halten Einzug in die Edge-Computing-Systeme und erfordern die Verwendung moderner Softwareentwicklungs-Tools, -Techniken und Programmiersprachen. Von den Entwicklern wird erwartet, dass sie sich mit modernen Tools vertraut machen, ohne die Produktivität und Effizienz der Kunden zu beeinträchtigen, unabhängig von der Lernkurve, mit der sie konfrontiert werden.

Cybersecurity integrieren: Der Faktor Sicherheit muss bei der Entwicklung und dem Betrieb von Edge-Systemen an vorderster Stelle stehen. Edge Computing bringt vernetzte intelligente Geräte mit unterschiedlichen Konnektivitätsstufen und Einsatzszenarien mit sich. Diese erhöhte Angriffsfläche erfordert nicht nur einen integrierten sicheren Entwicklungsprozess, sondern auch sicherheitsrelevante Funktionen in den Produkten, die während der Bereitstellung und anschließend im autonomen Betrieb Schutz bieten.

„Die Verlagerung zur Edge vollzieht sich schnell, getrieben von einem zunehmenden Trend zu verteilten Infrastrukturen und dem Wunsch, das Potenzial der intelligenten Edge zu nutzen. 5G rückt vielversprechende Aussichten für Edge-Computing-Umgebungen in greifbare Nähe, und intelligente Systeme in Unternehmen erfordern Sicherheit und Zuverlässigkeit“, resümiert Matt Jones, Vice President, Global Engineering bei Wind River. „Legacy-Code und aktuelle Entwicklerfähigkeiten reichen nicht aus, um dies zu erreichen. Entwickler benötigen ein tiefes Verständnis der neuen Technologien, die die Automatisierung und Orchestrierung einer neuen Generation von Anwendungsfällen am Netzwerkrand ermöglichen. Speziell auf diese Herausforderungen ausgerichtete Plattformen, wie Wind River Studio, vereinfachen die Entwicklung, den Einsatz, den Betrieb und die Wartung von intelligenten Edge-Systemen, um Entwickler zu unterstützen.“

*Dieser Beitrag wurde erstellt von Matt Jones, Edge-Technologie-Experte und Vice President Global Engineering bei Wind River


Mehr Artikel

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

News

Risiken beim Einsatz von GenAI in vier Schritten senken

Die Themen Datenschutz und Modellverwaltung sind in der Datenwissenschaft zwar nicht neu, doch GenAI hat ihnen eine neue Dimension der Komplexität verliehen, die Datenschutzbeauftragte vor neue Herausforderungen stellt. Die Data-Science-Spezialisten von KNIME haben die Potenziale und Risiken der KI-Nutzung beim Einsatz bei der Datenarbeit zusammengefasst und empfehlen vier Schritte zur Risikominimierung. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*