Red Hat Device Edge für zukunftssicheres Open-Edge-Computing

Red Hat Device Edge bringt flexibles Kubernetes und Linux auf kleinere Edge-Geräte und sorgt damit für mehr Konsistenz bei Edge-Implementierungen in nahezu jedem Bereich. [...]

Red Hat führt mit Red Hat Device Edge eine leichtgewichtige Kubernetes-Lösung ein, um eine zukunftssichere Plattform anzubieten, die es Unternehmen ermöglicht, ihre Architektur an die Veränderung ihrer Workload-Strategie anzupassen. (c) Grafik: Red Hat
Red Hat führt mit Red Hat Device Edge eine leichtgewichtige Kubernetes-Lösung ein, um eine zukunftssichere Plattform anzubieten, die es Unternehmen ermöglicht, ihre Architektur an die Veränderung ihrer Workload-Strategie anzupassen. (c) Grafik: Red Hat

Der Open-Source-Lösungsanbieter Red Hat, Lösungen hat Red Hat Device Edge vorgestellt, eine Lösung zur flexiblen Bereitstellung traditioneller oder containerisierter Workloads auf kleinen Geräten wie Robotern, IoT-Gateways, Verkaufsstellen, öffentlichen Verkehrsmitteln etc. Red Hat Device Edge bietet eine sofort einsetzbare und mit Support versehene Version des von Red Hat betriebenen Open-Source-Community-Projekts MicroShift, einer leichtgewichtigen Kubernetes-Orchestrierungslösung. Sie baut auf den Edge-Funktionen von Red Hat OpenShift auf, zusammen mit einem Edge-optimierten Betriebssystem, das auf Red Hat Enterprise Linux basiert. Dieses jüngste Produkt im Edge-Portfolio von Red Hat zielt darauf ab, eine zukunftssichere Plattform anzubieten, die es Unternehmen ermöglicht, ihre Architektur an die Veränderung ihrer Workload-Strategie anzupassen. 

Da immer mehr Unternehmen Edge Computing in einem breiten Spektrum an Anwendungsfällen einsetzen, ergeben sich viele neue Fragen sowie betriebliche Anforderungen und geschäftliche Herausforderungen. In vielen Industriesektoren, wie beispielsweise der Automobilbranche und der Fertigungsindustrie, stehen Unternehmen vor verschiedenen Umwelt-, Sicherheits- und Betriebsherausforderungen, die die Fähigkeit erfordern, mit kleinen Edge-Geräten in einer ressourcenbeschränkten Umgebung zu arbeiten. Letztlich haben verschiedene Geräte unterschiedliche Anforderungen in Bezug auf Rechenleistung, Softwarekompatibilität und Sicherheitsanforderungen.

Mit Red Hat Device Edge können Unternehmen flexibel und auf kleinstem Raum Container am Edge bereitstellen und so die Rechenanforderungen im Vergleich zu herkömmlichen Kubernetes-Edge-Konfigurationen um bis zu 50 Prozent reduzieren. Darüber hinaus hilft die Lösung, viele der aufkommenden Fragen rund um das Large-Scale-Edge-Computing am Geräte-Edge zu beantworten, indem folgende Bestandteile integriert werden:

  • Ein für die Edge-Bereitstellung entwickeltes Kubernetes, das es IT-Teams ermöglicht, vertraute Kubernetes-Funktionen in einer neuen, kleineren und leichteren Version bereitzustellen, die von MicroShift angeboten wird. Dies senkt die Einstiegshürde für Teams, wenn es darum geht, Cloud-native Anwendungen für Edge-Computing-Umgebungen zu entwickeln. Es ermöglicht ihnen zudem, vorhandene Kubernetes-Kenntnisse zu nutzen, um eine größere Konsistenz der Abläufe über die gesamte Hybrid Cloud hinweg zu erreichen – vom Rechenzentrum über öffentliche Clouds bis hin zum Edge.
  • Ein Edge-optimiertes Linux-Betriebssystem, das auf Red Hat Enterprise Linux basiert und auf kleine Edge-Geräte mit intelligenten Updates zugeschnitten ist, die nur eine minimale Bandbreite benötigen. Das hilft Unternehmen, die Herausforderungen schwankender Konnektivität zu bewältigen und gleichzeitig die Auswirkungen auf Edge-Innovationen zu verringern.
  • Funktionen zur zentralen Skalierung und Überwachung von Edge-Geräteflotten mit Red Hat Smart Management. IT-Teams können Funktionen wie die Zero-Touch-Bereitstellung, die Transparenz des Systemzustands und Aktualisierungen mit automatischen Rollbacks nutzen, um eine bessere Edge-Verwaltung und Anwendungssicherheit zu gewährleisten.

Branchenunabhängige Unterstützung für Edge-Umgebungen

Red Hat Device Edge wurde entwickelt, um Kunden und Partner von Red Hat bei der Bewältigung ihrer anspruchsvollsten Edge-Umgebungen zu unterstützen. Lockheed Martin beispielsweise arbeitet mit Red Hat im Rahmen des MicroShift-Projekts zusammen und plant den Einsatz von Red Hat Device Edge, um seine Anwendungsbereitstellung und KI-Workloads unter extremen Bedingungen zu modernisieren und zu standardisieren, etwa bei der Waldbrandbekämpfung, in umkämpften militärischen Umgebungen und im Weltraum. ABB wiederum plant den Einsatz von Red Hat Device Edge für ABB Ability Edgenius auf ressourcenbeschränkten Geräten. Edgenius ist eine umfangreiche Edge-Plattform für industrielle Softwareanwendungen.

Red Hat Device Edge richtet sich branchenunabhängig an Unternehmen, die kleine Edge-Geräte mit Unterstützung für virtuelle, containerisierte oder Bare-Metal-Anwendungen benötigen. Weitere Anwendungsfälle sind unter anderem:

  • Kleine, vernetzte Knotenpunkte im öffentlichen Verkehr, bei denen Edge-Geräte oft in Bewegung sind, aber dennoch eine schnellere Verarbeitung durch KI oder ML benötigen, um Daten lokal in Echtzeit zu analysieren. Das ist etwa der Fall bei Eisenbahnen, Autos, Drohnen oder im Bergbau.
  • Widerstandsfähige Netzwerkknoten an schwierigen Standorten, etwa Wetterüberwachungsstationen, wo ein Edge-Gerät trotz der rauen und schwer-supportbaren Umgebungen in der Lage ist, sich selbst zu versorgen, automatische Software-Rollbacks durchzuführen, eine starke Sicherheitsumgebung aufrechtzuerhalten und die Kontrolle über sensible Daten sicherzustellen.
  • Neue Szenarien, in denen Tausende von Endgeräten an Orten betrieben werden, wo Gewicht, Temperatur und Konnektivität komplexe Randbedingungen darstellen. 

Red Hat Device Edge erfüllt die Anforderungen von Unternehmen, die sich auf dem Weg zum Edge Computing befinden, da es durch die Verwendung von Podman für das Edge-Container-Management oder MicroShift für eine Kubernetes-API eine große Bandbreite an Workloads ausführen kann. Kunden sind dadurch sogar in der Lage, Legacy-Windows-Anwendungen innerhalb einer virtuellen Maschine zu nutzen.

Red Hat Device Edge ist als Developer Preview für Anfang nächsten Jahres geplant und wird voraussichtlich später im Jahr 2023 mit vollem Support allgemein verfügbar sein.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*