Red Hat OpenShift AI erweitert die Flexibilität von prädiktiver und generativer KI in der Hybrid Cloud

Red Hat hat Erweiterungen von Red Hat OpenShift AI angekündigt, einer offenen hybriden Plattform für Künstliche Intelligenz (KI) und maschi-nelles Lernen (ML). [...]

Foto: GerdAltmann/Pixabay

Mit den Updates unterstreicht Red Hat seine KI-Vision und erweitert die Wahlfreiheit der Anwender – von intelligenten Workloads über die zugrundeliegende Hardware bis hin zu den Services und Tools, etwa Jupyter oder PyTorch, die für die Entwicklung mit der Plattform verwendet werden.

Damit ermöglicht Red Hat eine schnellere Einführung von Innovationen, eine höhere Produktivität und die Option, KI effektiv in das Tagesgeschäft zu integrieren. Die Grundlage dafür bildet eine flexiblere, skalierbare und anpassbare Open-Source-Plattform, die sowohl prädiktive als auch generative Modelle mit oder ohne Cloud-Umgebungen bereitstellt.

Wollen Anwender ihre KI-Modelle von der Testphase in die Produktion überführen, stehen sie vor zahlreichen Herausforderungen. Dazu gehören etwa steigende Hardwarekosten, Datenschutzbedenken und ein mangelndes Vertrauen in die gemeinsame Nutzung von Daten bei SaaS-basierten Modellen.

Gleichzeitig entwickelt sich die generative Künstliche Intelligenz (GenAI) so schnell, dass viele Unternehmen Schwierigkeiten haben, eine zuverlässige KI-Kernplattform für den effizienten Betrieb on-premises oder in der Cloud aufzubauen.

Darüber hinaus müssen Unternehmen laut IDC zunächst eine Reihe von Anforderungen erfüllen, um KI-Lösungen überhaupt erst erfolgreich einsetzen zu können. Neben der Modernisierung vorhandener Anwendungen und Umgebungen geht es vor allem darum, Barrieren zwischen bestehenden Systemen und Storage-Plattformen zu beseitigen, die Nachhaltigkeit der Infrastruktur zu verbessern und sorgfältig auszuwählen, wo verschiedene Workloads bereitgestellt werden – in der Cloud, im Rechenzentrum oder an Edge-Standorten.

Für Red Hat ist dies ein Beleg dafür, dass KI-Plattformen flexibel an die Bedürfnisse und Ressourcen von Unternehmen angepasst sein und sie bei der Einführung von KI-Lösungen unterstützen müssen.

Die KI-Strategie von Red Hat ermöglicht Flexibilität in der Hybrid Cloud und bietet Anwendern die Möglichkeit, vortrainierte oder kuratierte Basismodelle mit Kundendaten zu erweitern sowie eine Vielzahl von Lösungen zur Leistungssteigerung von Hardware und Software zu nutzen. Die erweiterten Funktionen von Red Hat OpenShift AI erfüllen diese Anforderungen durch die neuesten KI/ML-Innovationen und die Unterstützung durch ein umfassendes KI-zentriertes Partner-Ökosystem. Die aktuelle Version der Plattform, Red Hat OpenShift AI 2.9, bringt folgende neue Features mit sich:

  • Model Serving am Edge erweitert die Bereitstellung von KI-Modellen an entfernten Standorten unter Verwendung eines einzigen OpenShift-Nodes. Es bietet Inferenzfunktionen in ressourcenbeschränkten Umgebungen mit intermittierendem oder lückenhaftem Netzwerkzugang. Diese Technology Preview bietet Unternehmen einen skalierbaren, konsistenten Betrieb vom Core über die Cloud bis zur Edge und verfügt über Out-of-the-box-Observability.
  • Enhanced Model Serving mit der Möglichkeit, mehrere Model Server zu verwenden, um sowohl prädiktive KI als auch GenAI zu unterstützen. Dies umfasst auch die Unterstützung von KServe, einer benutzerdefinierten Kubernetes-Ressourcendefinition, die das Serving für alle Arten von Modellen orchestriert. Neben vLLM, Text Generation Inference Server (TGIS) und Serving Engines für LLMs gilt dies auch für die Caikit-nlp-tgis-Runtime, die Modelle und Aufgaben der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) verarbeitet. Mit dem Enhanced Model Serving können Anwender prädiktive KI und GenAI auf einer einzigen Plattform für mehrere Anwendungsfälle ausführen, was die Kosten senkt und den Betrieb vereinfacht. Dies ermöglicht Model Serving „out of the box“ für LLMs und vereinfacht die Arbeitsabläufe der Nutzer.
  • Distributed Workloads mit Ray, unterstützt durch CodeFlare und KubeRay, ermöglichen die Nutzung mehrerer Clusterknoten zur Beschleunigung und Effizienzsteigerung der Datenverarbeitung und des Modelltrainings. Ray ist ein Framework zur Beschleunigung von KI-Workloads, KubeRay hilft bei der Verwaltung dieser Workloads auf Kubernetes. CodeFlare ist ein zentraler Bestandteil der verteilten Workload-Funktionen von Red Hat OpenShift AI und bietet ein benutzerfreundliches Framework, das die Orchestrierung und Überwachung von Tasks vereinfacht. Die zentralen Queuing- und Management-Funktionen sorgen für eine optimale Node-Auslastung und weisen Ressourcen wie GPUs den richtigen Benutzern und Workloads zu.
  • Verbesserte Modellentwicklung durch Projekt-Workspaces und zusätzliche Workbench-Images. Sie bieten Data Scientists die Flexibilität, IDEs und Toolkits, einschließlich VS Code und RStudio, aktuell als Technology Preview verfügbar, sowie erweitertes CUDA für eine Vielzahl von Anwendungsfällen und Modelltypen zu verwenden.
  • Visualisierung des Model-Monitorings für Performance- und Betriebs-Metriken, um die Leistung von KI-Modellen besser überwachen zu können.
  • Neue Accelerator-Profile, mit denen Administratoren verschiedene Arten von Hardware-Accelerator konfigurieren können, die für die Modellentwicklung und modellunterstützende Workflows zur Verfügung stehen. Dies ermöglicht den Anwendern einen einfachen Self-Service und Zugriff auf den geeigneten Accelerator-Typ für bestimmte Arbeitslasten.

Zusätzlich zu Red Hat OpenShift AI, das auch IBMs watsonx.ai unterstützt, nutzen Unternehmen aus verschiedenen Branchen Red Hat OpenShift AI, um ihre KI-Innovationen und ein größeres Wachstum voranzutreiben, darunter AGESIC und Ortec Finance.

Die Cloud ist hybrid. Das gilt auch für KI.

Seit mehr als 30 Jahren sorgen Open-Source-Technologien für schnelle Innovationen, stark reduzierte IT-Kosten und niedrigere Innovationsbarrieren. Red Hat ist seit fast ebenso langer Zeit führend in diesem Bereich – von der Bereitstellung offener Enterprise-Linux-Plattformen mit RHEL in den frühen 2000er Jahren bis hin zur Entwicklung von Containern und Kubernetes als Fundament für die Open Hybrid Cloud und Cloud-natives Computing mit Red Hat OpenShift.

Dieser Trend setzt sich fort, indem Red Hat KI-/ML-Strategien in der offenen Hybrid Cloud vorantreibt, sodass KI-Workloads dort ausgeführt werden können, wo die Daten liegen, sei es im Rechenzentrum, in mehreren Public Clouds oder an der Edge.

Die Vision von Red Hat für KI umfasst nicht nur die Workloads, sondern auch das Modelltraining und -tuning, um Einschränkungen in Bezug auf Datensouveränität, Compliance und betriebliche Integrität zu überwinden. Die Konsistenz, die die Plattformen von Red Hat über diese Umgebungen hinweg bieten, unabhängig davon, wo sie ausgeführt werden, ist entscheidend, um KI-Innovationen voranzutreiben.


Mehr Artikel

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*