Red Hat OpenShift AI erweitert die Flexibilität von prädiktiver und generativer KI in der Hybrid Cloud

Red Hat hat Erweiterungen von Red Hat OpenShift AI angekündigt, einer offenen hybriden Plattform für Künstliche Intelligenz (KI) und maschi-nelles Lernen (ML). [...]

Foto: GerdAltmann/Pixabay

Mit den Updates unterstreicht Red Hat seine KI-Vision und erweitert die Wahlfreiheit der Anwender – von intelligenten Workloads über die zugrundeliegende Hardware bis hin zu den Services und Tools, etwa Jupyter oder PyTorch, die für die Entwicklung mit der Plattform verwendet werden.

Damit ermöglicht Red Hat eine schnellere Einführung von Innovationen, eine höhere Produktivität und die Option, KI effektiv in das Tagesgeschäft zu integrieren. Die Grundlage dafür bildet eine flexiblere, skalierbare und anpassbare Open-Source-Plattform, die sowohl prädiktive als auch generative Modelle mit oder ohne Cloud-Umgebungen bereitstellt.

Wollen Anwender ihre KI-Modelle von der Testphase in die Produktion überführen, stehen sie vor zahlreichen Herausforderungen. Dazu gehören etwa steigende Hardwarekosten, Datenschutzbedenken und ein mangelndes Vertrauen in die gemeinsame Nutzung von Daten bei SaaS-basierten Modellen.

Gleichzeitig entwickelt sich die generative Künstliche Intelligenz (GenAI) so schnell, dass viele Unternehmen Schwierigkeiten haben, eine zuverlässige KI-Kernplattform für den effizienten Betrieb on-premises oder in der Cloud aufzubauen.

Darüber hinaus müssen Unternehmen laut IDC zunächst eine Reihe von Anforderungen erfüllen, um KI-Lösungen überhaupt erst erfolgreich einsetzen zu können. Neben der Modernisierung vorhandener Anwendungen und Umgebungen geht es vor allem darum, Barrieren zwischen bestehenden Systemen und Storage-Plattformen zu beseitigen, die Nachhaltigkeit der Infrastruktur zu verbessern und sorgfältig auszuwählen, wo verschiedene Workloads bereitgestellt werden – in der Cloud, im Rechenzentrum oder an Edge-Standorten.

Für Red Hat ist dies ein Beleg dafür, dass KI-Plattformen flexibel an die Bedürfnisse und Ressourcen von Unternehmen angepasst sein und sie bei der Einführung von KI-Lösungen unterstützen müssen.

Die KI-Strategie von Red Hat ermöglicht Flexibilität in der Hybrid Cloud und bietet Anwendern die Möglichkeit, vortrainierte oder kuratierte Basismodelle mit Kundendaten zu erweitern sowie eine Vielzahl von Lösungen zur Leistungssteigerung von Hardware und Software zu nutzen. Die erweiterten Funktionen von Red Hat OpenShift AI erfüllen diese Anforderungen durch die neuesten KI/ML-Innovationen und die Unterstützung durch ein umfassendes KI-zentriertes Partner-Ökosystem. Die aktuelle Version der Plattform, Red Hat OpenShift AI 2.9, bringt folgende neue Features mit sich:

  • Model Serving am Edge erweitert die Bereitstellung von KI-Modellen an entfernten Standorten unter Verwendung eines einzigen OpenShift-Nodes. Es bietet Inferenzfunktionen in ressourcenbeschränkten Umgebungen mit intermittierendem oder lückenhaftem Netzwerkzugang. Diese Technology Preview bietet Unternehmen einen skalierbaren, konsistenten Betrieb vom Core über die Cloud bis zur Edge und verfügt über Out-of-the-box-Observability.
  • Enhanced Model Serving mit der Möglichkeit, mehrere Model Server zu verwenden, um sowohl prädiktive KI als auch GenAI zu unterstützen. Dies umfasst auch die Unterstützung von KServe, einer benutzerdefinierten Kubernetes-Ressourcendefinition, die das Serving für alle Arten von Modellen orchestriert. Neben vLLM, Text Generation Inference Server (TGIS) und Serving Engines für LLMs gilt dies auch für die Caikit-nlp-tgis-Runtime, die Modelle und Aufgaben der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) verarbeitet. Mit dem Enhanced Model Serving können Anwender prädiktive KI und GenAI auf einer einzigen Plattform für mehrere Anwendungsfälle ausführen, was die Kosten senkt und den Betrieb vereinfacht. Dies ermöglicht Model Serving „out of the box“ für LLMs und vereinfacht die Arbeitsabläufe der Nutzer.
  • Distributed Workloads mit Ray, unterstützt durch CodeFlare und KubeRay, ermöglichen die Nutzung mehrerer Clusterknoten zur Beschleunigung und Effizienzsteigerung der Datenverarbeitung und des Modelltrainings. Ray ist ein Framework zur Beschleunigung von KI-Workloads, KubeRay hilft bei der Verwaltung dieser Workloads auf Kubernetes. CodeFlare ist ein zentraler Bestandteil der verteilten Workload-Funktionen von Red Hat OpenShift AI und bietet ein benutzerfreundliches Framework, das die Orchestrierung und Überwachung von Tasks vereinfacht. Die zentralen Queuing- und Management-Funktionen sorgen für eine optimale Node-Auslastung und weisen Ressourcen wie GPUs den richtigen Benutzern und Workloads zu.
  • Verbesserte Modellentwicklung durch Projekt-Workspaces und zusätzliche Workbench-Images. Sie bieten Data Scientists die Flexibilität, IDEs und Toolkits, einschließlich VS Code und RStudio, aktuell als Technology Preview verfügbar, sowie erweitertes CUDA für eine Vielzahl von Anwendungsfällen und Modelltypen zu verwenden.
  • Visualisierung des Model-Monitorings für Performance- und Betriebs-Metriken, um die Leistung von KI-Modellen besser überwachen zu können.
  • Neue Accelerator-Profile, mit denen Administratoren verschiedene Arten von Hardware-Accelerator konfigurieren können, die für die Modellentwicklung und modellunterstützende Workflows zur Verfügung stehen. Dies ermöglicht den Anwendern einen einfachen Self-Service und Zugriff auf den geeigneten Accelerator-Typ für bestimmte Arbeitslasten.

Zusätzlich zu Red Hat OpenShift AI, das auch IBMs watsonx.ai unterstützt, nutzen Unternehmen aus verschiedenen Branchen Red Hat OpenShift AI, um ihre KI-Innovationen und ein größeres Wachstum voranzutreiben, darunter AGESIC und Ortec Finance.

Die Cloud ist hybrid. Das gilt auch für KI.

Seit mehr als 30 Jahren sorgen Open-Source-Technologien für schnelle Innovationen, stark reduzierte IT-Kosten und niedrigere Innovationsbarrieren. Red Hat ist seit fast ebenso langer Zeit führend in diesem Bereich – von der Bereitstellung offener Enterprise-Linux-Plattformen mit RHEL in den frühen 2000er Jahren bis hin zur Entwicklung von Containern und Kubernetes als Fundament für die Open Hybrid Cloud und Cloud-natives Computing mit Red Hat OpenShift.

Dieser Trend setzt sich fort, indem Red Hat KI-/ML-Strategien in der offenen Hybrid Cloud vorantreibt, sodass KI-Workloads dort ausgeführt werden können, wo die Daten liegen, sei es im Rechenzentrum, in mehreren Public Clouds oder an der Edge.

Die Vision von Red Hat für KI umfasst nicht nur die Workloads, sondern auch das Modelltraining und -tuning, um Einschränkungen in Bezug auf Datensouveränität, Compliance und betriebliche Integrität zu überwinden. Die Konsistenz, die die Plattformen von Red Hat über diese Umgebungen hinweg bieten, unabhängig davon, wo sie ausgeführt werden, ist entscheidend, um KI-Innovationen voranzutreiben.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*