Red Hat Enterprise Linux AI soll Zugang zu KI-Innovationen vereinfachen

Red Hat Enterprise Linux AI kombiniert offene, effizientere Modelle mit zugänglichem Modell-Alignment und erweitert so laut Anbieter die Möglichkeiten von KI-Innovationen in der Hybrid Cloud. [...]

Red Hat geht davon aus, dass in den nächsten zehn Jahren kleinere, effizientere und anforderungsspezifische KI-Modelle neben Cloud-nativen Anwendungen einen wesentlichen Teil des IT-Stacks von Unternehmen ausmachen werden. Um dies zu erreichen, muss die generative KI jedoch leichter zugänglich und verfügbar sein – von den Kosten über die Mitwirkenden bis hin zur Möglichkeit, sie in der Hybrid Cloud einzusetzen. (c) stock.adobe.com/Jaroon

Red Hat gibt die allgemeine Verfügbarkeit von Red Hat Enterprise Linux (RHEL) AI in der Hybrid Cloud bekannt. RHEL AI ist die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen nahtlos entwickeln, testen und einsetzen können. Die Plattform kombiniert die Open-Source-lizenzierte Granite-Large-Language-Model-Familie und die InstructLab-Modell-Alignment-Tools, die auf der Methode Large-scale Alignment for chatBots (LAB) basieren. Die Lösung ist als optimiertes, bootfähiges RHEL-Image für die Bereitstellung einzelner Server in der Hybrid Cloud paketiert.

Die generative KI verspricht viele Vorteile, aber die damit verbundenen Kosten für die Beschaffung, das Training und die Feinabstimmung von LLMs können astronomisch sein. Bei einigen führenden Modellen können bis zur Markteinführung Kosten von fast 200 Millionen US-Dollar für das Training anfallen. Darin nicht enthalten sind die Kosten für die Anpassung an die spezifischen Anforderungen oder Daten eines Unternehmens, wofür in der Regel Data Scientists oder hochspezialisierte Entwickler erforderlich sind. Unabhängig davon, welches Modell für eine bestimmte Anwendung ausgewählt wird, ist eine Adaption an die unternehmensspezifischen Daten und Prozesse unverzichtbar. Nur so kann KI Effizienz und Agilität in realen Produktionsumgebungen bieten.

Red Hat geht davon aus, dass in den nächsten zehn Jahren kleinere, effizientere und anforderungsspezifische KI-Modelle neben Cloud-nativen Anwendungen einen wesentlichen Teil des IT-Stacks von Unternehmen ausmachen werden. Um dies zu erreichen, muss die generative KI jedoch leichter zugänglich und verfügbar sein – von den Kosten über die Mitwirkenden bis hin zur Möglichkeit, sie in der Hybrid Cloud einzusetzen. Jahrzehntelang haben Open-Source-Communities geholfen, ähnliche Herausforderungen bei komplexen Softwareproblemen durch Beiträge verschiedener Nutzergruppen zu bewältigen; ein vergleichbarer Ansatz kann nun die Hürden für eine effektive Einführung der generativen KI überwinden.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen


Ein Open-Source-Ansatz für die generative KI

Mit RHEL AI wird die generative KI für CIOs und IT-Organisationen über die Hybrid Cloud hinweg zugänglicher, effizienter und flexibler. Unter anderem unterstützt RHEL AI bei:

  • der Förderung von Innovationen der generativen KI mit unternehmenstauglichen Open-Source-lizenzierten Granite-Modellen, die auf eine Vielzahl von Anwendungsfällen der generativen KI abgestimmt sind.
  • der Anpassung von Modellen der generativen KI an betriebliche Anforderungen mit dem InstructLab-Tooling, das es Domain-Experten und Entwicklern innerhalb einer Organisation ermöglicht, auch ohne umfassende Data-Science-Kenntnisse ihre Modelle mit individuellen Fähigkeiten und Kenntnissen anzureichern.
  • dem Training und der Bereitstellung der generativen KI über die Hybrid Cloud hinweg, indem alle Tools zur Verfügung gestellt werden, die für das Tuning und das Deployment von Modellen für Produktionsserver erforderlich sind, unabhängig davon, wo die zugehörigen Daten gespeichert sind. RHEL AI bietet außerdem einen sofortigen Einstieg in Red Hat OpenShift AI, um die Modelle in großem Umfang mit denselben Tools und Konzepten zu trainieren, zu tunen und bereitzustellen.

Bei RHEL AI kommen zudem die Vorteile einer Red Hat Subscription zum Tragen, die eine vertrauenswürdige Produktdistribution für Unternehmen, einen 24×7-Support, einen erweiterten Support für den Lebenszyklus des Modells und den rechtlichen Schutz von Open Source Assurance umfasst.

RHEL AI als Erweiterung der Hybrid Cloud

Die Bereitstellung einer konsistenten Basismodellplattform, die näher an den Daten eines Unternehmens liegt, ist für die Unterstützung von KI-Strategien im Produktivbetrieb entscheidend. Als Erweiterung des Hybrid-Cloud-Portfolios von Red Hat wird RHEL AI nahezu jede mögliche Unternehmensumgebung abdecken, von On-Premise-Rechenzentren über Edge-Umgebungen bis hin zur Public Cloud. Folglich wird RHEL AI direkt von Red Hat, von OEM (Original Equipment Manufacturer)-Partnern von Red Hat und bei den weltweit größten Cloud-Anbietern, einschließlich Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud und Microsoft Azure, verfügbar sein. Dies ermöglicht es Entwicklern und IT-Organisationen, die Leistung von Hyperscaler-Rechenressourcen zu nutzen, um mit RHEL AI innovative KI-Konzepte zu entwickeln.

Verfügbarkeit

RHEL AI ist ab sofort allgemein verfügbar: zum einen über das Red Hat Customer Portal für die On-Premises-Nutzung und zum anderen als BYOS (Bring Your Own Subscription)-Angebot auf AWS und IBM Cloud. Die Verfügbarkeit eines BYOS-Angebots auf Azure und GCP ist für das vierte Quartal 2024 geplant und RHEL AI wird voraussichtlich 2025 auch auf IBM Cloud as a Service erhältlich sein. Red Hat beabsichtigt, den Kreis der RHEL-AI-Cloud- und OEM-Partner in den kommenden Monaten zu erweitern, um noch mehr Auswahl in Hybrid-Cloud-Umgebungen zu bieten.

Joe Fernandes, Vice President und General Manager, Foundation Model Platforms, Red Hat: „Damit Applikationen der generativen KI im Unternehmen wirklich erfolgreich sein können, müssen sie einer breiteren Gruppe von Organisationen und Anwendern zugänglich gemacht werden und für spezifische Geschäftsanforderungen besser nutzbar sein. RHEL AI bietet Domain-Experten, nicht nur Data Scientists, die Möglichkeit, zu einem zweckgebundenen generativen KI-Modell in der Hybrid Cloud beizutragen und gleichzeitig IT-Organisationen in die Lage zu versetzen, diese Modelle über Red Hat OpenShift AI für den Produktivbetrieb zu skalieren.“


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*