IBM stellt das nächste Kapitel von watsonx vor

IBM hat heute auf ihrer jährlichen THINK-Konferenz mehrere neue Updates für die watsonx-Plattform - ein Jahr nach deren Einführung - sowie neue Daten- und Automatisierungsfunktionen angekündigt. [...]

Foto: GerdAltmann/Pixabay

Diese sollen künstliche Intelligenz (KI) für Unternehmen offener, kostengünstiger und flexibler machen. In seiner Eröffnungsrede wird CEO Arvind Krishna die Pläne des Unternehmens erläutern, in die Open-Source-KI-Community zu investieren, sie mit aufzubauen und Beiträge zu leisten – ein zentraler Bestandteil der IBM Strategie.

„Wir glauben fest daran, offene Innovation in die KI zu bringen. Wir wollen die Kraft von Open Source nutzen, um mit KI das zu tun, was mit Linux und OpenShift erfolgreich getan wurde“, sagte Krishna.

„Offen bedeutet Auswahl. Offen bedeutet, dass mehr Augen auf den Code, mehr Köpfe auf die Probleme und mehr Hände auf die Lösungen gerichtet sind. Damit eine Technologie an Geschwindigkeit gewinnt und allgegenwärtig wird, muss man drei Dinge in Einklang bringen: Wettbewerb, Innovation und Sicherheit. Open Source ist ein großartiger Weg, um alle drei zu erreichen.“

IBM veröffentlicht eine Reihe von Granite-Modellen als Open-Source-Angebot und führt in Zusammenarbeit mit Red Hat InstructLab eine neuartige Funktion ein

Im Rahmen ihres Engagements für das KI-Ökosystem zu OpenSource hat IBM nun eine Reihe ihrer fortschrittlichsten und leistungsfähigsten Sprach- und Code-Granite-Modelle als Open-Source-Angebot bereitgestellt. Damit lädt IBM Kunden, Entwickler und globale Experten ein, auf diesen Stärken aufzubauen und die Grenzen dessen, was KI in Unternehmensumgebungen erreichen kann, zu erweitern.

Die Open Source Granite Modelle sind ab heute unter Apache 2.0-Lizenzen auf Hugging Face und GitHub verfügbar und zeichnen sich durch ihren Entwicklungsprozess, ihre Qualität, Transparenz und Effizienz aus. Die Granite-Codemodelle reichen von 3B bis 34B Parametern und sind sowohl in Basis- als auch in anweisungsgetreuen Modellvarianten erhältlich.

Die Code-Modelle, die auf 116 Programmiersprachen trainiert wurden, erreichen durchgängig die beste Leistung unter den Open-Source-Code-LLMs für verschiedene Code-bezogene Aufgaben:

  • Die von IBM durchgeführten Tests haben ergeben, dass die Granite Code-Modelle über alle Modellgrößen und Benchmarks hinweg eine sehr gute Leistung aufweisen und andere Open-Source-Code-Modelle, die im Vergleich zu Granite doppelt so groß sind, oft übertreffen.
  • Tests von IBM mit Benchmarks wie HumanEvalPack, HumanEvalPlus und dem Reasoning-Benchmark GSM8K haben gezeigt, dass Granite-Codemodelle bei der Codesynthese, -korrektur, -erläuterung, -bearbeitung und -übersetzung in den meisten wichtigen Programmiersprachen, darunter Python, JavaScript, Java, Go, C++ und Rust, sehr leistungsfähig sind.
  • Das 20B-Parameter-Granite-Basismodell wurde verwendet, um den IBM watsonx Code Assistant (WCA) für die heute verfügbaren Spezialdomänen zu trainieren. Es unterstützt auch watsonx Code Assistant for Z – ein Produkt, das Unternehmen bei der Umwandlung von monolithischen COBOL-Anwendungen in für IBM Z optimierte Dienste helfen soll.
  • Das 20B-Parameter-Granite-Basismodell wurde darauf abgestimmt, SQL aus natürlichsprachlichen Fragen zu generieren, um strukturierte Daten zu transformieren und Erkenntnisse aus diesen Daten zu gewinnen. IBM ist federführend bei der Umwandlung von natürlicher Sprache in SQL – einem wichtigen Use Case der Branche. Das zeigt das unabhängige BIRD-Benchmarking, das Modelle nach Execution Accuracy (EX) und Valid Efficiency Score (VES) einstuft.

IBM und Red Hat haben vor kurzem InstructLab ins Leben gerufen – einen revolutionären Ansatz, um echte Open-Source-Innovationen rund um LLMs voranzutreiben.

Die Methodik von InstructLab ermöglicht eine kontinuierliche Entwicklung von Basismodellen durch ständige inkrementelle Beiträge, ähnlich wie die Softwareentwicklung seit Jahrzehnten im Open-Source-Umfeld funktioniert. Mit InstructLab können Entwickler spezifische Modelle für ihre Geschäftsbereiche oder Branchen mit  eigenen Daten erstellen, so dass auch sie den direkten Mehrwert der KI erkennen können und nicht mehr nur die Modellanbieter.

IBM plant, die Open-Source-Beiträge zur Verfügung zu stellen, so dass  durch die Integration mit watsonx.ai und der neuen Red Hat Enterprise Linux AI-Lösung (RHEL AI) Kunden einen zusätzlichen Mehrwert erlangen können.

RHEL AI umfasst eine unternehmenstaugliche Version von InstructLab, die IBM Open-Source-Granite-Modelle sowie die weltweit führende Enterprise-Linux-Plattform zur Vereinfachung der KI-Bereitstellung in hybriden Infrastrukturumgebungen.

IBM Consulting unterstützt außerdem  Kunden dabei, InstructLab mit ihren eigenen Daten zu nutzen. Indem anwendungsspezifische KI-Modelle trainiert und skaliert werden, lassen sich die Kosten- und Leistungsanforderungen der Geschäftsanforderungen eines Unternehmens besser erfüllen.

IBM stellt eine neue Klasse von watsonx-Assistenten vor

Dieser neue Schub an KI-Innovation hat das Potenzial, branchenübergreifend einen jährlichen wirtschaftlichen Nutzen von schätzungsweise 4 Billionen US-Dollar zu erschließen. Der jährliche Global AI Adoption Index von IBM ergab kürzlich, dass zwar 42 % der befragten Großunternehmen (> 1.000 Mitarbeiter) KI in ihrem Unternehmen implementiert haben, aber weitere 40 % der Unternehmen, die KI erforschen oder damit experimentieren, ihre Modelle noch nicht einsetzen.

Für die Unternehmen, die noch in der Sandbox feststecken, ist 2024 ein wichtiges Jahr zur Überwindung von Einstiegshürden, wie etwa von Qualifikationslücken, der Datenkomplexität und des Vertrauens.

Um diese Herausforderungen zu meistern, kündigt IBM mehrere bevorstehende Updates und Erweiterungen für die watsonx Assistents- sowie eine neue Funktion in watsonx Orchestrate an, mit der Kunden ihre eigenen KI-Assistenten für verschiedene Bereiche erstellen können.

Zu den neuen KI-Assistenten gehören der watsonx Code Assistant for Enterprise Java Applications (geplante Verfügbarkeit im Oktober 2024) und der watsonx Assistant for Z, mit dem sich die Art und Weise, wie Benutzer mit dem System interagieren, verbessern sowie Wissen und Expertise schnell vermitteln lassen (geplante Verfügbarkeit im Juni 2024).

Dazu gehört auch eine Erweiterung von watsonx Code Assistant for Z Service mit Code-Erklärungen, was Kunden dabei hilft, Anwendungen durch natürliche Sprache zu verstehen und zu dokumentieren (geplante Verfügbarkeit im Juni 2024). Lesen Sie mehr auf watsonx Code-Assistent für Enterprise-Java-Anwendungenwatsonx Assistant für Z, und watsonx Code Assistant für Z.

IBM erweitert ihre NVIDIA-GPU-Angebot und bietet NVIDIA L40S und NVIDIA L4 Tensor Core GPUs sowie Unterstützung für Red Hat Enterprise Linux AI (RHEL AI) und OpenShift AI an, damit Unternehmen und Entwickler die Anforderungen von KI und anderen geschäftskritischen Workloads erfüllen können. Um Kunden eine schnellere Wertschöpfung durch KI zu ermöglichen, nutzt IBM außerdem einsatzfähige Architekturen für watsonx.

Das ermöglicht eine schnelle Bereitstellung von KI und stattet zudem Unternehmen mit Sicherheits- und Compliance-Funktionen aus. Diese helfen ihnen, ihre Daten zu schützen und Compliance-Kontrollen zu managen. Lesen Sie diesen Blog, um mehr über IBM Cloud-Funktionen zu erfahren.

Darüber hinaus hat IBM mehrere neue und künftige generative KI-gestützte Produkte und Funktionen angekündigt, mit denen Unternehmen ihre zunehmend fundierten und komplexen Daten für KI-Workloads besser beobachten, verwalten und optimieren können. Erfahren Sie mehr über IBM Data Product Hub (geplante Verfügbarkeit im Juni 2024), Data Gate für watsonx (geplante Verfügbarkeit im Juni 2024) sowie eine Vielzahl der neuesten und geplanten Updates zu watsonx.data. Lesen Sie diesen Blog, um mehr über diese Datenfunktionen zu erfahren. 

IBM stellt neue Vision und Funktionen für KI-gestützte Automatisierung vor

Hybride Cloud und KI verändern die Art und Weise, wie Unternehmen ihr Geschäft betreiben. Ein durchschnittliches Unternehmen verwaltet heute mehrere Cloud-Umgebungen – öffentliche und private – und etwa 1.000 Anwendungen, von denen jede mehrere Abhängigkeiten hat.

Außerdem haben sie mit Petabytes an Daten zu tun. Es wird erwartet, dass bis 2028 generative KI bis zu 1 Milliarde Apps steuern wird. Automatisierung ist nicht länger eine Option – sie steht dafür, wie Unternehmen Zeit sparen, Probleme lösen und Entscheidungen schneller treffen werden.

IBM geht diese Herausforderungen mit einer Reihe von KI-gestützten Automatisierungsfunktionen an, die es CIOs ermöglichen, von einer proaktiven Verwaltung ihrer IT-Umgebungen zu einer KI-gestützten vorausschauenden Automatisierung zu wechseln. KI-gestützte Automatisierung wird wesentlich dazu beitragen, die Geschwindigkeit, Leistung, Skalierbarkeit, Sicherheit und Kosteneffizienz der Infrastruktur eines Unternehmens zu verbessern.

Heute unterstützt das IBM Portfolio an Automatisierungs-, Netzwerk-, Daten-, Anwendungs- und Infrastrukturmanagement-Produkten Kunden bei der Verwaltung ihrer zunehmend komplexeren IT-Umgebungen. Apptio ermöglicht es Unternehmen, fundierte, datengestützte Entscheidungen über ihre Investitionen zu treffen, indem es für Klarheit über die Technologieausgaben und deren Auswirkungen auf den Geschäftserfolg sorgt. Unternehmen können so schnell auf veränderte Marktbedingungen reagieren.

Apptio lässt sich auch mit der   Power von Instana zur automatisierten Observability und Turbonomic zur Leistungsoptimierung kombinieren. Eine verbesserte Sichtbarkeit sowie Echtzeiteinblicke unterstützen Kunden bei der effizienten Zuweisung von Ressourcen und der Kontrolle der IT-Ausgaben, so dass sie mehr Zeit für die Bereitstellung und Skalierung von KI haben und sich neuen innovativen Initiativen zuwenden können.

Um diese Produkte zu ergänzen, hat IBM kürzlich die Absicht bekannt gegeben, HashiCorp zu übernehmen. Es unterstützt Unternehmen bei der Automatisierung von Multi-Cloud- und Hybrid-Umgebungen durch Infrastructure Lifecycle Management und Security Lifecycle Management – mittels Produkten wie Terraform, Vault und anderen. Mit HashiCorp können Kunden problemlos zu Multi-Cloud- und Hybrid-Cloud-Umgebungen wechseln und damit arbeiten.

Jetzt, auf der THINK, weitet IBM ihr hochmodernes Automatisierungsportfolio weiter aus und gibt eine Vorschau auf ein neues generatives KI-gestütztes Tool namens IBM Concert, das im Juni 2024 allgemein verfügbar sein wird. IBM Concert kann als „Nervenzentrum“ für die Technologie und den Betrieb eines Unternehmens gesehen werden.

Basierend auf der KI durch watsonx wird IBM Concert Kunden generative, KI-gestützte Einblicke in ihre Anwendungsportfolios ermöglichen, um mögliche Probleme zuverlässig vorhergesagt, angezeigt sowie passende Lösungen vorgeschlagen zu bekommen.

Das neue Tool lässt sich in die bestehenden Systeme der Kunden integrieren und nutzt generative KI, um sich mit Daten aus ihrer Cloud-Infrastruktur, Quellcode-Repositories, CI/CD-Pipelines und anderen bestehenden Lösungen für das Anwendungsmanagement zu verbinden. Damit können sie eine detaillierte Übersicht über ihre verbundenen Anwendungen erstellen.

Concert ermöglicht es den Kunden, überflüssige Aufgaben zu eliminieren und andere zu beschleunigen, so dass die Teams besser informiert sind und rasch und reaktionsschnell Probleme angehen und vermeiden können, bevor sie auftreten. Concert wird sich zunächst darauf konzentrieren, Anwendungsbesitzern, SREs und IT-Führungskräften dabei zu helfen, Einblicke in Probleme zu gewinnen, die im Zusammenhang mit der Verwaltung von Anwendungsrisiken und Compliance stehen, diesen zuvorzukommen und auch schneller zu lösen.

IBM erweitert den Ecosystem-Zugang zu watsonx und fügt Modelle von Drittanbietern hinzu

IBM fördert weiterhin ein starkes Ecosystem an Partnern, um den Kunden Wahlmöglichkeiten und Flexibilität zu bieten. Das erfolgt, indem Modelle von Drittanbietern in watsonx integriert werden, es führenden Softwareunternehmen ermöglicht wird, watsonx-Funktionen in ihre Technologie einzubetten und IBM Consulting Expertise für die Transformation von Unternehmen anbietet.

IBM Consulting hat seine globale generative KI-Expertise schnell ausgebaut und verfügt über mehr als 50.000 zertifizierte Fachkräfte für IBM und strategische Partnertechnologien. Unser Ökosystem aus großen und kleinen Partnern unterstützt Kunden bei der Einführung und Skalierung maßgeschneiderter KI in ihren Unternehmen.

  • AWS: 
    • IBM und AWS arbeiten zusammen, um Amazon SageMaker und watsonx.governance auf AWS zusammenzubringen. Dieses Produkt ist ab sofort verfügbar und stattet Amazon SageMaker-Kunden mit erweiterten KI-Governance-Funktionen für ihre prädiktiven maschinellen Lern- und generativen KI-Modelle aus. Kunden können nun ihre Modelle plattformübergreifend steuern, überwachen und verwalten und so das Risikomanagement und die Compliance-Prozesse für ihre KI-Aktivitäten vereinfachen.
  • Adobe:  
    • IBM und Adobe arbeiten in den Bereichen Hybrid-Cloud und KI zusammen, indem sie Red Hat OpenShift und watsonx auf die Adobe Experience Platform bringen und prüfen, ob sie watsonx.ai und den Adobe Acrobat AI Assistant als On-Prem- und Private-Cloud-Lösung anbieten können. IBM führt außerdem einen neuen Beratungsdienst ein, um die Einführung von Adobe Express bei Kunden zu fördern. Diese Funktionen werden voraussichtlich in der zweiten Hälfte des Jahres 2024 verfügbar sein.
  • Meta: 
    • IBM hat die Verfügbarkeit von Meta Llama 3 – der nächsten Generation von Metas offenem Sprachmodell – auf watsonx bekannt gegeben, um Unternehmen bei ihrer Innovationsreise zu KI zu unterstützen. Die Einführung von Llama 3 baut auf der Zusammenarbeit von IBM und Meta auf, um offene Innovationen für KI voranzutreiben. Die beiden Unternehmen haben Ende letzten Jahres die AI Alliance ins Leben gerufen – eine Gruppe führender Organisationen aus Industrie, Start-ups, Hochschulen, Forschung und Behörden -, die inzwischen auf mehr als 100 Mitglieder und Mitarbeiter angewachsen ist.
  • Microsoft:
    • IBM gibt bekannt, dass die KI- und Datenplattform watsonx von IBM unterstützt wird, um auf Microsoft Azure zu laufen. Diese ist über IBM und unser Business-Partner-Ökosystem als kundenverwaltete Lösung auf Azure Red Hat OpenShift (ARO) erhältlich .
  • Mistral: 
    • IBM beabsichtigt, , eine neue strategische Partnerschaft mit Mistral AI einzugehen, um die neuesten kommerziellen Modelle auf die watsonx-Plattform zu bringen. Das schließt das führende Mistral Large-Modell ein, das das Unternehmen im zweiten Quartal 24 verfügbar machen will. Bei der Zusammenarbeit mit Mistral geht es auch um AI auf Basis von Open Innovation, die auf der Arbeit beider Unternehmen in der Open-Source-Community aufbauen.
  • Palo Alto Networks:
    • IBM hat ihre Partnerschaft mit Palo Alto erweitert, um gemeinsam KI-gestützte Sicherheitsangebote und verschiedene Initiativen zur Verbesserung der Sicherheitsergebnisse für Kunden bereitzustellen. Für mehr, lesen Sie die vollständige Pressemitteilung.
  • Salesforce:
    • IBM und Salesforce planen, die IBM Granite-Modellreihe im Laufe des Jahres für die Salesforce Einstein 1-Plattform verfügbar zu machen, um den Kunden Zugang zu mehr Modellen zur Verbesserung der Entscheidungsfindung für KI-CRM-Anwendungsfälle zu bieten.
  • SAP: 
    • IBM Consulting und SAP arbeiten auch zusammen, um Wege zu finden, mehr Kunden dabei zu helfen, ihre Cloud-Projekte zu beschleunigen und RISE mit SAP zu nutzen damit sie die Vorteile generativer KI für Geschäftsabläufe in der Cloud realisieren können. Dieses Vorhaben soll die Zusammenarbeit von IBM und SAP bei der Einbettung der IBM Watson AI-Technologie in SAP-Lösungen erweitern. Als Teil dieser Initiative mit SAP soll die IBM Granite Model Series für die Nutzung im gesamten SAP-Portfolio von Cloud-Lösungen und -Anwendungen zugänglich sein, was durch den generativen KI-Hub in SAP AI Core untermauert wird.
  • SDAIA: 
    • IBM hat das arabische Modell „ALLaM“ der Saudi Data and Artificial Intelligence Authority (SDAIA) auf watsonx eingeführt und die Plattform um neue Sprachfunktionen erweitert, darunter die Fähigkeit, mehrere arabische Dialekte zu verstehen.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*