Die technologischen Möglichkeiten generativer KI-Modelle sind fast grenzenlos und machen für viele Entscheider die Technologie-Evaluation zu einem komplexen Unterfangen. Sie müssen sich aus den verschiedenen Softwarestacks und Betriebsmodellen eine Variante auswählen, die einen konkreten Mehrwert schafft und zum Unternehmen passt. Mit der richtigen Strategie lässt sich dieser Prozess systematisieren und vereinfachen. [...]
Ob Entwicklerteam oder Managementboard – in vielen Unternehmensbereichen wird der Einsatz von generativer KI intensiv diskutiert. Ursächlich dafür ist sicherlich der Hype um ChatGPT. Für einen erfolgreichen Einsatz von generativer KI in den Unternehmensprozessen müssen Entscheider jedoch viele Paramater definieren. Vom Installationsort (On-Premises oder Cloud-basiert) über den Softwaretyp (Open Source oder proprietär) bis zur Implementation (Standard-Lösung oder individueller Softwarestack) gibt es offene Fragen, die sich pauschal nicht beantworten lassen. Und das ist gut so, denn ein KI-Einsatz ist nur dann wirklich zielführend, wenn er an die spezifischen Anforderungen des Unternehmens angepasst wird.
Von entscheidender Bedeutung für generative KI-Modelle ist die Verfügbarkeit von Daten. Sie müssen in entsprechender Quantität und Qualität vorhanden sein, damit Entwickler sie zum Training der KI einsetzen können. Auch wenn Unternehmen heute oft über große Datenbanken und Data Lakes verfügen, so müssen diese Daten oft erst einmal ausgewählt und aufbereitet werden. Nicht selten lohnt sich auch eine Verschneidung mit Informationen aus dem Internet oder Intranet. Diese Form des Data Scraping sorgt für zusätzlichen Input.
Ist das Thema Datenmanagement geklärt, muss ein Unternehmen entscheiden, ob es auf vorhandene KI-Lösungen zugreifen will oder eine Eigenentwicklung startet. Es ist jedoch für die meisten Unternehmen aus finanziellen und operativen Gründen nicht sinnvoll, eine Lösung von Scratch auf selbst zu entwickeln. Der Mehrwert rechtfertigt die hohen Kosten und die dabei entstehende Komplexität nicht. Ausnahmen gibt es in Organisationen, die in einem sehr spezifischen Segment wie zum Beispiel der Aerodynamik tätig sind, für das keine klassischen KI-Modelle nutzbar sind. Eigenentwicklungen sind deshalb eher im Bereich der Forschung von Vorteil.
Die Wahl der richtigen Infrastruktur
Im Hinblick auf einen KI-Einsatz im On-Premises- oder Cloud-Betrieb ist zu beachten, dass die datenintensiven Workloads einer KI-Umgebung hohe Anforderungen an die Infrastruktur stellen. Das betrifft zum Beispiel die Hardware mit extrem kostspieligen GPUs (Graphics Processing Units). Viel spricht deshalb für die Cloud etwa mit der Nutzung eines „Pay per use“-Modells. Eine hybride Umgebung ist hingegen die beste Wahl, wenn Unternehmen hohe Anforderungen bei der Compliance erfüllen müssen. Ein KI-Mischbetrieb kann dann so designed werden, dass vertrauliche Daten wie Finanzberichte oder Kundenpräsentationen on-premises verarbeitet werden, während unkritische Daten in der Cloud zirkulieren. Generell ist aber im KI-Bereich oft der beste Weg, das Training in der Cloud – etwa auch mit anonymisierten beziehungsweise synthetischen Daten – durchzuführen mit anschließender Nutzung des KI-Modells in der On-Premises-Umgebung, zum Beispiel an der Edge einer Fertigungsstraße.
Abwägung: Open Source vs proprietäre Lösung
Die Entscheidung, ob ein Unternehmen eine Open-Source- oder eine lizenzierte proprietäre Lösung verwendet, muss individuell getroffen werden, unter Abwägung der jeweiligen Vorteile und Betrachtung der Anwendungsfälle.
Bei den lizenzierten Modellen können Unternehmen etwa Microsoft Azure OpenAI oder Anthropic Claude über AWS und Google Cloud nutzen. Gerade im Hinblick auf das Thema digitale Souveränität dürfte auch das Heidelberger Unternehmen Aleph Alpha auf europäischer Ebene an Relevanz gewinnen.
Der entscheidende Vorteil der proprietären Varianten ist die Usability. Sie bieten ein Cockpit, das ein einfaches Einlesen von Trainingsdaten ermöglicht, bei Open Source hingegen steht nur Code zur Verfügung. Open-Source-Lösungen wie Llama 2 allerdings können durch eine große Community-Mitarbeit punkten, die das Feintuning der Lösungen konsequent vorantreibt. Auch wenn ein Unternehmen eine maximale Unabhängigkeit und Gestaltungsfreiheit beim KI-Einsatz behalten will, sollte es eine Open-Source-Variante wählen. Bei der Nutzung von Open-Source-Modellen ist aber auch der Kostenfaktor zur berücksichtigen, schließlich müssen eigene Server betrieben werden.
Prinzipiell kann man festhalten: Will ein Unternehmen einen proprietären, vertraulichen Code generieren, sollte es eine Open-Source-Lösung mit vielen Feintuning-Möglichkeiten im eigenen Rechenzentrum nutzen. Für einen einfachen FAQ-Chatbot hingegen bietet sich eher ein bewährtes „Pay per use“-Modell in der Cloud an.
Externe Daten erweitern die Informationsbasis von LLMs
Beim KI-Einsatz dominieren momentan Large Language Models (LLMs) wie ChatGPT, die bereits äußerst leistungsfähig sind. Sie sind auf große Datenmengen trainiert, um ein breites Spektrum an Allgemeinwissen abzudecken. Wenn ein LLM jedoch aufgefordert wird, eine Antwort zu generieren, die ein nicht in seinen Trainingsdaten enthaltenes Wissen erfordert, kommt es an seine Grenzen. Das Ergebnis können dann auch objektiv falsche KI-Antworten sein, sogenannte Halluzinationen. Mit dem Konzept Retrieval-Augmented Generation (RAG) können diese Probleme vermieden werden. RAG stellt den LLMs zusätzliche Informationen aus externen Wissensquellen wie Vektordatenbanken zur Verfügung. Dadurch können die LLMs exaktere und kontextbezogene Antworten generieren und zugleich Halluzinationen reduzieren.
Keine Implementation ohne Roadmap und Vision
Vor allem im Bereich Manufacturing spielt KI bereits eine wichtige Rolle: Durch die Nutzung von Sensoren und die Auswertung von IoT-Daten werden Fertigungsprozesse effizienter gestaltet, etwa durch die vorausschauende Wartung oder die Qualitätssicherung. Aber auch hier gibt es noch ein großes Optimierungspotenzial. So kann KI durchgängig auf die gesamte Prozesskette angewendet werden, zum Beispiel bis hin zu einer automatisierten Bestellung fehlenden Materials.
Bei jedem KI-Einsatz sollten Unternehmen deshalb immer eine Roadmap festlegen und eine Vision verfolgen. Auch wenn derzeit bevorzugt intelligente Chatbots und Chat-Interfaces genutzt werden, muss klar sein: Sie sind längst nicht das Ende der KI-Fahnenstange, sondern vielmehr nur ein kleiner Anfang. Wichtig ist vor allem eine Verknüpfung der Prozess- mit der KI-Welt. Mit einer Verankerung der KI in zentralen Prozessen können viele manuelle Abläufe beseitigt und Medien- wie Prozessbrüche vermieden werden, sodass Unternehmen unmittelbar einen Mehrwert generieren können.
Insgesamt betrachtet ist momentan im KI-Bereich viel in Bewegung, es werden noch etliche neue Lösungen sowohl von großen Playern wie Google oder der Meta-Gruppe als auch von kleineren Anbietern mit branchenspezifischem Fokus auf den Markt kommen. Unternehmen können im Hinblick hierauf aber keine abwartende Haltung einnehmen. Nur wenn sie sich frühzeitig mit KI-Anwendungen befassen, werden sie im Wettbewerb nicht ins Hintertreffen geraten. Es muss auch nicht immer das neueste KI-Topmodell sein. Bereits die vorhandenen Lösungen bieten ein Potenzial, das vielfach noch nicht ausgeschöpft wird. Die Empfehlung lautet folglich: Ein Unternehmen sollte heute im Hinblick auf Zukunftssicherheit, Unabhängigkeit und Flexibilität eine Architektur wählen, die es ermöglicht, Modelle künftig auszutauschen. Das RAG-Konzept mit der Speicherung von Daten in einer Vektordatenbank ist dafür ein gutes Beispiel. Das darüber liegende Modell ist dann jederzeit austauschbar.
*Der Autor Niklas Bläsing ist Director Consulting Practice Data, Automation & AI bei CGI in Deutschland.
Be the first to comment