Künstliche Intelligenz: Größer ist nicht gleich besser

Kein anderes Thema hat ein so großes Potenzial, unsere Gesellschaft und Arbeitsweise so nachhaltig zu verändern wie die Künstliche Intelligenz. Einen echten Wettbewerbsvorteil versprechen allerdings weniger die großen, bekannten Sprachmodelle, sondern speziell auf Branchen und Anforderungen zugeschnittene Lösungen. [...]

Jan Wildeboer ist EMEA Open Source Evangelist bei Red Hat (c) Red Hat

KI scheint heute immer und überall präsent zu sein – und wird ihre allgegenwärtige Präsenz in Zukunft noch weiter ausbauen. Diese Entwicklung hat zwar nicht erst mit ChatGPT begonnen, aber die Veröffentlichung im November letzten Jahres war ein Wendepunkt. In der Welt der Technologie haben wir seit der Blockchain keinen solchen Hype und keine so schnelle Akzeptanz mehr erlebt. Ein Anfang des Jahres veröffentlichter IDC-Report schätzt, dass die weltweiten Ausgaben für KI bis 2026 auf 301 Milliarden US-Dollar steigen werden, was einer Verdoppelung der aktuellen Investitionen entspricht. Von der Mitarbeiterproduktivität über die Kundenzufriedenheit bis hin zur Risikominimierung werden alle Bereiche davon profitieren, so der Tenor. Da sie den Hype nicht ignorieren können, stürzen sich viele Mitarbeitende kopfüber in den Kampf und versuchen, sich als KI-Pioniere mit neuen Ansätzen einen Wettbewerbsvorteil zu verschaffen – und setzen ihre Unternehmen ungewollt Risiken aus.

Eine Frage der Kontrolle

Es ist eine weit verbreitete Annahme, dass der Wert von Daten mit ihrer Menge steigt. Aber das stimmt nicht immer. Je mehr Datensätze zur Verfügung stehen, desto schwieriger wird es, ihre Herkunft und Richtigkeit zu kontrollieren – ganz zu schweigen von möglichen Urheberrechtsverletzungen, die eine KI versehentlich begehen könnte. Ein Beispiel dafür ist die KI der Stunde: ChatGPT. Auf der Website von OpenAI wird darauf hingewiesen, dass die KI „möglicherweise ungenaue Informationen liefert“, wofür es auch zahlreiche Belege gibt. Die Problematik stellt sich dabei weniger für Nutzerinnen und Nutzer, die einen Biskuitkuchen backen wollen, sondern vielmehr bei weitreichenden Anwendungsfällen wie der Recherche im Bereich Recht und Strafverteidigung.

Übertragen wir dieses Risiko nun auf die Geschäftswelt. KI-Tools können automatisiert Lagerbestände verwalten, Gehälter an die Leistung anpassen, den vierteljährlichen Cashflow prognostizieren oder den Devisenhandel optimieren. Dabei treffen sie grundlegende Entscheidungen, die sich tiefgreifend auf die Rentabilität des Unternehmens auswirken. Mit einer ausgereiften Data-Governance- und KI-Strategie lässt sich dies leicht überwachen – jedenfalls bis zu dem Punkt, an dem die Mitarbeitenden anfangen, ihre eigenen KI-Tools zu nutzen. Unternehmen können nicht kontrollieren, was sie nicht kennen. Das Problem ist also ein zweifaches: Wie stellen sie die Integrität der bekannten KI-Tools sicher und wie verhindern sie, dass Mitarbeitende unautorisierte und ungeprüfte KI-Tools zur Unterstützung ihrer Arbeit einsetzen?

Die Antwort ist eher konzeptionell als konkret. Die Zukunft der KI wird nicht in den großen Sprachmodellen (Large Language Models, LLMs) liegen, die heute die Schlagzeilen beherrschen, oder in anderen generischen Lösungen, die für eine große Zahl von Nutzerinnen und Nutzern gedacht sind. Vielmehr werden Unternehmen Fähigkeiten benötigen, die auf ihre Branche, ihre Kunden und ihre Aufgaben zugeschnitten sind.

Bessere und relevantere Daten

Die neue Ära domänenspezifischer KI-Tools wird sich durch die Fähigkeit auszeichnen, einzigartige und spezialisierte Dienste zu erbringen. Dafür sind grundlegende Modelle erforderlich, die mit privaten Daten trainiert und an die Standards und Praktiken eines bestimmten Unternehmens oder einer bestimmten Branche angepasst werden. Mit gut organisierten, relevanten und geprüften Daten gefüttert, liefern diese Lösungen genau die Ergebnisse, die den Nutzern das Gefühl geben, mit Experten zusammenzuarbeiten. Experten, denen man vertrauen kann, weil sichergestellt ist, dass die Datensätze nicht willkürlich aus unterschiedlichen Quellen zusammengemischt und erstellt wurden. Die so generierten Ergebnisse sind relevant und effektiv. Als Konsequenz werden Mitarbeitende nicht das Bedürfnis haben, sich nach eigenen Lösungen umzusehen. Noch besser ist es, wenn sie in das Projekt einbezogen werden und ein Gefühl der Verantwortung und Loyalität entwickeln. Wer sich intensiv mit KI beschäftigt, weiß, dass die wirklich interessanten Innovationen sich bereits jetzt auf diesem Gebiet abspielen. Hier entstehen die Toolkits für domänenspezifische KI und sie übertreffen bereits die Innovationskraft der großen KI-Unternehmen. Weniger ist manchmal mehr, wie es so schön heißt. Aber nur, wenn diese Entwicklungen mit Transparenz und Integrität einhergehen. Damit fällt die KI-Entwicklung fest in den Aufgabenbereich der Rechts- und Compliance-Teams. Ihre Zusammenarbeit mit Data Scientists und DevOps-Kollegen wird zu einem wichtigen Bestandteil einer effektiven KI-Strategie. Sie müssen die Richtlinien dafür erstellen und aufzeigen, wie und wann KI eingesetzt wird. Dabei sollten sie die gleichen Fragen über die Herkunft ihrer Daten stellen, die wahrscheinlich auch von den Aufsichtsbehörden geprüft werden. 

Auf der ganzen Welt lassen die Rechtsprechungen ihre Muskeln spielen, wie das KI-Gesetz der EU, die AI Bill of Rights der USA, das KI-Regulierungspapier des Vereinigten Königreichs und die Durchsetzung der chinesischen Vorschriften zum Umgang mit algorithmischen Empfehlungen zeigen. Unwissenheit war schon immer eine schwache Verteidigung, selbst wenn die Schuld einem Anbieter zugeschoben werden konnte. Wenn eine KI mit den Daten eines Unternehmens entwickelt wurde, gibt es keine Ausrede mehr.

Vorsicht ist jedoch vor dem Mitläufereffekt geboten. Durch die Abkehr von der allgemeinen KI und die Hinwendung zu bereichsspezifischen Lösungen verfügen Unternehmen über weitaus effizientere Fähigkeiten und (wenn sie es richtig anstellen) über besser ausgebildete und regelkonform arbeitende Angestellte. Diese Entscheidung erfordert eine starke Führung. Das große Medienecho hat zwar eine gewisse Dringlichkeit für den Einsatz von KI-Tools geschaffen, dennoch gilt zu beachten: Der vernünftige Ansatz besteht darin, innezuhalten, zu bewerten und sicherzustellen, dass die KI-Investitionen, die Unternehmen in Systeme, Mitarbeitende und Kultur tätigen, sowohl die Chancen als auch die Risiken berücksichtigen.

*Der Autor Jan Wildeboer ist EMEA Open Source Evangelist bei Red Hat


Mehr Artikel

News

Internationale Konferenz zeigt den Weg zur datengetriebenen Zukunft

Am 13. November 2024 fand im Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) die Global Data Spaces Connect 2024 (GDSC24) statt, eine internationale Plattform, die Akteur:innen aus Wirtschaft, Wissenschaft und öffentlicher Verwaltung zu einem Austausch über den aktuellen Stand und die Zukunft der Datenräume (Data Spaces) zusammenbrachte. […]

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*