71 Prozent der Arbeitnehmer nutzen bereits KI-Tools, bevor ihre Vorgesetzten davon wissen. Doch eine individuelle, fragmentierte Herangehensweise an die Einführung generativer KI in bestehende Prozesse trägt dazu bei, das Unternehmen zu splitten. [...]
Auf der einen Seite sind die Mitarbeitenden, die die neueste Technologie nutzen, ohne sich darüber mit ihren Kollegen oder Vorgesetzten zu verständigen. Auf der anderen Seite stehen die zögerlichen Nichtnutzer, die hinter ihren vermeintlich fortschrittlicheren Kollegen zurückbleiben. Ohne eine ganzheitliche Strategie und Schulung der Mitarbeitenden im Umgang mit neuen KI-Tools, könnten diejenigen, die alleingelassen mit der neuen Technologie experimentieren, schnell frustriert sein. Denn sie sind nicht in der Lage, nützliche Erkenntnisse oder genaue Ergebnisse zu gewinnen. Zudem bergen diese ersten negativen Erfahrungen ein großes Risiko, dass Mitarbeitende die KI-Tools schnell wieder ganz aufgeben.
Unautorisierter Gebrauch gefährdet sensible Daten
Eine aktuelle Studie von Veritas ergab, dass 31 Prozent der Befragten zugaben, potenziell sensible Informationen mit generativen KI-Tools zu teilen. Geschäftskonten für KI-Produkte enthalten in der Regel Vereinbarungen, die sicherstellen, dass Unternehmensdaten nicht zum Trainieren von KI-Modellen verwendet werden. Persönliche Konten, die häufig in der Schatten-KI verwendet werden, verfügen jedoch in der Regel nicht über diese Vereinbarungen. Das bedeutet, dass alle Unternehmensdaten, die über ein persönliches Konto geteilt werden, versehentlich zum Trainieren des KI-Modells verwendet werden könnten.
Die Absicherung der Unternehmensdaten sollte daher immer ein Hauptanliegen darstellen. Zudem können schwerwiegende Folgen entstehen, wenn Mitarbeitende diese leistungsstarken Tools ohne Anleitung oder eigenes Urteilsvermögen einsetzen. KI-Tools sind immer noch anfällig für fehlerhafte oder ungenaue Ergebnisse und sogar für „Halluzinationen“. Denn wenn man sich auf fehlerhafte Ergebnisse verlässt, ohne diese zu hinterfragen, kann dies zu falschen Entscheidungen und potenziellen rechtlichen oder finanziellen Auswirkungen für das Unternehmen führen.
KI-Strategie, die Regeln setzt, aber auch zum Experimentieren einlädt
Um diesen Herausforderungen zu begegnen, sollten Unternehmen eine koordinierte KI-Strategie verfolgen. Es ist wichtig, dass IT-Teams vertrauenswürdige Anbieter identifizieren und klare Bedingungen für den Umgang mit sensiblen Daten vereinbaren. Die Zusammenarbeit mit Anbietern, die über solide KI-Prinzipien verfügen, einschließlich Regeln für die Datensicherheit und die Verhinderung von Datenschutzverletzungen, wird Cyberrisiken und rechtliche Verpflichtungen minimieren. Für Unternehmen, die über ausreichende Ressourcen verfügen, ist die Entwicklung einer maßgeschneiderten KI-Lösung durch Nutzung vorhandener großer Sprachmodelle ebenfalls eine praktikable Option. So entsteht eine leistungsstarke KI, die sich nahtlos in das Datenökosystem und die Prozesse des Unternehmens einfügt, die Produktivität steigert und Zeit für strategische Aufgaben freiräumt.
Um den größtmöglichen Nutzen aus ihren KI-Investitionen zu ziehen, sollten Unternehmen außerdem ein umfassendes Programm entwickeln, das ihre Mitarbeitenden kontinuierlich über die besten Verfahren zur Integration von KI in ihre tägliche Arbeit informiert. So wird sichergestellt, dass alle Mitarbeitenden die Vorteile der KI-Technologie nutzen können. In jedem Team gibt es einen „Early Tech Adopter“, der durch seine Neugierde und Leidenschaft anderen, die eher zögerlich experimentieren, voraus ist. Solche Mitarbeitende können in Zusammenarbeit mit ihren IT-Teams zu KI-Champions innerhalb des Unternehmens werden, Erkenntnisse, bewährte Verfahren und Einsichten mit Kollegen teilen und eine kollaborative Lernumgebung fördern.
Ethik und Innovation kombinieren
Innerhalb der Grenzen der KI-Strategie des Unternehmens können Mitarbeitende mit der Automatisierung von Routineaufgaben ihre Leistung steigern und Zeit sparen, um sich auf die Arbeit zu fokussieren, die den größten Wert für das Unternehmen bringt. Es ist jedoch wichtig, daran zu denken, dass KI nicht als Ersatz für menschliche Intelligenz verwendet werden sollte. KI ist heute in der Lage, zahlreiche Aufgaben zu automatisieren und innerhalb von Sekunden große Mengen an Inhalten zu generieren. Aber die Mitarbeitenden müssen immer noch ihr eigenes kritisches Denken anwenden. Denn wenn sie den von der KI generierten Text nicht wirklich gelesen oder das Problem, das sie zu lösen versuchen, nicht wirklich überdacht haben, werden sie in Zukunft vor nur noch größeren Problemen stehen. Deshalb müssen Unternehmen bei aller KI-Euphorie immer wieder über die langfristigen ethischen und sozialen Auswirkungen der KI auf die Belegschaft nachdenken und gleichzeitig sicherstellen, dass die KI die menschlichen Fähigkeiten auf ausgewogene Weise ergänzt.
*Christopher (Chris) Noon ist Director und Global Head of Commercial Intelligence & Analytics (CIA) bei Dropbox. Als solcher leitet er die Data-Science-Initiativen des Unternehmens. Sein Team entwickelt Tools zur Visualisierung des Kundenengagements und zur Identifizierung von Trends und Möglichkeiten, die Dropbox dabei helfen, die eigenen Produkte zu verbessern, um stets das beste Kundenerlebnis zu bieten. Vor seiner Karriere bei Dropbox war Chris Noon Dozent für alte Geschichte und Archäologie an der Universität Oxford. Er wechselte von der akademischen Welt in die Technologiebranche mit dem Ziel, sein Fachwissen zu nutzen, um die Kluft zwischen Technologie und Bildung zu überbrücken. Für diese Bemühungen erhielt er ein Fellowship der Royal Society of Art.
Be the first to comment