EnterpriseGPT revolutioniert das Wissensmanagement in drei Schritten

Ein altes Problem nähert sich endlich der Lösung: Bislang galt es als gesichert, dass kein Unternehmen weiß, was es eigentlich alles weiß. Doch damit dürfte jetzt Schluss sein – dank interner EnterpriseGPT-Systeme, die generative Künstliche Intelligenz gezielt für das Wissensmanagement einsetzen. Der IT-Dienstleister adesso beleuchtet die Hintergründe. [...]

Benedikt Bonnmann, Mitglied des Vorstands und verantwortlich für das KI-Geschäft bei adesso: „Das Potenzial von EnterpriseGPTs ist enorm. Sie können internes Wissen auf neue Weise zugänglich machen, gleichzeitig die Souveränität über die eigenen Daten sichern und damit endlich Probleme lösen, die Unternehmen schon viel zu lange mit sich herumschleppen.“ (c) adesso

Die sinnvolle Nutzung interner Wissensressourcen ist ein Dauerthema. Häufig wird vom „verborgenen Datenschatz“ gesprochen, der gehoben werden muss. Doch verschiedene Dateiformate, undurchsichtige Ablagesysteme und mangelhafte Verschlagwortung erschweren den einfachen Zugang zu Informationen ebenso wie Silodenken, unsaubere Prozesse, komplexe Organigramme oder parallele Datenhaltung.

Die daraus resultierenden Probleme sind nur allzu bekannt: Teams arbeiten unwissentlich parallel an der gleichen Aufgabe, die Projekte dauern länger als nötig und die Ergebnisse bleiben hinter den Erwartungen zurück. Die Suche nach Wissen kostet Unternehmen viel Zeit und Geld, das sie meist gar nicht beziffern können, weil die Transparenz fehlt.

Dank Künstlicher Intelligenz (KI) kommt jetzt Licht in dieses chronische Datendunkel. Genauer gesagt: Mit Hilfe generativer KI übernehmen unternehmensspezifische EnterpriseGPT-Systeme die anspruchsvolle Aufgabe, den internen Datenschatz zugänglich zu machen, aufzubereiten, gezielt bereitzustellen und damit die unternehmensinterne Datenverarbeitung auf ein neues Niveau zu heben. adesso erklärt die drei typischen Phasen beim Aufbau eines solchen Systems:

Aufbau eines internen KI-Chatbots

In einem ersten Schritt wird ein eigener interner KI-Chatbot entwickelt. Dadurch werden die Datenschutzprobleme umgangen, die mit der Nutzung externer KI-Chat-Systeme verbunden sind. Unternehmenskritische Informationen verlassen nicht die Grenzen der Unternehmens-IT, auch nicht für das Training der LLMs. Statt die Daten an den Provider zu senden, werden Sprachmodelle verwendet, die für die interne Nutzung als Software-as-a-Service von verschiedenen Anbietern verfügbar sind, darunter beispielsweise Google, Microsoft oder Aleph Alpha.

Ausbau zum „Domain Knowledge Agent“

Zuerst einen eigenen internen KI-Chatbot aufzubauen, hat zudem den Vorteil, dass die Modelle mit eigenen praxisnahen Daten wie Dokumentationen, Protokollen, Präsentationen oder Handbüchern, also auf Basis der internen Knowledge Base, trainiert werden können. Das unternehmensspezifische Wissen wird in Form von Domain Knowledge Agents für verschiedene Wissensgebiete und Nutzergruppen aufbereitet. Ein entsprechendes Berechtigungsmanagement stellt sicher, dass die jeweiligen Informationen nur für die vorgesehenen Anwender zugänglich sind. Typische Beispiele für Domain Knowledge Agents sind die übersichtliche Zusammenfassung und Klassifizierung interner Forschungsprojekte oder die Beantwortung häufig gestellter Fragen beim Onboarding von Mitarbeitenden in natürlicher Sprache.

Entwicklung von „Process Agents“

Während Domain Knowledge Agents gezielte Fragen beantworten und Quellennachweise liefern, gehen Process Agents den nächsten Schritt in Richtung Automatisierung. Ein Process Agent kann beispielsweise selbstständig das Dispatching von Anfragen an die IT übernehmen oder auf Basis einer Kundenpräsentation ein Angebotsformular erstellen und dieses anschließend im CRM zur Verfügung stellen. Diese fortgeschrittene Automatisierung von Workflows stellt allerdings hohe Anforderungen an die IT-Prozesse und erfordert eine tiefere Integration des Systems in die IT-Landschaft des Unternehmens.

    „Das Potenzial von EnterpriseGPTs ist enorm“, erklärt Benedikt Bonnmann, Mitglied des Vorstands und verantwortlich für das KI-Geschäft bei adesso SE. „Sie können internes Wissen auf neue Weise zugänglich machen, gleichzeitig die Souveränität über die eigenen Daten sichern und damit endlich Probleme lösen, die Unternehmen schon viel zu lange mit sich herumschleppen.“


    Mehr Artikel

    Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
    Interview

    „Die Zukunft ist modular, flexibel und KI-gestützt“

    Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

    News

    Richtlinien für sichere KI-Entwicklung

    Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

    News

    Datensilos blockieren Abwehrkräfte von generativer KI

    Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

    Be the first to comment

    Leave a Reply

    Your email address will not be published.


    *