ChatGPT in der Praxis

Von Kundenservice bis Cybersecurity: Die enorme Popularität von ChatGPT hat generative KI-Tools ins Rampenlicht gerückt und viele Unternehmen quer durch alle Branchen dazu veranlasst, sich intensiv mit ihren Fähigkeiten und Anwendungsfällen auseinanderzusetzen. [...]

Anwendungen von ChatGPT sind mehrheitlich noch im Experimentierstadium. (c) Midjourney – W. Franz
Anwendungen von ChatGPT sind mehrheitlich noch im Experimentierstadium. (c) Midjourney – W. Franz

GlobalData prognostiziert, dass der globale Markt für Konversationsplattformen von 2022 bis 2030 eine durchschnittliche jährliche Wachstumsrate von 23,3 Prozent aufweisen wird. Diese Steigerung wird zum Teil durch die erhebliche Verbesserung der Sprachmodelle seit der Veröffentlichung von GPT-3 durch OpenAI im Jahr 2020 angetrieben, die die Fähigkeiten und Anwendungen von Konversationsplattformen erweitert hat.

Pranjali Mujumdar, Disruptive Tech Analyst bei GlobalData, kommentiert: „Das Aufkommen von ChatGPT war ein entscheidender Moment für die Technologiebranche, die Entwicklung ihrer Tools zu beschleunigen. Große Tech-Unternehmen wie Google, Microsoft, Meta und Salesforce investieren massiv in die generative KI-Forschung, in der Hoffnung, einen Durchbruch zu erzielen, der sie an die Spitze des Rennens bringen könnte.“

Das Versprechen ist offensichtlich groß, das hinter ChatGPT & Co steht, doch wie sieht es mit dem praktischen Einsatz aus? Hier ein paar Beispiele.

Kundenservice

Helvetia startet einen Service im direkten Kundenkontakt auf Basis der ChatGPT-Technologie von OpenAI. Der Service nutzt die KI, um Kundenfragen zu Versicherung und Vorsorge zu beantworten. Noch hat der Service experimentellen Charakter; langfristig soll er den Zugang zu Versicherungs- und Vorsorgeprodukten vereinfachen.

Das Unternehmen will in einem ersten Schritt erfahren, wie Kundinnen und Kunden entsprechende Services annehmen. Jan Kundert, Leiter Kunden- und Marktmanagement und Mitglied der Geschäftsleitung von Helvetia Schweiz, erklärt: „Wir investieren laufend und auf verschiedenen Ebenen in ein positives Kundenerlebnis. Deshalb wollen wir erkennen, welchen Mehrwert künstliche Intelligenz unseren Kundinnen und Kunden bieten kann.“

Helvetia hat ihren Kundinnen und Kunden schon früh Chatbot-Services angeboten. Als OpenAI Anfang März die Programmierschnittstelle zu ChatGPT veröffentlicht hat, habe man umgehend mit internen Tests begonnen. Achim Baumstark, CTO der Helvetia Gruppe: „Für uns ist klar, dass künstliche Intelligenz und insbesondere Sprachmodelle künftig eine wichtige Kompetenz darstellen. Dementsprechend interessiert sind wir, mit dieser Technologie schnellstmöglich innerhalb einer klar definierten Testumgebung Erfahrungen zu sammeln.“ Begleitet wird das Experiment von der Hochschule Luzern. Diese wird Helvetia auch bei der Auswertung der Resultate unterstützen. Dass es sich um ein Experiment handelt, ist laut Auskunft von Helvetia in den Nutzungsbedingungen klar beschrieben.

Software-Tests

CodiumAI hat ein KI-Modell namens TestGPT entwickelt, das auf dem Sprachmodell GPT-4 von OpenAI basiert, so die Informationen von Bernhard Lauer. Die Aufgabe des Modells ist es, Entwickler beim interaktiven Testen ihres Codes zu unterstützen, indem es Tests generiert. „Entwickler haben eine Hassliebe zum Schreiben von Tests für ihren Code“, sagt CodiumAI-Mitbegründer und Chief Product Officer Dedy Kredo.

Laut Lauer analysiert TestGPT den neu geschriebenen Code, den Docstring und die Kommentare während der Arbeit des Entwicklers und schlägt dann vor, welche Tests durchgeführt werden sollten, um die Funktionen und die Integrität des Codes sicherzustellen. Der Entwickler muss die vorgeschlagenen Tests nur akzeptieren und bestätigen, um die Integrität seines Codes zu verbessern.

Mitbegründer und Geschäftsführer Itamar Friedman sagt, dass sein Unternehmen an der Schnittstelle zwischen neuen Entwicklungen wie ChatGPT und Programmierassistenten wie GitHub Copilot arbeitet. Es hat die generativen KI-Fähigkeiten von ChatGPT übernommen und sie für das Testen von Codelogik fein abgestimmt. Das CodiumAI-Tool ist Bernhard Lauer zufolge derzeit in der Beta-Phase als Erweiterung für beliebte integrierte Entwicklungsumgebungen wie PyCharm, VSCode und WebStorm verfügbar und soll in Zukunft in weitere IDEs und zusätzliche Programmiersprachen integriert werden.

Vier HR-Szenarien

Gerrit Külper, Director People and Employee Relations Central Europe bei Sage, hat vier Anwendungsmöglichkeiten im HR-Bereich herausgearbeitet. So kann das KI-Tool im Bewerberprozess und bei der Rekrutierung von Talenten helfen. ChatGPT ist beispielsweise in der Lage, Fragen von Bewerbern oder Mitarbeitern auf verschiedenen Kommunikationskanälen schnell und effizient zu beantworten, ohne dass ein menschlicher HR-Mitarbeiter eingreifen muss. Dabei kann die KI Fragen zum Stellenangebot, Bewerbungsverfahren, Arbeitsbedingungen und anderen Themen behandeln.

Gerrit Külper sieht einen weiteren Einsatzbereich in der Mitarbeiterförderung und -entwicklung. Das KI-Tool kann einerseits Mitarbeiter-Feedback sammeln und zur Verbesserung der Arbeitsbedingungen und Mitarbeiterzufriedenheit beitragen. Das intelligente Sprachmodell ist weiters in der Lage, Mitarbeitern individuelle Lernprogramme anzubieten, die auf ihre Fähigkeiten sowie Stärken und Schwächen abgestimmt sind.

Als dritten Punkt spricht der Sage-Spezialist die eigenständige Erstellung von HR-Präsentationen sowie die Personalisierung von Inhalten auf Basis der automatisch erkannten Interessen und Bedürfnisse der Teilnehmer an.

Last but not least sieht Gerrit Külper Verbesserungschancen in Sachen Employer Branding. ChatGPT kann mit der schnellen und automatischen Beantwortung von Fragen die Reaktionsfähigkeit des Unternehmens verbessern. „Dies trägt dazu bei, das Image des Unternehmens als aufmerksamer und effizienter Arbeitgeber zu stärken“, so Külper. Außerdem sei ChatGPT in der Lage, personalisierte Nachrichten anhand von Daten wie Berufserfahrung, Bildung und Fähigkeiten zu erstellen. „Dies ermöglicht, ein positives Image des Unternehmens als aufmerksamer und respektvoller Arbeitgeber zu vermitteln.“ Gerrit Külper ist überzeugt, dass das Tool auch bei der Vermittlung der Unternehmenskultur helfen kann. Dabei werden Fragen zu Unternehmenswerten, Arbeitsumgebung und Unternehmensmission beantwortet. Das Unternehmen wird somit als positiver und attraktiver Arbeitgeber positioniert.

Cybersecurity-Copilot

Das Thema eines Sophos-Reports ist das GPT-3-Sprachmodell, das hinter dem bekannten ChatGPT-Framework steht, und wie die Cybersecurity-Branche das Modell für die Abwehr von Angreifern nutzen kann. Der aktuelle Report GPT for You and Me: Applying AI Language Processing to Cyber Defenses beschreibt drei Projekte, die von Sophos X-Ops entwickelt wurden und die umfangreichen Sprachmodelle von GPT-3 nutzen. Ziel ist die vereinfachte Suche nach bösartigen Aktivitäten in Datensätzen von Sicherheitssoftware, das genauere und schnellere Filtern von Spam sowie die schnellere Analyse von Binär-Attacken (LOLBin).

Alle drei Projekte nutzen eine Technik namens „few-shot learning“, um das KI-Modell mit nur wenigen Datenproben zu trainieren und so die Notwendigkeit zu verringern, eine große Menge an vorklassifizierten Daten zu sammeln. Die erste Anwendung, die Sophos mit der „few-shot learning“-Methode getestet hat, war ein Natural Language Query Interface zum Durchsuchen bösartiger Aktivitäten in der Telemetrie von Sicherheitssoftware. Sophos hat das Modell insbesondere mit seiner Endpoint Detection and Response-Lösung geprüft.

Mit dieser Schnittstelle können Verteidiger die Telemetrie mit einfachen englischen Befehlen filtern, ohne SQL oder die zugrunde liegende Struktur einer Datenbank verstehen zu müssen, so die Informationen des Security-Anbieters.

Als nächstes testete Sophos einen neuen Spam-Filter mit ChatGPT und stellte fest, dass der Filter mit GPT-3 im Vergleich zu anderen maschinellen Lernmodellen für die Spam-Filterung deutlich genauer war. Schließlich konnten die Forscher von Sophos ein Programm erstellen, das das Reverse-Engineering der Befehlszeilen von LOLBins vereinfacht. Ein solches Reverse-Engineering ist bekanntermaßen schwierig, aber auch entscheidend, um das Verhalten von LOLBins zu verstehen und diese Art von Angriffen in Zukunft zu unterbinden. „Eine der wachsenden Sorgen in SOCs ist die schiere Menge an ›Lärm‹, die hereinkommt“, sagt Sean Gallagher, Principal Threat Researcher bei Sophos. „Es gibt einfach zu viele Meldungen und Erkennungen, die sortiert werden müssen, und viele Unternehmen haben mit begrenzten Ressourcen zu kämpfen. Wir haben bewiesen, dass wir mit GPT-3 bestimmte arbeitsintensive Prozesse vereinfachen und den Verteidigern wertvolle Zeit zurückgeben können. Wir arbeiten bereits daran, einige der oben genannten Prototypen in unsere Produkte zu integrieren und haben die Ergebnisse unserer Bemühungen auf unserem GitHub für diejenigen bereitgestellt, die GPT-3 in ihren eigenen Analyseumgebungen testen möchten. Wir glauben, dass GPT-3 in Zukunft sehr wohl ein Co-Pilot für Sicherheitsexperten werden kann.“

Die wenigen Beispiele zeigen, dass ChatGPT ein großes Potenzial hat, die technologische Entwicklung auf vielen Ebenen zu beschleunigen. Heute sind die Anwendungen jedoch mehrheitlich noch im Experimentierstadium.

Der Artikel ist in der IT Welt.at-Sonderausgabe transform! 01/2023 erschienen.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*