"Innovastionsdruck und die Einhaltung ethischer Standards müssen keine Gegensätze sein", sagt Bernhard Nessler, Research Manager for Intelligent Systems and Certification of AI am Software Competence Center Hagenberg (SCCH), im Gespräch mit ITWelt.at. [...]
Wie können Unternehmen sicherstellen, dass durch Halluzinationen von LLMs wie ChatGPT keine falschen geschäftskritischen Entscheidungen getroffen werden?
Bernhard Nessler Gar nicht. Jede Ausgabe eines Large Language Models bzw. eines generativen Modells ist eine Halluzination. Das Modell erzeugt einen plausibel klingenden Text, der zur Frage passt. Manche solcherart halluzinierten Antworten gefallen uns und manche gefallen uns nicht. Und es ist großteils vom Bediener abhängig, welche Outputs ihm gefallen und welche nicht. Heutige Modelle werden darauf trainiert, Antworten zu erzeugen, die möglichst vielen Menschen gefallen, aber es gibt dabei immer wieder Ergebnisse, die nicht unserem üblichen Verständnis von faktischer Richtigkeit entsprechen.
Man könnte jetzt sagen, es muss einfach jede Antwort von einem Menschen geprüft werden, aber auch das greift zu kurz, da Menschen bereits nach der Beobachtung von wenigen richtigen Antworten der Maschine dazu neigen, künftigen Antworten blind zu vertrauen. Dieser sogenannte Automation Bias macht also einfache menschliche Kontrolle in automatisierten Prozessen weitgehend unwirksam.
Eine technische Lösung besteht zurzeit darin, Systeme einzusetzen, die selbständig nachvollziehen, aus welchen Datenquellen Antworten und Entscheidungen entspringen und nur jene Antworten zuzulassen, die nach bestimmten Schemata aus gesicherten, vorab geprüften Inputs konstruierbar sind. Der Nachteil dieser Lösung besteht in der u. U. starken Einschränkung der Kreativität der so beschränkten Systeme, aber in gewissen klar definierbaren Problemstellungen ist genau diese Beschränkung wünschenswert und zielführend.
Wie können Unternehmen die Balance zwischen Innovationsdruck und der Einhaltung ethischer Standards bei der KI-Entwicklung sicherstellen?
Innovastionsdruck und die Einhaltung ethischer Standards müssen keine Gegensätze sein. Sauber entwickelte, gut dokumentierte Entwicklungsprozesse sind beiderseits vorteilhaft. Eine Zertifizierbarkeit am Ende der Entwicklung ist zugleich Garant für die Qualität des Produktes als auch der Einhaltung hoher ethischer Standards. Eine Zertifizierung kann dann bei Bedarf oder rechtlicher Notwendigkeit über den Test- und Qualifizierungs-Hub TRUSTIFAI abgewickelt werden (www.trustifai.at).
Wie sollten Unternehmen mit der Unsicherheit in Bezug auf die Zukunft von KI umgehen – insbesondere angesichts der rasend schnellen Weiterentwicklung?
Ein strukturiertes Vorgehen wäre hier empfehlenswert, sozusagen eine innerbetriebliche Digitalisierungs- und AI-Agenda. An erster Stelle sollte das Unternehmen sich seiner Daten bewusst werden, wobei hier inzwischen gilt, dass auch unstrukturierte Daten sehr wertvoll sind, da KI-Methoden eingesetzt werden können, um diese zu interpretieren. Dann sollten die bestehenden Unternehmensprozesse durchleuchtet werden, insbesondere in Hinblick darauf, welche Daten in welche Prozesse einfließen, und dabei geprüft werden, welches Einsparungspotenzial von einem betriebsinternen Informationssystem (RAG-System) ausgehen würde. Darüber hinaus sollte an dieser Stelle geprüft werden, welche neue Wertschöpfung über die bestehenden Prozesse hinaus durch KI-Methoden erzielt werden. Bei dem gesamten Vorgang stehen Experten des Software Competence Center Hagenberg gerne beratend zur Seite.
Welche Regeln sollten Unternehmen für den Zugriff auf und die Nutzung von Daten durch KI-Systeme festlegen, um den Schutz sensibler Informationen zu gewährleisten?
Hier ist der derzeit schwierigste Bereich wohl die Nutzung von Online-Systemen wie ChatGPT & Co durch die eigenen Mitarbeiter. Es ist die Aufgabe von Unternehmen, im eigenen Betrieb klarzumachen, dass die Nutzung dieser Online-Systeme für betriebliche Zwecke nicht erlaubt ist. Hier geht es nicht nur um private oder persönliche Daten, sondern auch um Ideen, Arbeitsansätze und Strategien, die unbeabsichtigt die Kontrolle des Betriebes verlassen. Die meisten Datenschutzvereinbarungen dieser Service-Provider sehen vor, dass die übermittelten Daten zur Verbesserung des Service benützt werden dürfen, womit umfasst ist, dass diese Daten als Trainingsdaten für künftige Modelle herangezogen werden können. Selbst wenn die Service-Anbieter in Lizenzvereinbarungen versprechen, die Daten für keine eigenen Zwecke zu nutzen, so bleibt immer noch die Ausnahme für die Behörden und der immanente Zugang von Geheimdiensten, jedenfalls bei allen US-Providern, wobei hier wieder KI eingesetzt wird, um die massive Flut von Daten zu analysieren. Wirtschaftsspionage erreicht mit outgesourcten KI-Anwendungen wie ChatGPT ein völlig neues Niveau. Bildlich gesprochen erreicht die europäische Patentidee, für deren Präsentation der Mitarbeiter ChatGPT nützt, die Analysewerkzeuge der CIA oder NSA lange bevor der Vorstand in Europa die Idee überhaupt zu Gesicht bekommt.
Die einzige Möglichkeit, echte betriebliche Geheimhaltung sicherzustellen, ist eine On-premise-Lösung, bei der Large Language Modelle und RAG-Systeme auf Unternehmens-eigenen Servern betrieben werden. Diverse Anbieter, auch das SCCH, unterstützen unsere heimischen Unternehmen darin, solche selbst gehosteten Systeme einzurichten, die in der Qualität für den professionellen Anwendungszweck durchaus mit ChatGPT vergleichbar sind und dann spezifisch nur den Mitarbeitern des jeweils eigenen Unternehmens zur Verfügung stehen.
Können Maschinen denken?
Alan Turings jahrzehntealte Frage und sein berühmter Turing-Test haben mit dem Aufkommen von ChatGPT und anderen Large Language Models eine neue und kontroverse Diskussion ausgelöst. Wann werden wir beginnen, einen KI-Bot als gleichwertig oder sogar menschlicher als andere Menschen wahrzunehmen? Kann man einen KI-Bot durch eine einfache Konversation von einem Menschen unterscheiden? Im Turing Game treten zwei Menschen gegen eine Maschine an und müssen gemeinsam den KI-Bot identifizieren. Das Turing Game repräsentiert aktuelle Forschungsergebnisse zum Turing-Test sowie technische und philosophische Überlegungen zu Intelligenz und Bewusstsein, einschließlich ethischer und moralischer Fragen. Es wird auf die Auswirkungen des Spiels auf die Zertifizierung und Sicherheit von KI hingewiesen. Das Turing Game www.turinggame.ai ist weltweit zugänglich.
Be the first to comment