Artificial Intelligence: Wer entscheidet über die Akzeptanz?

Das Europäische Parlament empfiehlt, die Akzeptanz von Künstlicher Intelligenz durch Regulierung zu sichern. Dieser Ansatz bringt Verpflichtungen für Entwickler und Nutzer von KI-Systemen mit sich. [...]

Künstliche Intelligenz (KI) und damit ausgestattete Roboter halten Einzug in unser Leben – vom körperlosen Assistenten im Smartphone über Haushaltshilfen bis zum Pflege-Roboter, der uns zur Bahre begleitet. Eine solch umfassende technische Neuerung in allen Lebensbereichen bringt die Frage mit sich, wie wir mit den neuen Gefährten in unserer Mitte umgehen sollen.
Was bedeuten intelligente Roboter am Arbeitsplatz etwa für die Tragfähigkeit der Sozialsysteme und die Verteilung des Wohlstands? Werden wir Robotersteuern oder Menschenquoten in Unternehmen einführen müssen? Wie legen wir Verhaltensregeln neu fest? Diese und mehr Fragen wirft auch das Europäische Parlament auf. Unter vielen Fragen finden sich darin auch einige Antworten – und Empfehlungen an die Entwickler, Ingenieure und Hersteller von Robotern und KI-Systemen. Schließlich halten sie die Zukunft tatsächlich in der Hand.
Sie sind es auch, die jeden Tag an die Akzeptanz ihrer Produkte denken. Schließlich wäre ein inakzeptables Produkt ein Rohrkrepierer. Daher lohnt es sich, einen Blick auf die Anwendung der Artificial Intelligence in der realen Welt zu werfen – welche Herausforderungen ergeben sich dabei? Was bedeutet das für die Akzeptanz intelligenter Maschinen? Wie sich zeigt, spielt die menschliche Sprache dabei eine tragende Rolle.
KI-Akzeptanz durch Vertrauensbildung
KI – genauer: Die Anwendung von Künstlicher Intelligenz in der Interaktion von Mensch und Maschine – manifestiert sich in konkreten lebensweltlichen Situationen. Dabei wird die natürliche Sprache in vielen Fällen das bevorzugte, wenn nicht sogar das ausschließliche Interface sein. Die Vorteile liegen auf der Hand, wobei einer herausragt: Es ist die Möglichkeit der Maschine, mit natürlicher Sprache beim Nutzer sehr schnell Vertrauen zu gewinnen. Dies ist ausschlaggebend dafür, dass sie in Echtzeit Zustimmung für ihre Entscheidungen erhalten und damit auch in unvorhersehbaren Situationen die vom Menschen gewünschten Ergebnisse erzielen kann.
Ein Beispiel: Eine sprachgesteuerte Maschine fährt das Automobil. Sie sagt, dass sie die Autobahn verlassen wolle. Der Insasse fragt: „Warum?“ Die Maschine antwortet: „Um diese Zeit kommt es auf dem vor uns liegenden Streckenabschnitt erfahrungsgemäß zu Staus. Ich habe ermittelt, dass wir früher am Ziel sind, wenn wir hier abbiegen“. Diese Begründung schafft Vertrauen beim Nutzer. Das Problem: Neuronale Netze, die für das „Deep Learning“ einer Artificial Intelligence (AI) sorgen, können aus großen Datenmengen zwar ihre eigene Funktion optimieren – und somit selbstfahrende Autos immer besser machen. Doch wie und warum sie zu einer Schlussfolgerung kommen, das können sie nicht erklären. Dafür braucht es regelbasierte Systeme. So schafft die artifizielle Intelligenz Vertrauen beim Nutzer.
Akzeptanz hängt auch davon ab, ob Risiken vermieden werden. Nehmen wir an, obige sprachgesteuerte Maschine fahre ein Automobil, in dem sich eine Familie mit Heranwachsenden befindet. Die Rasselbande auf den Rücksitzen fordert wild durcheinander rufend, die Geschwindigkeit zu erhöhen, weil – wie sie meint – Autofahren sich an der Formel 1 zu orientieren habe. Bestenfalls wäre die Maschine „verwirrt“ und würde die Arbeit einstellen, da sie auf ein Sprachgewirr nicht rational reagieren kann. Im denkbar schlimmsten Fall würde sie erratisch reagieren.
Das Artificial-Intelligence-System würde sich diesbezüglich nicht vom Menschen unterscheiden. Um die mit einem solchen Szenario verbundenen Risiken auszuschalten, werden die KI-Designer zu biometrischen Authentifizierungsverfahren greifen, mit denen die Maschine den anweisungsberechtigten „Boss“ im Fahrzeug erkennen kann. Ein bewährter Ansatz aus der Praxis ist dabei die Stimmbiometrie, die heute bereits in Callcentern von Banken zum Einsatz kommt.
Die Grenzen der Artificial Intelligence
Ein weiterer interessanter Aspekt sind die Grenzen der Artificial Intelligence. Einer der Gründe, warum selbst KI-Experten derzeit nur schwer vorhersagen können, wo ihr Feld in fünf Jahren sein wird, ist die immense Geschwindigkeit des Fortschritts. Dies erklärt auch, warum Künstliche Intelligenz zurzeit in allen Schlagzeilen vertreten ist. Es ist schlicht nicht vorhersehbar, was AI als Technologie bald alles können wird.
Dieses Problem auf der Makro-Ebene – nämlich nicht zu wissen, wo die Fähigkeiten Künstlicher Intelligenz reguliert werden müssen – spiegelt sich auch auf der Mikro-Ebene: Woher wissen wir, was ein bestimmter Roboter kann und nicht kann? Das EU-Parlament rät den Nutzern, sich im Klaren darüber zu sein, dass jeder Roboter nur begrenzt wahrnehmen und verstehen kann. Das ist ein gut gemeinter Rat, doch wie soll ein Nutzer ihm folgen? Nützlicher wäre es, wenn er die spezifischen Beschränkungen des Systems erkennen könnte, mit dem er sich im Moment beschäftigt.
Hier ist die Fähigkeit der Maschine zur natürlichen Sprache zunächst ein Hindernis. Früher war die Grenze zwischen dem Menschen und seiner Umwelt klar durch die Fähigkeit zur Sprache definiert. Tiere unterhalten sich ebenso wenig mit uns wie Möbelstücke. Diese Unterscheidung ist noch tief in unserem Gehirn verankert. Daher waren die ersten trivialen Dialogsysteme wie Eliza in ihrer Intelligenz hoch überschätzt – man glaubte, weil die Maschine sprach, sei sie intelligent wie ein Mensch. Die Grenze verschwimmt hier schnell.
Der Tipp des EU-Parlaments an Robotik-Entwickler lautet: „Stellen Sie sicher, dass Roboter als Roboter erkennbar sind, wenn sie mit Menschen interagieren.“ Eine Regel, an die sich schon heute nicht alle halten. Auch Assistenzsysteme wie Siri, Cortana und dergleichen machen es dem Nutzer nicht leicht, die Grenzen des Systems zu erkennen, weil sie als umfassende Assistenten auftreten, die in allen Lebenslagen helfen. Auch wenn diese Hilfe manchmal in einer wenig hilfreichen Web-Suche endet. Ein einfacherer und besserer Ansatz sind daher dedizierte Assistenzsysteme: Ein Assistent im Auto, der wie beim obigen Beispiel in der Routenführung und Fahrzeuglenkung hilft, lässt klar erkennen, wo seine Expertise endet. Ebenso ist ein virtueller Kundenberater für ein bestimmtes Problem hilfreich, doch seine Großmutter vertraut man ihm nicht an.
Die Roboter der Zukunft
Bezüglich der Entwicklung von KI und Robotik sind zwei Fakten schon heute sicher: Sie geht schneller voran als man denkt und die Fähigkeit zur natürlichen Sprache spielt eine große Rolle. Maschinen, die mit uns sprechen, helfen nicht nur Artificial Intelligence als Teil unserer Gesellschaft zu akzeptieren, sondern sie erleichtern uns den Umgang mit ihnen. Wir können besser verstehen, was ein System tut, wenn es uns die Logik seiner Handlung erklärt; wir sind eher bereit, mehrere Roboter um uns herum zu akzeptieren, wenn wir verstehen, was sie untereinander „besprechen“. Ein weiterer vielversprechenderer Ansatz ist der von Assistenzsystemen: Der Nutzer ist umgeben von Dutzenden Systemen mit unterschiedlichen Fähigkeiten – für die Interoperabilität wäre daher eine Art „Masterbot“ hilfreich, der für den Nutzer mit den anderen AI-Systemen kommuniziert. Trotz aller voranschreitenden Verbesserungen wird Regulierung notwendig bleiben, um die Entwicklung zukünftiger KI-Systeme zu leiten. Die Anwendbarkeit und Akzeptanz von Systemen richtet sich zum Großteil nach ihrem Nutzen in der realen Welt – dieses Verständnis ist wichtig, wenn wir nicht nur umfangreiche, sondern auch sinnvolle Regeln für den Umgang mit KI aufstellen wollen.
* Nils Lenke koordiniert bei Nuance verschiedene Forschungsinitiativen. Seine Hauptaufgaben umfassen die Forschung und Entwicklung von Software für Künstliche Intelligenz (KI), Maschinelles Lernen, Wissensrepräsentation, Spracherkennung, und natürlich-sprachliche Systeme. Er hält acht Patente für Erfindungen von Spracherkennungssystemen und spricht sechs Sprachen.

Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*