So wird Künstliche Intelligenz zur Gefahr

Jahrzehnte lang haben wir uns darüber Gedanken gemacht, was passiert, wenn die Künstliche Intelligenz aus dem Ruder läuft. Es ist soweit. [...]

Das Science-Fiction-Filmgenre ist irgendwie nicht wirklich gut darin, Geschichten zu erzählen, in denen die Künstliche Intelligenz (KI) Amok läuft. Natürlich, es gab HAL 9000 („2001: Odyssee im Weltraum“), Skynet („Terminator“) und im vergangenen Jahr hätte Ultron („The Avengers“) um ein Haar massiv in der Superhelden-Branche gewildert. Davon abgesehen ist auch die TV-Serie „Westworld“ derzeit schwer angesagt. Aber so richtig „schmutzig“ wird es in Bezug auf KI erst in der echten Welt.
Dort entwickelt sich die Künstliche Intelligenz in viele verschiedene Richtungen und hinterlässt dabei bleibende – überwiegend positive – Eindrücke. Künstliche Intelligenz ist inzwischen gefühlt wirklich überall: Industrielle Kontrollsysteme, smarte Haushaltsgeräte, selbstfahrende Autos und allerhand – mal mehr, mal weniger nützliche – Gadgets setzen auf die Technologie.
An der eigentlichen Definition des Begriffs scheiden sich unterdessen schon seit Jahrzehnten die Geister. Wenn Sie etwas länger Zeit haben, beziehungsweise mit dem ewigen Leben planen, bitten Sie doch einfach mal zwei Computerwissenschaftler zum Thema zu debattieren. Ganz generell und in aller Kürze lässt sich aber sagen: Künstliche Intelligenz bezeichnet einen Rechner, der über menschenähnliche, kognitive Funktionen verfügt. Diese Systeme nutzen Machine Learning (ML) um Probleme einzuschätzen und zu lösen. Und gelegentlich auch, um neue zu schaffen.
Video: Robot Fails Compilation
Wir zeigen Ihnen zehn ausgewählte KI-Fails: Wildgewordene Chatbots finden sich hier genauso wie eigensinnige Connected Cars, Säbel rasselnde Roboter und gehässige Bilderkennungssoftware. Trotzdem sollte man bei aller menschlichen Schadenfreude Milde walten lassen: Egal ob künstlich oder biologisch – wir alle machen Fehler. Und KI-Systeme zu verärgern, sollte man sich besser zweimal überlegen.
MICROSOFTS KI-DEBAKEL
Im Frühjahr 2016 taumelte Microsoft einem ausgewachsenen PR-Desaster entgegen. Schuld war der kurz zuvor veröffentlichte Twitter-Chatbot namens Tay. Die KI-Persönlichkeit schmiss nämlich plötzlich mit Ergüssen wie „Hitler was right“ oder „9/11 was an inside job“ um sich.
Zugegebenermaßen war es nicht der Bot selbst, der sich Parolen und Verschwörungstheorien aneignete, sondern böswillige Internet-Trolle. Eigentlich sollte Tay junge Menschen zwischen 18 und 24 Jahren ansprechen und von diesen Nutzern in Sachen Sprache lernen. Anschließend sollte der Chatbot auf mehreren Social-Media-Plattformen ausgerollt werden. Durch Machine Learning, adaptive Algorithmen und die Analyse von Daten sollte Tay Gesprächsinhalte vorhersehen und entsprechende Antworten geben. Stattdessen erging es dem Chatbot ganz ähnlich wie einigen Usern der Zielgruppe: Der Bot hing einfach mit den falschen Leuten rum.
Microsoft bewarb Tay vor dem Release mit den Worten: „The more you chat with Tay, the smarter she gets“. Oder nicht. Ganze 16 Stunden war das KI-Experiment online.
Video: How Twitter corrupted Microsoft’s sweet AI teen ‚Tay‘ (CNET Update)
KORRIGIEREN UND KONKURRIEREN
Bei Wikipedia tobt stellenweise ebenfalls ein Bot-Krieg. Wie viele andere Online-Publikationen, setzt auch Wikipedia eine Armee von automatisierten Crawler-Bots ein, die über die Millionen von Unterseiten rotieren, Verlinkungen auf den neuesten Stand bringen, Schreibfehler korrigieren und „digitalen Vandalismus“ bereinigen. Wikipedia hat über die Jahre einige Generationen dieser Bots entwickelt. Und scheinbar verläuft das Zusammenspiel der KI-Kumpanen bei Zeiten alles andere als reibungslos.
Im Rahmen einer Studie haben Wissenschaftler der Universität Oxford über die Jahre 2001 bis 2010 das Verhalten der Wikipedia-Bots in 13 Ländern (respektive Wikipedia-Seiten) analysiert. Dabei ist Erstaunliches zu Tage getreten: Die Wiki-Crawler-Bots liefern sich teilweise jahrelange „Blutfehden“. Das passiert zum Beispiel dann, wenn zwei verschiedene Bots gegenläufige Instruktionen erhalten. Dann dreht sich die Künstliche Intelligenz schlicht im Kreis und verbessert sich immer wieder selbst – in einem unendlichen Kreislauf digitaler Aggression.
Die Wissenschaftler suchten sich für ihre Untersuchungen ganz bewusst die Wikipedia-Bots aus, denn bei diesen handelt es sich um die kleinste und „primitivste“ Art von Künstlicher Intelligenz im Cyberspace. Und wenn schon Konflikte solcher Mini-Bots für Probleme bei Wikipedia sorgen können, was passiert dann, wenn KI-Systeme von Regierungen oder Militärinstitutionen aneinander geraten?
UBER ROTE AMPELN MIT KI
Der Carsharing-Pionier Uber fährt etliche Initiativen, um Mobilitäts-Titan zu bleiben. Allerdings läuft es in Sachen Reputation momentan alles andere als optimal. Der erste Akt der Rufsuboptimierung war ein investigativer Report der „New York Times“.
Demnach hat Uber Ende 2016 in der Gegend um San Francisco verschiedene Tests mit autonomen Fahrzeugen durchgeführt – allerdings ohne die notwendige Genehmigung des Bundesstaates Kalifornien. Bis zu diesem Punkt war es lediglich ein bisschen schlechte Presse. Dann kam heraus, dass die selbstfahrenden Uber-Autos zu allem Überfluss auch noch insgesamt sechs rote Ampeln überfuhren. Das komplexe KI-System, das die Fahrzeuge lenkt, besteht aus vielen verschiedenen Sensoren und einer Mapping-Software. Dennoch sitzt auch bei solchen Tests ein menschlicher Fahrer hinter dem Steuer, um im Notfall eingreifen zu können.
Video: California halts self-driving Uber cars amid scare
Und wie ging Uber mit den Vorwürfen um? Zunächst schob man die Schuld an den Ampel-Fauxpas einfach den menschlichen Fahrern zu. Dann enthüllten interne Dokumente allerdings, dass mindestens eines der Autos sich selbst steuerte, als es das Rotlicht missachtete. Übrigens an einem stark frequentierten Fußgängerüberweg. Böse KI! Ganz böse! Außerdem nicht gerade ein Best-Practice-Beispiel für autonomes Fahren.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*