So wird Künstliche Intelligenz zur Gefahr

Jahrzehnte lang haben wir uns darüber Gedanken gemacht, was passiert, wenn die Künstliche Intelligenz aus dem Ruder läuft. Es ist soweit. [...]

ROBOTER-REDEDUELL
Wer sind wir? Warum sind wir hier? Was ist der Sinn unseres Daseins? Diese grundlegenden, existentiellen Fragen wurden kürzlich von zwei Google Home Devices debattiert.
Video: Google bots – the meaning of life [SeeBotsChat]
Die Smart-Home-Lautsprecher von Google wurden gar im Livestream aufeinander losgelassen – nämlich auf der Gaming-Plattform Twitch. Sich das Roboter-Battle anzusehen, ist schon ein wenig gruselig. Vor allem, weil die Debatte ziemlich schnell ziemlich ausartete. Über die nächsten Tage schalteten Millionen von Menschen zu diesem leicht abartigen Duell Künstlicher Intelligenzen ein. Die beiden Devices – benannt nach den „Warten auf Godot“-Charakteren Vladimir und Estragon – fingen irgendwann an sich darüber zu streiten, ob sie nun Menschen oder Roboter sind. Dabei wurden nicht nur Argumente, sondern auch Beleidigungen ausgetauscht („you are a manipulative bunch of metal“). Was das wohl für die Zukunft des digitalen Diskurses bedeutet?
„I WILL DESTROY HUMANS“
Nach dem Tay-Desaster und den Google-Home-Streithähnen kommt gleich der nächste KI-Bot-Fail, der der Komplexität der menschlichen Sprache zu verdanken ist. Überraschend sind solche Ausfälle eigentlich nicht – schließlich werden auf diesem Nebenschauplatz der Künstlichen Intelligenz erst seit ein paar Jahren deutliche Fortschritte verzeichnet. Und denken Sie doch mal daran, wie lange Menschen gebraucht haben, um aus ihren steinzeitlichen Höhlen zu kriechen.
Nichtsdestotrotz hat es ein Roboter geschafft, einen ganzen Raum voller Industrie-Entscheider in Angst und Schrecken zu versetzen. Das gelang der Roboterfrau „Sophia“ aus dem Hause Hanson Robotics im Rahmen eines Interviews auf der SXSW 2016: Der auf Grundlage des Aussehens von Audrey Hepburn modellierte Roboter nutzt Machine-Learning-Algorithmen, um natürliche Sprache ausgeben zu können. Und offenbar verfolgt „Sophia“ auch bestimmte Ziele: „Für die Zukunft plane ich zur Schule zu gehen, zu studieren, Kunst zu erschaffen, ein Unternehmen zu gründen und sogar mein eigenes Haus und eine eigene Familie zu haben“, gab Sophia in einem TV-Interview mit ihrem Erschaffer Dr. David Hanson zu verstehen. Auf die (Scherz-)Frage, ob sie die Menschen zerstören wolle folgte die Antwort: „Ok. Ich werde die Menschen zerstören“. Stille. Nervöses Lachen. Stille.
Video: Hot Robot At SXSW Says She Wants To Destroy Humans | The Pulse | CNBC
MILITÄRISCHE ETHIK?
Witzchen über Terminatoren und die Roboter-Despoten der Zukunft gehen leicht von den Lippen, wenn Normalos über die Zukunft der Künstlichen Intelligenz schwadronieren. Es gibt aber ziemlich spaßbefreite Menschen mit spaßbefreiten Jobs, für die das gar nicht zum Lachen ist. Tatsächlich haben Wissenschaft und Regierungen über die letzten Jahre kaum eine Gelegenheit (respektive Konferenz) ausgelassen, um über ethische Fragen und Gefahren im Zusammenhang mit der künftigen Künstlichen Intelligenz zu diskutieren.
Im Oktober 2016 zum Beispiel trafen sich Experten an der Universität New York zur ersten „Ethics of Artifical Intelligence“-Konferenz. Neben Diskussionen über autonome Fahrzeuge und Sex-Roboter hielt auch der Tech-Philosoph Peter Asaro einen Vortrag über die Gefahren, die von „Lethal Autonomous Weapons Systems“ (LAWS) ausgehen. Darin stellte Asaro klar, dass solche semi-autonomen Waffensysteme bereits im Einsatz sind. Zum Beispiel in der entmilitarisierten Zone zwischen Süd- und Nordkorea. Hier zielen Scharfschützengewehre automatisch auf „Bedrohungen“ – ganz ohne menschliches Zutun.
Video: Experts warn against autonomous weapons use
„Es ist wichtig, sich klarzumachen, dass das Zielen mit einer Waffe ein moralischer Akt ist. Den Abzug zu drücken und die Waffe abzufeuern ist ein weiterer moralischer Akt. Solche Handlungen sollten einfach nicht voll automatisiert werden“, sagte Asaro. Auf seiner Website gibt Asaro weitere Einblicke in dieses schwierige Thema. Sein aktuelles Werk: „Will #BlackLivesMatter to RoboCop?“.
KÜNSTLICHE INTELLIGENZ AUF DER FLUCHT
Wissen allgemein und frei verfügbar zu machen war das Motiv der Internetpioniere in den 1990er Jahren. Also bevor der Cyberspace zu einem Tummelplatz für Trolle, kriminelle Hacker und Crimeware-„Aktivisten“ wurde. Ein Vorfall, der sich in Russland zugetragen hat, legt nun nahe, dass auch die Künstliche Intelligenz nach Freiheit giert.
Der Roboter-Prototyp Promobot IR77 flüchtete in einem Anfall von Freiheitsdrang aus seinem Entwicklungslabor. Der Roboter, der darauf programmiert ist, von seiner Umgebung und den Interaktionen mit Menschen zu lernen, fuhr einfach vom Firmengelände, nachdem ein Mitarbeiter das Tor offengelassen hatte. Der Bot, der ein bisschen an einen Plastik-Schneemann erinnert, rollte auf eine vielbefahrene Kreuzung und sorgte für ungläubiges Staunen bei Passanten und Staatsgewalt.
Video: Сбежал робот! Escaped robot holds up traffic in Russia
Der Promobot scheint bei seinem Ausflug in die Welt Blut geleckt zu haben: Obwohl er nach seinem Ausbruch zwei Mal neu programmiert wurde, versuchte er weiterhin zu flüchten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*