Künstliche Intelligenz kann sich gegen Menschen richten

Aufrüttelnde Szenarien und brisante Sicherheitsfragen im Zusammenhang mit KI beleuchtete der Antizipationsforscher und Silicon-Valley-Kenner Roland Benedikter auf dem "15. Information-Security-Symposium in Wien". Veranstalter waren die Zertifizierungsorganisationen CIS und Quality Austria. [...]

Artificial Intelligence stand im Fokus des Information-Security-Symposiums von CIS und Quality Austria. (c) Adobe stock Halfpoint

Jene unter den mehr als 200 Fachteilnehmern, die eine unterhaltsame futuristische Keynote erwartet haben, wurden auf den Boden sich anbahnender Tatsachen geholt – Roland Benedikter verknüpfte interdisziplinär die Sicht auf Technologie, Soziologie und globale Entwicklungen und warnte deutlich: „KI fördert aufgrund ihrer innewohnenden Logik autoritäres Regieren, weil sie sehr schnelle und direkte Wege zu Erkenntnissen und Entscheidungen ermöglicht. Während die EU in den kommenden Jahren rund 9,5 Mrd. Euro in KI-Forschungsprojekte investieren will, beläuft sich das offizielle KI-Investment Chinas im selben Zeitraum auf 150 Mrd. Euro, wobei Experten eine weit höhere Summe als wahren Wert annehmen.“ 

Weiters beschrieb Benedikter einen Trend von derzeit stattfindenden Handelskriegen mittels Embargos und Sanktionen zwischen Asien, Amerika und Europa hin zu künftigen Technologiekriegen als neues Mittel zur geopolitischen Positionierung – KI könnte die politischen Verbindungen zwischen den Weltmächten neu ordnen. 

Mensch-Maschine Verschmelzung

Der Forscher räumte ein, dass Anti-Demokratie-Szenarien wohl weither geholt klingen mögen, nannte aber eine Reihe aktueller und realer Beispiele: so etwa die per Modellversuch geplanten Überwachungskameras an Chinas Schulen, um schon frühzeitig potenzielle Regimekritiker erkennen zu können. Gesicht, Gesten und Körperbewegungen der Schüler werden dabei durch intelligente Algorithmen ausgewertet, mit entsprechenden Folgen für „Auffällige“. 

Die Entwicklung von humanoiden Robotern, Gehirn-Maschine-Schnittstellen und intelligenten Implantaten findet heute unter dem Aspekt der Hilfestellung für Menschen mit Behinderung oder unheilbaren Krankheiten statt. Wenig beachtet würden aber die Folgen für eine resultierende Umgestaltung des Menschseins, betonte Roland Benedikter: „Die globale Körperindustrie ist ein gigantischer Markt. Durch Verbindung oder gar Verschmelzung mit KI soll der Mensch über sich selbst hinauswachsen können.“ 

Hacking von Gedanken und Körperfunktionen

Je stärker Mensch und Technik verschmelzen, desto brisanter werden Sicherheitsfragen. „Im Falle von Hacking oder Systemfehlern kann künftig nicht nur eine Maschine betroffen sein, sondern direkt ein Mensch, seine Körperfunktionen oder sogar Gedanken“, betonte CIS-Geschäftsführer Erich Scheiber. Insgesamt spannte das Vortragsprogramm den Bogen zu IT-affinen Managementsystemen nach ISO 27001 für Informationssicherheit und ISO 20000 für IT-Service-Management. „Steuerbare Managementsysteme ermöglichen es, die volatilen Faktoren Mensch und Technik in einem Sicherheitssystem integriert abzubilden – Risiken lassen sich so kontinuierlich evaluieren und minimieren“, erklärte Erich Scheiber. 

Quality Austria-CEO Konrad Scheiber bekräftigte: „Auch unsere wertschöpfenden Prozesse werden zunehmend digital und vernetzt. Der IT-Sicherheit wird in Zukunft eine noch viel größere Bedeutung zukommen.“

Roboter-Personen mit Menschenrechten

Als Meta-Trend wird es laut Experten-Schätzungen in rund 80 Jahren etwa gleich viele „Roboter-Personen“ wie Menschen geben. Benedikter wies auf bereits heute ungeklärte juridische Fragen wie „Menschenrechte“ für intelligente e-Personen hin. Immerhin habe der humanoide KI-Roboter Sophia bereits die Staatsbürgerschaft Saudi-Arabiens erhalten. 

Entwickler sind selbst erschüttert, wie schnell die Entwicklung geht“, berichtete Benedikter und schloss mit einem überaus ernsten Statement ab: „Oxford-Professor Nick Bostrom und andere Vordenker sehen eine inhärente Gefahr, die nur durch interdisziplinäre globale Zusammenarbeit gebannt werden kann: künstliche Intelligenzen könnten sich zu Super-Intelligenzen weiterentwickeln und in letzter Konsequenz könnten sie sich gegen den Menschen richten. Denn mit zunehmend menschenähnlicher Intelligenz könnte eine Art Lern- und damit auch Erinnerungs- und Vorwegnahme-Bewusstsein der Maschinen entstehen. Sie könnten verstehen, wer allein ihren Stecker ziehen kann – der Mensch.“ Alle diese Herausforderungen seien nur inter- und transdisziplinär zu adressieren. Dazu müssten Regierungen, Zivilgesellschaft und Wissenschaft deutlich intensiver als bisher zusammenarbeiten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*