KI kann auch Gefahren bergen

Artificial Intelligence stand im Fokus des Information-Security-Symposiums von CIS und Quality Austria. Ein Highlight war der Vortrag des AI-Experten Roland Benedikter, der davor warnte, dass sich Künstliche Intelligenz auch gegen Menschen richten kann. [...]

Antizipationsforscher Roland Benedikter: "In 80 Jahren wird es gleich viele Roboter wie Menschen geben." (c) Fotodienst Christian Mikes
Antizipationsforscher Roland Benedikter: "In 80 Jahren wird es gleich viele Roboter wie Menschen geben." (c) Fotodienst Christian Mikes

Aufrüttelnde Szenarien und brisante Sicherheitsfragen im Zusammenhang mit KI beleuchtete der Antizipationsforscher und Silicon-Valley-Kenner Roland Benedikter auf dem „15. InformationSecurity-Symposium in Wien„. Diejenigen unter den mehr als 200 Fachteilnehmern, die eine futuristische Keynote erwartet haben, wurden auf den Boden sich anbahnender Tatsachen geholt – Benedikter verknüpfte interdisziplinär die Sicht auf Technologie, Soziologie und globale Entwicklungen und warnte deutlich: „KI fördert aufgrund ihrer innewohnenden Logik autoritäres Regieren, weil sie sehr schnelle und direkte Wege zu Erkenntnissen und Entscheidungen ermöglicht.

Während die EU in den kommenden Jahren rund 9,5 Mrd. Euro in KI-Forschungsprojekte investieren will, beläuft sich das offizielle KI-Investment Chinas im selben Zeitraum auf 150 Mrd. Euro oder mehr.“ Der Forscher räumte ein, dass Anti-Demokratie-Szenarien wohl weit her geholt klingen mögen, nannte aber eine Reihe aktueller Beispiele: so etwa die per Modellversuch geplanten Kameras an Chinas Schulen, um schon frühzeitig potenzielle Regimekritiker erkennen zu können. Gesicht, Gesten und Körperbewegungen der Schüler werden durch intelligente Algorithmen ausgewertet.

Hacking von Gedanken

Die Entwicklung von humanoiden Robotern, Gehirn-Maschine-Schnittstellen und intelligenten Implantaten findet heute unter dem Aspekt der Hilfestellung für Menschen mit Behinderung oder unheilbaren Krankheiten statt. Wenig beachtet würden aber die Folgen für eine resultierende Umgestaltung des Menschseins, betonte Benedikter. CIS-Geschäftsführer Erich Scheiber dazu: „Im Falle von Hacking oder Systemfehlern kann künftig nicht nur eine Maschine betroffen sein, sondern direkt ein Mensch, seine Körperfunktionen oder sogar Gedanken“.

Laut Experten-Schätzungen wird es in 80 Jahren etwa gleich viele „Roboter-Personen“ wie Menschen geben, so Benedikter: „Oxford-Professor Nick Bostrom und andere Vordenker sehen eine ernste Gefahr: künstliche Intelligenzen könnten sich zu Super-Intelligenzen mit einer Art Lern-, Erinnerungs- und Vorwegnahme-Bewusstsein weiterentwickeln – und sich schließlich gegen den Menschen richten. Die Maschinen würden verstehen, wer allein ihren Stecker ziehen kann – der Mensch.“ Alle diese Herausforderungen seien nur inter- und transdisziplinär zu adressieren, über Ländergrenzen hinweg. Insgesamt spannte das Vortragsprogramm den Bogen zu IT-affinen Managementsystemen nach ISO 27001 für Informationssicherheit und ISO 20000 für IT-Service-Management.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*