Künstliche Intelligenz unter der Lupe

Ein Gastkommentar von Gérard Bauer, Vice President EMEA bei Vectra und KI-Experte für Cybersicherheit, zum diesjährigen Digital Day der EU-Kommission, der vor wenigen Tagen zu Ende ging, und der Debatte rund um KI. [...]

Gérard Bauer, Vice President EMEA bei Vectra
Gérard Bauer, Vice President EMEA bei Vectra (c) Vectra

Der Digital Day der EU-Kommission, der vor wenigen Tagen in Brüssel stattfand, kam um das Thema KI (Künstliche Intelligenz) natürlich nicht herum. So wurden auf EU-Ebene unter anderem die Grundzüge einer gemeinsamen europäischen Strategie für Künstliche Intelligenz diskutiert. Eine wichtige Rolle spielte dabei auch die Frage von KI und Ethik.

Da KI nun in unserem Alltag und in der Arbeitswelt auftaucht, wächst der Wunsch in Politik, Wirtschaft und Gesellschaft zu verstehen, wie autonome Technologien Entscheidungen treffen, auf diese Entscheidungen einwirken und welchen Einfluss sie auf die Gesellschaft und das Individuum haben. Auch wenn die Argumentation, was die Rolle von KI für individuelle Entscheidungen betrifft, komplex und undurchsichtig sein kann, klar ist: KI ist ein Thema mit vielen Dimensionen.

Um eine KI-Instanz zu beeinflussen und zu kontrollieren, kann ihr Ersteller ein Arbeitsprinzip programmieren, um einen gewählten moralischen Rahmen zu replizieren. Dies hat das Potenzial, die KI von dem abzuhalten, was als schädlich angesehen wird. Menschliche moralische Rahmen sind jedoch dynamisch. Dies wirft die Frage auf, wer diese Moral bestimmen und gegebenenfalls überarbeiten soll: der Nutzer, der Entwickler der KI, die Regierung oder ein anderes Gesetzgebungsorgan? Wenn KI über Beobachtungen lernt, dann wird der Datensatz für das Ergebnis grundlegend, und jede Verzerrung der Eingabe wird sicherlich die erstellten algorithmischen Modelle und das Ausgabeverhalten beeinflussen. Daher werden zum Beispiel verschiedene Personen, die gemeinsam mit der gleichen Keyword-Suchmaschine recherchieren, wahrscheinlich unterschiedliche Ergebnisse erhalten, die auf ihrer vorherigen Suche und ihrem Online-Verhalten basieren.

KI muss am Arbeitsplatz noch nicht wirklich autonom werden, aber ihr Einsatz ist in Bereichen wie der Entscheidungsunterstützung bereits immer häufiger anzutreffen. Zum Beispiel wird KI derzeit eingesetzt, um Cybersicherheitsgegner zu bekämpfen, indem digitale Kommunikation in Echtzeit analysiert wird und die versteckten Signale erkannt werden, um bösartiges Verhalten zu erkennen. Dies ist eine Aufgabe, die schlicht über die Möglichkeiten der Bearbeitung durch Menschen allein hinausgeht. KI erweitert die Fähigkeiten des Menschen, in diesem Fall des Sicherheitsanalysten, um bei einem Datensicherheitsvorfall schnell die Ursache zu identifizieren, zu verstehen und gezielt darauf zu reagieren. Hier konzentriert sich KI auf die Ausführung bestimmter Aufgaben und wird von einem Menschen in der Entscheidungsschleife überwacht, um Gegenmaßnahmen zu starten.

Unsere Neigung, KI-Technologie zu vermenschlichen, kommt vielleicht von dem weit verbreiteten Einfluss der Science-Fiction. KI am heutigen Arbeitsplatz ist mehr „Robocop“ als die KI namens „SkyNet“ aus „Terminator“. Sie erweitert die menschlichen Fähigkeiten so, dass Systeme schnell und in großem Maßstab arbeiten können, was Menschen nicht allein können. In diesem Zusammenhang ist das moralische Risiko meiner Meinung nach extrem niedrig.

*Gérard Bauer ist Vice President EMEA bei Vectra.


Mehr Artikel

No Picture
News

Samsung OLED-TV S95D im Test

Extrem in allem: Samsungs brandneuer OLED-TV S95D ist ultradünn, ultraschmall gebaut und löst ultrascharf auf. Wir haben das neue OLED-Spitzenmodell mit mattem Bildschirm (!) und 65-Zoll-Bilddiagonale getestet. […]

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*