Bei KI-Risiken besser nicht nur die EU fragen

In ihrem „Weißbuch Künstliche Intelligenz“ skizziert die Europäische Union, wie sie einen riskanten Einsatz der Technologie verhindern will. Das wirft Grundsatzfragen auf und bedeutet Konsequenzen für Unternehmen, die ein Weiterdenken verlangen. [...]

Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp (c) NetApp
Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp (c) NetApp

Künstliche Intelligenz (KI) revolutioniert Wirtschaft und Gesellschaft. Vorreiter sind die USA, während China rasant aufholt – und dazu bis 2030 gut 150 Milliarden US-Dollar investiert. Europa muss also aufpassen, nicht den Anschluss zu verlieren. In dem Sinn ist die Ankündigung zu verstehen, dass die EU nun 20 Milliarden Euro pro Jahr in die Zukunftstechnologie stecken will. So steht es in ihrem Weißbuch Künstliche Intelligenz, das die EU-Kommission letzten Mittwoch veröffentlicht hat. Die Summe sollen die EU, Mitgliedsstaaten und Unternehmen gemeinsam aufbringen – wie, das ist offen. Das KI-Weißbuch behandelt neben der Finanzierungs- noch einige weitere Grundsatzfragen, etwa zum Risiko eines KI-Einsatzes. Die EU äußert sich zu diesem Aspekt nur vage – und fordert damit geradezu zum Weiterdenken über die Risikominimierung auf, was die Voraussetzungen für eine sinnvolle KI-Anwendung sowie Ansatzpunkte für Unternehmen einschließen sollte.

Was sich die EU unter risikohafter KI und ihrer Regulierung vorstellt

In dem Weißbuch steht: Für das nötige Vertrauen sollen KI-Rechtsvorschriften sorgen, die den Risiken entsprechen, aber Innovationen nicht verhindern. Ein hohes Risiko sieht die EU in den Sektoren Gesundheitswesen, Verkehr, Polizei und Rechtssystem. Als kritisch wird eine KI-Lösung eingestuft, wenn bei dieser mit rechtlichen Auswirkungen, Lebensgefahr, Schäden oder Verletzungen zu rechnen ist. So führt das EU-Papier die Medizintechnik, automatisiertes Fahren und Entscheidungen über Sozialversicherungsleistungen als Beispiele für einen risikobehafteten Einsatz von KI auf. Generell kritisch bewertet die EU KI-gestützte Einstellungsverfahren.

Die EU fordert nun strenge Vorschriften, die Konformitätsprüfung, Kontrollen sowie Sanktionen regeln, damit „KI-Systeme mit hohem Risiko transparent sind, Rückverfolgbarkeit gegeben ist und unter der Kontrolle des Menschen stehen.“ Die Kommission argumentiert: „Behörden müssen KI-Systeme ebenso überprüfen können wie Kosmetika, Autos und Spielzeug.“ Andere KI-Anwendungen könnten freiwillig gekennzeichnet werden.

Vertrauen auf Regeln oder Akzeptieren von nicht reproduzierbaren Ergebnissen?

Weitergedacht bedeuten die Vorschriften beispielsweise für das Gesundheitswesen: Es dürfen nur Expertensysteme zum Einsatz kommen. Diese fällen Entscheidungen nach definierten Regeln. Dabei arbeiten sie transparent, erkennen jedoch keine Muster in Röntgenbildern und lernen nicht dazu. Anders sieht das bei KI-Anwendungen für maschinelles Lernen aus, die neuronale Netze verwenden. Ein Neuron wird hierbei als Funktion (Algorithmus) modelliert, einschließlich Input, Parameter und Output. Als Dateninput dienen Fotos, Texte, Zahlen, Videos oder Audiodateien. Diese trainieren das Modell, selbstständig Muster zu erkennen, bessere Ergebnisse zu liefern und letztendlich auch unbekannte Daten zu bewerten. Beim Lernen verändert sich die Gewichtung der Parameter und damit die Verknüpfungen im System – am Ende lässt sich nicht mehr nachvollziehen, wie ein Ergebnis zustande gekommen ist. Solange man Qualitätssicherung betreibt, ist das kein Problem. Allerdings fehlen bisher verbindliche Regeln.

Ein Ansatz wäre, ein zugelassenes Medizingerät, das neuronale Netze verwendet, im gut trainierten Originalzustand zu belassen. Ansonsten hängt es von den Fähigkeiten des medizinischen Fachpersonals ab, ob dieses das KI-System in der Bilderkennung besser oder eben schlechter macht. Vertraut ein Arzt seiner KI, interpretiert die Technik CT-, MRT- oder Echographie-Daten wesentlich schneller sowie präziser, was zu einer besseren Diagnose und Therapie führt. Das Lösen der Vertrauens- und Qualitätssicherungsfrage wird die Effizienz steigern – und zwar branchenübergreifend.

Ein sinnvoller KI-Einsatz verlangt eine solide Basis

Um erst gar nicht in Konflikt mit Datenschutz, Ethik und Verbraucherinteressen zu geraten, ist die Frage nach den Kriterien der Qualitätssicherung entscheidend für einen sinnvollen KI-Einsatz. Unternehmen aller Branchen stehen jedoch zunächst vor der Herausforderung, eine entsprechende Dateninfrastruktur zu etablieren. Das erfordert einen ganzheitlichen Denkansatz, der eine nahtlose Datenpipeline vom Entstehungsort der Daten bis ins Rechenzentrum oder in die Cloud garantiert. Unverzichtbar sind dabei eine hohe Datenqualität, ein intelligentes Datenmanagement sowie Möglichkeiten zur Erweiterbarkeit, da sich KI-Hardware und Cloud-Ansätze immer weiterentwickeln. Zu all dem bietet der Markt umfassende Lösungen. Rar hingegen sind Data Scientists und KI-Experten, weshalb es für viele Unternehmen schwierig wird, das nötige Know-how intern aufzubauen.

Politikvorlage aufgreifen und Unternehmensrisiken senken

In einer nachvollziehbaren Zertifizierung liegt der Schlüssel, um das nötige Vertrauen in KI-Systeme zu schaffen. Dabei sollte es nicht allein Aufgabe der Politik sein, die Kriterien für eine Zertifizierung zu definieren. Auch Wirtschaft und Forschung sind gefragt. Die Vorlage dazu hat die EU mit ihrem KI-Weißbuch geliefert, das bis zum 19. Mai 2020 zur öffentlichen Konsultation steht. Alle Beteiligten sollten dabei auch daran denken, was passiert, wenn sich der Verwendungszweck ändert. Unternehmen wiederum stehen in der Pflicht, eine passende Dateninfrastruktur und Expertenwissen für einen sinnvollen KI-Einsatz aufzubauen. Wer das nicht tut, büßt entscheidend an Innovationsfähigkeit ein. Das ist das KI-Risiko, welches Unternehmen selbst verantworten – und gestalten können.

*Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*