Der Alltag wird immer stärker von Künstlicher Intelligenz und anderen digitalen Technologien beeinflusst. [...]
Am 14. Juni 2023 hat das Europäische Parlament mit dem AI-Act das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz beschlossen. Das Gesetz sieht Rahmenbedingungen für die Entwicklung und Nutzung von Künstlicher Intelligenz und deren Einstufung in vier Risikogruppen vor.
Stärkere Regulierung von KI-Anwendungen mit dem neuen Gesetz
Der AI-Act soll frühestens 2026 in Kraft treten. Das neue Gesetz sieht eine stärkere und wirksamere Regulierung von KI-Anwendungen vor. Künstliche Intelligenz (KI, englisch AI für Artificial Intelligence) ist inzwischen komplex und undurchsichtig geworden.
Da KI auf dem autonomen Verhalten von Anwendungen basiert, sehen Wissenschaftler eine Gefahr für die Grundrechte und den Schutz personenbezogener Daten. Ein Europäisches Amt für Künstliche Intelligenz soll künftig die Umsetzung der gesetzlichen Regelungen überwachen.
Das Gesetz legt den Fokus auf die Einstufung von KI-Systemen nach deren Risiken. Es unterscheidet die Anwendungen in
- risikoarm
- begrenzt riskant
- Hochrisiko-Systeme
- verbotene Systeme mit unannehmbarem Risiko
Neue Regelungen für generative KI
Das Gesetz sieht mehr Transparenz für generative KI vor, zu denen Chatbots wie ChatGPT gehören. Künftig sollen mit KI erzeugte Inhalte als solche gekennzeichnet werden. Die Verantwortlichen müssen der Generierung rechtswidriger Inhalte vorbeugen.
Für das Training der Chatbots genutzte urheberrechtlich geschützte Daten müssen in zusammengefasster Form veröffentlicht werden.
Umgang mit Hochrisiko-Systemen
Der AI-Act sieht eine Bewertung aller Hochrisiko-KI-Systeme während ihres gesamten Lebenszyklus vor, bevor sie in den Verkehr gebracht werden. Das Gesetz unterteilt solche Systeme in zwei Hauptkategorien.
Bei der ersten Kategorie handelt es sich um in Produkten, die den Produktsicherheitsvorschriften der EU unterliegen, verwendete Systeme. Dazu gehören Luftfahrt, Fahrzeuge, Aufzüge, medizinische Geräte und Spielzeug.
Systeme der zweiten Kategorie müssen in einer EU-Datenbank registriert werden. Solche Systeme dienen beispielsweise der Strafverfolgung, der biometrischen Identifizierung von Personen oder der Unterstützung bei der Auslegung von Gesetzen.
Verbot von Systemen mit unannehmbarem Risiko
Ein unannehmbares Risiko besteht bei KI-Systemen, die eine Bedrohung für Menschen darstellen. Das betrifft
- Social-Scoring-Systeme zur Klassifizierung von Menschen
- Systeme zur kognitiven Verhaltensmanipulation
- biometrische Echtzeit-Fernidentifizierungssysteme
Ausnahmen sind bei der Verfolgung schwerer Straftaten nach gerichtlicher Genehmigung zugelassen.
Schutz der Grundrechte mit dem neuen Gesetz
Der AI-Act will Künstliche Intelligenz fördern, aber die Grundrechte schützen. Die auf den Markt gebrachten Systeme müssen sicher sein und die Werte der EU sowie die Grundrechte wahren. Investitionen in KI sollen mit klaren Regelungen zur Rechtssicherheit gefördert werden. Das Gesetz will die Steuerungsmöglichkeiten des KI-Marktes fördern. Für vertrauenswürdige KI-Anwendungen soll ein einheitlicher europäischer Binnenmarkt geschaffen werden.
Be the first to comment