Neues Gesetz zu Künstlicher Intelligenz

Der Alltag wird immer stärker von Künstlicher Intelligenz und anderen digitalen Technologien beeinflusst. [...]

Foto: Seanbatty/Pixabay

Am 14. Juni 2023 hat das Europäische Parlament mit dem AI-Act das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz beschlossen. Das Gesetz sieht Rahmenbedingungen für die Entwicklung und Nutzung von Künstlicher Intelligenz und deren Einstufung in vier Risikogruppen vor.

Stärkere Regulierung von KI-Anwendungen mit dem neuen Gesetz

Der AI-Act soll frühestens 2026 in Kraft treten. Das neue Gesetz sieht eine stärkere und wirksamere Regulierung von KI-Anwendungen vor. Künstliche Intelligenz (KI, englisch AI für Artificial Intelligence) ist inzwischen komplex und undurchsichtig geworden.

Da KI auf dem autonomen Verhalten von Anwendungen basiert, sehen Wissenschaftler eine Gefahr für die Grundrechte und den Schutz personenbezogener Daten. Ein Europäisches Amt für Künstliche Intelligenz soll künftig die Umsetzung der gesetzlichen Regelungen überwachen.

Das Gesetz legt den Fokus auf die Einstufung von KI-Systemen nach deren Risiken. Es unterscheidet die Anwendungen in

  • risikoarm
  • begrenzt riskant
  • Hochrisiko-Systeme
  • verbotene Systeme mit unannehmbarem Risiko

Neue Regelungen für generative KI

Das Gesetz sieht mehr Transparenz für generative KI vor, zu denen Chatbots wie ChatGPT gehören. Künftig sollen mit KI erzeugte Inhalte als solche gekennzeichnet werden. Die Verantwortlichen müssen der Generierung rechtswidriger Inhalte vorbeugen.

Für das Training der Chatbots genutzte urheberrechtlich geschützte Daten müssen in zusammengefasster Form veröffentlicht werden.

Umgang mit Hochrisiko-Systemen

Der AI-Act sieht eine Bewertung aller Hochrisiko-KI-Systeme während ihres gesamten Lebenszyklus vor, bevor sie in den Verkehr gebracht werden. Das Gesetz unterteilt solche Systeme in zwei Hauptkategorien.

Bei der ersten Kategorie handelt es sich um in Produkten, die den Produktsicherheitsvorschriften der EU unterliegen, verwendete Systeme. Dazu gehören Luftfahrt, Fahrzeuge, Aufzüge, medizinische Geräte und Spielzeug.

Systeme der zweiten Kategorie müssen in einer EU-Datenbank registriert werden. Solche Systeme dienen beispielsweise der Strafverfolgung, der biometrischen Identifizierung von Personen oder der Unterstützung bei der Auslegung von Gesetzen.

Verbot von Systemen mit unannehmbarem Risiko

Ein unannehmbares Risiko besteht bei KI-Systemen, die eine Bedrohung für Menschen darstellen. Das betrifft

  • Social-Scoring-Systeme zur Klassifizierung von Menschen
  • Systeme zur kognitiven Verhaltensmanipulation
  • biometrische Echtzeit-Fernidentifizierungssysteme

Ausnahmen sind bei der Verfolgung schwerer Straftaten nach gerichtlicher Genehmigung zugelassen.

Schutz der Grundrechte mit dem neuen Gesetz

Der AI-Act will Künstliche Intelligenz fördern, aber die Grundrechte schützen. Die auf den Markt gebrachten Systeme müssen sicher sein und die Werte der EU sowie die Grundrechte wahren. Investitionen in KI sollen mit klaren Regelungen zur Rechtssicherheit gefördert werden. Das Gesetz will die Steuerungsmöglichkeiten des KI-Marktes fördern. Für vertrauenswürdige KI-Anwendungen soll ein einheitlicher europäischer Binnenmarkt geschaffen werden.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*