Künstliche Intelligenz regulieren: Die EU-Verordnung im Überblick

Der Artificial Intelligence Act, kurz „AI Act“, legt klare Regeln für die Entwicklung und den Einsatz von Systemen Künstlicher Intelligenz (KI) fest und schafft damit einen einheitlichen, verbindlichen Rechtsrahmen in Europa. Ziel ist es, die Risiken zu minimieren, die von der Technologie ausgehen können. Gleichzeitig soll die Verordnung Forschung und Entwicklung zu KI innerhalb der Europäische Union (EU) wettbewerbsfähig halten und Innovationen fördern. KI-Anwendungen mit unannehmbaren Risiken, wie Bewertungen des sozialen Verhaltens (sogenanntes social scoring) oder die biometrische Identifizierung von Menschen in Echtzeit, werden in Europa verboten. KI-Systeme mit hohem Risiko, wie etwa an Schulen, im Personalmanagement oder in der Strafverfolgung, müssen strenge Sicherheitsvorschriften erfüllen, bevor sie auf dem EU-Markt in Verkehr gebracht werden können. Zu diesen Anforderungen zählen u. a. das Risikomanagement, menschliche Überwachung und Qualität der Trainingsdaten.

Die EU hat nun mit dem „AI Act“ das weltweit erste transnationale Regelwerk für einen sicheren und vertrauenswürdigen Einsatz von KI verabschiedet.
Bild: Clipdealer

Die EU hat nun mit dem „AI Act“ das weltweit erste transnationale Regelwerk für einen sicheren und vertrauenswürdigen Einsatz von KI verabschiedet.
Bild: Clipdealer
Grundsätzlich legt die KI-Verordnung fest: Die Nutzung muss transparent gemacht werden. Allen Menschen soll stets ersichtlich sein, wann sie mit KI in Berührung kommen. Das gilt für den Chatbot ebenso wie für KI-generierte Bilder und Texte, die künftig entsprechend gekennzeichnet werden müssen. Ein weiterer Kernpunkt der Verordnung ist der Umgang mit KI-Basismodellen wie „ChatGPT“, die die Grundlage für viele generative KI-Anwendungen sind. Die Besonderheit: Für solche Modelle ist zunächst keine bestimmte Nutzung vorgesehen. Sie könnten jedoch zu einem späteren Zeitpunkt in ein Hochrisiko-System integriert werden. Für sie gelten nun, abhängig von ihrer Rechenkapazität, unterschiedlich strenge Vorschriften zu Transparenz, Cybersicherheit und Energieeffizienz.

Bedenken beim Mittelstand

„Die KI-Verordnung ist eine Pionierin: Sie stellt den weltweit ersten Versuch dar, die Sicherheit von KI-Systemen ex ante zu gewährleisten. Die Definition, welche Informationssysteme unter den zentralen Begriff des KI-Systems fallen, ist aber komplex. Es soll sich um Systeme mit unterschiedlichen Ausprägungen von Autonomie handeln, die nicht allein anhand von Menschen erstellten Regeln operieren. Allerdings sollen laut den Erwägungsgründen wissens- oder regelbasierte Expertensysteme durchaus von der Verordnung erfasst sein. Die Konkretisierung und Anwendung auf konkrete Grenzfälle bleiben der Rechtsprechung überlassen“, sagt Ruth Janal, Professorin für Recht an der Universität Bayreuth und Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.

Neben der Definition von KI gibt die Anwendung des Gesetzes in den Mitgliedsstaaten Anlass für Bedenken. So könnten unterschiedliche Prüfmechanismen, ob ein KI-System dem Gesetz entspricht, den Wettbewerb verzerren. Kritiker bemängeln zudem, dass der „AI Act“ insbesondere in mittelständischen Unternehmen KI-Innovationen hemmen könnte. Grund dafür sind die möglichen hohen Kosten für die Einhaltung der EU-Vorschriften.

Harmonisierte europäische Normen

Der „AI Act“ tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt der EU in Kraft. Während die Verbote bereits nach sechs Monaten gelten, ist die gesamte Verordnung erst in zwei Jahren anwendbar. Aktuell werden harmonisierte europäische Normen erarbeitet, die regeln, wie die Verordnung in verschiedenen Anwendungsfeldern genau umgesetzt werden kann. Sie werden in allen EU-Mitgliedsländern gelten. Zudem richtet jeder Mitgliedsstaat mindestens eine autorisierte Prüfstelle sowie eine Marktüberwachungsbehörde ein, um die Verordnung auf nationaler Ebene umzusetzen.

Weiterführende Informationen sind in KI Kompakt erhältlich, welcher Potenziale, Risiken sowie offene Fragen aufzeigt. Die Analysen entstanden mit Unterstützung von Experten der Plattform Lernende Systeme. Dies ist über die Webseite des Herausgebers herunterzuladen.

Thematisch passende Artikel:

„AI Act“ – Sicherheit bei Künstlicher Intelligenz

Die EU-Mitgliedsstaaten haben sich auf eine europäische Verordnung von Künstlicher Intelligenz (KI) geeinigt. Künftig müssen KI-Anwendungen je nach Risiko, das von ihnen ausgeht, unterschiedlich...

mehr

Risikoklassifizierung von KI-Systemen

Am 1. August 2024 wird der europäische „AI Act“ rechtsverbindlich, der erstmals Regeln für Künstliche Intelligenz (KI) festlegt. Dieser soll einen global führenden Rechtsrahmen für sichere und...

mehr

TÜV-Verband Studie: Mehrheit sieht Risiken bei Künstlicher Intelligenz

Ein Jahr nach der Einführung von „ChatGPT“ verbreiten sich Anwendungen generativer Künstlicher Intelligenz (KI) nach Bekunden des TÜV-Verbands rasant: Gut jeder Dritte Bundesbürger hat bereits...

mehr

Energiebedarf Künstlicher Intelligenz wächst rasant

Fast jeder zweite Bundesbürger glaubt, dass die Datenverarbeitung mit Künstlicher Intelligenz (KI) negative Auswirkungen auf den Energiebedarf haben wird (47 %). Das hat eine repräsentative...

mehr
Ausgabe 01/2024

Schneller und leichter zu digitalen (Projekt-)Entwicklungen

Anfang Dezember des vergangenen Jahres einigten sich die EU-Mitgliedsstaaten auf eine europäische KI-Verordnung. Damit entsteht nun das weltweit erste Gesetz, das Künstliche Intelligenz – kurz KI...

mehr