„AI Act“ – Sicherheit bei Künstlicher Intelligenz

Die EU-Mitgliedsstaaten haben sich auf eine europäische Verordnung von Künstlicher Intelligenz (KI) geeinigt. Künftig müssen KI-Anwendungen je nach Risiko, das von ihnen ausgeht, unterschiedlich hohe Anforderungen erfüllen. „Europa sendet mit dem ‚AI Act‘ ein klares Signal in die Welt: Künstliche Intelligenz muss sicher sein. Die Technologie darf Menschen nicht gefährden oder benachteiligen“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Die in der KI-Verordnung verankerte risikobasierte Regulierung ist ein pragmatischer Ansatz für eine komplexe Technologie.“

Mit dem „AI Act“ werden auch leistungsstarke KI-Modelle reglementiert und müssen bspw. Transparenzpflichten erfüllen.
Bild: Clipdealer

Mit dem „AI Act“ werden auch leistungsstarke KI-Modelle reglementiert und müssen bspw. Transparenzpflichten erfüllen.
Bild: Clipdealer
Positiv bewertet wird vom TÜV-Verband auch, dass leistungsstarke KI-Basismodelle, wie z. B. „ChatGPT“, nicht von der Regulierung ausgenommen sind. „Leistungsstarke Allzweck-KI-Systeme müssen in Zukunft grundlegende Sicherheits- und Transparenzanforderungen erfüllen“, erklärt Bühler. Das schaffe Vertrauen für die Nutzenden und erhöhe die Rechtssicherheit für professionelle Anwender, die auf Basis solcher „Allzweck KI“ bzw. „General Purpose AI“ eigene innovative KI-Anwendungen entwickeln.

Der verabschiedete „AI Act“ sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Je nach Gefährdung müssen die Anbieter unterschiedliche Vorgaben erfüllen. KI-Systeme mit einem nicht akzeptablen Risiko wie „Social Scoring Systeme“ (Systeme zur Bewertung des sozialen Verhaltens von Personen zum Zwecke der Verhaltensprognose bzw. -steuerung) werden komplett verboten. KI-Systeme mit einem „begrenzten Risiko“ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“, z. B. in kritischen Infrastrukturen, Bewertungssysteme im Personalwesen oder für die Beurteilung der Kreditwürdigkeit, gelten strengere Sicherheitsanforderungen. Dazu zählen die Anforderungen in Bezug auf Nachvollziehbarkeit, Risikomanagement oder Cybersicherheit.

Thematisch passende Artikel:

Risikoklassifizierung von KI-Systemen

Am 1. August 2024 wird der europäische „AI Act“ rechtsverbindlich, der erstmals Regeln für Künstliche Intelligenz (KI) festlegt. Dieser soll einen global führenden Rechtsrahmen für sichere und...

mehr

Künstliche Intelligenz regulieren: Die EU-Verordnung im Überblick

Der Artificial Intelligence Act, kurz „AI Act“, legt klare Regeln für die Entwicklung und den Einsatz von Systemen Künstlicher Intelligenz (KI) fest und schafft damit einen einheitlichen,...

mehr

TÜV-Verband Studie: Mehrheit sieht Risiken bei Künstlicher Intelligenz

Ein Jahr nach der Einführung von „ChatGPT“ verbreiten sich Anwendungen generativer Künstlicher Intelligenz (KI) nach Bekunden des TÜV-Verbands rasant: Gut jeder Dritte Bundesbürger hat bereits...

mehr

Energiebedarf Künstlicher Intelligenz wächst rasant

Fast jeder zweite Bundesbürger glaubt, dass die Datenverarbeitung mit Künstlicher Intelligenz (KI) negative Auswirkungen auf den Energiebedarf haben wird (47 %). Das hat eine repräsentative...

mehr
Ausgabe 01/2024

Schneller und leichter zu digitalen (Projekt-)Entwicklungen

Anfang Dezember des vergangenen Jahres einigten sich die EU-Mitgliedsstaaten auf eine europäische KI-Verordnung. Damit entsteht nun das weltweit erste Gesetz, das Künstliche Intelligenz – kurz KI...

mehr