Risikoklassifizierung von KI-Systemen

Am 1. August 2024 wird der europäische „AI Act“ rechtsverbindlich, der erstmals Regeln für Künstliche Intelligenz (KI) festlegt. Dieser soll einen global führenden Rechtsrahmen für sichere und vertrauenswürdige KI schaffen. „Der ‚AI Act‘ bietet die Chance, vor negativen Auswirkungen von Künstlicher Intelligenz zu schützen und gleichzeitig Innovationen zu fördern. Er kann dazu beitragen, einen globalen Leitmarkt für sichere ‚KI Made in Europe‘ zu etablieren“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Es ist jetzt wichtig, die Umsetzung effizient und unbürokratisch zu gestalten. Unabhängige Stellen spielen dabei eine wesentliche Rolle, nicht nur im Hinblick auf die verbindlichen Anforderungen, sondern auch im freiwilligen KI-Prüfmarkt.“

Der „AI Act“ tritt am 1. August in Europa in Kraft und bringt gestaffelte Übergangsfristen mit sich. Um KI-Systeme nach Risiken klassifizieren zu können, hat bspw. das TÜV AI.Lab ein Hilfsmittel enwickelt.
Bild: Clipdealer

Der „AI Act“ tritt am 1. August in Europa in Kraft und bringt gestaffelte Übergangsfristen mit sich. Um KI-Systeme nach Risiken klassifizieren zu können, hat bspw. das TÜV AI.Lab ein Hilfsmittel enwickelt.
Bild: Clipdealer
Der EU „AI Act“ tritt mit gestaffelten Übergangsfristen in Kraft. Sechs Monate nach Inkrafttreten, das heißt ab Anfang 2025, sollen zunächst KI-Systeme verboten werden, die u. a. manipulative oder täuschende Techniken einsetzen. Ab dem 1. August 2025 treten Verhaltenskodizes für bestimmte Allzweck-KI-Modelle in Kraft. Zudem müssen die EU-Mitgliedstaaten nationale Behörden für die Marktüberwachung benennen. Verpflichtende Prüfungen für Hochrisiko-KI in Bereichen wie Kreditvergabe, Personalwesen oder Strafverfolgung sind ab August 2026 erforderlich. Sie betreffen nicht nur KI-Entwickler, sondern KI-Anbieter, und Betreiber risikoreicher KI. Ab 2027 treten die Anforderungen an KI in drittprüfpflichtigen Produkten in Kraft. „Prüfungen von KI-Systemen schaffen Vertrauen und sind schon heute ein Wettbewerbsvorteil. Unternehmen sind gut beraten, sich jetzt mit den Anforderungen vertraut zu machen, insbesondere im Hinblick auf die Übergangsfristen. Es ist wichtig, abzuschätzen, wie und wo der ‚AI Act‘ ihre Aktivitäten betrifft“, sagt Bühler.

Compliance-Check für KI

Das 2023 als Joint Venture der TÜV-Unternehmen gegründete TÜV AI.Lab übersetzt regulatorische Anforderungen an KI in die Prüfpraxis und entwickelt quantifizierbare Konformitätskriterien und geeignete Prüfmethoden für KI. Zum Inkrafttreten des „AI Acts“ veröffentlicht das TÜV AI.Lab den „AI Act Risk Navigator“, ein kostenloses Online-Tool zur Risikoklassifizierung von KI-Systemen. Franziska Weindauer, Geschäftsführerin des TÜV AI.Lab, sagt: „Unser Ziel ist es, Klarheit über die Auswirkungen der KI-Verordnung zu schaffen, sodass Unternehmen sich rechtzeitig vorbereiten können. Wenn wir Qualitätsanforderungen an Künstliche Intelligenz von Beginn an mitdenken, kann vertrauenswürdige Künstliche Intelligenz zum europäischen Alleinstellungsmerkmal werden.“  Der „AI Act Risk Navigator“ unterstützt dabei, KI-Systeme gemäß den Risikoklassen des „AI Acts“ einzuordnen und Transparenz über die geltenden Anforderungen zu schaffen.

Die EU-Regulierung teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise einzuhalten sind. Systeme mit hohem Risiko, die in Bereichen wie Medizin, kritische Infrastrukturen oder Personalmanagement eingesetzt werden, unterliegen bspw. künftig strengen Auflagen und müssen umfassende Anforderungen an Transparenz, Sicherheit und Aufsicht erfüllen. Bei Verstößen drohen Bußgelder von bis zu 15 Mio. € oder bis zu drei % des weltweiten Jahresumsatzes. „Wir wissen, dass das für Unternehmen Fragen aufwirft. Deshalb wollen wir zu größerer Klarheit über das eigene Risikoprofil und die zu erfüllenden Anforderungen beitragen", so Weindauer. Systeme mit begrenztem Risiko, wie Chatbots, müssen nur Transparenzanforderungen erfüllen, während Systeme mit minimalem Risiko, wie einfache Videospiele, gar nicht reguliert werden. Die risikobasierte Klassifizierung soll sicherstellen, dass der Einsatz von KI sicher und vertrauenswürdig ist, damit so die Innovationskraft der Technologie und deren Marktdurchdringung weiter gesteigert werden kann.

Herausforderungen der Umsetzung

Aus Sicht des TÜV-Verbands sollte besonderes Augenmerk auf eine effiziente und unbürokratische Umsetzung gelegt werden. Klare Zuständigkeiten und verantwortliche Stellen seien notwendig, um die Regelungen praktisch umzusetzen. So sollten Umsetzungsleitfäden für die Einstufung von Hochrisiko-KI-Systemen vom Europäischen KI-Büro schnellstmöglich veröffentlicht werden, um insbesondere kleinen und mittleren Unternehmen (KMU) Rechtssicherheit zu geben. Darüber hinaus seien neue KI-Risiken sowie die Entwicklung systemischer Risiken von besonders leistungsfähigen Allzweck-KI-Modellen im Blick zu behalten und der Aufbau einer systematischen KI-Schadensberichterstattung voranzutreiben.

Thematisch passende Artikel:

„AI Act“ – Sicherheit bei Künstlicher Intelligenz

Die EU-Mitgliedsstaaten haben sich auf eine europäische Verordnung von Künstlicher Intelligenz (KI) geeinigt. Künftig müssen KI-Anwendungen je nach Risiko, das von ihnen ausgeht, unterschiedlich...

mehr

TÜV-Verband Studie: Mehrheit sieht Risiken bei Künstlicher Intelligenz

Ein Jahr nach der Einführung von „ChatGPT“ verbreiten sich Anwendungen generativer Künstlicher Intelligenz (KI) nach Bekunden des TÜV-Verbands rasant: Gut jeder Dritte Bundesbürger hat bereits...

mehr
Ausgabe 01/2024

Schneller und leichter zu digitalen (Projekt-)Entwicklungen

Anfang Dezember des vergangenen Jahres einigten sich die EU-Mitgliedsstaaten auf eine europäische KI-Verordnung. Damit entsteht nun das weltweit erste Gesetz, das Künstliche Intelligenz – kurz KI...

mehr

Künstliche Intelligenz regulieren: Die EU-Verordnung im Überblick

Der Artificial Intelligence Act, kurz „AI Act“, legt klare Regeln für die Entwicklung und den Einsatz von Systemen Künstlicher Intelligenz (KI) fest und schafft damit einen einheitlichen,...

mehr

Energiebedarf Künstlicher Intelligenz wächst rasant

Fast jeder zweite Bundesbürger glaubt, dass die Datenverarbeitung mit Künstlicher Intelligenz (KI) negative Auswirkungen auf den Energiebedarf haben wird (47 %). Das hat eine repräsentative...

mehr