DATEV Informationsbüro Brüssel, Mitteilung vom 13.02.2024
Nach der politischen Einigung am 08.12.2023 zum AI Act haben die federführenden Ausschüsse im EU-Parlament das Verhandlungsergebnis bestätigt. Der Rat hatte bereits im Januar grünes Licht gegeben. Nun steht noch die formale Annahme des AI Act aus. Seine Veröffentlichung im Amtsblatt wird voraussichtlich im Sommer 2024 erfolgen. 24 Monate später wird der AI Act gelten.
Zum Inhalt: Der AI Act verfolgt einen risikobasierten Ansatz. Er unterscheidet zwischen vier verschiedenen Risikokategorien: KI-Systeme mit inakzeptablem Risiko, mit hohem Risiko, mit gewissem Risiko und mit minimalem bzw. keinem Risiko.
Entscheidend ist die gewählte Definition von KI-Systemen, da diese darüber bestimmt, welche Anwendungen vom AI Act umfasst sind. Hier bestand lange die Sorge, dass der AI Act aufgrund einer sehr breiten Definition zu einem Software Act verkommen würde. Die nun gewählte Definition basiert auf der international anerkannten Definition der OECD. Nichtsdestotrotz bleibt die Definition sehr weit und unklar.
- KI-Systeme mit inakzeptablem Risiko werden vom AI Act verboten. Hierunter fallen z. B. Social Scoring oder die Echtzeit-Überwachung öffentlicher Räume mittels biometrischer Identifikation.
- Herzstück der Verordnung sind „Hochrisiko-KI-Systeme“. Sie unterliegen spezifischen Anforderungen und einer Zertifizierung. Betroffen sind KI-Systeme, wenn sie in einem bestimmten Bereich angewandt werden (z. B. Strafverfolgung oder Arbeitnehmermanagement) und gleichzeitig ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte betroffener Personen darstellen.
- KI-Systeme mit einem gewissen Risiko sind Anwendungen, die irgendeiner Form direkt mit Menschen interagieren, z. B. Chatbots. Hier muss dem Nutzer transparent gemacht werden, dass nicht mit einem Menschen, sondern mit einer KI kommuniziert wird.
- Darüber hinaus ist vorgesehen, dass für KI-Anwendungen mit minimalem oder keinem Risiko Code of Conducts erarbeitet werden.
- Schließlich sieht der AI Act Anforderungen für sog. General Purpose AI (GPAI) vor. Hierunter fallen z. B. die Anbieter der großen generativen KI-Systeme wie ChatGPT. Alle Anbieter von GPAI-Modellen unterliegen Transparenz- und Dokumentationsvorschriften. Alle Anbieter von GPAI-Modellen, die ein systemisches Risiko darstellen, müssen ihre Modelle evaluieren und testen sowie Sicherheitsvorfälle melden.
Quelle: DATEV eG Informationsbüro Brüssel
Dieser Artikel erschien auf https://www.datev-magazin.de/?p=117303