Europäisches Gesetz über Künstliche Intelligenz (cepAnalyse zu COM2021 206)

shutterstock

Ob Gesundheit, Arbeit, Konsum oder Medien: Künstliche Intelligenz (KI) wird das Leben vieler Menschen vielfältig verändern. Die Kommission will deshalb Regeln schaffen, um Gesundheit, Sicherheit und Grundrechte von KI-Nutzern zu schützen. Sie will besonders gefährliche Systeme verbieten. Für andere sollen nach Risiko abgestufte Pflichten oder freiwillige Verhaltenskodizes gelten. In einigen Fällen soll es gar keine Auflagen geben.

cepAnalyse

Das Centrum für Europäische Politik (cep) hat den Brüsseler Gesetzentwurf untersucht. Die Freiburger Denkfabrik bewertet die Vorschläge überwiegend positiv und hält sie im weltweiten Vergleich für historisch einmalig. „Die besonders strengen Vorgaben für Hochrisiko-KI-Systeme sind richtig und wichtig, da von diesen Systemen eine größere Gefahr ausgeht. Zudem erhöhen risikoabhängige Transparenzpflichten die Akzeptanz innerhalb der Bevölkerung“, sagt cep-Ökonom Matthias Kullas, der die Studie mit cep-Jurist Lukas Harta verfasst hat.

Kritisch sehen Kullas und Harta die geringen Anforderungen an KI-Systeme, die Menschen nach Alter, ethnischer Herkunft, religiöser oder sexueller Orientierung kategorisieren. „Für diese KI-Systeme müssen strengere Anforderungen als eine bloße Informationspflicht gelten“, betonen die Freiburger Wissenschaftler. Außerdem greife die Verordnung im Datenschutz zu kurz.

Kullas und Harta fordern die EU auf, das sogenannte social scoring nicht nur für Behörden zu verbieten, sondern auch für private Anbieter. In China werden schon jetzt besonders linientreue Bürger durch KI-Systeme mit Punkten belohnt, während andere durch Punktabzug daran gehindert werden, günstige Kredite zu erhalten, Kulturveranstaltungen zu besuchen oder sozial aufzusteigen.