31.10.23

Ein kritischer Blick auf den „First Global AI Safety Summit“: Falsche Prioritäten in der KI-Sicherheitsdiskussion

Inmitten der global grassierenden Debatte über die Sicherheit und Ethik künstlicher Intelligenz (KI) findet am 1. und 2. November der „First Global AI Safety Summit“ in Bletchley Park, Südengland, unter der Leitung des britischen Premierministers Rishi Sunak statt. Der Gipfel verspricht einen Dialog zwischen Investoren, Unternehmen, Regierungsvertretern und Wissenschaftlern, unterstützt durch einen erneuten KI-Brandbrief prominenter KI-Experten wie Yoshua Bengio und Geoffrey Hinton. Es ist ein bedeutungsschweres Treffen, das den Kurs der internationalen KI-Regulierung noch vor der Verabschiedung des geplanten KI-Gesetzes der EU und der KI-Leitlinien der G7 prägen könnte – doch es leidet an falschen Priorisierungen und einer verengten Perspektive.

Eines der kritischen Dilemmata, das den Gipfel umschattet, ist die Frage der Priorisierung: Sollten sich Politiker und Regulatoren auf die langfristigen, existentiellen Risiken der KI konzentrieren, oder sollten unmittelbare Risiken im Vordergrund stehen? Das derzeitige Programm des Gipfels scheint eine Verschiebung in Richtung ersteres zu zeigen, da zahlreiche Panels auf „Grenzmodelle“ (Frontier Models) ausgerichtet sind und die potenziellen Risiken betonen, die diese für die menschliche Kontrolle und globale Sicherheit darstellen könnten. Auch der erwähnte Begleitbrief der KI-Experten warnt vor einem „unumkehrbaren Verlust der menschlichen Kontrolle über autonome KI-Systeme“.

Diese Setzung der Prioritäten wirft allerdings Fragen auf. Führende KI-Forscher wie Yann LeCun oder Gary Marcus betonen schon seit längerem, dass wir von einer autonomen und wirklich intelligenten KI, wie sie oft in dystopischen Science Fiction-Szenarien dargestellt wird, noch weit entfernt sind. Vielmehr sind es die unmittelbaren Herausforderungen, die Regulatoren beschäftigen sollten: algorithmische Verzerrungen, soziale Diskriminierungen, Copyright-Verletzungen, datenschutzrechtliche Bedenken, und die reale Bedrohung durch den Missbrauch der derzeitigen Technologien von böswilligen Akteuren. So zeigt jüngste Forschung etwa, wie Terroristen Sprachmodelle für die Planung eines biologischen Angriffs ausnutzen könnten. Der Diskurs, der die langfristige Sicherheit in den Mittelpunkt stellt, ist legitim, aber er sollte in den Kontext aktueller Wettbewerbsprobleme und schon heute auftretender Verzerrungen gestellt werden.

Die zweite kritische Überlegung ist die Art und Weise, mit der man KI institutionell einhegen möchte. Auf dem britischen Gipfel wird es um Überlegungen zur Schaffung eines KI-Sicherheitsinstituts gehen, das eher als Berater denn als globale Regulierungsbehörde fungieren soll. Pate dieser Idee scheinen die jüngsten Vorschläge von Mustafa Suleyman (Mitbegründer von Deep Mind) und Eric Schmidt (früher CEO von Google) gewesen zu sein, die für ein Äquivalent zum IPCC, ein Gremium zur wissenschaftlichen Begleitung des Klimawandels, plädieren. Das Problem an dieser institutionellen Form zum Management von KI-Risiken ist, dass Forscher zwar eine klare Theorie über den Klimawandel haben und diesen messen können, es aber keinen analogen Konsens über die Funktionsweise großer Sprachmodelle oder eine Theorie über das „Bewusstsein“ von modernen Maschinen gibt. Angetrieben von dem nicht quantifizierbaren Risiko einer allwissenden KI könnte eine zu strenge, auf Lizenzen basierende Überwachung nicht nur Open Source-Innovationen drosseln, sondern auch die Machtdynamik zugunsten etablierter Tech-Giganten verschieben.

Die Herausforderung für die Teilnehmer des Bletchley Park-Gipfels besteht also darin, einen ausgewogenen und informierten Ansatz zu finden, der sowohl die aktuelle Realität der KI-Technologien als auch ihre zukünftigen Potenziale und Risiken berücksichtigt. Eine ergebnisorientierte Diskussion auf dem Gipfel über die schon heute wirksamen, kurzfristigen Risiken von KI sowie deren wissenschaftliche Messbarkeit sollte den Weg für eine nuancierte Regulierung ebnen, die nicht von futuristischen Ängsten fehlgeleitet wird.

Anselm Küsters, Fachbereichsleiter Digitalisierung und Neue Technologien