Presseinformation 33/2025
Sprachmodelle manipulieren: cep warnt vor KI-Risiken für Demokratie und Markt
Freiburg/Berlin. In den USA greifen bereits 27 Prozent der Nutzer lieber auf KI-Tools wie ChatGPT zurück als auf klassische Suchmaschinen. Auch in Europa ist der Wandel in vollem Gange. Doch dieser Trend hat negative Folgen für Meinungsvielfalt, Wettbewerb und Demokratie. Das Centrum für Europäische Politik (cep) warnt: Große Sprachmodelle beeinflussen längst nicht mehr nur Konsumentscheidungen, sondern auch politische Einstellungen.
Mit dem Übergang von der Websuche zur KI-Antwort wird die Vielfalt von Informationen durch eine einzige vorgefilterte Perspektive ersetzt, die algorithmisch optimiert und von wenigen Gatekeepern kontrolliert wird. Was früher zehn Links waren, ist heute ein Satz im Chatfenster. KI-Modelle geben dabei nicht einfach nur externe Daten wieder. Sie strukturieren diese nach eigenen Mustern, gefiltert durch die Verzerrungen in ihren Trainingsdaten, technische Vorgaben und sprachliche Gestaltung.
„Wenn ChatGPT und Co. bestimmen, welche Informationen wir sehen und wie sie klingen, dann kontrolliert eine Handvoll Unternehmen nicht nur unsere Kaufentscheidungen, sondern auch unsere politischen Überzeugungen. Das ist konzentrierte Macht in neuer Form“, warnt cep-Digitalisierungsexperte Anselm Küsters, der die Studie zu den Gefahren von Large Language Models (LLM) verfasst hat.
Das cep fordert die europäische Politik auf, entschlossener zu handeln. Die bestehenden Regelwerke wie der Digital Markets Act, der Digital Services Act und der AI Act müssen konsequenter angewendet und um Transparenzpflichten, unabhängige Prüfungen und demokratische Kontrollmechanismen ergänzt werden. Mit Investitionen in den EuroStack, ein offenes und souveränes europäisches KI-Ökosystem, kann Europa auch langfristig digitale Souveränität und faire Informationsräume für seine Märkte und den politischen Diskurs sicherstellen.