L’intelligenza artificiale come rischio sistemico in tempi di “policrisi”
cepAdhoc

Tecnologie dell'informazione

L’intelligenza artificiale come rischio sistemico in tempi di “policrisi”

Dr. Anselm Küsters, LL.M.
Dr. Anselm Küsters, LL.M.

Che si tratti di protezione contro le frodi con le carte di credito, di creazione di modelli climatici o di distribuzione delle forze di polizia: l'intelligenza artificiale (IA) sta penetrando sempre più profondamente nella vita quotidiana. Però i dati necessari a questo scopo provengono per lo più da fasi di relativa stabilità, che non possono sempre essere facilmente applicati in tempi di crisi. Il Centres for European Policy Network (CEP) ritiene che ci troviamo di fronte ad un rischio sistemico ancora sottovalutato e chiede l'introduzione di regole più adatte.

cepAdhoc

"L'uso dell'IA può apparire molto utile nella soluzione di crisi. Tuttavia, gli algoritmi ottimizzati con dati raccolti in tempi “normali” possono portare inconsapevolmente a decisioni sbagliate. È quindi necessario disporre di regole sensibili al rischio per l'IA in caso di crisi, soprattutto in ambienti sempre più automatizzati", afferma l'esperto digitale del CEP, Anselm Küsters, che ha analizzato l'ultimo approccio normativo della Commissione in tema.

Küsters cita, come esempio, gli algoritmi per calcolare il rischio di frode con le carte di credito durante la pandemia da Coronavirus. "Improvvisamente, molti facevano acquisti solo su Internet. Gli strumenti basati sull'intelligenza artificiale ne sono stati sopraffatti ed hanno bloccato inutilmente molte transazioni".Il CEP quindi sostiene che un approccio basato sul rischio, come previsto attualmente dalla proposta normativa europea sull'IA, potrebbe quindi non risultare sufficiente, poiché è impossibile conoscere il rischio dinamico di un sistema in crisi, soprattutto in contesti in forte cambiamento.

"Tuttavia, se si intende proseguire accettando l'approccio basato sul rischio dell'attuale bozza, si dovrebbe tenere conto anche dei pericoli che sorgono in tempi di “policrisi”, classificando una percentuale maggiore di sistemi guidati dall'IA come sensibili alle crisi e quindi ad alto rischio", raccomanda l'esperto del CEP. Inoltre, è fondamentale che degli audit sull'IA vengano svolti regolarmente con personale e risorse tecniche sufficienti, facendo però attenzione, contemporaneamente, a non sovraccaricare le start-up di adempimenti burocratici.

Secondo Küsters, i politici, gli imprenditori e i giornalisti entusiasti dell'IA, dovrebbero, in generale, tenere maggiormente conto del potenziale di danno dell'IA in un contesto di “policrisi”.

Scarica il PDF

L’intelligenza artificiale come rischio sistemico in tempi di “policrisi” (pubblicizzato 13.12.2022) PDF 1,016 KB Download
L’intelligenza artificiale come rischio sistemico in tempi di “policrisi”