Milia (CEP): attenzione al regolamento Ue sull’intelligenza artificiale

Stefano Milia

Euractiv Italia ha intervistato Stefano Milia, Direttore del Centro Politiche Europee in Italia

Sappiamo che l’Intelligenza Artificiale (IA) cambierà la vita di moltissime persone nel prossimo futuro. Perché c’è bisogno di una regolamentazione a livello europeo che ne moderi l’innovazione?

L’intelligenza artificiale influenzerà significativamente la vita delle persone in quasi tutti i settori (salute, lavoro, consumo, media, ecc.). Tuttavia, lo sviluppo futuro dell’IA è difficilmente prevedibile oggi: forme di IA che decidono autonomamente e che auto-apprendono sono in continuo sviluppo e stanno diventando sempre più influenti. Una regolamentazione lungimirante dell’IA, che impedisca applicazioni discriminatorie e manipolative, crei trasparenza e allo stesso tempo permetta l’innovazione è di grande importanza per la sovranità digitale dell’Europa. Il regolamento mira a creare regole a livello europeo per l’IA, rafforzando così il mercato unico e proteggendo la salute, la sicurezza e i diritti fondamentali degli utenti dell’IA.

Siamo, come CEP, però molto meno convinti della definizione che la Commissione europea ha scelto per identificare i sistemi IA; la riteniamo troppo ampia. Essa dovrebbe comprendere solo i sistemi che imparano e prendono decisioni in modo autonomo e non pure software, spesso già utilizzati da diversi anni, che non sono propriamente “intelligenti” ma piuttosto si basano sull’applicazione della logica.

Il CEP, nella sua recente analisi, ha fatto un’attenta valutazione delle proposte inserite nel progetto di legge di Bruxelles (COM (2021) 206); quali sono i principali risultati ai quali è giunto?

Le proposte della Commissione sono valutate in modo prevalentemente positivo, sia per originalità, sia per potenziale efficacia anche nel quadro in un confronto tecnologico di tipo globale, creando condizioni di parità per i fornitori UE e non UE. La fissazione di obblighi particolarmente rigorosi per i sistemi IA ad alto rischio è appropriata, poiché questi sistemi di intelligenza artificiale presentano maggiori pericoli. Inoltre, le richieste di trasparenza previste, anche indipendentemente dal rischio, dovrebbero essere in grado di aumentare l’accettabilità dell’IA da parte dei cittadini.

Si dovrebbe però specificare meglio come i fornitori possano soddisfare i requisiti richiesti ai sistemi IA ad alto rischio e l’uso di sistemi di IA. Inoltre, in presenza di sistemi che classificano le persone in base all’età, all’origine etnica, alla religione o all’orientamento sessuale o che sono persino in grado di attuare una categorizzazione biometrica e il riconoscimento delle emozioni, ci si dovrebbe chiedere se non sia necessario piuttosto prevedere requisiti più rigorosi di un semplice obbligo di informazione.

Le tecnologie basate sul riconoscimento facciale sono quelle che maggiormente hanno attirato l’attenzione di varie organizzazioni ed istituzioni perché fortemente invasive della privacy. Il regolamento europeo ha trovato su questo una linea convincente?

I sistemi biometrici di identificazione immediata a distanza, anche se utilizzati per scopi di contrasto al crimine, interferiscono di fatto con diversi diritti di privacy sanciti dall’UE. Il Regolamento ne limita quindi giustamente l’uso, stabilendo tutta una serie di precauzioni. Tuttavia esso non tutela sufficientemente il diritto alla protezione dei dati. In questo contesto, potrebbe non rappresentare una differenza significativa, per le persone coinvolte, se sono identificate in tempo reale o con un ritardo di alcune ore.

La vostra analisi solleva in modo particolare anche il tema del “social scoring”, quali sono le valutazioni del CEP su questo tema?

Le regole previste dal regolamento sui sistemi di “punteggio sociale” secondo il CEP non dovrebbero essere applicate solo nei confronti delle autorità pubbliche, come il regolamento già prevede, ma anche rese valide nei confronti dei fornitori privati. Perché anche questi – per esempio i social media e i fornitori di servizi cloud – possono raccogliere grandi quantità di dati personali ed attuare tecniche di “punteggio sociale” basate su di essi.