Intelligenza artificiale, i dubbi sulla strategia dell’Unione Europea

La Presidente della Commissione Europea Ursula von der Leyen interagisce con l'invenzione "Do you Speak Robot?", durante una visita al AI Xperience Center presso il VUB (Vrije Universiteit Brussel) di Bruxelles, Belgio, 18 febbraio 2020. EPA-EFE/STEPHANIE LECOCQ / POOL

Appena prima dello scoppio della pandemia in Europa la Commissione europea aveva presentato le linee-guida sull’intelligenza artificiale, alla ricerca di un equilibrio tra controllare i rischi etici e cavalcare le opportunità economiche. L’Europa è in ritardo rispetto a Stati Uniti, e ad altri attori globali ma potrebbe dare un indirizzo nuovo agli sviluppi della IA.

“L’Unione europea deve essere capace di fare le sue scelte, basate sui propri valori, rispettando le proprie regole. Questo è quello che chiamo un’Europa tecnologicamente sovrana”, aveva scritto la presidente della Commissione europea, Ursula von der Leyen, sul suo profilo Twitter in occasione della presentazione della strategia digitale Ue.

Dal sito ufficiale della Commissione si legge che “L’UE possiede tutte le potenzialità per diventare il leader mondiale in materia di intelligenza artificiale sicura. Elaborando un solido quadro normativo basato sui diritti umani e sui valori fondamentali, l’UE può sviluppare un sistema di IA di cui beneficeranno i cittadini, le imprese e i governi”.

Nel contempo, la Commissione europea aveva lanciato un dibattito pubblico sul ruolo del riconoscimento facciale, uno strumento che può servire a passare più facilmente i controlli di sicurezza e di dogana in un aeroporto o sbloccare un telefono portatile; ma può anche mettere in pericolo il diritto alla privacy. In Cina, per esempio, è ormai molto utilizzato.

Una serie di stakeholder hanno risposto ai piani dell’UE di costruire un quadro etico per lo sviluppo e la diffusione delle tecnologie di Intelligenza Artificiale di prossima generazione, evidenziando preoccupazioni che vanno dall’uso della tecnologia biometrica al funzionamento del software Automated Decision Making (ADM).

Domenica (14 giugno), era l’ultimo giorno utile per presentare dei feedback sul Libro Bianco della Commissione Europea sull’Intelligenza Artificiale, pubblicato a febbraio.

Nel documento si chiedeva che le tecnologie di IA ad alto rischio di abuso fossero soggette a nuovi requisiti, destinando una serie di tecnologie “ad alto rischio” ad un ulteriore supervisione (quelle che hanno a che fare con la sanità, i trasporti, la polizia, il reclutamento e il sistema giuridico).

L'UE dovrebbe sfruttare l'intelligenza artificiale o temerla?

Quando Ursula von der Leyen ha assunto l’incarico di nuovo Presidente della Commissione Europea ha detto che la sua amministrazione avrebbe dato priorità a due questioni: guidare l’Europa nella transizione energetica in risposta al cambiamento climatico e guidarla nella transizione …

Le posizioni in campo

Nella consultazione pubblica il gruppo Access Now ha rinnovato l’invito a vietare esplicitamente l’uso di alcune tecnologie, tra cui software di sorveglianza biometrica indiscriminata, applicazioni per l’analisi delle emozioni facciali e l’uso di sistemi di IA tra le frontiere.

Inoltre, il gruppo ha chiesto agli Stati membri dell’UE di istituire registri pubblici dei sistemi di Intelligenza Artificiale e di Automazione del processo decisionale utilizzati dal settore pubblico e, in alcuni casi, dal settore privato.

Sul fronte opposto, il gruppo di ricerca The Center for Data Innovation ha colpito l’intenzione della Commissione di produrre valutazioni di conformità per le applicazioni di Intelligenza Artificiale ad alto rischio, definendole “onerose e controproducenti”.

Questa è una linea sposata anche dalla Computer and Communications Industry Association che ha chiesto che si evitino “lunghe e burocratiche procedure di approvazione”.

Nel frattempo, l’Organizzazione europea dei consumatori BEUC ha dichiarato che l’approccio “basato sul rischio” dovrebbe essere ampliato e che l’UE dovrebbe adottare una posizione più inclusiva, mentre l’approccio precauzionale dovrebbe essere attuato quando si legifera per l’IA e l’ADM più in generale.

Nel frattempo, un gruppo di città, think tank e istituti di ricerca, a cui si è aggiunta la società di software open-source Mozilla, ha presentato una lettera alla Commissione evidenziando le preoccupazioni relative all’approvvigionamento di alcune applicazioni di IA e le questioni di trasparenza circa l’uso di alcune tecnologie appaltate per l’uso da parte delle pubbliche amministrazioni.

Riconoscimento biometrico, firmato il contratto per una banca dati europea

L’agenzia dell’Unione europea per la sicurezza interna e il controllo delle frontiere, eu-LISA, ha firmato un contratto quadro con Idemia e Sopra Steria per un nuovo sistema di corrispondenza biometrica che mira a creare una banca dati di impronte digitali …