Intelligenza artificiale, la Commissione Ue intende vietare la “sorveglianza indiscriminata”

La Commissione europea cercherà di dichiarare fuori legge i sistemi di intelligenza artificiale utilizzati per operazioni di “sorveglianza indiscriminata”, come parte dei nuovi divieti che saranno presentati la prossima settimana.

Come parte del progetto di regolamento su un “approccio europeo per l’intelligenza artificiale”, seguito da EURACTIV, l’esecutivo UE propone di vietare le tecnologie IA utilizzate per “la sorveglianza indiscriminata applicata in modo generalizzato a tutte le persone fisiche senza differenziazione”.

Il testo dettaglia tali metodi di sorveglianza come quelli che includono “il monitoraggio e il tracciamento delle persone fisiche in ambienti digitali o fisici, così come l’aggregazione e l’analisi automatizzata dei dati personali da varie fonti”.

Inoltre, la Commissione prevede divieti contro l’uso di applicazioni di intelligenza artificiale che violano i valori dell’Unione o i diritti umani. Questi includono i sistemi di IA che manipolano il comportamento umano e i sistemi di IA predittiva che mirano alle vulnerabilità.

Le multe per le violazioni di questi divieti potrebbero arrivare fino al 4% del fatturato annuo globale di un’azienda.

Tuttavia, la bozza, che è stata riportata per la prima volta da Politico martedì 13 aprile, stabilisce che tali divieti non si applicheranno ai governi e alle autorità pubbliche dell’UE quando vengono eseguiti “al fine di salvaguardare la sicurezza pubblica”.

Ciò significa che i governi dell’UE potrebbero in futuro giustificare l’uso di applicazioni IA intrusive per motivi di sicurezza.

La bozza vieta anche la pratica del “social scoring” nelle applicazioni IA, tecnologia resa tristemente famosa dal sistema centralizzato di rating sociale della Cina.

Nel frattempo, le applicazioni IA “ad alto rischio” che potrebbero rientrare nel campo di applicazione dei nuovi requisiti di valutazione della conformità di terze parti includono quelle “utilizzate per l’identificazione biometrica a distanza delle persone in spazi accessibili al pubblico”, che coprirebbe anche per definizione la tecnologia di riconoscimento facciale – un’area per la quale la Commissione aveva precedentemente riflettuto in relazione a un divieto temporaneo.

Alcune applicazioni ad alto rischio includono anche quelle impiegate come componenti di sicurezza in “reti di infrastrutture pubbliche” essenziali, tra cui strade, fornitura di acqua, gas ed elettricità.

Ci sono inoltre requisiti di conformità di autovalutazione per alcune tecnologie utilizzate nei servizi di prima risposta alle emergenze, processi di reclutamento e sistemi “utilizzati per determinare l’accesso o assegnare le persone agli istituti di istruzione e formazione professionale”.

Altrove, la Commissione ha anche delineato l’istituzione di un “Comitato europeo sull’intelligenza artificiale”, composto da un rappresentante per ciascuno dei 27 paesi dell’UE e un rappresentante della Commissione, così come il garante europeo della protezione dei dati.

Il comitato avrà il compito di “emettere raccomandazioni e pareri pertinenti alla Commissione, per quanto riguarda l’elenco delle pratiche vietate dell’intelligenza artificiale e l’elenco dei sistemi IA ad alto rischio”.

La proposta, che dovrebbe essere presentata dal vicepresidente esecutivo della Commissione per il digitale, Margrethe Vestager, il 21 aprile, arriva come un follow-up del Libro bianco della Commissione sull’intelligenza artificiale dello scorso anno, che ha gettato le basi per nuove regole contro la tecnologia IA considerata ad “alto rischio”.

Più recentemente, una lettera ottenuta da EURACTIV ha descritto come la presidente della Commissione europea Ursula von der Leyen abbia assicurato ai deputati che la Commissione “andrà oltre” sull’introduzione di regole più solide per le tecnologie di intelligenza artificiale che pongono un rischio per i diritti fondamentali.

Questo dopo che una lettera trasversale di 116 deputati ha chiesto alla Commissione di affrontare i rischi per i diritti fondamentali sollevati dalle applicazioni IA ad alto rischio. Alla pubblicazione del nuovo regolamento della Commissione sull’IA la prossima settimana, i legislatori dell’UE avranno ancora una volta la possibilità di esprimere le loro opinioni sulla posizione dell’UE verso le tecnologie IA.