Intelligenza artificiale, i paletti Ue: vietati i sistemi pericolosi per la sicurezza o i diritti

Le aziende che non si conformeranno alle norme rischiano sanzioni fino al 6% del loro fatturato.

L’Unione europea vieterà tutti i sistemi ritenuti “una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”, come i sistemi di “punteggio sociale”, mentre le applicazioni ad alto rischio “saranno soggette a severi obblighi prima di poter essere immessi sul mercato”. Lo scrive la Commissione Ue nella sua proposta di legge sull’intelligenza artificiale, presentata il 21 aprile.

Si tratta del primo quadro normativo Ue per regolamentare l’impatto dell’Ai sulle vite degli europei che arriva dopo il libro bianco sull’intelligenza artificiale del febbraio 2020.  Secondo il documento, le aziende che non si conformeranno alle norme Ue potrebbero incorrere in sanzioni fino al 6% del loro fatturato.

I gradi di rischio

Le regole proposte dalla Commissione seguono un approccio basato sul rischio: inaccettabile, alto, limitato e minimo.

Saranno classificati come inaccettabili i sistemi di Ai considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone. In questa categoria saranno compresi i sistemi o le applicazioni di Ai che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.

Sono considerati ad alto rischio i sistemi in cui l’intelligenza artificiale è utilizzata: in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale di una persona; in componenti di sicurezza dei prodotti; nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione); in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito). Tra i sistemi ad alto rischio rientrano anche attività di contrasto che possono interferire con i diritti fondamentali delle persone, gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); amministrazione della giustizia e processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

I sistemi di intelligenza artificiale ad alto rischio non saranno vietati, ma saranno soggetti a obblighi rigorosi come: adeguati sistemi di valutazione e attenuazione dei rischi, elevata qualità dei set di dati che alimentano il sistema, registrazione delle attività, documentazione dettagliata sul sistema e sulle sue finalità, informazioni chiare e adeguate per l’utente,  appropriate misure di sorveglianza umana e elevato livello di robustezza, sicurezza e accuratezza.

In particolare, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

Saranno invece considerati a rischio limitato i sistemi di Ai con specifici obblighi di trasparenza: ad esempio quando utilizzano i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina. Applicazioni come videogiochi o filtri spam basati sull’Ai saranno considerati a rischio minimo.

In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione.

L’iter

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l’Ue. La Commissione continuerà parallelamente a collaborare con gli Stati membri per attuare le azioni annunciate nel piano.

“Queste regole rappresentano una svolta, che consentirà all’Ue di guidare lo sviluppo di nuove norme globali per garantire che l’Ai possa essere considerata affidabile. Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l’Ue rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all’innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell’Ue”, ha spiegato la vicepresidente della Commissione Margrethe Vestager.

“L’Ai è un mezzo, non un fine. Esiste da decenni, ma ora sono possibili nuove capacità alimentate dalla potenza di calcolo. Ciò offre un enorme potenziale in tanti settori diversi tra cui la sanità, i trasporti, l’energia, l’agricoltura, il turismo o la cibersicurezza, ma presenta anche una serie di rischi”, ha aggiunto Thierry Breton, commissario per il Mercato interno.