Intelligenza Artificiale, i deputati europei hanno approvato le loro raccomandazioni sulla regolamentazione

La presidenza francese del Consiglio dell'UE sta facendo progressi sulla legge per l'Intelligenza Artificiale

Intelligenza artificiale nell’era digitale (AIDA), un comitato speciale istituito nel settembre 2020 per analizzare l’impatto orizzontale dell’intelligenza artificiale sulla società, ha terminato i suoi lavori con un rapporto di iniziativa, adottato martedì 22 marzo.

Il rapporto AIDA ha avuto un inizio difficile, dal momento che i gruppi politici progressisti hanno criticato il relatore conservatore, Axel Voss, per l’impostazione generale del documento, considerato troppo incentrato sulla concorrenza internazionale, dove l’UE era inevitabilmente rimasta indietro.

Dopo un’importante riformulazione, la relazione è stata adottata a larga maggioranza in commissione parlamentare, pur mantenendo l’enfasi originaria sui potenziali vantaggi della tecnologia emergente.

Impostazione internazionale

“L’UE ora ha l’opportunità unica di promuovere un approccio all’IA affidabile, incentrato sull’uomo e basato sui diritti fondamentali, che gestisca i rischi sfruttando appieno i vantaggi che l’IA può apportare all’intera società, compresi l’assistenza sanitaria, la sostenibilità, il mercato del lavoro, la competitività e la sicurezza”, ha affermato Voss.

A livello internazionale, la relazione sottolinea l’importanza che l’UE svolga un ruolo di normatore sulla scena mondiale, sottolineando la necessità di promuovere la competitività della scena tecnologica europea per garantire che l’UE possa plasmare gli standard internazionali con i suoi i valori.

Allo stesso tempo, un avvertimento sul fatto che l’Europa potrebbe diventare una “colonia digitale” della Cina è stato rimosso. L’attenzione si è spostata sul lavoro con partner democratici che la pensano allo stesso modo.

“La nostra futura competitività globale nel campo digitale dipende dalle regole che stabiliamo oggi. E queste regole devono essere conformi ai nostri valori: democrazia, stato di diritto, diritti fondamentali e rispetto dell’ordine internazionale basato sulle regole”, ha affermato il presidente dell’AIDA Dragoș Tudorache, che è anche correlatore per l’AI Act for the civil liberties committee (LIBE).

Potenziali vantaggi

Una parte cruciale della relazione è la tabella di marcia per l’IA, una serie di raccomandazioni politiche per il 2030 su quadro normativo, mercato unico, sostenibilità, talento, ricerca, e-governance, salute, strategia industriale, applicazione della legge, sicurezza informatica e uso militare dell’AI.

La questione di garantire un accesso adeguato ai dati appare più volte nel testo. Tuttavia, gli appelli di Voss a riformare il regolamento generale sulla protezione dei dati (GDPR) dell’UE sono stati rimossi su insistenza dei deputati di centrosinistra. La formulazione è stata allineata con la strategia europea dei dati.

“Siamo riusciti a ottenere un pronunciamento forte sull’accesso di ricercatori, start-up e PMI all’economia dell’IA, compresi i dati che la addestrano”, ha affermato l’eurodeputato dei Verdi Damian Boeselager. “Bisogna evitare che la concentrazione del mercato presente oggi nell’economia dei dati si estenda all’economia dell’IA”.

I deputati di tutte le formazioni hanno insistito sull’aumento del vantaggio competitivo dell’Europa nella ricerca, chiedendo maggiori investimenti in ricerca e sviluppo per attrarre e trattenere i talenti dell’IA.

Il rapporto supporta anche la creazione di sandbox regolamentari, che consentono lo sviluppo di sistemi di IA innovativi e modelli di business sotto la supervisione di un’autorità di regolamentazione.

Potenziali rischi

I potenziali rischi dell’IA sono stati al centro di un evento ospitato da EURACTIV la scorsa settimana, che ha delineato gli usi critici della tecnologia nel sistema giudiziario, nella gestione algoritmica dei lavoratori e nel controllo delle frontiere. In queste situazioni con evidenti squilibri di potere, i sistemi di IA potrebbero portare ad abusi e alla riproduzione di pregiudizi esistenti.

“Dobbiamo scrollarci di dosso l’immagine che la tecnologia sia in qualche modo neutra. Non lo è. L’IA sta replicando tutte le forme di discriminazione, razzismo e pregiudizio”, ha affermato durante l’evento Laure Baudrihaye-Gérard, direttrice legale per l’Europa dell’ong Fair Trials.

Sebbene il rapporto AIDA si concentri sui potenziali benefici dell’IA, vengono menzionati anche i possibili rischi sistemici. Per le democrazie, la minaccia si vede nello squilibrio di potere a favore delle piattaforme digitali che potrebbero minare l’autonomia dei cittadini. Nelle mani di regimi autoritari, i sistemi di intelligenza artificiale potrebbero portare a una sorveglianza di massa, alla classificazione dei cittadini e a restrizioni alla loro libera circolazione.

“L’identificazione biometrica remota in spazi accessibili al pubblico richiede la creazione di enormi infrastrutture tecniche e, una volta che inizieremo a costruirle, esisterà. Sarà come il vento che non possiamo fermare”, ha affermato durante l’evento Wojciech Wiewiórowski, Garante europeo della protezione dei dati.

Per quanto riguarda l’uso militare dell’IA, in particolare per lo sviluppo di armi autonome, i deputati hanno chiesto un accordo internazionale sull’uso responsabile dell’IA in seno alle organizzazioni intergovernative come le Nazioni Unite o l’OCSE.

“Solo fornendo un modello dell’UE per l’IA con le garanzie appropriate per i cittadini, riducendo al minimo i rischi di abuso e monitoraggio indebito, otterremo la fiducia del pubblico”, ha affermato il deputato progressista Brando Benifei, correlatore per la legge sull’IA nel comitato del mercato interno (IMCO).

Conseguenze più ampie

Diversi funzionari parlamentari hanno sottolineato che la relazione tra il rapporto AIDA e la legge sull’IA non deve essere esagerata. Le relazioni di iniziativa arrivano solo al punto di inviare un messaggio politico, mentre per il regolamento sull’IA sono attese trattative molto più dure.

Voss, in particolare, è stato accusato di aver tentato di collegare i due fascicoli. È riuscito comunque a leggere il suo testo sull’approccio basato sul rischio, sui sandbox normativi e sulle applicazioni di intelligenza artificiale per le forze dell’ordine, ma la spinosa questione del riconoscimento facciale è stata tenuta fuori.