Intelligenza artificiale, l’UE prepara una legislazione contro gli abusi

La presidente della Commissione europea Ursula von der Leyen durante una visita all'AI Xperience Center di Bruxelles. [EPA-EFE/STEPHANIE LECOCQ / POOL]

Bruxelles (EuroEFE) – Dell’algoritmo che organizza i contenuti a ogni utente dei social network alla gestione di robot autonomi in missioni di guerra, il futuro sviluppo dell’ambiente di lavoro, economico e sociale sarà segnato dalla rivoluzione dell’intelligenza artificiale, che è entrata nel dibattito dell’Unione Europea per la necessità di porre dei paletti a livello legale.

Questa recente tappa della tecnologia riguarda la creazione di tutti quegli algoritmi che offrono la risposta automatica di una macchina a un compito. Vi è incluso anche il cosiddetto “machine learning”, l’apprendimento automatico di un computer nei suoi processi interni basati sulla gestione dei dati di massa.

Come nel caso del Regolamento generale sulla protezione dei dati (GDPR), in vigore da due anni e considerato uno dei fiori all’occhiello della legislazione comunitaria in materia di diritti digitali, l’intenzione è che i 27 Stati membri forniscano un quadro di riferimento per lo sviluppo non abusivo dell’IA nei prossimi anni.

La prima proposta di regolamento è della Commissione Affari Legali del Parlamento, che ha elaborato un testo iniziale incentrato sui principi etici sui quali l’IA dovrebbe essere sviluppata.

L’eurodeputato socialista Iban Garcia del Blanco è in prima linea nell’iniziativa e ritiene che sia “fondamentale” riunire la “strategia europea diffusa” che esiste oggi intorno a questa tecnologia “dirompente”.

“Dobbiamo rompere la barriera e cominciare a regolamentarla, perché ci troviamo di fronte a un fenomeno che ha bisogno di un quadro comune. Se non viene trattata correttamente, questa tecnologia può incorrere in criteri discriminatori nei confronti dei cittadini”, spiega Garcia nelle dichiarazioni a Efe.

Vigilanza contro i “criteri discriminatori”

Questi “criteri discriminatori” cui fa riferimento Garcia del Blanco si ritrovano nella concessione di prestiti bancari, nel rapporto tra cittadini e istituzioni e persino nelle “lacune nella proprietà dei dati e nella privacy nello spazio digitale”.

In alcuni paesi, come gli Stati Uniti, sono già stati rilevati “pregiudizi sociali” che segnano il funzionamento di vari algoritmi, creando tendenze razziste o sessiste nei processi automatici utilizzati dalle risorse umane o nella prevenzione del crimine.

Il mantenimento della “sovranità digitale”, fondamentale dato che i giganti tecnologici provengono da Paesi extracomunitari, e la distribuzione dei fondi per la ricerca saranno anch’essi sul tavolo dei legislatori.

“Nel nostro regolamento proponiamo di creare l’Agenzia Europea dell’Intelligenza Artificiale che armonizzerà le legislazioni nei vari Paesi e potrà risolvere i dubbi sull’attuazione di un regolamento comune. I progressi sono stati decisivi e rapidi, è importante evitare sovrapposizioni”, dice l’eurodeputato.

Si spera che questa prima iniziativa legislativa possa essere approvata dal Parlamento europeo “tra settembre e ottobre”, secondo i suoi calcoli.

L'UE dovrebbe sfruttare l'intelligenza artificiale o temerla?

Quando Ursula von der Leyen ha assunto l’incarico di nuovo Presidente della Commissione Europea ha detto che la sua amministrazione avrebbe dato priorità a due questioni: guidare l’Europa nella transizione energetica in risposta al cambiamento climatico e guidarla nella transizione …

I dati diventano oggetto di vendita

Dalla pubblicazione a febbraio del Libro bianco sull’intelligenza artificiale, che ha definito il quadro teorico e di dibattito per la futura legislazione, le organizzazioni per i diritti dei cittadini in campo digitale hanno preso posizione per prevenire gli “abusi”.

La più attiva in questo settore è la European Digital Rights (EDRi), una federazione che riunisce gli interessi di oltre 40 associazioni europee dalla sua sede centrale di Bruxelles.

A suo avviso, è necessario creare un quadro normativo per prevenire gli abusi da parte di istituzioni pubbliche e imprese, in particolare per quanto riguarda la “sorveglianza di massa” e la “mercificazione” dei dati personali.

“Un approccio deregolamentato rischia di facilitare la sorveglianza di massa e di compromettere la legislazione esistente in materia di protezione dei dati. Approfondirebbe anche le disuguaglianze esistenti attraverso l’uso dell’IA alle frontiere o nelle operazioni di polizia predittiva”, ha detto Sarah Chander, responsabile della politica di Intelligenza Artificiale di EDRi a Efe.

La proposta dell’ente all’UE copre due chiavi: la “necessità di un criterio chiaro” per quanto riguarda l’articolazione giuridica dell’intelligenza artificiale e, dall’altra parte, la delimitazione di tutte quelle pratiche giudicate inammissibili per i diritti fondamentali dei cittadini.

“Dobbiamo includere il divieto di quegli usi dell’IA che sono incompatibili con i diritti fondamentali, i valori europei e la legislazione comunitaria in vigore, compresa la sorveglianza biometrica, la discriminazione nell’accesso ai servizi pubblici o la creazione di armi autonome”, conclude.