Intelligenza artificiale, gli Stati membri Ue chiedono “soluzioni giuridiche non vincolanti”

. [EPA/FILIP CANTANTE]

Quattordici Paesi hanno esposto la loro posizione sulla futura regolamentazione dell’IA, sollecitando la Commissione europea ad adottare un “approccio soft law”. I rischi e la potenziale opposizione della Germania.

In un documento di posizione guidato dalla Danimarca e firmato dai Ministri del settore digitale di altri Stati Ue, come Francia, Finlandia ed Estonia, i firmatari chiedono alla Commissione europea di incentivare lo sviluppo di tecnologie di intelligenza artificiale di prossima generazione, piuttosto che erigere barriere.

“Dovremmo ricorrere a soluzioni di soft law come l’autoregolamentazione, l’etichettatura volontaria e altre pratiche volontarie, nonché ad un solido processo di standardizzazione come complemento alla legislazione esistente che garantisca il rispetto degli standard essenziali di sicurezza e protezione”, si osserva nel documento, come riportato da Euractiv.

“Le soft law possono permetterci di imparare dalla tecnologia – prosegue il documento – e di identificare le potenziali sfide ad essa associate, tenendo conto del fatto che abbiamo a che fare con una tecnologia in rapida evoluzione”.

Insieme alla Danimarca, il testo è stato sottoscritto anche da Belgio, Repubblica Ceca, Finlandia, Francia, Estonia, Irlanda, Lettonia, Lussemburgo, Paesi Bassi, Polonia, Portogallo, Spagna e Svezia.

Intelligenza ad alto rischio

La chiamata dei 14 paesi viene dopo che la Commissione ha pubblicato a febbraio il Libro bianco sull’Intelligenza artificiale, che ha stabilito un futuro quadro normativo per la tecnologia di prossima generazione.

Di particolare rilievo, nei piani dell’esecutivo, c’è una serie di tecnologie “ad alto rischio” destinate alla supervisione futura, comprese quelle nei “settori critici” e quelle ritenute di “uso critico”.

Le tecnologie che rientrano nei settori critici comprendono la sanità, i trasporti, la polizia, il reclutamento e il sistema legale, mentre quelle ad uso critico includono rischio di morte, danni o lesioni, o con ramificazioni legali.

Potrebbero essere imposte sanzioni nel caso in cui alcune tecnologie non soddisfino tali requisiti.

All’epoca, la Commissione aveva anche avanzato l’idea di introdurre un “sistema di etichettatura volontario” per le tecnologie di IA non considerate ad alto rischio.

Questa opzione, in particolare, sembra essere gradita ai 14 sostenitori di un approccio più leggero alla regolamentazione dell’IA, che preferirebbero, tuttavia, adottare uno schema di etichettatura volontario per le tecnologie di IA di prossima generazione.

Intelligenza artificiale, l’UE prepara una legislazione contro gli abusi

Bruxelles (EuroEFE) – Dell’algoritmo che organizza i contenuti a ogni utente dei social network alla gestione di robot autonomi in missioni di guerra, il futuro sviluppo dell’ambiente di lavoro, economico e sociale sarà segnato dalla rivoluzione dell’intelligenza artificiale, che è …

Un tale strumento, afferma il documento programmatico, “renderebbe visibili ai potenziali utenti – come i cittadini, imprese e pubbliche amministrazioni – quali applicazioni si basano su IA e dati sicuri, responsabili ed etici e quindi di quali applicazioni ci si può fidare”.

La potenziale opposizione tedesca

Tuttavia, l’angolo politico più morbido auspicato oggi dalle nazioni potrebbe entrare in conflitto con alcune delle altre posizioni adottate dai paesi dell’Ue.

La Germania, che guida l’attuale presidenza, è preoccupata che la Commissione voglia imporre restrizioni solo alle applicazioni di IA ritenute ad alto rischio, e preferirebbe un campo molto più ampio per le tecnologie che sarebbero soggette a nuove regole.

Berlino teme inoltre che gli attuali piani dell’esecutivo Ue portino a una situazione in cui “alcuni usi ad alto rischio non sarebbero coperti fin dall’inizio se non rientrassero in determinati settori”.

Inoltre, la posizione della Germania di giugno ha anche fatto chiaro riferimento ai rischi per le libertà civili posti dalla tecnica di identificazione a distanza biometrica, rilevando come essi potrebbero portare a una potenziale violazione dei diritti fondamentali.

Il ministro degli Interni Horst Seehofer, che si è fatto carico delle preoccupazioni sollevate dalla società civile tedesca, ha dovuto in precedenza reggere i piani della Germania per l’introduzione di sistemi di riconoscimento facciale in tutto il Paese, a causa dei timori per il diritto alla privacy e anche di potenziali violazioni del Regolamento generale sulla protezione dei dati Ue, il cui articolo 4 (14) riguarda il trattamento dei dati biometrici.

L’Identificazione biometrica

Il documento di posizione non menziona l’uso dell’IA nell’identificazione biometrica, né affronta la questione precaria che regola l’uso delle tecnologie di riconoscimento facciale negli spazi pubblici – un’area per la quale la Commissione aveva precedentemente valutato se introdurre o meno nuove regole.

L’esecutivo dell’Unione, tuttavia, non ha escluso del tutto la possibilità di introdurre norme per la tecnologia di riconoscimento facciale.

Parlando con gli eurodeputati della Commissione per il mercato interno del Parlamento europeo, all’inizio di settembre, Kilian Gross della DG Connect della Commissione ha dichiarato che tutte le opzioni sono ancora sul tavolo.

Rispondendo a una domanda dell’eurodeputato Marcel Kolaja sulla possibilità di un potenziale divieto, Gross ha detto che “non escluderemo nessuna opzione, esamineremo tutte le opzioni e analizzeremo attentamente la legislazione esistente”.

Un seguito al Libro bianco della Commissione di febbraio sull’Intelligenza Artificiale, dove potrebbero essere introdotte nuove misure, è attualmente previsto per l’inizio del 2021.

La strategia Ue per il "decennio digitale": 5G, supercomputer e protezione dei dati

5G e 6G, fibra in vetro, banda larga, intelligenza artificiale, cloud e supercomputer sono queste le tecnologie su cui l’Europa deve puntare per affrontare quello che la presidente della Commissione europea Ursula von der Leyen ha definito come il “nuovo …