Intelligenza Artificiale: la Francia punta all’allineamento con la nuova normativa Ue

La presidenza francese del Consiglio dell'UE sta facendo progressi sulla legge per l'Intelligenza Artificiale

La Francia sta proponendo diverse modifiche alla legge sull’intelligenza artificiale (IA) per garantire un migliore allineamento con il nuovo quadro legislativo, la legislazione dell’UE che regola la sorveglianza del mercato e le procedure di valutazione della conformità. Le modifiche riguardano anche la designazione delle autorità competenti e il database di IA ad alto rischio.

La presidenza francese, che guida i lavori in seno al Consiglio dell’UE, ha condiviso lunedì (25 aprile) un nuovo testo di accordo che sarà discusso con i rappresentanti degli altri Stati membri al gruppo di lavoro sulle telecomunicazioni giovedì.

Organismi valutatori e autorità competenti

Gli organismi valutatori giocheranno un ruolo cruciale nell’applicazione dell’AI Act (Artificial Intelligence Act), in quanto saranno designati dai paesi dell’UE per valutare la conformità dei sistemi di IA alle regole dell’UE prima che siano lanciati sul mercato.

Il nuovo testo si riferisce esplicitamente al regolamento UE che stabilisce i requisiti per l’accreditamento e la sorveglianza del mercato, ed è stato aggiunto un riferimento per il rispetto da parte di tali organismi degli obblighi di riservatezza.

É stato introdotto un nuovo articolo per spiegare le modalità di azione di questi organismi , in particolare per la valutazione della conformità dei sistemi ad alto rischio. Il nuovo articolo include disposizioni che indicano come gli organismi valutatori debbano collaborare con l’autorità di notifica, l’autorità nazionale incaricata di supervisionare l’intero processo di valutazione della conformità.

Se l’autorità nazionale ha “motivi sufficienti per ritenere” che un organismo valutatore non rispetti i suoi obblighi, deve prendere misure appropriate e proporzionate al livello di inadempienza, in particolare limitando, sospendendo o ritirando le notifiche per tale organismo.

Per diventare un organismo valutatori, sarà prevista una procedura di candidatura gestita dall’autorità competente. Le autorità nazionali potrebbero anche nominare degli organismi al di fuori di questa procedura, ma in tal caso, dovrebbero fornire alla Commissione e agli altri Stati membri dei documenti che dimostrino la competenza dell’organismo e spiegare in che modo quest’ultimo soddisferà i requisiti richiesti.

Allo stesso modo, la Commissione sarà in grado di contestare la competenza dell’organismo valutatore. È stata aggiunta una frase che dà all’esecutivo dell’UE il potere di sospendere, limitare o ritirare la notifica in alcuni casi, attraverso la legislazione secondaria, in linea con disposizioni simili al regolamento sui dispositivi medici.

Una parte importante dell’AI Act sarà portata avanti da standard armonizzati, che imporranno l’applicazione pratica di concetti generali del regolamento, come “equità” e “sicurezza”, all’Intelligenza Artificiale.

Nel momento in cui un sistema rispetta tali standard, si ritiene conforme al regolamento. Allo stesso modo, un nuovo articolo chiarisce che tale presunzione di conformità si applicherà anche agli organismi valutatori che seguono gli standard armonizzati.

Gli organismi valutatori in tutto il blocco europeo dovranno coordinare la loro procedura di valutazione della conformità all’interno di un gruppo di lavoro specifico, ma solo per i sistemi di IA ad alto rischio. Le autorità nazionali sorveglieranno che vi sia una collaborazione efficace tra gli enti.

C’è anche la possibilità che gli organismi di valutazione della conformità di un paese al di fuori dell’UE siano autorizzati da un’autorità nazionale a svolgere lo stesso lavoro di un organismo valutatori dell’UE, purché rispetti gli stessi requisiti stabiliti dal regolamento.

Flessibilità per i paesi

Il testo relativo alla designazione delle autorità nazionali competenti è stato modificato per dare ai paesi dell’UE una maggiore flessibilità nell’organizzazione del lavoro di tali organismi secondo i loro bisogni, a condizione che i principi di obiettività e di imparzialità vengano rispettati.

La presidenza francese propone di rendere meno prescrittive le disposizioni relative al modo in cui i paesi dell’UE devono informare la Commissione su tale processo di designazione.

Anche la parte che obbliga lo stanziamento di risorse adeguate per le autorità competenti è stata resa meno vincolante. La frequenza del rapporto sullo stato delle risorse delle autorità nazionali è stata ridotta.

Banca dati e reporting ad alto rischio

L’articolo sulla banca dati dell’UE dei sistemi di IA ad alto rischio ora copre anche i sistemi ad alto rischio testati in condizioni reali come parte di un sandbox normativo, dando mandato al “potenziale fornitore” di inserirlo nella banca dati.

Inoltre, un nuovo paragrafo indica che le informazioni nel database dell’UE sui sistemi ad alto rischio già sul mercato dovrebbero essere accessibili al pubblico. Per i sistemi che sono in fase di prova in un sandbox normativo, le informazioni non saranno rese pubbliche a meno che il fornitore non acconsenta a ciò. Il testo chiarisce che il database dell’UE non conterrà dati personali.

L’articolo sulla supervisione dei sistemi già lanciati sul mercato si applicherà solo ai sistemi ad alto rischio. È stata prevista una maggiore flessibilità per i fornitori nel raccogliere, documentare e analizzare i dati pertinenti necessari alla valutazione di conformità.

Il malfunzionamento dei sistemi ad alto rischio è stato escluso dagli obblighi di notifica degli incidenti gravi. Allo stesso tempo, il testo amplia la possibilità di rispettare tali obblighi di notifica per le istituzioni finanziarie che potrebbero essere incluse nel campo dei sistemi ad alto rischio in una fase successiva.