La Francia martedì (10 maggio) ha fatto circolare un nuovo dossier sull’AI Act (Regolamento sull’Intelligenza Artificiale) tra i diplomatici del Consiglio dell’Ue prima della una riunione del gruppo di lavoro
Il nuovo testo, visionato da EURACTIV, apporta significative modifiche al Comitato europeo per l’intelligenza artificiale, alla sorveglianza del mercato, alle linee guida e ai codici di condotta.
Gli Stati membri sono sembrati in generale soddisfatti della direzione data dalla presidenza francese al dossier, ha dichiarato un diplomatico dell’Ue a EURACTIV.
Comitato europeo per l’Intelligenza Artificiale
La struttura del Consiglio del Comitato è stata modificata per includere un rappresentante per ogni Stato membro, al posto dell’autorità di vigilanza nazionale. Questo rappresentante avrà un mandato di tre anni, con la possibilità di un solo rinnovo.
Otto esperti indipendenti sono stati aggiunti al Consiglio, due per ogni categoria (Pmi e start-up, grandi aziende, mondo accademico e società civile). Tali esperti verranno scelti dai rappresentanti nazionali “in un processo di selezione equo e trasparente”, si legge nel dossier.
Il garante europeo per la protezione dei dati da membro a pieno titolo è stato relegato al ruolo di semplice osservatore. Anche il ruolo della Commissione, in veste di partecipante senza diritto di voto, è stato significativamente ridimensionato.
Nella proposta francese, il regolamento interno può essere adottato solo dai rappresentanti nazionali con la maggioranza dei due terzi. Queste regole procedurali dovrebbero definire il processo di selezione degli esperti indipendenti, oltre alla selezione, al mandato e ai compiti del presidente del Consiglio che dovrà essere un rappresentante nazionale.
Il Consiglio avrebbe la possibilità di istituire sottogruppi temporanei o permanenti su argomenti specifici, in cui i rappresentanti delle imprese, della società civile, delle persone interessate, dei ricercatori, delle organizzazioni di standardizzazione e degli organismi notificati potrebbero essere invitati come osservatori.
Il Consiglio potrà fornire, su richiesta, pareri alla Commissione su qualsiasi questione relativa all’attuazione del regolamento, compreso l’aggiornamento degli allegati sulla definizione dell’Intelligenza Artificiale e l’elenco dei sistemi considerati ad alto rischio, la preparazione della legislazione secondaria e l’elaborazione degli orientamenti.
Uno dei suoi compiti consiste nell’armonizzare le pratiche amministrative a livello nazionale sulla deroga alla procedura di valutazione di conformità, la funzione delle sandbox regolamentari e test in condizioni reali.
Linee guida
È stato introdotto un nuovo articolo che richiede alla Commissione europea di fornire linee guida di propria iniziativa o su richiesta del consiglio su come applicare il regolamento sull’IA, in particolare in termini di conformità con i requisiti per i sistemi ad alto rischio, le pratiche vietate e come mettere in atto modifiche significative ai sistemi esistenti.
La guida riguarda anche l’identificazione dei criteri e dei casi d’uso per i sistemi di IA ad alto rischio, le modalità per attuare gli obblighi di trasparenza, e per integrare il regolamento sull’IA con le altre normative Ue.
“Nel rilasciare tali orientamenti, la Commissione presterà particolare attenzione alle esigenze delle Pmi, comprese le start-up e i settori più interessati dal presente regolamento”, si legge nel testo.
Sorveglianza del mercato
La modifica in questa parte del testo è “destinata a chiarire i poteri delle autorità di sorveglianza del mercato e la modalità in cui verranno esercitati, così come la misura in cui dovrebbero avere accesso ai dati e alle informazioni pertinenti, in particolare al codice sorgente”.
Alle autorità di sorveglianza del mercato dovrebbe essere concesso l’accesso completo al codice sorgente di un sistema di IA ad alto rischio nel caso in cui vi sia una “richiesta motivata”, cioè quando il codice risulta indispensabile per valutare la conformità del sistema data l’insufficienza di dati e documenti forniti.
Il testo del dossier indica le autorità di sorveglianza del mercato come responsabili della supervisione dei sistemi ad alto rischio utilizzati dagli istituti finanziari. Le autorità nazionali dovranno informare senza indugio la Banca centrale europea su qualsiasi questione di rilievo per i suoi compiti di vigilanza.
Inoltre, è stata significativamente modificata la procedura per segnalare agli altri stati membri e alla Commissione le misure adottate contro i sistemi di IA risultati non conformi alla normativa. Questi casi ora riguardano i sistemi non conformi alla restrizione sulle pratiche proibite, i sistemi ad alto rischio e i loro requisiti e il mancato rispetto degli obblighi di trasparenza stabiliti per i deep-fake, oltre al riconoscimenti degli stati emotivi.
In generale, la Commissione e i paesi dell’Ue avranno tre mesi di tempo per opporsi a tali azioni. Nel caso di sospette violazioni del divieto di pratiche proibite, il termine è stato ridotto a 30 giorni.
Nel caso in cui venga sollevata un’obiezione, la Commissione entra in consultazione con le autorità nazionali competenti. L’esecutivo Ue dovrà decidere entro nove mesi se la decisione dell’autorità nazionale è giustificata, mentre per le pratiche proibite il termine è di 60 giorni.
La Commissione può annullare la decisione dell’autorità. Tuttavia, se la Commissione dovesse ritenere appropriate le misure stabilite, tutte le altre autorità dovranno replicarle, anche se necessario ritirando il sistema di IA dal mercato.
Codici di condotta
Nella parte relativa ai codici di condotta viene chiarito che questi strumenti non sono obbligatori per i sistemi di IA che non rientrano nella categoria ad alto rischio. I codici di condotta sono inoltre stati ampliati per ricomprendere gli obblighi degli utenti dei sistemi di IA.