Intelligenza artificiale, la Germania chiede regole più stringenti a livello Ue

La Germania chiede a Bruxelles di sviluppare un nuovo sistema di classificazione dell'intelligenza artificiale. [EPA-EFE/ALEXANDER BECHER]

Quattro mesi dopo la presentazione del “libro bianco” sull’intelligenza artificiale (IA) da parte della Commissione Europea, il governo tedesco ha dichiarato di essere ampiamente d’accordo con Bruxelles, ma vede la necessità di rafforzare la sicurezza. Il governo è particolarmente preoccupato per il fatto che solo le applicazioni di IA ad ‘alto rischio’ devono soddisfare requisiti speciali. Il report di EURACTIV Germania.

Secondo il “libro bianco” della Commissione europea, ci sono due criteri per le applicazioni di IA ad ‘alto rischio’.

In primo luogo, devono essere utilizzate in settori sensibili, come la salute, la sicurezza o la giustizia, e in secondo luogo, la loro applicazione concreta deve essere associata anche a rischi speciali, come la discriminazione, la lesione o il pericolo per la vita. Se un’applicazione di IA soddisfa entrambi i criteri, deve anche soddisfare requisiti speciali, ad esempio per quanto riguarda la conservazione dei dati o la supervisione umana.

Per la Germania, tuttavia, questi requisiti non sono sufficientemente ampi. Il governo propone quindi di rendere più severi sia la classificazione che i requisiti stessi.

Intelligenza artificiale, i dubbi sulla strategia dell'Unione Europea

Appena prima dello scoppio della pandemia in Europa la Commissione europea aveva presentato le linee-guida sull’intelligenza artificiale, alla ricerca di un equilibrio tra controllare i rischi etici e cavalcare le opportunità economiche. L’Europa è in ritardo rispetto a Stati Uniti, …

“Alto rischio”: estendere i criteri

I criteri per un’applicazione di IA ‘ad alto rischio’ dovrebbero essere “riconsiderati e, se necessario, estesi”, secondo il governo, che non non gradisce anche il fatto che le applicazioni rischiose debbano soddisfare requisiti speciali solo se utilizzate in settori sensibili.

“Di conseguenza, alcuni usi ad alto rischio non sarebbero coperti fin dall’inizio se non rientrassero in determinati settori”, ha aggiunto la dichiarazione. Il fatto che la stessa Commissione europea abbia indicato possibili casi eccezionali illustra la necessità di una regolamentazione più completa.

Più livelli di classificazione del rischio

Tuttavia, secondo Berlino, è il sistema di classificazione stesso che dovrebbe essere rivisto. È infatti messa in discussione l’adeguatezza delle normative UE già esistenti per le applicazioni di IA con un rischio inferiore a quello ‘alto’.

Pertanto, la Germania chiede a Bruxelles di sviluppare un nuovo schema di classificazione insieme agli Stati membri.

Esso dovrebbe prevedere diversi livelli di classificazione “per i rischi e i danni rilevanti, tenendo conto dell’entità e della probabilità di danno” verso “vita e salute, proprietà, processi democratici, ambiente, clima, clima, partecipazione sociale, sociale ed economica”.

Tuttavia, se un’applicazione di IA non dovesse portare rischi potenziali, non dovrebbe essere richiesto alcun controllo specifico.

Intelligenza artificiale, l’UE prepara una legislazione contro gli abusi

Bruxelles (EuroEFE) – Dell’algoritmo che organizza i contenuti a ogni utente dei social network alla gestione di robot autonomi in missioni di guerra, il futuro sviluppo dell’ambiente di lavoro, economico e sociale sarà segnato dalla rivoluzione dell’intelligenza artificiale, che è …

Requisiti troppo vaghi

In linea di principio, la Germania accoglie con favore i requisiti che, secondo la Commissione, devono essere soddisfatti dalle applicazioni di IA al di sopra di un certo potenziale di rischio. Ciò che Berlino vuole è vedere un miglioramento dei dettagli.

Ad esempio, la Germania chiede una definizione più concreta di quando i record di dati devono essere memorizzati su base obbligatoria.

Secondo la Commissione, ciò avviene in “determinati casi giustificati”, ma è troppo poco chiaro e deve essere specificato, così come l’attuale descrizione di un “periodo di tempo limitato e adeguato” durante il quale i record di dati devono essere conservati.

Anche l’aspetto della sicurezza dell’informazione, “intesa come protezione sia contro gli errori accidentali, ad esempio, dovuti all’input inatteso dell’utente, sia contro la manipolazione mirata da parte degli aggressori”, dovrebbe essere preso in maggiore considerazione rispetto al passato. In questo caso la Germania considera “indispensabile” un “elevato standard di sicurezza informatica obbligatorio per i sistemi di intelligenza artificiale ad alto rischio”.

Il governo vede anche la necessità di un miglioramento nel settore della supervisione umana dei sistemi di IA, dove Bruxelles deve ancora specificare “in quali circostanze quale forma di supervisione umana dovrebbe essere resa obbligatoria”.

Seehofer: dal riconoscimento facciale alla protezione dei dati

Inoltre, i tedeschi fanno diversi riferimenti all’uso dell’identificazione biometrica a distanza nel documento, che include tecnologie controverse come il riconoscimento facciale.

A gennaio, il ministro degli Interni Horst Seehofer aveva sperato di espandere l’uso del riconoscimento facciale in Germania, ma ha dovuto fare marcia indietro a seguito delle critiche da parte della società civile.

Il ministro degli Interni è stato coautore della dichiarazione, che sottolinea i “particolari rischi per le libertà civili dei cittadini” posti dall’identificazione biometrica a distanza e la “profondità di possibili invasioni verso beni protetti dai diritti fondamentali”.

Il testo chiarisce in due punti che il “come” e il “se” dell’utilizzo di tali tecnologie continua ad essere un argomento di dibattito.

In una prima versione del “Libro bianco”, una moratoria a livello europeo sul riconoscimento dei volti era ancora in fase di studio, ma è stata poi nuovamente respinta.

“È importante che le applicazioni di IA non siano solo innovative ma anche sicure. Al sicuro da attacchi hacker, al sicuro da sabotaggi, al sicuro da fughe di dati non autorizzate”, ha dichiarato Seehofer, secondo un comunicato stampa.

Riconoscimento biometrico, firmato il contratto per una banca dati europea

L’agenzia dell’Unione europea per la sicurezza interna e il controllo delle frontiere, eu-LISA, ha firmato un contratto quadro con Idemia e Sopra Steria per un nuovo sistema di corrispondenza biometrica che mira a creare una banca dati di impronte digitali …

Vestager: “no al predictive policing in Europa”

Anche la vicepresidente esecutiva della Commissione Margrethe Vestager è intervenuta sul tema dell’intelligenza artificiale, specificando che nell’Unione Europea non possono essere ammesse forme di sorveglianza preventiva.

“Se correttamente sviluppata e utilizzata, l’IA può fare miracoli, sia per la nostra economia che per la nostra società”, ha detto Vestager. “Ma può anche fare del male”, ha aggiunto, evidenziando come alcune applicazioni possano portare a discriminazioni, amplificando pregiudizi e pregiudizi nella società.

“Gli immigrati e le persone appartenenti a certi gruppi etnici potrebbero essere presi di mira da tecniche di sorveglianza preventiva che indirizzano tutta l’attenzione delle forze dell’ordine su di loro. Questo non è accettabile”, ha aggiunto.