Codice di condotta Ue sulla disinformazione, le piattaforme si preparano ad assumersi nuovi impegni

Il Codice di condotta sulla disinformazione è stato rivisto con impegni più forti su come affrontare la disinformazione online. [Feng Yu/Shutterstock]

L’Unione europea intensifica le azioni in contrasto alla disinformazione. Il nuovo Codice di condotta richiederà alle aziende tech una serie di impegni relativi alla pubblicità online, alla lotta alle pratiche manipolative dell’opinione, alla trasparenza e all’accesso ai dati. Le maggiori piattaforme digitali sono pronte a firmare e ad assumere nuove responsabilità.

Nel maggio 2021, la Commissione europea ha presentato le sue linee guida sul rafforzamento del Codice di condotta sulla disinformazione, basandosi sulla valutazione dei punti deboli. Il nuovo codice è in fase di elaborazione da allora, ma è stato ripetutamente ritardato per vari motivi.

In primo luogo, le piattaforme online volevano vedere che fine avrebbe fatto il Digital Services Act (Dsa), il regolamento dell’Ue sulla moderazione dei contenuti, in quanto strumento di soft law strettamente collegato al regolamento vincolante.

In secondo luogo, l’elenco dei firmatari è stato significativamente esteso dai social media come Twitter, TikTok e Facebook a molti altri attori diversi, come il gruppo di difesa Avaaz e l’app di messaggistica WhatsApp.

Il nuovo codice, visionato da EURACTIV prima della sua pubblicazione prevista nella giornata di giovedì (16 giugno), comprende una serie di impegni volontari che diventeranno un codice di condotta ai sensi della Dsa per le piattaforme online molto grandi, ovvero quelle con almeno 45 milioni di utenti nell’Ue. Per gli attori più piccoli, l’approccio è più flessibile, in quanto potranno scegliere quali impegni desiderano sottoscrivere in base ai loro servizi e alle loro capacità.

Digital Services Act, il Parlamento Ue boccia l'ultima versione del testo

La maggioranza degli eurodeputati ha respinto l’ultima versione del Digital Services Act (Dsa) aggiornata dopo l’accordo informale raggiunto ad aprile, perché secondo loro alcune parti cruciali del testo finale non erano state concordate.

I rappresentanti del Partito popolare europeo (Ppe), Renew …

Pubblicità

I firmatari che offrono servizi pubblicitari si impegnano a mettere in atto politiche di demonetizzazione della disinformazione e di repressione della pubblicità contenente disinformazione. Ad esempio, migliorando il controllo sui contenuti monetizzati e il processo di revisione degli annunci.

Ogni impegno è accompagnato da una serie di requisiti qualitativi e quantitativi per la rendicontazione. Ad esempio, i firmatari dovranno rivelare quali politiche sono state applicate e fornire il numero di azioni intraprese per farle rispettare, suddivise per Paese o lingua.

Il codice prevede anche la collaborazione con gli attori rilevanti che fanno parte della catena di valore della monetizzazione online, come agenzie di fact-checking, inserzionisti, associazioni di categoria, siti web di e-commerce e sistemi di crowd-funding.

Pubblicità politica

Per quanto riguarda la pubblicità politica, i firmatari si impegnano ad adottare una definizione in linea con quella inclusa nella proposta dell’Ue per la regolamentazione delle pubblicità politiche. Se entro un anno dall’entrata in vigore del codice non si sarà ancora trovato un accordo su tale definizione, la task force descritta di seguito stabilirà una definizione di lavoro.

I firmatari si impegneranno ad adottare un approccio coerente nei confronti degli annunci politici e di quelli relativi a temi specifici, a fornire un’etichettatura chiara sulla loro natura, a fornire informazioni trasparenti agli utenti, a mettere in atto sistemi di verifica e a pubblicare le loro politiche in materia.

Inoltre, il codice prevede la creazione di archivi per gli annunci politici e di natura tematica, che devono essere facilmente accessibili agli utenti e ai ricercatori sulla base di una serie di funzionalità minime.

Disinformazione, i governi chiedono un maggiore impegno delle piattaforme contro le fake news

I ministri delle telecomunicazioni dell’Ue hanno chiesto alle piattaforme digitali di assicurarsi che le loro capacità di fact-checking e lotta alla disinformazione siano adeguate nell’Europa centrale, dove è molto attiva la guerriglia ibrida russa.

All’interno del vertice informale dei ministri della …

Onestà del servizio

Un altro impegno prevede un’interpretazione comune dei comportamenti manipolativi ritenuti inammissibili. Ad esempio, la creazione di account falsi, l’hacking, l’impersonificazione, i deep fake, il fake engagement, gli Adv degli influencer non palesati e le azioni manipolative coordinate.

I firmatari che gestiscono sistemi di Intelligenza artificiale o che diffondono contenuti generati dall’IA, come i deep fake, dovranno rispettare i requisiti dell’Artificial Intelligence Act. Lo scambio di informazioni è ancora una volta considerato un punto essenziale per identificare i tentativi di operazioni di influenza attraverso diverse piattaforme.

Responsabilità degli utenti

Per quanto riguarda la responsabilizzazione degli utenti, i firmatari dovrebbero intensificare gli sforzi nell’area dell’alfabetizzazione mediatica, adottare pratiche di progettazione sicure nei loro sistemi e rendere accessibili i loro criteri di suggerimento.

Inoltre, dovranno fornire agli utenti strumenti per valutare l’accuratezza delle fonti attraverso organizzazioni di fact-checking, rendendo riconoscibili le fonti autorevoli e dando la possibilità di segnalare contenuti fuorvianti. Le app di messaggistica, in particolare, dovranno supportare la valutazione critica degli utenti senza compromettere la crittografia.

Gli utenti i cui contenuti sono stati influenzati dalla moderazione dei contenuti potranno appellarsi contro le decisioni e i loro reclami dovranno essere gestiti in modo rapido ed equo.

Responsabilità dei ricercatori

I firmatari si impegnerebbero a fornire ai ricercatori un accesso automatizzato ai dati non personali e anonimizzati. Tale accesso verrebbe fornito da un organismo indipendente che controllerà i ricercatori e le loro proposte di ricerca.

Responsabilità dei fact-checker

I firmatari dovranno creare un quadro di cooperazione con la comunità dei fact-checker in modo trasparente, non discriminatorio e finanziariamente sostenibile. Il lavoro dei fact-checker dovrebbe essere pienamente integrato nei servizi della piattaforma in tutti gli Stati membri e in tutte le lingue dell’Ue.

Centro di trasparenza

L’implementazione del Codice sarà resa disponibile al pubblico attraverso un centro per la trasparenza.

Task force permanente

Al centro della governance del codice rinnovato c’è una task force permanente che includerà tutti i firmatari, i rappresentanti del Gruppo dei regolatori europei per i servizi di media audiovisivi (Erga) e dell’Osservatorio europeo dei media digitali (Edmo) e il Servizio europeo per l’azione esterna. La Commissione europea presiederà la task force, che prenderà decisioni per consenso.

Monitoraggio

La firma del codice sarà seguita da un periodo di attuazione di sei mesi. Un mese dopo, i firmatari dovranno fornire una relazione di riferimento che illustri come hanno messo in atto gli impegni presi.

Entro nove mesi dalla firma, i firmatari dovranno presentare un elenco di indicatori strutturali per misurare l’efficacia del codice. In situazioni particolari, come elezioni o crisi, la Commissione potrebbe richiedere ai firmatari relazioni specifiche.

Come previsto dal Dsa, le piattaforme online di grandi dimensioni si impegnano a effettuare audit esterni sull’applicazione del codice.