Deepfake, l’Austria propone un piano d’azione per contrastarli mentre anche l’Europa discute sulla materia

Si tratta di un "rischio considerevole per la politica di sicurezza, perché l'azione di manipolazione operata dall'intelligenza artificiale è difficile da dimostrare o da rintracciare", ha dichiarato il ministro degli Interni Gerhard Karner in una conferenza stampa mercoledì. [Shutterstock]

Il governo austriaco ha pubblicato mercoledì 25 maggio un piano d’azione per combattere i deepfake, con l’obiettivo di affrontare al meglio la disinformazione e l’incitamento all’odio. Anche a livello europeo, diversi testi legislativi cercano di affrontare questo fenomeno in forte crescita negli ultimi anni.

L’avanzata della digitalizzazione, accelerata dalla pandemia, sta portando ad un rapido aumento dei deepfake, un tipo di media alimentati dall’intelligenza artificiale che manipolano immagini e video esistenti per diffondere notizie false su fatti mai realmente accaduti.

Si tratta di un “rischio considerevole per la politica di sicurezza europea, in quanto l’azione di manipolazione operata dall’intelligenza artificiale è difficile da dimostrare o da rintracciare”, ha dichiarato mercoledì il ministro degli Interni austriaco Gerhard Karner in una conferenza stampa.

Già alla fine del 2020 è stata avviata una task force interministeriale sulla questione, che coinvolge la Cancelleria federale austriaca, il Ministero della Giustizia, il Ministero della Difesa e il Ministero degli Affari Esteri.

Questa task force ha analizzato il tema e ha portato alla pubblicazione di un piano operativo, che prevede quattro campi d’azione: “Strutture e processi”, “Governance”, “Ricerca e sviluppo” e “Cooperazione internazionale”. La sensibilizzazione sul tema verrà ampliata e rafforzata tra i cittadini.

Il governo austriaco ha sottolineato che la regolamentazione dei video deepfake deve tener conto dei diritti fondamentali e della persona e che occorre prestare particolare attenzione alla protezione della libertà di espressione e della libertà artistica.

“I deepfake vengono utilizzati per manipolare l’opinione pubblica e i processi democratici, o per colpire individui attraverso manifestazioni di odio in rete”, ha dichiarato il Ministro della Giustizia, Alma Zadic.

Il potenziale dei deep fake

Il Parlamento austriaco ipotizza che i deepfake vengano pubblicati ogni giorno, in quanto per crearli non è più necessario un software esteso. Il professor Hany Farid dell’Università di Berkeley prevede addirittura che nei prossimi tre-cinque anni non sarà più possibile distinguere il falso dal vero.

Sebbene non tutti i deepfake siano di natura dolosa – possono essere utilizzati anche per scopi legittimi, come la satira – la maggior parte di essi viene utilizzata per danneggiare la reputazione delle persone attraverso falsi video pornografici e diffamatori.

In un rapporto della startup olandese Sensity, questo tipo di utilizzo costituisce oltre il 90% dei casi e il numero di video generati raddoppia ogni sei mesi dalla fine del 2018 al 2020.

Oltre al materiale pornografico, che colpisce maggiormente le donne, i deepfake possono essere pericolosi anche in ambito politico. Nel marzo 2022 è stato diffuso un video manipolato del presidente ucraino Volodymyr Zelenskyy, in cui il presidente sembra chiedere all’esercito nazionale ucraino di arrendersi.

Uno studio del 2021 del Panel for the Future of Science and Technology ha rilevato che “i rischi associati ai deepfake possono essere di natura psicologica, finanziaria e sociale, e il loro impatto può variare dal livello individuale a quello sociale”.

Lo studio raccomanda quindi ai responsabili politici di prevenire e affrontare le conseguenze negative derivanti della tecnologia e di incorporare le opzioni politiche nei rispettivi quadri legislativi.

Legislazione europea per affrontare i deepfake

In risposta, diversi dossier legislativi europei stanno affrontando la questione dei deepfake, come la legge sui servizi digitali (DSA) e quella sull’intelligenza artificiale (AI).

La bozza di report del Parlamento europeo sull’AI Act del 20 aprile ha sottolineato “l’emergere di una nuova generazione di media manipolati digitalmente, noti anche come deepfake”. A causa del potenziale danno che possono provocare in termini di falsa informazione, i deepfake dovrebbero essere soggetti sia ai requisiti di trasparenza sia ai requisiti di conformità dei sistemi di IA ad alto rischio.

Ciò non significa che i sistemi di IA ad alto rischio siano proibiti, ma che la loro conformità a requisiti di trasparenza prestabiliti “rende tali sistemi più affidabili e con maggiori probabilità di successo sul mercato europeo”, sottolineano i relatori.

Inoltre, la DSA prevede l’obbligo per le piattaforme online di grandi dimensioni di effettuare una valutazione del rischio, compresa la manipolazione intenzionale dei loro servizi, che potrebbe avere un impatto negativo sulla protezione della salute pubblica, dei minori, del discorso della società civile, delle elezioni, della sicurezza, ecc.

Patrick Breyer, deputato dell’UE per il Partito Pirata tedesco e relatore del DSA, ha dichiarato a EURACTIV che mentre le misure non vincolanti potrebbero essere utili come contromisure, nei casi di manipolazione consapevole “è necessaria l’intelligenza umana”.

Poiché potrebbe essere impossibile decidere se si ha a che fare con un deepfake, in futuro individuare una manipolazione dei contenuti mediatici sarà una questione di “competenze dei media e delle indagini anti-frode”, ha affermato Breyer.