Non credo ai miei occhi
di Lucia Cammarata
Cosa succederebbe se domani mi svegliassi e scoprissi che in rete gira un video che mi ritrae mentre faccio parkour sui tetti di una banlieue di Parigi, sul palco di Woodstock del ’69 accanto a Jimi Hendrix o seduta ad un tavolo sorseggiando un tè insieme al Cappellaio Matto?
Probabilmente ne sarei divertita, condividerei il video con i miei amici e tutto sfumerebbe a fine giornata con il sogno inesaudibile di potere o aver potuto effettivamente fare ciò che il video ha reso possibile.
Ma come finirebbe la mia giornata se il mio volto e quello che sembra essere il mio corpo con la loro mimica e gestualità, si mostrassero in video nell’atto di torturare un cane per strada, impugnare un’arma e sparare all’impazzata o cantare a squarciagola “menomale che Silvio c’è” in una piazza affollata? Sono sicura che, per quanto nessuna di queste sia una pratica che mi appartiene, ne uscirei davvero turbata.
Eppure oggi per creare contenuti del genere sono disponibili tantissime applicazioni e noi tutti mettiamo a disposizione di qualsivoglia burlone un vasto catalogo di foto e informazioni personali.
Ovviamente i software adatti a creare dei contenuti deepfake ampiamente credibili non sono a portata di tutti. Questo dovrebbe tranquillizzarci? L’intelligenza artificiale di tali programmi riesce a generare immagini estremamente realistiche, causando ulteriore disordine nell’informazione, condividendo messaggi fuorvianti e situazioni talmente manipolate da risultare, al contrario, vere.
Di che si tratta: il deepfake, parola coniata nel 2017, è l’unione di due termini dove fake sta per falso e deep in riferimento al deep learning, una serie di metodi con cui si è insegnato alle AI a imparare da sole fornendo loro un set di dati; nella pratica odierna permette di usare i video di qualcuno come una sorta di maschera da applicare ad un secondo soggetto, facendogli fare e dire ciò che si vuole. All’inizio i risultati erano convincenti fino ad un certo punto, rivelando una serie di imperfezioni che avrebbero permesso, ad un occhio attento, di scoprirne il trucco: i movimenti innaturali degli occhi, una distorsione della voce o l’illuminazione della scena piuttosto piatta; il bug era il più delle volte visibile. Vi sarà certamente capitato di imbattervi in un video di Obama o di Putin ai quali vengono sovrimposte altre espressioni e messe in bocca parole ridicole o ridicolizzanti gli avversari politici. Se agli albori di questa tecnologia il contenuto mostrava chiaramente il carattere di artefatto, adesso i software si sono affinati e sono arrivati quelli automatici. Esistono tantissime applicazioni scaricabili anche su smartphone che danno la possibilità di vedere celebrità del cinema, personaggi politici o il nostro vicino di casa in situazioni diverse da quelle che potremmo aspettarci. Il risultato (prevedibile) è stato sin dall’inizio il moltiplicarsi di contenuti pornografici e, alla pari dei personaggi pubblici, anche persone ignare e minori potrebbero ritrovarsi in siti per adulti. Non abbiamo la minima idea di che cosa potrebbe annidarsi negli anfratti più oscuri della Rete.
Il sistema è ormai ampiamente democratizzato, permettendo così anche ai poco esperti di generare video deepfakes dal sapore esilarante per alcuni ma, per altri, dalle note amare e sgradevoli del cyberbullismo e del revenge porn, quest’ultimo inquadrato come reato dall’art. 612 ter del Codice Penale che, tuttavia, non applica la norma alle immagini create artificialmente.
Il problema, in effetti, non è l’intelligenza artificiale o i programmini per i video amatoriali, ma l’uso che ne facciamo. Un giorno non sarà più possibile distinguere tra un falso digitale e un evento realmente accaduto, l’uno e l’altro potrebbero essere costantemente messi in discussione, per cui: se tramite registrazione video potremmo avere la prova che Donald Trump durante uno dei suoi comizi incitò i suoi sostenitori a “marciare insieme verso Capitol Hill” all’alba del riconoscimento di Joe Biden come presidente, questa diverrebbe facilmente scambiabile con un deepfake; al contrario, se una ripresa ci mostrasse Mario Draghi che firma accordi con i rettiliani per l’acquisto di armi spaziali sostenuto da fondi pubblici sottratti all’istruzione e alla sanità, potrebbe sembrarci così vero da scatenare la tanto urlata, ma poco agita, rivolta nazionale.
Il progresso tecnologico opera da tempo su vari livelli della realtà ormai ridotta a immagini, arrivando in profondità sta per penetrare quel nucleo fatto di identità e relazioni, creando distorsioni che rischiano di essere difficilmente smascherabili, ma è soprattutto uno strumento in grado di influenzare l’opinione comune e il tessuto sociale; l’intelligenza artificiale non distingue la verità ma può programmarla.