di Andrea Balzola
“Avete fatto voi questo orrore, Maestro? No, è opera vostra.”
Dialogo tra l’ambasciatore nazista Abetz e Picasso davanti al quadro Guernica, 1937
Nel 2023 il Castello di Rivoli ha dedicato una grande mostra al tema “Arte e Guerra”, con più di 140 opere di artisti internazionali che hanno interpretato gli orrori della guerra, da Goya fino ai contemporanei. Non compariva però ancora in questo tragico affresco l’Intelligenza Artificiale (IA), con i suoi software di applicazione bellica e le nuove armate di droni e robot combattenti, ultimo approdo di una Cyberwar in atto da tempo.
Come è accaduto per tutte le grandi innovazioni tecnologiche, la creazione e la diffusione dell’IA è stata salutata e celebrata (di questi tempi con particolare enfasi) come una svolta della civiltà umana, l’apertura di una nuova stagione di progresso, economico, produttivo, sociale e culturale. Il problema però è sempre lo stesso: quale uso l’essere umano sarà capace o sceglierà di farne? Sappiamo che le origini del web si trovano in ambito militare, con lo scopo di creare una connessione e una rete tra i centri di studi strategici (Arpanet), poi l’idea si è sviluppata in un più ampio ambito universitario e infine è diventata un patrimonio pubblico condiviso a livello di massa (Internet). All’origine del web si intrecciavano già due prospettive e due concezioni diverse, si potrebbe anche dire opposte: da una parte, gli scopi militari, commerciali, di propaganda e di controllo politico; dall’altra parte, l’idea di matrice illuminista che vedeva nel web la possibilità di realizzare una nuova enciclopedia universale del sapere umano accessibile a tutti, una libera circolazione delle idee e un fecondo scambio fra culture e tradizioni diverse. Questa dicotomia si riproduce immancabilmente oggi, tra un interesse per l’IA finalizzato al controllo, al dominio e alla distruzione, e viceversa un interesse per la costruzione, per la ricerca e per il beneficio collettivo. Nella società contemporanea, dove il piatto della bilancia pende sempre dalla parte degli interessi economici, la produzione, la vendita e l’impiego delle armi ha sempre una priorità assoluta da parte degli Stati, in nome di una difesa/offesa che alza sempre più i suoi standard tecnologici e gli investimenti finanziari (a scapito di servizi essenziali come sanità, educazione, tutela ambientale, solidarietà e cultura). Le superpotenze militari mondiali spingono l’acceleratore sull’onda di una mai superata “guerra fredda” che ora si sta pericolosamente riscaldando: se da una parte il dipartimento della Difesa degli Stati Uniti investe crescenti risorse (9 miliardi di dollari e 686 progetti) nell’IA e coinvolge tutte le sue grandi aziende tecnologiche (da Google a SpaceX di Musk) per mantenere il vantaggio militare sulla terra e nello spazio in un’incessante concorrenza strategica con la Cina e con la Russia, la Cina da parte sua, già leader globale nelle telecomunicazioni 5G e in molti settori tecnologici avanzati, è al secondo posto per investimenti nel settore IA. Non mira soltanto al dominio commerciale globale ma vuole modernizzarsi sul piano militare per pareggiare gli USA, e considera l’IA l’elemento chiave di questo progetto (cfr. Internazionale, 22/28.03.2024 e https://www.agendadigitale.eu/infrastrutture/ia-cosi-pechino-punta-al-primato-in-tutti-i-campi-i-rischi-per-loccidente/)
Questi scenari non fanno parte di un ipotetico futuro, ma appartengono già al nostro presente. I devastanti conflitti in atto tra Russia e Ucraina, e tra Israele e Palestina (con il rischio di estensione a tutte le aree circostanti) sono già uno dei primi campi di applicazione bellica dell’IA. Come ha riferito la rivista Wired, nel febbraio del 2023 il governo olandese ha organizzato a L’Aia, il Reaim Summit, primo vertice internazionale sull’uso militare responsabile dell’IA, a cui hanno partecipato delegati di 50 Paesi, fra cui Stati Uniti e Cina (la Russia non è stata invitata). Presenti anche importanti aziende private come la statunitense Palantir, specializzata nelle nuove tecnologie e nell’analisi di big data, attivamente coinvolta nel conflitto in Ucraina. La Palantir ha utilizzato l’IA per analizzare i movimenti satellitari e i feed dei social media allo scopo di visualizzare le posizioni dei russi e indirizzare con precisione e rapidità gli attacchi dell’esercito ucraino. L’azienda tecnologica ucraina Primer si occupa invece della trascrizione e traduzione vocale automatiche per ricavare rapidamente informazioni strategiche dalle comunicazioni intercettate del nemico. L’esercito russo, da parte sua, in ritardo tecnologico sull’avversario, si sta attrezzando per colmare le sue lacune. L’uso dell’IA e di funzioni autonome e automatiche di elaborazione dei dati a scopo bellico pone dei seri e controversi interrogativi sulla loro controllabilità, da più parti infatti, anche tra i vertici militari, è stato segnalato il rischio dell’overreliance, (“fiducia cieca”) nell’IA, gli umani avrebbero infatti troppa fiducia nelle indicazioni raccomandate dall’IA. Di fatto, nonostante la volontà dichiarata, da parte dell’ONU e dell’Unione Europea, di elaborare una regolamentazione per l’uso militare dell’IA, le nazioni leader della ricerca sull’IA Usa, Cina, Israele, Corea del Sud, si sono per ora rifiutate di fissare limiti giuridicamente vincolanti per l’uso di tali sistemi. I sistemi militari di IA dovrebbero garantire un modello equilibrato, definito Human in the loop, di gestione umana dei processi automatizzati, ma la storia recente dei conflitti ci ha già insegnato quali devastanti “effetti collaterali” abbia provocato l’uso delle cosiddette “bombe intelligenti”. Inoltre, anche la programmazione dell’IA decisa dagli esseri umani non è affatto di per sé una garanzia per evitare le pratiche più micidiali e pericolose, come dimostra l’uso dell’IA nell’attuale conflitto tra israeliani e palestinesi. L’esercito israeliano nell’attacco a Gaza, in risposta all’aggressione terroristica di Hamas, ha impiegato il sistema Habsora (“Vangelo”), basato sull’IA per generare obiettivi quasi automaticamente e ad alta velocità. Il giornalista Yuval Abram in due inchieste pubblicate sulle testate indipendenti israeliane +972 e Local Call, ha rivelato che l’azione militare contro gli obiettivi suggeriti dall’Intelligence è guidata da programmi di IA (già attivi da tempo con funzioni di sorveglianza e identificazione di agenti ostili). Dalla prima inchiesta emerge chiaramente come l’uccisione “collaterale” dei civili sia prevista con esattezza, secondo una logica che era già stata avviata nella seconda guerra mondiale e culminata con le bombe atomiche sganciate sulle città giapponesi di Hiroshima e Nagasaki (trad.it. dell’articolo del 30.11.2023 in Internazionale, 15/21.12. 2023). La seconda inchiesta ha invece rivelato che un altro programma di IA, chiamato Lavender (“Lavanda”) produce automaticamente elenchi di miliziani palestinesi da eliminare, non in battaglia, ma quando sono nascosti nelle loro case, con le loro famiglie e i vicini. Più sono importanti gli obiettivi, più sono legittimati i “danni collaterali”. Le vittime civili (tra cui molti giornalisti e operatori umanitari) sono quindi contemplate come deterrenti e come “male necessario” per isolare, snidare ed annientare il nemico. Inoltre, i criteri con cui il programma di IA riconoscerebbe i presunti terroristi non garantirebbero una completa affidabilità e non sarebbero vincolati a ulteriori verifiche indipendenti (trad.it. dell’articolo del 3.04.2024 in Il manifesto, 5.04.2024). Qualcuno ha parlato, a proposito dell’uso indiscriminato dell’IA in ambito bellico, soprattutto quando sono coinvolte popolazioni civili inermi, di uno sterminio programmato che evoca una nuova forma artificiale di “banalità del male” (per citare la famosa definizione di Hannah Arendt in relazione agli imputati nazisti del processo di Norimberga, quando tentarono di discolparsi dal genocidio degli ebrei dichiarandosi meri esecutori di ordini). Attribuire in futuro crimini di guerra all’IA non dispenserà gli esseri umani dalle loro responsabilità. L’arte, come ha fatto Picasso con il suo capolavoro Guernica, oppure Kubrick con il film Il Dottor Stranamore, dovrebbe rispondere in due modi, pacifici ma determinati, all’uso dell’innovazione tecnologica per la (auto)distruzione del genere umano: denunciare gli orrori della guerra e dimostrare come la tecnologia possa essere non uno strumento sempre più sofisticato di morte e sofferenza ma uno strumento di creatività, di immaginazione di un futuro più sostenibile, e di pace.