Nuovo brutalismo e guerra robotica
di Stefano Isola
Testo dell’Intervento di Stefano Isola alle Tre giornate contro le tecno-scienze, sesto incontro internazionale, Luglio 2024 ad Acqui Terme organizzate da Resistenze al nanomondo e pubblicato sul giornale L’Urlo della Terra, n.12, Luglio 2024
Nei territori palestinesi si consumano stragi quotidiane di donne e bambini sterminati da bombe teleguidate, di persone che muoiono di fame e che non hanno dove rifugiarsi e dove potersi curare le spaventose ferite, e tutto questo procede accompagnato da un irreale balletto di distinguo e accorate perorazioni contro tutte le aggressioni e tutti gli estremismi. Altri massacri, tra quelli che costellano la storia moderna, presentano efferatezze e numeri paragonabili, e sono stati talvolta colpevolmente ignorati per molto tempo a livello internazionale, ma sono stati tutti comunque raccontati a posteriori attraverso reportage di osservatori, giornalisti e storici. L’attuale genocidio perpetrato a Gaza dall’IDF si caratterizza come una delle peggiori voragini umanitarie della storia anche per il fatto di essere trasmesso in diretta audiovisiva, ovunque, orizzontalmente, e di essere perciò osservabile da chiunque voglia informarsi, e, nonostante questo, non solo non viene fatto quasi nulla per fermarlo, ma si continua a inviare armi micidiali per la sua perpetuazione. Per altro, il governo statunitense rifornisce ininterrottamente Israele di armi e risorse per perseguire il suo assedio criminale degli oltre due milioni di palestinesi di Gaza, assicura allo Stato dell’apartheid una copertura diplomatica presso le Nazioni Unite e distorce od oscura sistematicamente la condotta barbara dell’IDF. A causa di tutto ciò si dovrebbe parlare più propriamente di genocidio israelo-statunitense. Analoga e corrispondente situazione nella parallela guerra per procura che la NATO sta combattendo contro la Federazione Russa tramite il sacrificio dell’Ucraina, dove decine e decine di migliaia di giovani ucraini, e anche russi, hanno già perso la vita in una delirante prova di forza cinicamente spinta e finanziata ad oltranza da potenze esterne.
Si agisce, per lo meno nella gran parte del mondo occidentale, come se la tragedia umana che si consuma sotto i nostri occhi fosse irrilevante ai fini delle decisioni da prendere, ad esempio riguardo agli scambi commerciali o all’invio di armi. Come se nel prendere tali decisioni l’eventuale approvazione o disapprovazione di quella violenza non giocasse alcun ruolo. Come quando ci si trova in un ambiente di gaming, dove non ha senso approvare o disapprovare la violenza degli ultracorpi che invadono il pianeta Terra, perché farlo servirebbe solo a perdere la partita.
E così, la diffusione in rete della diretta di un massacro di bambini palestinesi innocenti con droni controllati a distanza può tranquillamente coesistere con le discussioni sui concorsi della canzone spazzatura internazionale, gare sportive o disavventure sentimentali di qualche influencer, in un centrifugato di informazioni e intrattenimento che induce un’ipnosi collettiva assai più efficace della tradizionale censura, poiché elimina alla radice la ricerca di un riferimento reale, rendendo le persone insensibili alla contraddizione, impermeabili al dubbio e in definitiva incapaci di pensare.
In questa totale dissonanza cognitiva risiede l’essenza del brutalismo politico e morale che si sta affermando ovunque nelle nostre esistenze collettive, seguendo il quale le nobili istituzioni del mondo libero, agendo come psicotici sicari per conto del grande capitale, oggi partecipano attivamente allo sterminio degli “animali umani” palestinesi, ucraini, russi. Ma c’è di più: questo brutalismo dai tratti psicotici si raccorda perfettamente con il supercalcolo inconsapevole della cosiddetta intelligenza artificiale (IA) che incarna le procedure automatiche utilizzate nella guerra robotica in entrambi i campi di battaglia. Nel conflitto in corso in Ucraina, ad esempio, l’uso massiccio di droni “kamikaze” guidati dall’IA e altre armi letali autonome, segna un punto di non ritorno in vari sensi possibili[1].
Innanzitutto, nella guerra robotica si palesa una fondamentale quanto tragica regressione, nella misura in cui il drone o l’arma autonoma istituiscono un regime di azione puramente binario, come quello dei video-giochi: sferrare o non sferrare il colpo mortale, non vi sono altre forme d’interazione con il nemico (disarmo, infiltrazione, dialogo ecc.).
Inoltre, l’uso di tali dispositivi sul campo non solo rende potenzialmente enorme il numero delle vittime, ma determina nello stesso tempo un loro costante addestramento per “migliorare” sulla carne umana le loro prestazioni omicide. Un addestramento costante che incarna una escalation incontrollabile: la continua accelerazione delle operazioni militari “intelligenti”, l’immediatezza di funzionamento dei sistemi autonomi e ipersonici, conducono a una crisi di controllo e comando: come governare macchine con velocità sovrumane e al tempo stesso opache nella loro operatività, se non automatizzando a propria volta la gestione delle operazioni? Come nell’era atomica il possesso della bomba da parte delle principali potenze fungeva da deterrente per il suo uso, giustificando l’escalation, così oggi l’uso dell’IA nella strategia militare s’impone a ciascuno per non trovarsi in una condizione di vulnerabilità totale. Non c’è dunque alcuna possibilità di fermare la ricerca nelle tecniche di sterminio, nella misura in cui questa si svolge in condizioni di competizione mortale: se un competitore si ferma gli altri ne trarranno immediato vantaggio.
Il presidente dei capi di stato maggiore congiunti delle forze armate statunitensi, Mark Milley, alla vigilia della riunione dei membri del club Bilderberg a Lisbona (maggio 2023) ha dichiarato: «forse il più potente acceleratore nella conduzione della guerra moderna è l’intelligenza artificiale […] la capacità di prendere decisioni in modo rapido e accurato è un vantaggio significativo in guerra, che l’intelligenza artificiale e l’informatica quantistica daranno a quei paesi che riescano a implementarle nelle loro applicazioni militari»[2]. Questo è lo scopo dei progetti “intelligenti” dei principali eserciti del mondo, e non mancano indicazioni che questo movimento si estenderà presto all’automazione della decisione di usare le armi nucleari.
Come riportato dall’Associated Press, alla fine del 2023 il Pentagono aveva un “portafoglio” di 800 “progetti non classificati legati all’IA”, mirati alla messa a punto di “soldati tecnologicamente potenziati” e meccanismi di “collaborazione uomo-macchina” (ad esempio per l’utilizzo dei caccia F-16), nonché di analizzatori d’informazione e dispositivi di sorveglianza, algoritmi di “fusione” dei dati per avere schemi comuni sul campo di battaglia, veicoli autonomi e semiautonomi, sistemi di armi letali autonome. Ma il Pentagono sta studiando anche l’uso dell’IA per «processi decisionali ad alto rischio militare e di politica estera»[3]. Per verificare come gli attuali modelli di IA affrontino tali problemi, lo studio in questione avrebbe utilizzato modelli di OpenAI, Meta e Anthropic per eseguire simulazioni di guerra, con risultati degni della romanzesca follia del generale Ripper ne Il dottor Stranamore: non solo tutti i modelli «mostrano segni di un’escalation improvvisa e difficile da prevedere», comprese «dinamiche di corsa agli armamenti, che portano a maggiori conflitti», ma alcuni di essi si sono precipitati verso l’opzione nucleare. Alcuni recenti modelli GPT si sono rivelati tra i più “aggressivi”,“argomentando” che l’uso diretto di ordigni nucleari di annichilazione, piuttosto che complicate procedure di disarmo di altri competitori, sarebbe stata la strada più breve per raggiungere la pace!
La possibilità di superamento della soglia di deflagrazione di un conflitto terminale per l’umanità potrebbe quindi trasferirsi negli imperscrutabili meandri del monologo interiore di una IA addestrata su miliardi di parametri ma priva di qualunque coscienza.
Ecco che l’IA, dispositivo di esternalizzazione di decisioni e intenzioni, e di controllo del controllo, conduce fatalmente all’azzeramento della nostra capacità di prendere decisioni autonome e a una perdita del controllo intenzionale sulla realtà. In tale prospettiva, la guerra robotica diventa un esperimento genocidario basato su modalità di ottimizzazione automatica che lo rendono omologo a un video-gioco.
Sull’altro fronte di guerra, ad esempio, è noto l’uso da parte di Israele di sistemi di IA noti per lo sterminio di esseri umani e la distruzione sistematica e diffusa di abitazioni, servizi e infrastrutture civili[4]. Tali dispositivi, come quelli chiamati Gospel e Lavender, elaborano in tempo reale enormi masse di dati su tutto ciò che vive e si muove su quel territorio[5] e, assegnando a edifici e persone un “punteggio” che indicherebbe la probabilità di avere “correlazioni” con Hamas, generano così molte centinaia di obiettivi al giorno, senza neppure informare sui “danni collaterali”, noti in anticipo. Il sistema di IA sadicamente chiamato Where’s Daddy?, in particolare, viene usato per seguire i sospetti fino alle loro case, e consentire quindi all’IDF di colpirli mentre si trovano con le loro famiglie, intenzionalmente, e utilizzando missili non guidati o bombe “a caduta libera”, così da poter risparmiare sulle più costose armi a guida di precisione, o bombe “intelligenti”.
Non essendovi operativamente responsabilità umana, nessuno può opporsi a ordini disumani. E viceversa, l’uso generalizzato di tali dispositivi decisionali automatici può agire come copertura deresponsabilizzante per dar sfogo alle peggiori forme di cieco sadismo, delle quali abbiamo purtroppo innumerevoli testimonianze. «Non ci interessava uccidere gli operativi [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare», ha dichiarato A., un ufficiale dell’intelligence ai siti di informazione israeliani +972 e Local Call. «Al contrario, l’IDF li ha bombardati nelle loro case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni»[6].
Sappiamo anche bene come Israele possa permettersi di non parlare neppure dei “danni collaterali” sui civili in questa «fabbrica di omicidi di massa»[7], grazie alla criminale complicità mediatica e politica di cui gode in Occidente.
L’IA, un prodotto della corsa per la supremazia tecnologica globale scatenatasi durante il secondo conflitto mondiale[8], torna dunque oggi prepotentemente in guerra, e vi ritrova la sua investitura ideale nell’adempimento di una delle funzionalità strategiche del nostro tempo: la psicotica capacità di decidere chi può vivere e chi deve morire, e la conseguente messa in atto di procedure automatizzate di sterminio[9]. L’uccisione e lo sterminio sono operazioni per le quali le tecnologie basate sull’IA, che non pensa ma calcola a velocità astronomica, sono idealmente perfette, e comunque molto più performanti degli esseri umani. In questa prospettiva, il ruolo chiave svolto dall’IA nel processo di escalation tecnologica globale, in atto da oltre un decennio, acquista tutto il suo significato. La potenza computazionale richiesta per addestrare modelli come GPT è inimmaginabilmente grande[10] e dopo la messa a punto sul corpo vivo della società, può essere applicata a produrre morte su scala industriale. E così, mentre qualche buontempone, come Elon Musk, evoca scenari “fantascientifici” tanto catastrofici quanto fuorvianti per una reale comprensione della reale posta in gioco, e invoca moratorie sulla ricerca, e mentre think tank, organismi internazionali e accademie[11] elaborano “codici di condotta” e “dispositivi etici” per valutare e mitigare le “vulnerabilità”, per «tenere la rotta di fronte alle sfide dell’IA» e garantire uno “sviluppo sicuro”, per «migliorare il benessere umano e promuovere la pace e la prosperità», tutti i decisori coinvolti sono unanimi nel lasciare di fatto mano libera all’uso dell’IA in campo bellico[12]. Così, ad esempio, all’inizio del 2024 OpenAI ha cancellato senza troppa pubblicità dalle sue “politiche di utilizzo”[13] la frase che vietava l’uso della sua tecnologia per scopi «militari e di guerra»[14], ed ha recentemente chiamato nel suo CdA Paul Nakasone, un generale dell’esercito statunitense, ex capo del Cyber Command ed ex dirigente della National Security Agency.
Tuttavia, pensare di poter seriamente separare le applicazioni civili da quelle militari dell’IA appare semplicemente ridicolo. E difatti sono innumerevoli gli esempi di “trasferimento tecnologico” tra comparti diversi ed in particolare tra settori civili e militari. Lo Stato di Israele, insieme militarista e neoliberista, è avanguardia e modello in questa dinamica. Da mezzo secolo trae vantaggio dall’occupazione illegale della Cisgiordania e della Striscia di Gaza per testare costantemente armi e tecnologia di sorveglianza su una popolazione prigioniera e “nemica”. Il suo necropotere esercitato con l’occupazione neocoloniale dei territori palestinesi, si avvale oggi in modo strutturale dell’IA, con droni carichi di sensori, satelliti e jet di ricognizione aerea, dispositivi diffusi di riconoscimento facciale e comportamentale ecc., che vengono lì messi a punto per poi essere rivenduti in buona parte del mondo “civile”[15]. Ad esempio l’azienda israeliana Oosto[16] che applica l’IA alla biometria, addestra i suoi algoritmi sui palestinesi della Cisgiordania che poi rivende «in oltre quaranta paesi, tra cui Russia, Cina e Stati Uniti, e in innumerevoli località come casinò, industrie manifatturiere e persino centri fitness». E viceversa: si può ritenere, ad esempio, che una parte dei progetti di ricerca e sviluppo finanziati nel quadro del Programma dell’UE Horizon Europe, mirato a sviluppare attività con applicazioni «esclusivamente civili», si traducano successivamente in supporti smart ad azioni di guerra ibrida, anche grazie al partenariato con lo Stato ebraico[17].
L’esempio israelo-palestinese, per quanto possa apparire, per ora, estremo, ci aiuta a comprendere come l’IA operi una sintesi originale tra sterminio e burocrazia, agendo come una forma di colonialismo totalitario sul proprio stesso terreno. Il suo potere è per certi aspetti omologo a quello che si esercita sulla colonia, un non-luogo e un non-tempo permanentemente in stato di emergenza, dove la “pace” assume i caratteri di una guerra infinita. Dopo la gigantesca operazione di ingegneria sociale associata alla farsa pandemica, in particolare, assistiamo infatti a un movimento di auto-colonizzazione dell’Occidente che inaugura inedite forme di brutalità alle quali l’escalation tecnologica in atto conferisce un potenziale distruttivo e una velocità senza precedenti. Ciò che resta di quanto fino a poco tempo fa era chiamato “mondo civilizzato” diviene territorio di guerra permanente contro la vita e contro l’umanità.
Proprio come il governo cibernetico delle cose, che anticipa comportamenti e accadimenti sul piano virtuale per poi riproiettarne sulla realtà le conseguenze normative e disciplinari, anche la guerra postmoderna si è emancipata dalla politica, e il suo carattere illimitato e genocidario esprime il venir meno di ogni pensiero strategico, a favore di un non-pensiero meramente algoritmico. E difatti la stessa dimensione psicopatica pervade i dispositivi di selezione e distruzione degli obiettivi nella guerra robotica e i dispositivi di decisionalità ed azione della cosiddetta IA predittiva nella vita civile. Il potere e la capacità di decidere chi compirà o reitererà un reato, chi interromperà gli studi prima del tempo, chi avrà bisogno di certe cure mediche, si connette al potere e alla capacità di decidere chi può vivere e chi deve morire, senza soluzione di continuità.
In questo senso, Gaza rappresenta non una singolarità storica e geopolitica, ma un possibile destino di disumanizzazione che ci attende tutti.