C’è un paradosso che pesa come piombo sulle conferenze del nostro tempo: più una tecnologia decide del destino umano, più le parole che dovrebbero governarla diventano leggere. Alla Reaim — la rassegna internazionale sull’“uso responsabile” dell’intelligenza artificiale in ambito militare — si sono sedute al tavolo ottantacinque nazioni. Alla fine, però, soltanto trentacinque hanno firmato un documento di principi. Non un trattato, non un vincolo giuridico, non una moratoria: un testo. E anche quel testo si è fermato prima del punto essenziale, là dove la guerra contemporanea brucia più in fretta: chi risponde quando l’algoritmo sbaglia, chi decide quando la macchina “suggerisce”, chi frena quando la velocità del calcolo divora il tempo della coscienza.

La cifra politica della conferenza non sta tanto nelle firme che ci sono — l’Italia compresa — quanto in quelle che mancano. Se Stati Uniti e Cina restano fuori, non è un dettaglio diplomatico: è la rappresentazione plastica del dilemma che accompagna ogni tentativo di regolazione dell’innovazione bellica. Si parla di responsabilità, ma si teme di auto-limitarsi. Si invocano principi, ma si coltiva il sospetto che ogni paletto diventi un vantaggio per l’avversario. È il vecchio “dilemma del prigioniero” tradotto in codice binario: cooperare sarebbe razionale, ma diffidare sembra più sicuro.

In teoria, la formula “uso responsabile” promette una via di mezzo tra l’apocalisse e l’entusiasmo. L’IA — si dice — può ridurre l’esposizione dei soldati, migliorare la protezione dei civili, rendere più informate le decisioni. È il linguaggio rassicurante delle istituzioni: non demonizzare, governare. Ma proprio qui si apre la faglia: nell’ambito militare, “informazione” significa spesso “selezione”, e “selezione” significa “bersaglio”. Laddove la macchina accelera, la politica deve rallentare; e invece la politica, per paura di restare indietro, sceglie di correre. Non decide più se usare l’IA: decide solo quanto velocemente inseguirla.

Il problema non è soltanto la fantascienza dei robot assassini. È la banalità della catena decisionale che si assottiglia. È la tentazione di delegare all’algoritmo la prima scrematura — chi è una minaccia, chi è un sospetto, chi “assomiglia” a un obiettivo — e poi di chiamare “giudizio umano” la firma finale, quando il tempo è compresso, l’ansia è alta, e il “consiglio” della macchina si trasforma in pressione. La guerra moderna vive di secondi: e in quei secondi l’etica rischia di diventare un lusso. Una firma in fondo a una dichiarazione, appunto: elegante, ma non determinante.

La Reaim avrebbe voluto mettere ordine almeno su alcuni minimi: chiarezza delle catene di comando, responsabilità fin dalla progettazione, criteri di sicurezza, controlli, verifiche. Tutto ragionevole. Ma l’assenza delle potenze che determinano la traiettoria tecnologica mondiale consegna al documento una fragilità strutturale: somiglia a un recinto costruito mentre i cavalli corrono già altrove. E c’è un’altra fragilità, più sottile: quando la governance si riduce a raccomandazioni, la guerra — che è sempre un campo di eccezione — se ne serve come alibi. “Siamo responsabili”, si dirà. E intanto la corsa continua.

Perché continua? Perché oggi la competizione militare è anche competizione industriale, finanziaria, strategica. Non si tratta più solo di carri armati e caccia, ma di sensori, dati, capacità predittive, droni, sistemi di riconoscimento, piattaforme che integrano intelligence e targeting. È un ecosistema. E quando l’ecosistema promette superiorità, la politica tende a convertirsi al suo linguaggio. La frase “non possiamo restare indietro” diventa la nuova dottrina. La prudenza, invece, viene ridotta a zavorra morale.

E qui si misura lo scarto tra la retorica e la sostanza. Se davvero si ritiene che nessuna macchina debba poter decidere della vita e della morte, allora la questione non è “uso responsabile”: è “limite non negoziabile”. Il punto non è un’IA “migliore”, ma un confine: la decisione ultima sull’uccidere non può essere un output. Non può diventare una funzione ottimizzata. Perché, nel momento in cui la morte entra nella logica dell’efficienza, la guerra si libera di ciò che ancora la rende umana — cioè giudicabile, imputabile, punibile — e diventa un processo. Un flusso.

È per questo che le parole, da sole, non bastano. La storia della guerra insegna che ogni tecnologia, prima o poi, viene usata; e spesso viene usata prima ancora che qualcuno riesca a nominarne l’orrore con precisione. La Reaim, con la sua aritmetica di firme, racconta un’epoca che fatica a dare forma giuridica a ciò che già accade sul terreno: droni che inseguono, sistemi che suggeriscono, algoritmi che selezionano, catene di comando che si accorciano.

In un mondo così, la domanda non è “se sarà troppo tardi”, ma “quando avremo il coraggio di chiamare le cose col loro nome”. Se le grandi potenze non firmano nemmeno un documento di principi, non è solo un inciampo diplomatico: è un messaggio. La guerra automatizzata è già considerata una frontiera di potere, non un rischio da contenere.

E tuttavia, proprio perché l’esito sembra scritto, la responsabilità diventa più esigente per chi ancora firma. Se l’Europa e Paesi come l’Italia scelgono di sottoscrivere un testo, devono evitare che resti una foglia di fico. Devono pretendere verifiche, trasparenza, audit indipendenti, standard interoperabili di sicurezza, e soprattutto una clausola morale comprensibile anche fuori dalle sale convegni: nessuna delega letale senza controllo umano reale. “Reale” significa tempo, possibilità di contraddire la macchina, obbligo di motivare, tracciabilità, responsabilità penale e politica.

Non è questione di tecnofobia. È questione di civiltà. Perché quando la “licenza d’uccidere” scivola dall’uomo al sistema, anche la colpa diventa nebulosa, e la giustizia perde presa. E allora la guerra non solo uccide: disumanizza, e lo fa in modo amministrativo, pulito, irreversibile. La dichiarazione di trenta-cinque Paesi non fermerà la corsa. Ma può ancora evitare che la nostra epoca si svegli un giorno accorgendosi di aver consegnato, senza una vera decisione, l’ultima parola sulla vita a un calcolo.