3 marzo 2026

Tre caccia americani abbattuti dalle difese aeree del Kuwait — un alleato. Sei piloti sopravvissuti per miracolo. Nessuno sa ancora come sia potuto succedere. Ma una spiegazione c’è, ed è più inquietante di qualsiasi teoria: in uno spazio aereo saturo di missili, droni e algoritmi, nessun sistema riesce più a distinguere amico da nemico abbastanza in fretta. E quando la macchina decide, l’errore è già fatto.

Domenica sera, alle 23:03 ora di Washington, tre F-15 americani sono caduti sul territorio del Kuwait. Non abbattuti dall’Iran — abbattuti dalle difese aeree kuwaitiane, quelle degli alleati che avrebbero dovuto proteggerli. Il Centcom ha confermato tutto in un comunicato secco: nel mezzo del combattimento, i caccia americani sono stati abbattuti per errore dalle difese aeree kuwaitiane. Sei membri di equipaggio salvati. Un quarto soldato morto in incidente separato. Le cause «sono sotto inchiesta».

«Sotto inchiesta». È la formula con cui i militari prendono tempo quando non hanno ancora capito cosa è andato storto. Ma il problema non è tecnico — o non è solo tecnico. È strutturale.

La guerra a duemila decisioni al secondo

I sistemi di difesa aerea moderna — il Patriot americano, l’Arrow israeliano, i sistemi equivalenti kuwaitiani — non aspettano l’ordine di un ufficiale prima di sparare. Non potrebbero: un missile balistico percorre gli ultimi chilometri in pochi secondi. I tempi di risposta umana sono troppo lenti. Per questo, in modalità di combattimento attivo, questi sistemi operano in autonomia: rilevano, classificano, decidono, sparano. L’operatore umano può sorvegliare, può teoricamente intervenire, ma spesso il ciclo è già completato prima che abbia finito di leggere il display.

Non è fantascienza. È la dottrina operativa reale delle forze aeree più avanzate del mondo — si chiama LAWS, Lethal Autonomous Weapons Systems — e il dibattito sulla sua regolamentazione va avanti da anni nelle sedi internazionali, sistematicamente bloccato dagli stessi paesi che li producono e li usano.

Il sistema kuwaitiano ha rilevato dei caccia in avvicinamento. Ha classificato una minaccia. Ha sparato. I tre F-15 non avevano fatto in tempo a trasmettere i codici IFF — Identification Friend or Foe — in modo riconoscibile nel caos elettromagnetico di quella notte. Risultato: tre aerei a terra, sei piloti appesi ai paracadute.

La nebbia è sempre lì. Ora però spara da sola

Clausewitz la chiamava Kriegsnebel — la nebbia della guerra. L’idea che in combattimento l’incertezza sia strutturale, che nessun comandante abbia mai informazioni complete. Clausewitz scriveva nell’Ottocento, quando la nebbia era fatta di polvere da sparo e di staffette a cavallo. La nebbia di oggi è fatta di jamming elettronico, di spoofing GPS, di segnali falsi iniettati negli algoritmi di riconoscimento. La differenza è che la nebbia di Clausewitz rallentava le decisioni. La nebbia digitale le accelera — ma non le rende più accurate.

Non è un caso isolato. Nel giugno 2025, durante i primi attacchi israeliani all’Iran, un F-35 israeliano è stato temporaneamente acquisito dal sistema Patriot americano dispiegato in Giordania — salvato solo perché il codice IFF ha funzionato in extremis. Nel Mar Rosso, almeno due droni MQ-9 americani sono stati abbattuti da navi della stessa coalizione che li aveva lanciati. Episodi classificati, minimizzati, mai entrati nel dibattito pubblico. Ma che disegnano un pattern chiaro: più la guerra si automatizza, più il fuoco amico diventa un rischio sistemico.

L’Iran ringrazia: per lui lo fa il caos

L’Iran ha lanciato oltre 1.400 tra missili e droni in tre giorni. L’80-90% è stato abbattuto — un risultato difensivo straordinario, sulla carta. Ma il volume del lancio ha saturato gli spazi aerei alleati al punto da generare incidenti come quello del Kuwait. Non è una tattica improvvisata — si chiama saturation attack, ed è progettata esattamente per questo: non tanto per sfondare le difese, quanto per creare caos all’interno di esse. Obbligare i sistemi automatici a operare al limite, aumentare la probabilità di errori di classificazione, logorare le scorte di intercettori che costano milioni di dollari mentre i droni iraniani ne costano poche migliaia.

In questo senso, i tre F-15 abbattuti dal Kuwait sono, involontariamente, una vittoria iraniana. Non perché Teheran li abbia colpiti — non lo ha fatto. Ma perché il suo attacco ha creato le condizioni perché l’alleanza si ferisse da sola.

Cosa dice la fede davanti a questa macchina

C’è qualcosa di teologicamente rilevante in quello che è accaduto sopra il Kuwait. Stiamo delegando le decisioni di vita e di morte a sistemi che non hanno coscienza, non hanno pietà, non hanno la capacità di esitare davanti al dubbio. Un missile Patriot non può scegliere di non sparare perché ha un cattivo presentimento. Un algoritmo di classificazione non può dire: aspetta, non sono sicuro. Decide in millisecondi, e poi è troppo tardi.

La tradizione cristiana ha sempre insistito sull’irriducibilità della coscienza umana nelle decisioni morali — anche, e soprattutto, in quelle estreme. La dottrina della guerra giusta, da Agostino a Tommaso d’Aquino, presuppone un soggetto responsabile: qualcuno che valuta, che distingue, che risponde delle proprie azioni davanti a Dio e agli uomini. Non un algoritmo che «era sotto inchiesta» mentre i piloti cadevano.

Florence Gaub, “la futurologa” della NATO aveva detto: molte guerre non iniziano con le bombe o i carri armati, ma con un guasto alla comunicazione. Parlava di diplomazia. Ma la frase vale anche per la comunicazione tra macchine. Tre F-15 sono stati abbattuti perché il loro segnale IFF non è stato riconosciuto abbastanza in fretta da un sistema alleato. Un guasto alla comunicazione, letteralmente. Che ha quasi ucciso sei uomini.

La domanda che resta — per i governi, per le opinioni pubbliche, per chi cerca di capire questo mondo alla luce del Vangelo — è questa: fino a dove siamo disposti ad affidare le decisioni irreversibili a sistemi che non rispondono a nessuno? La guerra automatizzata non elimina la responsabilità morale. La rende solo più difficile da trovare.