Dietro il nome innocuo di “Lavander” si nasconde uno dei sistemi più controversi dell’attuale conflitto tra Israele e Gaza. Un’intelligenza artificiale progettata per “segnare” potenziali bersagli umani è diventata simbolo di una guerra dove la velocità dell’algoritmo rischia di scavalcare la coscienza. È possibile parlare di etica quando a decidere chi vive e chi muore è un software?
Quando il quotidiano +972 Magazine e il portale Local Call hanno rivelato l’esistenza del sistema Lavander, molti osservatori hanno drizzato le antenne. L’IA sviluppata dall’intelligence israeliana sarebbe in grado di identificare automaticamente presunti militanti di Hamas incrociando dati di localizzazione, contatti telefonici, comportamenti digitali. Un’operazione “di precisione”, secondo l’esercito. Ma è davvero così?
Secondo alcune testimonianze interne, Lavander avrebbe segnalato decine di migliaia di “sospetti” sulla base di criteri tanto rapidi quanto opachi. L’algoritmo segna, l’umano ratifica. O meglio: preme il tasto. I tempi per il via libera a un bombardamento sarebbero scesi a pochi secondi. Ma con quali garanzie?
L’illusione della precisione
Il problema etico si pone su più livelli. Primo: la fallibilità dell’intelligenza artificiale. Lavander si basa su pattern comportamentali, ma le vite umane non sono mai interamente prevedibili. L’algoritmo può facilmente scambiare un vicino di casa, un insegnante, un ragazzino con uno stratega di Hamas se i loro numeri di telefono si sono incrociati una volta. L’errore non è un rischio: è una probabilità statistica.
Secondo: il principio di distinzione tra combattenti e civili, sancito dal diritto internazionale umanitario, viene svuotato quando il bersaglio non è verificato da un processo umano approfondito. L’intelligenza artificiale, per definizione, non può esercitare prudenza morale.
Umano + IA = guerra disumanizzata
Israele ha sostenuto che Lavander è solo uno strumento di supporto, che le decisioni sono sempre “validate” da operatori. Ma se l’input dell’IA diventa automaticamente ordine operativo, cosa resta della responsabilità individuale? Il principio del “non posso non bombardare, è il sistema che lo ha detto” ricorda troppo da vicino la scusa burocratica delle guerre del XX secolo: “eseguivo ordini”.
L’uso dell’IA in guerra non è un problema solo israeliano. Gli Stati Uniti, la Cina, la Russia stanno sviluppando sistemi analoghi. Ma è nel laboratorio di Gaza che si stanno testando — sulla pelle di civili — i limiti dell’accettabile. Qui l’algoritmo è diventato routine, parte della “dottrina Dahiya”, che prevede attacchi devastanti per scoraggiare il nemico, anche al prezzo di migliaia di vittime collaterali.
Una questione di umanità
L’automazione dell’uccisione pone domande radicali. Un software non ha rimorsi, non esita, non prega. Ma è proprio questo il punto: se la guerra smette di essere agita da coscienze e diventa gestione da remoto, cosa resta dell’etica? Se perfino la teologia cristiana afferma che l’uomo non è “inferiore agli angeli”, ma capace di scelta libera, affidare la morte alla macchina è un tradimento della nostra dignità.
Il pericolo non è solo tecnologico, ma antropologico. Nel delegare alla macchina la selezione dei bersagli, stiamo dicendo che la vita umana vale meno della sicurezza percepita. Il diritto umanitario viene subordinato all’efficienza. L’etica cede il passo all’algoritmo.
Dalla sorveglianza alla sorveglianza letale
L’intelligenza artificiale può aiutare a prevenire i crimini, a limitare i danni, persino a mediare i conflitti. Ma quando è usata per uccidere in modo automatico, la civiltà indietreggia. Lavander non è solo un software: è uno specchio. Ci mostra il volto disumano di una guerra che non ha più bisogno di vedere l’altro in faccia per ucciderlo.
E forse il vero crimine non è quello dell’algoritmo, ma della nostra rinuncia alla responsabilità morale.