L’etica armata dell’IA e il vuoto del diritto.
37.000 obiettivi generati da un algoritmo. È quanto avrebbe fatto Lavender, il sistema di intelligenza artificiale usato da Israele nel recente conflitto con Hamas, secondo il Guardian. Il ruolo umano? Spesso ridotto ad una conferma simbolica. Questo è il segnale di una svolta epocale nella guerra.
La militarizzazione dell’IA non è solo una questione tecnologica: ridefinisce il diritto internazionale umanitario. Quando la scelta di colpire è pre-programmata, la deliberazione etica umana scompare. Le armi convenzionali dipendono dall’uso umano, quelle autonome, invece, incorporano “un’etica embedded”, scritta nel codice algoritmico di chi le progetta. Significa che i principi operativi, chi colpire, quando, con quale margine di errore, non vengono decisi sul campo, ma a monte dagli sviluppatori.
Quindi chi programma, decide. Ma su quali basi normative?
I principi dello ius in bello, proporzionalità, distinzione, necessità, sono giudizi situazionali, basati sulla sensibilità umana. Un algoritmo non interpreta, esegue. Così l’etica diventa una variabile computabile, non un giudizio morale.
L’attuale diritto è inadeguato. L’art. 36 del I Protocollo Addizionale alle convenzioni di Ginevra impone agli Stati di verificare la compatibilità delle nuove armi con il diritto internazionale. Al momento però, non disciplina chi definisce l’output decisionale, né con quale trasparenza. Le norme esistenti, come i DARSIWA consentono di attribuire la responsabilità internazionale all’uso illecito di un sistema d’arma autonomo (art. 2 lett. b), ma solo in una logica ex post, mentre mancano limiti ex ante allo sviluppo e distribuzione di software militari autonomi.
Si può dire dunque, che il vero arbitro oggi è il codice sorgente, scritto da attori privati, startup come Anduril, colossi come Microsoft, in contratti di procurement, non in assemblee multilaterali. La governance è tecnocratica, non giuridica.
La sfida non è proibire l’IA militare, ma creare una governance trasparente e multilivello, che includa obblighi di human in the loop per ogni decisione letale, standard giuridici minimi per i software di guerra e responsabilità condivisa tra Stati e sviluppatori. Chi scrive il codice, detta la guerra. E se non vogliamo che la deliberazione umana rimanga costume del passato, il diritto deve correre più veloce.











