Quando la tecnologia entra nel campo di battaglia non si limita a potenziare le armi o a rendere più efficiente la logistica, ma ridefinisce il controllo del conflitto. L’intelligenza artificiale, ormai parte integrante delle operazioni militari, accresce la capacità decisionale ma ci obbliga a riflettere su questioni complesse, che si intrecciano con l’etica, il diritto internazionale e la responsabilità umana.
Una di queste riguarda i confini dell’obbedienza e dell’insubordinazione: può un sistema automatizzato riconoscere un ordine illegale e opporvisi? E, ammesso che possa farlo, chi ed entro quali limiti gli potrebbe conferire tale facoltà?
Il caso Mỹ Lai e il paradosso del drone etico
Il 16 marzo 1968 il massacro di Mỹ Lai rivelò una delle atrocità più gravi della guerra del Vietnam. Sotto gli ordini del tenente William Calley, le forze armate statunitensi uccisero barbaramente centinaia di civili vietnamiti, soprattutto anziani, donne e bambini. L’intervento del Warrant Officer Hugh Thompson – che dal suo elicottero vide la strage in atto e una volta sceso a terra minacciò i suoi stessi commilitoni pur di fermare le atrocità – rimane un esempio raro e coraggioso di coscienza attiva in contesto bellico.
A distanza di oltre cinquant’anni, la questione si è trasformata: un drone dotato di AI avrebbe potuto fare lo stesso? Se lo sono chiesto due firme di War on the Rocks, noto blog di analisi militare, nell’articolo Military AI: Angel of our Better Nature or Tool of Control?
Se invece di un elicottero con soldati umani avessimo avuto un drone senza pilota e dotato di ampia autonomia, sarebbe stato in grado di riconoscere la violazione delle regole internazionali e di agire in contrasto all’ordine ricevuto? In sostanza: può un sistema autonomo dire “no” ai suoi superiori?
Tra supporto e controllo: tre modelli di AI in ambito militare
L’intelligenza artificiale, nelle operazioni militari, può svolgere ruoli distinti. Da semplice strumento, a consigliere, fino a controllore attivo. Il primo caso è già realtà: AI impiegate in sorveglianza, riconoscimento dei bersagli o logistica funzionano come estensioni operative dell’uomo, limitate a parametri prestabiliti.
Nel secondo modello, l’AI agisce come consigliere. Con accesso a dati e contesti più ampi, contribuisce a migliorare le decisioni del comando umano. Può rilevare anomalie – come un obiettivo che non risponde ai criteri d’ingaggio – e proporre alternative, pur rimanendo sottoposta all’autorità del decisore.
È nel terzo modello che il paradigma si ribalta. Il sistema agisce come controllore: identifica comportamenti non conformi, attiva contromisure, blocca un’azione illegittima o conserva prove digitali contro un superiore. Ha la capacità di interrompere la catena di comando, ponendosi in continuità con il gesto di Thompson. Un “drone etico” progettato non solo per assistere, ma per intervenire in tempo reale contro un crimine di guerra.
Conseguenze strategiche e tensioni nella catena di comando
L’idea di un sistema di intelligenza artificiale che abbia l’autonomia di disobbedire a un ordine scuote le fondamenta della logica militare, basata sulla fedeltà alla gerarchia. Inserire un agente autonomo in grado di opporsi introduce un nuovo tipo di autorità, non facilmente riconducibile a ruoli umani tradizionali.
Da un lato, un sistema capace di evitare abusi può fungere da deterrente. In assenza di contromisure – come nel caso di Mỹ Lai – le derive possono essere catastrofiche. Dall’altro, il nodo resta la definizione di ciò che è legalmente e moralmente accettabile. Chi stabilisce i parametri etici? Il programmatore? Il comando militare? E nella complessità del terreno di guerra, siamo sicuri che l’AI sia in grado di comprendere l’ambiguità, la proporzionalità, l’intento?
L’autonomia in campo operativo non è mai assoluta. Il percorso che va dal supporto passivo alla decisione attiva è graduale e pieno di ostacoli, anche teorici. L’intelligenza artificiale può riconoscere schemi, ma potrebbe far fatica a interpretare contesti in cui la distinzione tra civile e militare sfuma.
Inoltre, l’etica di un sistema autonomo non esiste nel vuoto. Ogni AI militare porta in sé le scelte, culturali e politiche, della catena di sviluppo e di implementazione. In un sistema internazionale frammentato le regole condivise sono sempre più rare. Stati diversi costruiscono sistemi su basi di valore che possono essere incompatibili: la stessa azione può essere ammessa in un contesto e un abuso in un altro.
L’ingegneria di un sistema di questo tipo diventa allora anche un atto politico. Scrivere istruzioni etiche in un algoritmo significa esportare una specifica visione del giusto e del lecito. Nei teatri di guerra multilaterali, questa eterogeneità rischia di dar forma a macchine in conflitto non solo con i nemici, ma anche con i propri alleati.
AI come coscienza ausiliaria?
Una delle possibilità più concrete e immediate è l’impiego dell’AI come strumento di orientamento decisionale. Sistemi capaci di aggregare fonti diverse, valutare variabili in più scenari e suggerire corsi d’azione alternativi possono ridurre errori umani e alleggerire il carico decisionale in situazioni critiche. Non sostituiscono il comando, ma lo accompagnano con maggiore lucidità e coerenza legale.
Tuttavia, anche in questa funzione si affacciano dilemmi. Se una decisione suggerita dall’AI si rivela sbagliata, chi ne risponde? Alcuni ufficiali delle forze armate israeliane hanno sollevato più di una perplessità riguardo agli errori dei sistemi di intelligenza artificiale che indicano dove colpire. E quanto si rischia, con il tempo, ad affidarsi troppo a giudizi percepiti come neutri, perdendo la capacità di esercitare un vero discernimento umano?
Pensare a un drone in grado di replicare il gesto di Hugh Thompson significa interrogarsi concretamente sul futuro della responsabilità in guerra. Le capacità per rilevare abusi e proporre alternative ci sono. Ma tra assistere il giudizio e sostituirlo corre una linea che non possiamo ignorare.
Nel suo ruolo migliore, l’AI può fungere da coscienza esterna, un promemoria che alcuni ordini meritano di essere messi in discussione e che il diritto internazionale è parte integrante delle decisioni tattiche, poiché orienta l’azione sul campo e impone limiti concreti all’uso della forza. Cedere troppo al calcolo, tuttavia, rischierebbe di affievolire proprio quel margine umano che, nei momenti più critici, ha saputo dire no. E quel margine – fatto di coscienza, dubbio e coraggio – non si può programmare.