USA, lo scontro tra DoD e Anthropic sull’’IA militare: contrasti contrattuali o vulnus democratico?

| 18/03/2026
USA, lo scontro tra DoD e Anthropic sull’’IA militare: contrasti contrattuali o vulnus democratico?

I confini dell’uso militare dell’IA non possono essere risolti attraverso un negoziato ad hoc tra un Segretario di Stato della Casa Bianca e l’amministratore delegato di una pur importante società di IA. Né possono essere determinati sulla base del potere contrattuale, peraltro qui ampiamente asimmetrico, esercitato da ciascuna delle parti. Sbagliato ridurre il tutto a una disputa negoziale tra committente e fornitore.

La disputa tra il Dipartimento della Difesa USA (DoD) e l’azienda americana Anthropic sta sollevando un quesito di non poco conto su chi possa o debba impostare i guardrail per l’uso militare dell’intelligenza artificiale: i governi, le aziende private o pubbliche che siano o i Parlamenti attraverso un confronto democratico?

La vicenda è nota ed è esplosa con le resistenze di Dario Amodei di Anthropic alla richiesta imposta dal Segretario alla Difesa Pete Hegseth di consentire al DoD l’uso illimitato dei suoi sistemi di intelligenza artificiale. Quando Anthropic ha rifiutato il diktat, l’amministrazione americana ha indicato l’azienda come “…un soggetto di grave rischio per la catena di approvvigionamento della sicurezza USA…” ed ha ordinato alle agenzie federali di eliminare gradualmente la tecnologia di Anthropic dalle applicazioni in uso in apparati di governo.

Le ragioni dello scontro tra Department of Defence e Anthropic

Il rifiuto di Anthropic va inquadrato secondo due punti di vista: da un lato non consentire l’uso dei propri modelli per applicazioni indiscriminate di sistemi di sorveglianza interna dei cittadini americani, dall’altro non affidare a procedure completamente controllate da macchine la scelta dei target di azioni militari. 

Da canto suo il capo del DoD, Pete Hegseth, ha rifiutato i “vincoli ideologici” incorporati nei sistemi di intelligenza artificiale di Anthropic, sostenendo che determinare le modalità esecutive di ogni azione militare è competenza esclusiva del governo e non del fornitore delle apparecchiature usate.

Messa così, la vicenda potrebbe essere classificata come una controversia tra cliente e fornitore, un disaccordo in materia di appalti pubblici.

Formalmente, in un’economia di mercato, è il governo americano che decide quali prodotti e servizi voglia acquistare, mentre alle aziende fornitrici spetta decidere cosa sono disposte a vendere e a quali condizioni. In questo quadro, se un prodotto non dovesse soddisfare le esigenze operative previste, il governo può acquistare da un altro fornitore. Sul versante opposto, se un’azienda ritiene che determinati usi della sua tecnologia siano non sicuri, prematuri o incoerenti con i suoi valori o la sua tolleranza al rischio, allora quell’azienda può decidere di interrompere la fornitura. 

Perché Pete Hegseth va oltre la linea rossa?

La vicenda diventa più complicata e per molti versi preoccupante, quando, a seguito delle dinamiche qui descritte, il governo americano indica Anthropic come un soggetto che mette “…a rischio la catena di forniture e di approvvigionamento”. Una definizione, questa, usata generalmente per indicare le vulnerabilità della sicurezza nazionale, come quelle riconducibili o imputabili a nemici stranieri.

In questo senso, appare del tutto improprio l’uso di un sistema che mette in blacklist nazionale una società americana per il solo fatto di aver rifiutato i termini contrattuali richiesti dal governo.

L’esercizio improprio di autorità da parte del governo americano rappresenta un cambio di passo (anche inaspettato) che trasforma il disaccordo sui termini di un appalto in una pesante clava coercitiva.

Il Segretario Pete Heggseth è stato inequivocabile “…con effetto immediato, nessun appaltatore, fornitore o partner che faccia affari con l’esercito degli Stati Uniti può svolgere alcuna attività commerciale con Anthropic“. Si è in questo modo creata una situazione senza precedenti che darà seguito (come è stato peraltro già annunciato) a pesanti azioni legali e che solleva un problema che va ben oltre la perdita di un singolo appalto del DoD.

L’IA usata per sorvegliare i cittadini?

Ma torniamo alle obiezioni di Anthropic.

La prima riguarda l’opposizione alla sorveglianza interna dei cittadini statunitensi, un tema che tocca inevitabilmente preoccupazioni ben consolidate sulle libertà civili. Il governo degli Stati Uniti opera sotto precisi vincoli costituzionali quando si tratta di monitorare gli americani. Un’azienda che afferma di non volere che gli strumenti da essa prodotti siano utilizzati per facilitare la sorveglianza domestica, non si pone quindi in una posizione contraria agli interessi nazionali, si sta semmai allineando con rispetto a guardrail democratici nazionali e consolidati. 

Qui si potrebbe obiettare che la richiesta del governo americano non richiama la volontà specifica di controllare i cittadini americani, ma di rifiutare modelli che prevedano restrizioni integrate a monte nell’uso di soluzioni tecnologiche. In altre parole, il Dipartimento della Difesa qui sostiene che il rispetto della legge è responsabilità del governo e non può essere considerato come qualcosa che deve essere incorporato nel codice informatico di un fornitore.

Anthropic, da parte sua, ha investito molto nella creazione dei suoi sistemi appositamente orientati a rifiutare (ideologicamente) determinate applicazioni dannose o ad alto rischio, compresa la sorveglianza. 

In questo caso, il disaccordo tra governo e fornitore riguarda in modo più ampio al principio del controllo istituzionale esercitato sui limiti applicativi di una soluzione tecnologica, ovvero se tali limiti debbano essere oggetto dell’azione di governo o rientrino tra le scelte del fornitore che ha messo a disposizione la soluzione in oggetto.

Autonomia dell’IA nella scelta dei target militari?

Più rilevante è il secondo problema, quello dell’opposizione alla scelta del target militare secondo procedure completamente autonome. Un tema che è, come intuibile, ben più complesso.

Va ricordato che il DoD ha già attive regole e policy che richiedono la valutazione e la decisione umana nell’uso della forza militare e i dibattiti sull’autonomia decisionale nei sistemi d’arma sono anche ampiamente in corso in seno a forum militari sia interni che internazionali. Tuttavia, e non c’è nulla di inaccettabile in questo, una società privata può ragionevolmente determinare che la propria tecnologia non è sufficientemente affidabile o controllabile per determinate applicazioni sul campo di battaglia. Allo stesso tempo, i militari possono concludere, da canto loro, che tali capacità sono necessarie per la deterrenza e l’efficacia operativa e pertanto saranno liberi di rivolgersi ad un altro fornitore.

Dalla negoziazione contrattuale alle decisioni del Congresso

È del tutto ragionevole che su dinamiche del genere ci possano essere punti di vista differenti e possano non essere trovati punti di accordo. Ma nella disputa tra DoD e Anthropic siamo andati oltre.

I confini dell’uso militare dell’IA non possono essere risolti attraverso un negoziato ad hoc tra un Segretario di Stato della Casa Bianca e l’amministratore delegato di una pur importante società di IA. Né possono essere determinati sulla base del potere contrattuale, peraltro qui ampiamente asimmetrico, esercitato da ciascuna delle parti.

Se il governo degli Stati Uniti ritiene che alcune prestazioni di intelligenza artificiale siano essenziali per la difesa nazionale, tale posizione dovrebbe essere articolata apertamente e ufficializzata secondo le procedure ordinarie. Il tema dovrebbe essere discusso dal Congresso e, una volta approvato, essere riversato nella dottrina, nei meccanismi di supervisione e nei quadri nazionali di norme e regolamenti. 

Gli Stati Uniti si distinguono dai regimi autoritari proprio perché il potere opera all’interno di istituzioni democratiche trasparenti e in un quadro di vincoli legali. Quindi nulla che abbia a che fare con ultimatum esecutivi emessi a porte chiuse.

La gestione del rischio 

C’è poi una dimensione strategica. Se le aziende avvertono che la partecipazione ai mercati federali richiede la rinuncia a particolari condizioni, potrebbero in qualche caso decidere di uscire da quei mercati nazionali. Mentre altre potrebbero rispondere annacquando o rimuovendo i guardrail del modello originario, per allinearsi alle aspettative ed agli standard imposti dai contratti governativi. Ma, va detto, in nessuno dei due casi risulterebbe rafforzata la leadership tecnologica americana.

Il DOD ha ovviamente le sue ragioni nel non voler consentire potenziali “vincoli ideologici” soggettivi di un fornitore che possono minare le operazioni militari, ma c’è una differenza tra rifiutare restrizioni arbitrarie e rifiutare qualsiasi misura per la gestione del rischio.

Nei domini ad alto rischio (dall’aerospaziale allasicurezza informatica) gli appaltatori impongono abitualmente standard di sicurezza e limitazioni operative come parte di una policy di commercializzazione responsabile. Non si comprende perché l’IA dovrebbe essere trattata come esente da quella pratica.

Il ruolo dello Stato

Il DoD dovrebbe ovviamente mantenere il ruolo di decisore finale sull’uso (sempre legale) di ogni soluzione. Ma non deve rifiutare la possibilità che alcuni guardrail incorporati a livello di progettazione, che potrebbero invece integrare le proprie strutture di supervisione e non minarle. In alcuni contesti, la ridondanza nei sistemi di sicurezza non indebolisce l’integrità operativa, semmai la rafforza. Allo stesso tempo, gli impegni etici unilaterali di un’azienda non possono essere considerati come sostituti della policy pubblica.

Quando le tecnologie comportano implicazioni per la sicurezza nazionale, la governance privata ha dei limiti intrinseci e le decisioni relative ad autorità di sorveglianza, armi autonome e regole di ingaggio appartengono alle istituzioni democratiche.

Rimane il nodo della governance dell’IA

Questo episodio che ha coinvolto il DoD e Anthropic evidenzia un momento cruciale nella governance dell’IA. 

Oggi i sistemi di intelligenza artificiale sono tanto potenti da influenzare l’analisi dell’intelligence, la logistica, le operazioni informatiche e potenzialmente anche il processo decisionale sul campo di battaglia. Ciò li rende troppo potenti per essere governati esclusivamente da una politica aziendale e ugualmente troppo potenti per essere governati esclusivamente dalla scelta discrezionale di un governo.

La soluzione non è potenziare una parte rispetto all’altra, ma individuare e rafforzare le istituzioni che mediano tra di loro.

Il Congresso americano dovrebbe chiarire, definire e decidere i confini statutari per l’uso militare dell’IA e approfondire se esista o meno una modalità di supervisione sufficiente. Il DoD dovrebbe articolare una procedura dettagliata per il controllo umano, l’audit e la responsabilità. La società civile e l’industria dovrebbero partecipare a processi di consultazione strutturati, piuttosto che a stalli episodici e la politica di approvvigionamento dovrebbe riflettere quegli standard stabiliti pubblicamente.

Se i guardrail dell’IA possono essere rimossi attraverso la pressione esercitata dal committente, a quel punto saranno trattati come elementi contrattuali negoziabili. Al contrario, se sono fondati sulla legge, possono diventare oggetto di aspettative prevedibili e stabili.

E va ribadito che i vincoli democratici sull’IA militare appartengono al campo della dottrina dello Stato, delle leggi e dei regolamenti, non alle negoziazioni tipiche delle trattative contrattuali private.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.