Anthropic contro il Pentagono: no all’IA per sorvegliare

Anthropic ha detto no al Pentagono. La startup statunitense di intelligenza artificiale — una delle più importanti rivali di OpenAI — ha rifiutato l’ultimatum con cui il Dipartimento della Difesa chiedeva un accesso sostanzialmente senza vincoli a Claude, il suo modello linguistico: un sistema capace di generare testi, riassunti e analisi a partire da grandi quantità di dati, usato in ambito civile come “chatbot” ma potenzialmente impiegabile anche per funzioni di supporto all’intelligence.

A rendere la notizia politicamente esplosiva non è solo il rifiuto in sé, ma il terreno su cui si consuma lo scontro. Dario Amodei, amministratore delegato di Anthropic (ex ricercatore e dirigente nel settore IA, passato anche da OpenAI prima di fondare la sua azienda), ha motivato il “no” dicendo che la società non può “in buona coscienza” accettare alcune condizioni richieste dal Pentagono.

In particolare, Anthropic sostiene di voler mantenere due divieti netti: che Claude venga usato per sorveglianza di massa sui cittadini americani e per lo sviluppo di armi autonome, cioè sistemi in grado di selezionare e colpire bersagli senza un intervento umano significativo.

Il Pentagono, secondo queste ricostruzioni, vorrebbe invece poter disporre della tecnologia con margini molto più larghi. E qui si capisce qual è la vera partita: non “una startup pacifista contro i militari”, ma una disputa su chi controlla i freni di un modello dentro apparati che, per loro natura, operano con livelli elevati di segretezza.

Perché l’espressione “accesso illimitato” non è un dettaglio tecnico: può significare molte cose, dall’allentamento delle barriere progettate per impedire certi usi, alla possibilità di adattare il sistema a dati e procedure classificate, fino alla creazione di filiere operative in cui l’output del modello — analisi, priorità, suggerimenti — finisce per orientare decisioni reali.

La risposta del Pentagono, nelle versioni circolate sui media, non si fermerebbe alla minaccia di interrompere il rapporto. Si parla della possibilità di dichiarare Anthropic un “rischio per la catena di approvvigionamento” della difesa: una definizione che, in pratica, può rendere difficili o impossibili collaborazioni future con altri appaltatori militari.

Foto Air Force Staff Sgt. John Wright, DOD Creative Commons Attribution 4.0 International

E c’è un altro nome, ancora più pesante, evocato come arma negoziale: il Defense Production Act, una legge federale statunitense nata in epoca di Guerra di Corea e pensata per consentire al governo di mobilitare l’industria in nome della sicurezza nazionale. In termini semplici: è lo strumento che permette a Washington di imporre priorità produttive e, in alcune circostanze, forzare la disponibilità di beni e servizi ritenuti strategici.

Richiamarlo in un braccio di ferro con una società di IA significa una cosa: lo Stato sta dicendo che questi modelli non sono più “software come gli altri”, ma infrastruttura critica.

Il caso Anthropic diventa ancora più interessante se lo si guarda per contrasto. Perché, mentre Anthropic prova a fissare per contratto due linee rosse, molte altre aziende hanno scelto negli ultimi anni un adattamento più fluido alle richieste governative.

OpenAI, per esempio, ha modificato le proprie regole d’uso eliminando il divieto esplicito legato a “military and warfare” e ha poi costruito un canale dedicato ai clienti pubblici, fino ad annunciare accordi con il Dipartimento della Difesa.

Google, dopo anni in cui rivendicava principi “restrittivi” sull’uso bellico dell’IA, ha rivisto la propria cornice di impegni in modo più permissivo. E sul piano dell’infrastruttura, i grandi fornitori cloud — che sono la vera porta d’ingresso dei modelli nei sistemi classificati — lavorano per ottenere autorizzazioni e compliance che rendono tecnicamente possibile far girare questi strumenti dentro ambienti sensibili.

La domanda, quindi, non è se Claude sia “buono” o “cattivo”. La domanda è: chi decide i limiti dell’IA quando entra nella sfera militare, dove la trasparenza è per definizione minima e il controllo pubblico è debole. Anthropic sta tentando di trasformare l’etica in clausola contrattuale.

Il Pentagono sta provando a trasformare l’eccezione in regola: tutto ciò che è “legale” deve essere disponibile, senza riserve. In mezzo, c’è un conflitto che somiglia sempre meno a una disputa commerciale e sempre più a una riscrittura dei rapporti tra Stato, tecnologia privata e democrazia: perché quando la sicurezza nazionale diventa l’argomento totale, anche i freni rischiano di diventare negoziabili.

Dario Amodei – Foto UK Prime Minister Creative Commons Attribution 2.0 Generic

Leggi anche