
Pentagono sceglie 8 Big Tech per AI, Anthropic fuori

Pentagono sceglie 8 Big Tech per l'AI militare ed esclude Anthropic: cosa cambia per le aziende
Il 1° maggio 2026, il Dipartimento della Difesa (DoD) statunitense ha siglato accordi con otto colossi tecnologici per integrare modelli di Intelligenza Artificiale nelle reti militari classificate. Un'esclusione ha catturato l'attenzione globale: Anthropic, uno dei principali laboratori di AI safety al mondo, è rimasta fuori.
La ragione non è tecnologica. Il DoD ha escluso Anthropic perché l'azienda si è rifiutata di rimuovere i propri "guardrail" etici — i filtri di sicurezza integrati nel modello Claude — per consentire al governo un accesso illimitato "per qualsiasi uso lecito". Una linea rossa che Anthropic non ha attraversato, anche a costo di perdere uno dei contratti governativi più rilevanti del decennio.
La strategia del Pentagono: multi-vendor per evitare il vendor lock-in
Il DoD non ha scelto un unico fornitore AI. Ha costruito un ecosistema deliberatamente diversificato, distribuendo i contratti su otto aziende con competenze complementari. L'obiettivo dichiarato: creare una forza armata "AI-first" senza dipendere da un singolo provider che potrebbe cambiare termini, prezzi o disponibilità.
Questa architettura multi-vendor è la risposta istituzionale al rischio di vendor lock-in — un rischio che riguarda anche le imprese private, non solo i governi.
Chi sono gli otto partner tecnologici del Pentagono?
| Azienda | Area di Competenza | Ruolo Strategico |
|---|---|---|
| Amazon Web Services (AWS) | Cloud & Infrastruttura | Base cloud sicura per ambienti classificati |
| Modelli AI & Cloud (GCP) | Accesso a Gemini e infrastruttura Google Cloud | |
| Microsoft | Cloud & AI (Azure) | Integrazione con Azure [OpenAI](/blog/gpt-5-4-openai-milione-token-computer-use) Service |
| Nvidia | Hardware & GPU | Potenza di calcolo per inferenza e training |
| OpenAI | Large Language Models | Modelli GPT-4o e successori per applicazioni operative |
| SpaceX | Connettività satellitare | Integrazione con Starlink per comunicazioni resilienti |
| Reflection AI | AI specializzata | Applicazioni verticali per scenari specifici |
| Oracle | Database & Cloud | Gestione sicura di dati strutturati su larga scala |
La selezione copre l'intera filiera: infrastruttura cloud (AWS, Google Cloud, Azure, Oracle), hardware (Nvidia), modelli linguistici (OpenAI), connettività (SpaceX) e AI verticale (Reflection AI). Nessun singolo punto di fallimento.
Perché Anthropic è stata esclusa: il conflitto sui guardrail di Claude
L'esclusione di Anthropic non è una bocciatura tecnica. Claude è considerato uno dei modelli più capaci e sicuri sul mercato. Il problema è strutturale: la filosofia "Constitutional AI" di Anthropic prevede vincoli etici non negoziabili integrati nel modello.
Il rifiuto dell'accesso illimitato
All'inizio del 2026, l'amministrazione Trump ha richiesto ad Anthropic un accesso senza restrizioni ai modelli Claude per "qualsiasi uso lecito" in ambito militare. Anthropic ha interpretato questa clausola come una potenziale apertura verso sistemi d'arma autonomi e programmi di sorveglianza di massa — scenari incompatibili con i propri principi fondativi.
L'azienda ha rifiutato. Il DoD l'ha classificata come "supply-chain risk".
Anthropic ha scelto i propri principi etici su un contratto governativo di altissimo profilo. Una decisione che la posiziona in modo unico nel mercato: è l'unico grande laboratorio AI che ha detto no al Pentagono per ragioni di sicurezza, non di capacità. Questo crea un precedente rilevante per qualsiasi azienda che adotti AI in contesti regolamentati.
La battaglia legale: ingiunzione provvisoria, ma esclusione confermata
Anthropic ha contestato la designazione "supply-chain risk" in tribunale, ottenendo un'ingiunzione provvisoria. Nonostante questo successo legale, il DoD ha proceduto con i nuovi accordi multi-vendor. Anthropic rimane fuori dall'ecosistema AI militare classificato, almeno nel breve termine.
Questi accordi accelerano la trasformazione per rendere le forze armate degli Stati Uniti una forza da combattimento AI-first.
Reti classificate IL6 e IL7: cosa significano per la maturità dell'AI
Il fatto che modelli AI commerciali vengano distribuiti su reti IL6 (Impact Level 6 — Secret) e IL7 (Impact Level 7 — Top Secret) è un segnale tecnico preciso: l'AI ha raggiunto un livello di affidabilità e controllabilità sufficiente per ambienti ad altissima sensibilità.
Questi ambienti richiedono:
- Crittografia end-to-end certificata a livello militare
- Audit log immutabili di ogni interazione con il modello
- Controllo degli accessi basato su ruoli e clearance
- Isolamento di rete completo da internet pubblico
Se l'AI può operare in modo sicuro su reti Top Secret, può certamente operare in modo sicuro in un'azienda manifatturiera, in uno studio legale o in un ospedale — con le giuste configurazioni.
Le lezioni per le aziende italiane: governance, diversificazione, EU AI Act
Il caso Pentagono-Anthropic non è una notizia geopolitica distante. Contiene tre lezioni operative dirette per qualsiasi impresa italiana che stia pianificando un'adozione AI strutturata.
1. Il modello multi-vendor è una polizza assicurativa
Affidarsi a un unico LLM — che sia GPT-4o di OpenAI, Claude di Anthropic o Gemini di Google — crea una dipendenza strategica. Se il provider aumenta i prezzi, cambia i termini di servizio o subisce un'interruzione, l'intera operatività AI dell'azienda si ferma.
La strategia vincente prevede l'orchestrazione di più modelli: usare GPT-4o per la generazione di testi commerciali, Claude per l'analisi di documenti legali, Llama 3 (open-source) per i task interni che richiedono privacy totale. Ogni modello per il task in cui eccelle.
2. I guardrail non sono un ostacolo: sono un requisito di compliance
L'EU AI Act classifica i sistemi AI per livello di rischio. Le applicazioni in ambito HR, credito, sanità e infrastrutture critiche rientrano nelle categorie ad alto rischio e richiedono documentazione, audit e controlli obbligatori. Scegliere un provider AI senza una solida struttura di governance significa esporsi a sanzioni e rischi reputazionali.
La posizione di Anthropic — rifiutare un contratto pur di mantenere i propri guardrail — dimostra che la governance AI non è un costo: è un asset competitivo e un requisito normativo.
3. La scelta del partner tecnologico è una decisione strategica, non tecnica
Come il DoD ha valutato i propri partner non solo per le capacità del modello, ma per la loro struttura di sicurezza e governance, le imprese italiane devono fare lo stesso. Il partner AI giusto non è quello con il benchmark più alto su MMLU: è quello che garantisce continuità operativa, conformità normativa e trasparenza sui dati.
Come Datazen applica questi principi
In Datazen, l'approccio multi-vendor e la governance AI non sono opzioni: sono la base di ogni progetto. Aiutiamo le aziende a costruire architetture AI che non creano dipendenze tecnologiche e che reggono all'evoluzione normativa dell'EU AI Act.
Il nostro metodo si articola su tre pilastri:
Orchestrazione Multi-Modello
Integriamo modelli di OpenAI, Anthropic, Google e provider open-source come Meta Llama in un unico flusso di lavoro. Ogni modello viene selezionato per il task in cui offre il miglior rapporto performance/costo.
Governance e Sicurezza
Implementiamo guardrail personalizzati, audit log strutturati e controlli di accesso basati su ruoli. Le soluzioni sono progettate per essere conformi all'EU AI Act fin dall'architettura.
Focus sul ROI misurabile
Selezioniamo la tecnologia giusta per il task giusto. Nessuna soluzione viene proposta senza una stima chiara del ritorno sull'investimento e dei costi operativi nel tempo.
Vuoi costruire una strategia AI senza vendor lock-in?
Prenota una call conoscitiva gratuita con i nostri esperti per progettare un'architettura AI multi-vendor, sicura e conforme all'EU AI Act.
Prenota Consulenza GratuitaConclusione
La decisione del Pentagono di costruire un ecosistema AI multi-vendor ed escludere Anthropic per ragioni di governance non è solo una notizia di geopolitica tecnologica. È un caso di studio su come le organizzazioni più esigenti al mondo stanno affrontando l'adozione dell'AI: con diversificazione, controllo e principi non negoziabili.
Per le imprese italiane, il messaggio è chiaro: l'AI non si adotta scegliendo il modello con il benchmark più alto. Si adotta costruendo un'architettura che garantisce continuità, sicurezza e conformità — indipendentemente da cosa succede nel mercato dei provider.
Domande Frequenti
Le otto aziende sono Amazon Web Services (AWS), Google, Microsoft, Nvidia, OpenAI, SpaceX, Reflection AI e Oracle. La selezione copre l'intera filiera tecnologica: infrastruttura cloud, hardware GPU, modelli linguistici, connettività satellitare e AI verticale, garantendo al DoD un ecosistema diversificato senza dipendenza da un singolo fornitore.
Anthropic è uno dei principali laboratori di ricerca AI al mondo, fondato da ex ricercatori di OpenAI, noto per il modello Claude e per il suo approccio "Constitutional AI" alla sicurezza. La sua esclusione è rilevante perché non dipende da carenze tecnologiche — Claude è considerato uno dei modelli più capaci sul mercato — ma dal rifiuto di rimuovere i propri guardrail etici per consentire un accesso militare illimitato. È il primo caso documentato in cui un'azienda AI ha perso un contratto governativo per eccesso di sicurezza, non per mancanza di capacità.
IL6 (Impact Level 6) e IL7 (Impact Level 7) sono i livelli più alti di classificazione di sicurezza per i sistemi informativi del Dipartimento della Difesa statunitense. IL6 gestisce dati classificati "Secret", IL7 gestisce dati "Top Secret". La distribuzione di modelli AI commerciali su queste reti richiede crittografia certificata, audit log immutabili, isolamento di rete completo e controlli di accesso basati su clearance di sicurezza.
Il vendor lock-in nell'AI si verifica quando un'azienda dipende da un unico provider per i propri sistemi AI, esponendosi a rischi di aumento dei prezzi, cambiamenti nei termini di servizio o interruzioni operative. Si evita adottando un'architettura multi-modello che orchestra LLM diversi — come GPT-4o, Claude, Gemini e Llama — selezionando il modello più adatto per ogni specifico task e mantenendo la portabilità dei dati e dei flussi di lavoro.



