Le Pentagone vient de signer une série d’accords pour déployer des outils d’intelligence artificielle dans ses réseaux classifiés.
Dans la liste, tu retrouves des poids lourds, OpenAI, Google, Microsoft, Nvidia, mais aussi Amazon Web Services, SpaceX, xAI et la startup Reflection. L’objectif affiché est d’intégrer l’IA dans des usages opérationnels, avec une formule qui revient dans les annonces, l’ usage légal. Le point qui fait grincer des dents, c’est l’absence d’Anthropic, pourtant déjà utilisé par le passé sur des sujets sensibles. Le ministère de la Défense a maintenu son exclusion en le qualifiant de risque de chaîne d’approvisionnement, sur fond de désaccords sur les garde-fous, notamment autour de la surveillance intérieure et des armes autonomes. Et là, on touche au nerf de la guerre, qui décide des limites quand l’IA entre dans le militaire.
Le Pentagone ouvre ses réseaux classifiés à sept laboratoires IA
Les accords annoncés couvrent le déploiement de systèmes d’IA sur des réseaux classifiés du Department of Defense, avec une intégration prévue dans des environnements appelés Impact Levels 6 et Impact Levels 7. Dans la pratique, ça vise des usages où les données sont hautement sensibles, et où l’IA est présentée comme un accélérateur, synthèse de données, compréhension de situation, aide à la décision sur des théâtres complexes.
La liste des signataires est large, OpenAI, Google, Microsoft, Amazon Web Services, plus Nvidia, SpaceX, xAI et Reflection. Ce mélange a un sens, les clouds dominants pour héberger et sécuriser, les modèles pour traiter l’information, les puces pour calculer vite. Un ancien responsable IT de la défense, cité sous couvert d’anonymat, résume le raisonnement, tu ne peux pas industrialiser l’IA sur du classifié sans la chaîne complète, du data center au modèle.
Il y a aussi une logique de continuité. Microsoft et AWS ont déjà des relations profondes avec le Pentagone, ce n’est pas un saut dans l’inconnu. En revanche, l’arrivée de Nvidia et de Reflection est plus nouvelle dans ce type d’annonce, et montre que l’enjeu n’est pas seulement logiciel. Sans capacité de calcul, les promesses d’IA restent un démonstrateur, pas un outil opérationnel.
Anthropic exclu après un conflit sur la clause any lawful purpose
L’absence d’Anthropic n’est pas un détail, parce que l’entreprise a déjà travaillé sur des sujets classifiés. Le Pentagone l’a pourtant écartée, en la désignant comme risque de chaîne d’approvisionnement. Derrière cette formule, il y a un rapport de force, le ministère veut garder la main sur les conditions d’emploi, et Anthropic a contesté des termes jugés trop larges, notamment la possibilité d’utiliser la technologie pour tout usage légal.
Le désaccord porte sur les garde-fous, avec des inquiétudes mises en avant par Anthropic sur des scénarios comme la surveillance domestique ou des armes autonomes sans supervision humaine. Le Pentagone, lui, martèle l’idée d’un usage lawful, ce qui, dit autrement, renvoie à la légalité plutôt qu’à une charte éthique rédigée par un fournisseur. Dans une audition, le secrétaire à la Défense Pete Hegseth a même comparé la situation à un industriel qui vendrait un produit en dictant ensuite les cibles autorisées.
Ce bras de fer a un effet immédiat, il redistribue les cartes du marché public IA. Une analyste en politiques technologiques, Marc D., note que la clause ‘lawful’ devient une norme contractuelle, et ceux qui refusent risquent de perdre l’accès aux environnements les plus rémunérateurs. La nuance, c’est que la sécurité et la confiance sont aussi des arguments commerciaux, et l’exclusion d’Anthropic peut alimenter un débat public sur la gouvernance, plutôt que le clore.
OpenAI, Google, Microsoft et Nvidia se positionnent sur l’IA militaire
Pour les entreprises retenues, l’intérêt est double, financier et stratégique. Être validé pour des usages classifiés, c’est un label de robustesse, sécurité, conformité, capacité d’intégration. Et pour le Pentagone, multiplier les fournisseurs réduit le risque de dépendance à un seul acteur. Dans les annonces, l’ambition est de bâtir une force AI-first, avec une promesse centrale, la supériorité décisionnelle grâce à des outils capables de traiter des volumes d’information impossibles à absorber humainement.
Concrètement, l’IA peut servir à résumer des rapports, croiser des flux, détecter des incohérences, ou accélérer la préparation de briefings. Les environnements classifiés imposent aussi des contraintes, pas question d’envoyer des données sensibles sur des services publics. Là, les accords ouvrent la porte à des déploiements contrôlés, sur des réseaux internes, avec des exigences de sécurité renforcées. Un ingénieur travaillant sur des architectures cloud gouvernementales, Marc L., rappelle un point souvent oublié, le défi, ce n’est pas de faire répondre un chatbot, c’est de tracer, auditer et limiter ce qu’il voit.
Reste une critique, le concept d’ usage légal est large, et la loi n’est pas un mode d’emploi technique. Entre l’intention politique et l’implémentation, il y a des arbitrages, quels logs, quels contrôles humains, quelles limites sur les sorties du modèle. Les signatures avec OpenAI, Google, Microsoft et Nvidia montrent une accélération, mais elles déplacent la question centrale vers l’exécution, qui surveille, qui valide, et qui assume quand l’outil influence une décision opérationnelle.
Sources
- Pentagon strikes classified AI deals with OpenAI, Google, and Nvidia
- Pentagon reaches deal with leading AI companies for classified work
- Pentagon excludes Anthropic from AI deals over safety disputes
- Pentagon reaches agreements with top AI companies, but not …
- Pentagon inks deals with seven AI companies for classified …

