Le Pentagone déploie l’IA sur ses réseaux classifiés avec OpenAI Google Microsoft Nvidia et exclut Anthropic pour refus des conditions sur les armes autonomes et la surveillance intérieure

Le Pentagone déploie l'IA sur ses réseaux classifiés avec OpenAI Google Microsoft Nvidia et exclut Anthropic pour refus des conditions sur les armes autonomes et la surveillance intérieure

Le Pentagone vient de signer une série d’accords pour déployer des outils d’intelligence artificielle dans ses réseaux classifiés.

Dans la liste, tu retrouves des poids lourds, OpenAI, Google, Microsoft, Nvidia, mais aussi Amazon Web Services, SpaceX, xAI et la startup Reflection. L’objectif affiché est d’intégrer l’IA dans des usages opérationnels, avec une formule qui revient dans les annonces, l’ usage légal. Le point qui fait grincer des dents, c’est l’absence d’Anthropic, pourtant déjà utilisé par le passé sur des sujets sensibles. Le ministère de la Défense a maintenu son exclusion en le qualifiant de risque de chaîne d’approvisionnement, sur fond de désaccords sur les garde-fous, notamment autour de la surveillance intérieure et des armes autonomes. Et là, on touche au nerf de la guerre, qui décide des limites quand l’IA entre dans le militaire.

Le Pentagone ouvre ses réseaux classifiés à sept laboratoires IA

Les accords annoncés couvrent le déploiement de systèmes d’IA sur des réseaux classifiés du Department of Defense, avec une intégration prévue dans des environnements appelés Impact Levels 6 et Impact Levels 7. Dans la pratique, ça vise des usages où les données sont hautement sensibles, et où l’IA est présentée comme un accélérateur, synthèse de données, compréhension de situation, aide à la décision sur des théâtres complexes.

La liste des signataires est large, OpenAI, Google, Microsoft, Amazon Web Services, plus Nvidia, SpaceX, xAI et Reflection. Ce mélange a un sens, les clouds dominants pour héberger et sécuriser, les modèles pour traiter l’information, les puces pour calculer vite. Un ancien responsable IT de la défense, cité sous couvert d’anonymat, résume le raisonnement, tu ne peux pas industrialiser l’IA sur du classifié sans la chaîne complète, du data center au modèle.

A lire aussi :  Le Japon vient de transmettre un signal cérébral sans fil sans batterie en utilisant uniquement la chaleur du corps à 32°C lors de l'Expo 2025 d'Osaka

Il y a aussi une logique de continuité. Microsoft et AWS ont déjà des relations profondes avec le Pentagone, ce n’est pas un saut dans l’inconnu. En revanche, l’arrivée de Nvidia et de Reflection est plus nouvelle dans ce type d’annonce, et montre que l’enjeu n’est pas seulement logiciel. Sans capacité de calcul, les promesses d’IA restent un démonstrateur, pas un outil opérationnel.

Anthropic exclu après un conflit sur la clause any lawful purpose

L’absence d’Anthropic n’est pas un détail, parce que l’entreprise a déjà travaillé sur des sujets classifiés. Le Pentagone l’a pourtant écartée, en la désignant comme risque de chaîne d’approvisionnement. Derrière cette formule, il y a un rapport de force, le ministère veut garder la main sur les conditions d’emploi, et Anthropic a contesté des termes jugés trop larges, notamment la possibilité d’utiliser la technologie pour tout usage légal.

Le désaccord porte sur les garde-fous, avec des inquiétudes mises en avant par Anthropic sur des scénarios comme la surveillance domestique ou des armes autonomes sans supervision humaine. Le Pentagone, lui, martèle l’idée d’un usage lawful, ce qui, dit autrement, renvoie à la légalité plutôt qu’à une charte éthique rédigée par un fournisseur. Dans une audition, le secrétaire à la Défense Pete Hegseth a même comparé la situation à un industriel qui vendrait un produit en dictant ensuite les cibles autorisées.

A lire aussi :  La Chine lance LineShine un supercalculateur de 2 exaflops avec 47 000 CPU sans aucune puce étrangère : une réponse directe aux contrôles américains sur les semi-conducteurs et à El Capitan

Ce bras de fer a un effet immédiat, il redistribue les cartes du marché public IA. Une analyste en politiques technologiques, Marc D., note que la clause ‘lawful’ devient une norme contractuelle, et ceux qui refusent risquent de perdre l’accès aux environnements les plus rémunérateurs. La nuance, c’est que la sécurité et la confiance sont aussi des arguments commerciaux, et l’exclusion d’Anthropic peut alimenter un débat public sur la gouvernance, plutôt que le clore.

OpenAI, Google, Microsoft et Nvidia se positionnent sur l’IA militaire

Pour les entreprises retenues, l’intérêt est double, financier et stratégique. Être validé pour des usages classifiés, c’est un label de robustesse, sécurité, conformité, capacité d’intégration. Et pour le Pentagone, multiplier les fournisseurs réduit le risque de dépendance à un seul acteur. Dans les annonces, l’ambition est de bâtir une force AI-first, avec une promesse centrale, la supériorité décisionnelle grâce à des outils capables de traiter des volumes d’information impossibles à absorber humainement.

Concrètement, l’IA peut servir à résumer des rapports, croiser des flux, détecter des incohérences, ou accélérer la préparation de briefings. Les environnements classifiés imposent aussi des contraintes, pas question d’envoyer des données sensibles sur des services publics. Là, les accords ouvrent la porte à des déploiements contrôlés, sur des réseaux internes, avec des exigences de sécurité renforcées. Un ingénieur travaillant sur des architectures cloud gouvernementales, Marc L., rappelle un point souvent oublié, le défi, ce n’est pas de faire répondre un chatbot, c’est de tracer, auditer et limiter ce qu’il voit.

A lire aussi :  Cette hypercar électrique veut faire du 0 à 100 km/h en 0,9 seconde avec des boosters de fusée intégrés

Reste une critique, le concept d’ usage légal est large, et la loi n’est pas un mode d’emploi technique. Entre l’intention politique et l’implémentation, il y a des arbitrages, quels logs, quels contrôles humains, quelles limites sur les sorties du modèle. Les signatures avec OpenAI, Google, Microsoft et Nvidia montrent une accélération, mais elles déplacent la question centrale vers l’exécution, qui surveille, qui valide, et qui assume quand l’outil influence une décision opérationnelle.

Laisser un commentaire