OpenAI a signé avec le Pentagone, et la sanction est tombée en quelques heures. Sur X et Reddit, ça a crié à la trahison, avec une campagne « delete ChatGPT » qui a pris vite. Résultat visible: davantage de désinstallations, et un sentiment poisseux qui colle à la marque, même chez des gens qui n’ont jamais lu une ligne du contrat.
Dans le même temps, Claude, le chatbot d’Anthropic, a grimpé au sommet du classement de l’App Store d’Apple, devant ChatGPT. Pas parce que Claude est soudain devenu deux fois plus intelligent. Plutôt parce qu’Anthropic a refusé certaines utilisations militaires, et que cette posture a servi de bouclier moral. La bataille ne se joue pas seulement sur la puissance des modèles, mais sur l’image que tu renvoies quand tu touches au militaire.
L’accord OpenAI-Pentagone, et la phrase de trop d’Altman
Le point de départ est simple: OpenAI annonce un accord pour fournir ses modèles au Département de la Défense américain. Dans la foulée, Sam Altman justifie la vitesse du deal comme une tentative de calmer le jeu entre l’industrie de l’IA et Washington. Sur le papier, c’est une logique de realpolitik: tu coopères pour éviter pire, tu montres patte blanche, tu gardes un siège à la table.
Sauf que la com’ a dérapé. Altman a lui-même reconnu que ça donnait une impression « opportuniste » et « bâclée ». Et quand le patron d’une boîte qui pèse culturellement autant que ChatGPT te dit en gros « oui, c’était sloppy », tu imagines l’effet chez les utilisateurs. Ça ne rassure personne: ni ceux qui ont peur de l’usage militaire, ni ceux qui veulent juste un produit stable et prévisible.
Le contexte politique a mis de l’huile sur le feu. L’accord arrive juste après l’échec des discussions entre Anthropic et le Pentagone. Dans ce genre de séquence, tu as un récit tout prêt: « l’un refuse, l’autre prend le contrat ». Même si la réalité est plus compliquée, l’opinion publique adore les histoires simples. Et dans la tech, l’image se fait souvent en 280 caractères.
OpenAI a fini par modifier les termes du deal après le backlash, selon la presse anglo-saxonne. Mais tu connais la règle: la nuance arrive toujours après la première vague. La première impression, elle, reste. Et quand des commentateurs ressortent le spectre Snowden et la surveillance de masse, OpenAI se retrouve à devoir prouver un négatif: « non, on ne fait pas ça », « non, ce n’est pas pour surveiller ». Bon courage.
« Delete ChatGPT »: la sanction mesurée en désinstallations
Le truc, c’est que ce n’est pas qu’une tempête de commentaires. Des données de Sensor Tower ont montré une hausse de 200% du taux moyen quotidien de désinstallation de ChatGPT après l’annonce du partenariat. 200%. Tu peux toujours dire que ça va se tasser, que les gens réinstallent, que l’indignation a une durée de vie courte. Mais quand tu vois un signal chiffré pareil, tu sais que l’affaire a dépassé la bulle des journalistes.
Sur X et Reddit, des posts appelaient à prouver la suppression, avec une logique de boycott classique: « tu entraînes une machine de guerre ». C’est brut, parfois caricatural, mais ça touche une corde sensible. Parce que ChatGPT n’est pas un outil obscur réservé aux développeurs. C’est un produit grand public. Et plus tu es grand public, plus l’éthique perçue devient un argument de consommation.
OpenAI part avec un handicap particulier: sa taille. La société revendique plus de 900 millions d’utilisateurs de ChatGPT. C’est énorme, et ça fait aussi de toi une cible. Quand tu es partout, chaque faux pas devient un cas d’école, un symbole. Une petite boîte peut se rater et corriger en silence. OpenAI, elle, corrige sous les projecteurs, avec des gens qui scrutent la moindre ligne.
Il faut aussi regarder ce que ça dit de la relation utilisateur-produit. Beaucoup de gens ont intégré ChatGPT dans leur boulot, leurs études, leurs routines. Du coup, désinstaller, c’est un geste plus fort qu’un simple tweet. Mais ce n’est pas forcément un adieu définitif. C’est une manière de rappeler à OpenAI que la confiance, c’est une ressource. Et qu’elle se crame plus vite qu’elle ne se reconstruit.
Anthropic et sa « ligne rouge » sur les armes autonomes
Anthropic a refusé que ses modèles soient intégrés dans des systèmes d’armement autonomes ou utilisés pour de la surveillance de masse. La formulation est importante: « ligne rouge », principe d’entreprise. Dans un monde où beaucoup de boîtes parlent d’éthique comme d’un vernis, ça ressemble à un engagement plus structurant. Et forcément, ça plaît à une partie du public, surtout celui qui veut croire qu’une IA peut grandir sans finir dans un drone.
Sauf que cette posture a un coût politique immédiat. Après l’échec des négociations, Donald Trump a ordonné aux agences fédérales d’arrêter d’utiliser les technologies d’Anthropic après une transition de six mois. Il a aussi attaqué Anthropic verbalement, les traitant de « leftwing nut jobs ». Quand tu te prends ce genre de sortie, tu comprends que le débat n’est plus technique, il devient idéologique.
Et pourtant, l’histoire se complique. Des informations ont émergé indiquant que l’usage de Claude dans le cadre de la guerre entre les États-Unis, Israël et l’Iran a continué à exister, malgré la mise à l’écart officielle. Le Pentagone, lui, a refusé de commenter ses relations avec Anthropic. Donc tu as un double niveau: la doctrine affichée, et les usages réels qui peuvent persister dans des coins moins visibles.
Ce paradoxe, Anthropic le gère mieux qu’OpenAI sur un point: l’entreprise peut dire « nous, on a posé des limites ». Même si le monde réel est sale et que des usages détournés existent, la marque bénéficie de l’intention affichée. C’est cynique, mais c’est comme ça que fonctionne l’image publique. Tu n’es pas jugé uniquement sur ce qui se passe, mais sur ce que tu sembles accepter.
Claude numéro 1 sur l’App Store: symbole, pas preuve absolue
Claude a dépassé ChatGPT dans le classement de l’App Store d’Apple et s’est maintenu en tête plusieurs jours. Dans l’écosystème iPhone, ce genre de classement sert de baromètre culturel. Ce n’est pas une mesure parfaite de parts de marché, mais c’est un signal fort: à l’instant T, des gens ont eu envie d’essayer autre chose, et ils ont choisi Claude. Pour une boîte plus petite, c’est une vitrine énorme.
Il ne faut pas raconter n’importe quoi non plus. Les modèles phares d’OpenAI et d’Anthropic sont souvent jugés proches en niveau sur beaucoup de tâches, et la comparaison utile se fait plutôt sur les usages et les fonctionnalités. ChatGPT garde des avantages produit très concrets, comme l’intégration de la génération d’images via DALLE 3 dans l’interface. Claude, lui, ne génère pas d’images. Si ton boulot, c’est de produire du visuel, ChatGPT reste un couteau suisse.
Mais l’épisode montre un truc: l’image peut faire bouger les téléchargements plus vite que les benchmarks. Quand tu hésites entre deux apps « à peu près au même niveau », tu choisis aussi une histoire, une posture. Et Claude, à ce moment précis, raconte une histoire plus confortable: « on a dit non ». Ça suffit à déclencher un essai, surtout quand l’autre camp se prend une tempête.
Il y a aussi une dimension pratique. Les utilisateurs intensifs jonglent déjà entre plusieurs outils à cause des limites de messages, des quotas, des habitudes. Claude a des limites de type 45 messages toutes les cinq heures selon les cas, ce qui peut frustrer. Mais pour quelqu’un qui veut juste tester une alternative après un drama, ça passe. L’App Store, c’est l’achat d’impulsion version logiciel.
Le revers: l’armée utilise l’IA pour la logistique, pas juste pour tirer
Dans le débat public, « Pentagone » déclenche tout de suite des images de missiles et de ciblage automatique. Sauf que l’IA au militaire, c’est aussi des usages plus terre-à-terre: optimiser des chaînes logistiques, trier des rapports, analyser de gros volumes d’informations plus vite. C’est même souvent là que ça commence. Et c’est précisément pour ça que le sujet est glissant: la frontière entre « support » et « opérationnel » peut bouger avec le temps.
Les critiques d’OpenAI ont pointé le risque de surveillance, avec des références implicites à l’affaire Snowden et à la collecte de masse. OpenAI a nié que l’accord autorisait ce type d’usage. Mais dans l’imaginaire collectif, la nuance « autoriser » vs « rendre possible » n’existe pas. Si tu fournis un modèle puissant à une institution de sécurité, beaucoup de gens partent du principe que ça finira dans des usages discutables.
Et là, on touche la vraie question: qu’est-ce qu’une entreprise d’IA peut contrôler une fois que sa techno est dans des mains étatiques? Même avec des clauses, des garde-fous, des audits, tu n’as jamais une visibilité totale. C’est valable pour OpenAI, mais aussi pour Anthropic, surtout quand des infos indiquent que Claude a continué à être utilisé malgré des décisions politiques. Le contrôle parfait, c’est un mythe marketing.
Du coup, la « bataille de l’image » est peut-être une bataille de court terme. OpenAI peut perdre des utilisateurs sur un choc moral, puis en regagner sur des fonctionnalités et l’inertie des habitudes. Anthropic peut gagner une aura éthique, puis se faire rattraper par la complexité des usages réels et des compromis. Si tu utilises ces outils au quotidien, tu vas probablement choisir moins un camp qu’un équilibre, entre confort moral, efficacité, et ce que ton boulot te demande.
À retenir
- L’accord d’OpenAI avec le Pentagone a déclenché un backlash public et une hausse mesurée des désinstallations.
- Claude a profité d’une posture plus restrictive sur certains usages militaires et a grimpé en tête de l’App Store.
- La comparaison Claude vs ChatGPT se joue autant sur l’image et les usages que sur la puissance brute des modèles.
Questions fréquentes
Pourquoi l’accord avec le Pentagone a-t-il abîmé l’image d’OpenAI ?
Parce que le mot “Pentagone” déclenche immédiatement des craintes d’armes autonomes et de surveillance. Même si OpenAI nie certains usages, l’annonce a été perçue comme rapide et mal cadrée, et Sam Altman a reconnu que ça faisait “opportuniste” et “bâclé”, ce qui a amplifié la défiance.
Claude est-il objectivement meilleur que ChatGPT ?
Pas forcément. Sur beaucoup de tâches, les modèles phares sont jugés proches, et la différence se fait surtout sur les fonctionnalités et les cas d’usage. ChatGPT garde par exemple un avantage net sur la génération d’images via DALL·E intégré, alors que Claude ne génère pas d’images.
Que disent les chiffres sur la réaction des utilisateurs ?
Des données de Sensor Tower indiquent que le taux moyen quotidien de désinstallation de ChatGPT a augmenté de 200% après l’annonce du partenariat. En parallèle, Claude a pris la première place du classement de l’App Store d’Apple pendant plusieurs jours, ce qui montre un déplacement d’attention très rapide.
Anthropic a-t-il totalement interdit tout usage militaire de Claude ?
Anthropic a refusé certains usages, notamment l’intégration dans des systèmes d’armement autonomes et la surveillance de masse, en parlant de “ligne rouge”. Malgré cette posture, des informations ont indiqué que Claude restait utilisé dans un contexte de conflit, ce qui montre la complexité entre principes affichés et usages réels.

