ChatGPT, Claude et Pentagone : et si vous aviez le dernier mot ?
C’est officiel : Anthropic est persona non grata au département de la Défense américain. Après avoir signé un contrat de 200 millions de dollars à l’été 2025, les deux parties se sont retrouvées début 2026 en désaccord profond. La société éditrice du chatbot Clause refuse l’utilisation de son IA pour la surveillance de masse ou fabriquer des armes autonomes. En apparence purement contractuelle, cette opposition cache en réalité un combat des valeurs existentiel pour le secteur, entre tenants d’une IA responsable et partisans d’une utilisation tous azimuts de cette technologie. Au milieu de ce choc, les utilisateurs, eux, pourraient bien tirer leur épingle du jeu.
Une aubaine pour les concurrents ?
Anthropic est désormais la seule entreprise américaine à avoir été publiquement désignée supply chain risk, une désignation traditionnellement réservée aux adversaires étrangers. Cette étiquette obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu’ils n’utilisent pas les modèles d’Anthropic.
Une aubaine pour OpenAI, son principal concurrent : Sam Altman annonçait vendredi dernier que son entreprise avait conclu un accord avec le Pentagone pour fournir de l’IA à l’armée. Une nouvelle d’autant plus surprenante que le PDG d’OpenAI assurait dans le même temps que les mêmes lignes rouges qui constituaient le point de friction dans le différend entre Anthropic et le Pentagone étaient désormais inscrites dans le nouveau partenariat.
Mais sur les réseaux sociaux et dans le secteur de l’IA, les utilisateurs doutent de l’affirmation d’Altman. Pourquoi le Pentagone accepterait-il soudainement ces lignes rouges alors qu’il avait clairement déclaré qu’il ne le ferait jamais ?
Le coup marketing de Claude
En réalité, le Pentagone n’a pas cédé. OpenAI a accepté de se conformer aux utilisations relatives à la surveillance de masse, tout en insistant pour que ses limites soient respectées. Un accord en somme beaucoup plus souple que celui qu’Anthropic souhaitait obtenir.
Utilisateurs furieux, communication hasardeuse, c’est la catastrophe pour OpenAI. En quelques jours, le taux de désinstallation de l’app ChatGPT a progressé de 295% selon Sensor Tower, contre une moyenne de 9% le mois dernier. Une chute sans précédent qui fait dire à Sam Altman qu’il aurait peut-être fallu être patient.
Dans le même temps, Claude s’est désormais hissé en tête du classement de l’App Store d’Apple, où il se trouve toujours ce vendredi. Le coup marketing est parfait pour Anthropic qui lançait dans la foulée en début de semaine un outil d’importation pour faciliter le transfert des données d’un chatbot concurrent vers Claude.
Et les utilisateurs dans tout ça ?
Si ces combats de géants entre gouvernements et entreprises continuent d’agiter les réseaux sociaux et l’espace médiatique, force est de constater qu’au final il revient toujours aux utilisateurs de faire un choix. Que ce soit une désinstallation massive de ChatGPT ou une ruée vers Claude : il n’existe pas d’avantage concurrentiel dans l’IA.
Si bien que, selon McKinsey, les organisations qui considèrent l’IA comme stratégique sont plus de 40 % plus susceptibles d’adopter des modèles open source. Le grand public, lui, commence tout juste à comprendre que ce choix lui appartient aussi.
Dans un secteur où les valeurs affichées s’effacent dès qu’un contrat militaire est en jeu, la vraie ligne rouge est peut-être celle que les utilisateurs traceront eux-mêmes : en choisissant leurs outils, en reprenant la main sur leurs données, en refusant d’être les spectateurs d’une partie qui se joue sans eux.
D’ailleurs, Claude aurait bien été utilisé dans la capture de Nicolás Maduro au Venezuela.