Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire
📩 Pour nous contacter: redaction@fw.media
Alors que l’intelligence artificielle est en train de devenir une infrastructure stratégique pour les États, pour la première fois, un laboratoire d’IA refuse les conditions d’une armée. C’est le sens du conflit qui oppose aujourd’hui Anthropic au United States Department of Defense. L’entreprise américaine a engagé une procédure judiciaire contre le gouvernement américain après avoir été classée comme “supply chain risk”, une désignation habituellement réservée à des fournisseurs considérés comme des menaces pour la sécurité nationale.
Cette décision intervient après l’échec de négociations autour de l’utilisation des modèles d’intelligence artificielle du laboratoire dans des programmes militaires, et pose une question bien plus large : qui doit décider de l’usage militaire de l’intelligence artificielle, les États ou les entreprises qui la développent ?
Un désaccord sur les limites de l’IA militaire
Fondée en 2021 par sept anciens employés d’OpenAI, Anthropic développe la famille de modèles d’intelligence artificielle Claude. Lancé en mars 2023, ce système s’est progressivement imposé dans différents environnements professionnels et institutionnels.
Selon la plainte déposée par l’entreprise, Claude est aujourd’hui le modèle d’IA de pointe le plus largement déployé au sein du Department of War, et le seul modèle de cette catégorie utilisé sur certains systèmes classifiés du gouvernement américain.
🚨 SMARTJOBS
- MISTRAL - Account Executive, Enterprise, France - Paris
- ANTHROPIC - Startup Partnerships - France & Southern Europe
- CONTEXTE - DRH - Directeur.rice des Ressources Humaines
- ECOLE POLYTECHNIQUE - Directeur/Directrice Adjoint(e) des relations internationales (F/H)
- CLAROTY — Sales Development Representative
- FRACTTAL — Responsable de compte (France)
- BRICKSAI — Founding Growth Manager
👉 Retrouvez toutes nos offres sur le Jobboard DECODE MEDIA
📩 Vous recrutez et souhaitez renforcer votre marque employeur ? Découvrez nos offres partenaires
Dans ce contexte, l’entreprise participe déjà à plusieurs initiatives destinées à accélérer l’adoption de l’IA dans l’administration fédérale. Anthropic fait notamment partie d’un programme piloté par le Chief Digital and Artificial Intelligence Office du Pentagone visant à expérimenter l’intégration de modèles d’IA commerciaux dans les opérations militaires.
Dans ce programme, plusieurs fournisseurs, dont Anthropic, OpenAI, Google et xAI, peuvent recevoir des contrats dont le plafond peut atteindre 200 millions de dollars par entreprise.
À mesure que les capacités des modèles génératifs progressent, les agences de défense américaines cherchent à exploiter ces technologies dans des fonctions critiques, qu’il s’agissse d’analyse de renseignement, de traitement de données, de cybersécurité ou d’assistance à la prise de décision opérationnelle.
Les modèles Claude peuvent notamment être configurés pour analyser de grandes quantités d’informations, assister des travaux de développement logiciel ou encore soutenir certaines opérations liées à la cybersécurité et à la détection de vulnérabilités.
Mais les négociations ont rapidement révélé un désaccord fondamental. Là où le Pentagone demandait un accès permettant tout usage conforme au droit américain, Anthropic souhaitait maintenir certaines restrictions dans sa politique d’utilisation.
Le laboratoire dirigé par Dario Amodei a posé deux lignes rouges : l’interdiction d’utiliser ses modèles pour des armes autonomes létales sans supervision humaine et pour des dispositifs de surveillance de masse visant les citoyens américains. Selon l’entreprise, ces restrictions reposent sur les limites techniques actuelles des systèmes d’intelligence artificielle. Les modèles génératifs peuvent produire des réponses inexactes ou générer des erreurs, un phénomène souvent qualifié d’“hallucination”. Pour Anthropic, ces systèmes ne sont donc pas suffisamment fiables pour être utilisés dans des contextes où des décisions létales pourraient être prises de manière autonome.
L’entreprise estime également que l’utilisation de ces technologies dans des programmes de surveillance de masse pose des risques importants pour les libertés civiles, en raison de la capacité des systèmes d’IA à analyser des volumes de données sans précédent.
Pour les autorités américaines, ces limitations apparaissent incompatibles avec les exigences opérationnelles d’une organisation militaire. Le Département de la Défense a ainsi demandé à Anthropic d’abandonner sa politique d’usage et d’accepter que ses modèles puissent être utilisés pour “tout usage légal”.
L’échec de ces discussions a conduit à une décision radicale du gouvernement américain.
Une sanction aux conséquences économiques majeures
Le 27 février 2026, le président des États-Unis a publié une directive ordonnant à l’ensemble des agences fédérales de cesser immédiatement toute utilisation des technologies d’Anthropic. Quelques heures plus tard, le secrétaire à la Défense annonçait la désignation de l’entreprise comme “supply chain risk to national security”. Cette décision s’accompagne d’une mesure particulièrement lourde : les contractants, fournisseurs ou partenaires travaillant avec l’armée américaine ne peuvent plus mener d’activités commerciales avec Anthropic.
Dans la pratique, une telle mesure peut obliger de nombreuses entreprises impliquées dans des programmes militaires à exclure les technologies d’Anthropic de leurs systèmes.
La plainte déposée par la société souligne que cette désignation est habituellement réservée à des situations où un fournisseur pourrait être exposé à des risques d’ingérence ou de sabotage par une puissance étrangère. Anthropic affirme n’avoir jamais été accusée de tels risques et rappelle qu’elle dispose d’autorisations de sécurité délivrées par le gouvernement américain, notamment dans le cadre du programme FedRAMP, qui permet l’utilisation de services cloud dans l’administration fédérale. L’entreprise indique également que ses technologies ont été développées en collaboration avec certaines agences fédérales et qu’elle a participé à des projets impliquant l’analyse de données sensibles et la cybersécurité.
Malgré cela, plusieurs agences fédérales ont rapidement commencé à mettre fin à leurs relations avec la société.
La General Services Administration a notamment retiré Anthropic de ses plateformes de fourniture de services technologiques pour le gouvernement, tandis que d’autres administrations ont suspendu l’utilisation de ses modèles. Le différend s’est accéléré lorsque le Department of Defense a donné au laboratoire un ultimatum pour accepter ses nouvelles conditions d’utilisation
Paradoxalement, la décision gouvernementale prévoit toutefois que les services d’Anthropic puissent continuer à être utilisés pendant une période de transition pouvant aller jusqu’à six mois, le temps pour les administrations de migrer vers d’autres fournisseurs.
Pour Anthropic, l’impact économique potentiel est considérable. Dans sa plainte, l’entreprise affirme que les mesures prises par le gouvernement américain pourraient mettre en péril plusieurs centaines de millions de dollars de revenus à court terme.
Au-delà des contrats directs avec les agences fédérales, la société souligne que de nombreux partenaires industriels et fournisseurs travaillant avec l’administration américaine pourraient être contraints de suspendre ou de résilier leurs collaborations afin d’éviter tout risque réglementaire.
L’IA entre dans le complexe militaro-technologique
Au-delà du conflit contractuel, l’affaire illustre une évolution plus large : l’intégration rapide de l’intelligence artificielle dans les systèmes militaires.
Les modèles d’IA comme Claude peuvent être configurés pour fonctionner de manière dite “agentique”, c’est-à-dire accomplir certaines tâches avec un degré d’autonomie plus important, comme rechercher des informations, analyser des bases de données ou exécuter du code. Ces capacités intéressent particulièrement les institutions de défense, qui cherchent à accélérer le traitement de volumes croissants de données opérationnelles. Anthropic indique par exemple avoir développé des versions spécifiques de ses modèles destinées aux agences de sécurité nationale, capables de travailler avec des informations classifiées et d’analyser des données issues de la cybersécurité ou du renseignement.
Dans ce contexte, les laboratoires d’intelligence artificielle deviennent progressivement des fournisseurs potentiels d’infrastructures critiques pour les États.
La plainte souligne d’ailleurs que plusieurs responsables du gouvernement américain ont reconnu l’importance stratégique des technologies d’Anthropic, certains allant jusqu’à qualifier l’entreprise de “champion national” dans le domaine de l’intelligence artificielle.
Un précédent pour l’industrie de l’IA
Quelle que soit l’issue du procès engagé par Anthropic, l’affaire pourrait créer un précédent majeur pour l’industrie de l’intelligence artificielle.
Selon la plainte, les autorités américaines ont explicitement reproché à l’entreprise de maintenir des restrictions qu’elles jugent “idéologiques” et incompatibles avec les besoins de la défense nationale.
Anthropic considère au contraire que ses décisions relèvent de son droit à exprimer publiquement ses positions sur les limites technologiques de ses systèmes et sur les conditions d’utilisation de ses produits.
Pour l’entreprise, la question dépasse largement le cadre d’un différend contractuel, et concerne la capacité d’une société technologique à définir des limites d’usage pour ses propres technologies, y compris lorsqu’il s’agit d’applications militaires.
Dans les deux cas, l’épisode marque une évolution profonde du secteur. Les laboratoires d’IA ne sont plus seulement des entreprises technologiques. Ils deviennent des acteurs industriels et géopolitiques dont les décisions peuvent influencer les équilibres stratégiques entre États.
La question centrale n’est plus seulement celle de la puissance des modèles. Elle est désormais celle du pouvoir : qui contrôle l’infrastructure de l’intelligence artificielle et décide de ses usages ?
- Cybersécurité : ESCAPE lève 15 millions d’euros face à l’explosion des failles liées au code généré par l’IA - 10/03/2026
- Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire - 10/03/2026
- AMI LABS lève 890 millions d’euros pour construire une nouvelle génération d’IA autour des “world models” - 10/03/2026







