CODE OF POWERIN THE LOOP

ANTHROPIC dit non à Washington, chronologie d’une rupture

📩 Pour nous contacter: redaction@fw.media

Le scénario paraissait stabilisé, Anthropic, dont les modèles figuraient parmi les rares autorisés dans des environnements classifiés fédéraux, poursuivait ses discussions avec le Département de la Défense américain (DoD), en vue d’une renégociation contractuelle. Dans un premier temps l’issue semblait ouverte, elle ne l’a pas été, et au cœur du différend, l’étendue des usages autorisés.

Une renégociation aux contours élargis

Selon des éléments rapportés par plusieurs sources proches des discussions et rapportées par notamment Bloomberg et CBS dont, le Pentagone souhaitait modifier les clauses encadrant l’usage des modèles d’Anthropic. Deux sujets concentraient les tensions.

Le premier concernait l’analyse de volumes massifs de données collectées sur des citoyens américains. Il ne s’agissait pas seulement de renseignement extérieur, mais de données susceptibles d’inclure historiques de recherche, interactions avec des assistants conversationnels, données de géolocalisation ou transactions financières, croisées avec d’autres bases administratives ou commerciales.

Anthropic aurait considéré que ce périmètre excédait les limites qu’elle s’était fixées. L’entreprise avait intégré dans ses conditions d’utilisation des restrictions visant explicitement la surveillance domestique de masse. Le DoD, de son côté, aurait souhaité conserver des formulations plus souples, laissant une marge d’interprétation opérationnelle.

Un premier désaccord s’est cristallisé sur ce point.

Armes autonomes : un désaccord moins idéologique que technique

Le second sujet portait sur les systèmes d’armes autonomes. Le budget américain consacré à ces programmes pour l’exercice 2026 dépasse les 13 milliards de dollars. Il couvre des drones individuels, des essaims coordonnés et d’autres plateformes capables de sélectionner et d’engager des cibles sans intervention humaine directe.

Anthropic n’aurait pas contesté le principe de ces programmes. Le point bloquant serait que les dirigeants de l’entreprise estimeraient que leurs modèles n’ont pas atteint un niveau de fiabilité suffisant pour être intégrés dans des boucles décisionnelles létales.

Toutefois un compromis aurait été envisagé, à savoir limiter l’usage des modèles au cloud, en excluant leur intégration directe dans les systèmes embarqués, dits “edge”, opérant sur le terrain. Les modèles auraient pu contribuer à l’analyse en amont, sans intervenir dans la décision d’engagement.

Anthropic aurait jugé cette distinction insuffisante, car dans les architectures militaires contemporaines, la frontière entre cloud et edge s’estompe. Les systèmes fonctionnent en réseaux interconnectés, où les capacités de calcul distantes peuvent influencer en temps quasi réel les opérations. D’un point de vue fonctionnel, la séparation ne garantissait pas, selon l’entreprise, une dissociation claire de responsabilité.

Un contexte politique durci

Ces discussions interviennent dans un climat institutionnel particulier. L’administration Trump a placé l’accent sur le renforcement de la souveraineté technologique et sur une latitude élargie pour l’exécutif en matière sécuritaire. Les relations entre Washington et les grandes entreprises technologiques ont connu des phases de coopération, mais aussi de tension, notamment lorsque ces dernières ont opposé des limites d’usage à des agences fédérales.

Dans ce contexte, la volonté du DoD d’obtenir des engagements plus flexibles s’inscrit dans une logique d’optimisation capacitaire. Pour le Pentagone, les modèles d’IA avancés constituent des multiplicateurs de force. La marge de manœuvre opérationnelle est un paramètre stratégique.

Pour Anthropic, ces mêmes modèles représentent une responsabilité systémique. L’entreprise s’est construite sur une doctrine de “safety by design”, intégrant des garde-fous dès la conception. Renoncer à certaines clauses revenait à redéfinir son positionnement.

Une rupture aux effets en chaîne

L’échec des négociations a entraîné une suspension des relations contractuelles. Le DoD aurait demandé à ses partenaires et sous-traitants d’interrompre leurs collaborations avec Anthropic. Cette décision affecte de facto indirectement un écosystème plus large, incluant des fournisseurs d’infrastructure cloud comme Amazon.

Dans le même temps, OpenAI a annoncé un accord distinct avec le Pentagone. La société a précisé que ses modèles seraient déployés “dans le cloud”. Des salariés d’OpenAi auraient également exprimé leur attachement à des lignes rouges comparables à celles défendues par Anthropic.

 

Suivez nous:
Bouton retour en haut de la page