BIG TECHCODE OF POWERTHE PROMPT

OpenAI abat quelques cartes à Bruxelles, Anthropic garde son jeu fermé

📩 Pour nous contacter: redaction@fw.media

OpenAI vient d’accepter ce que les grands laboratoires d’intelligence artificielle refusaient encore il y a quelques mois, à savoir ouvrir partiellement leurs modèles sensibles notamment aux institutions européennes. Anthropic, à l’inverse, a décidé de continuer de garder Mythos hors de portée de Bruxelles, tout du moins pour le moment.

L’écart d’approche révèle l’émergence d’un nouveau rapport de force entre les laboratoires américains développant des modèles dits “frontier” et les autorités européennes, qui cherchent à imposer un droit de regard sur des technologies désormais considérées comme stratégiques.

Lundi, OpenAI a donc joué la carte de la diplomatie, en annoncant que GPT-5.5-Cyber, une déclinaison spécialisée de son dernier modèle, serait accessible à des partenaires européens sélectionnés : gouvernements, autorités cyber, entreprises et institutions communautaires, dont l’EU AI Office. Un déploiement qui serait toutefois limité auprès d’équipes de cybersécurité que la société de Sam Altman validera avec soin.

Cette annonce intervient un mois après le lancement de Mythos par Anthropic, un modèle cyber avancé qui a rapidement déclenché des inquiétudes autour de l’automatisation potentielle d’attaques contre des infrastructures critiques, et des systèmes sensibles.

Depuis Bruxelles tente d’obtenir un accès anticipé au modèle afin d’évaluer ses capacités réelles et ses mécanismes de sécurité. Hors à ce stade, Anthropic ne veut pas donner accès à son modèle et tient Mythos hors de portée des institutions européennes.

Position que la Commission européenne a fait savoir hier, Thomas Regnier, porte-parole de l’exécutif européen, confirmant que les discussions avec Anthropic n’étaient « pas au même stade » que celles engagées avec OpenAI. Une prise de parole qui est loin d’être anodine, et qui signifie que Bruxelles ne cherche plus seulement à réguler l’usage de l’intelligence artificielle après son déploiement, mais veut désormais intervenir en amont, au niveau même des modèles les plus avancés, et ce avant leur diffusion à grande échelle.

L’EU AI Office cherche ainsi à construire un précédent politique et réglementaire, avec pour objectif d’obtenir un accès institutionnel aux modèles considérés comme systémiques. L’enjeu est de comprendre leurs capacités réelles, leurs limites, leurs mécanismes de sécurité et leurs potentiels usages offensifs. Bruxelles veut également disposer d’une visibilité sur les procédures de red teaming, les garde-fous mis en place par les laboratoires et les mécanismes de surveillance post-déploiement.

Autrement dit, la Commission cherche progressivement à instaurer une supervision des modèles avancés d’intelligence artificielle comparable aux mécanismes de contrôle déjà appliqués aux secteurs du nucléaire, de la finance ou des télécommunications critiques.

La cybersécurité sert ici de premier terrain d’expérimentation, car les modèles comme GPT-5.5-Cyber ou Mythos ne sont plus perçus comme de simples assistants logiciels. Ils deviennent des multiplicateurs de capacité susceptibles d’accélérer la découverte de vulnérabilités, l’analyse de systèmes complexes, la génération d’exploits ou encore certaines opérations défensives à grande échelle.

Toute la difficulté réside dans leur nature duale, les mêmes capacités peuvent renforcer la sécurité des infrastructures européennes mais aussi faciliter certaines formes d’attaque automatisée. C’est précisément ce que Bruxelles cherche désormais à anticiper.

OpenAI semble avoir anticipé cette évolution politique plus rapidement que ses concurrents, dans une stratégie visant à renforcer son ancrage institutionnel auprès des États européens. Le groupe comprend qu’en Europe, l’accès au marché des modèles avancés dépendra autant de la coopération réglementaire que de la qualité technologique. Les laboratoires capables de travailler étroitement avec Bruxelles pourraient bénéficier d’un avantage important auprès des administrations, des grands groupes soumis à des contraintes de conformité et des opérateurs d’importance vitale.

Anthropic adopte pour l’instant une ligne beaucoup plus prudente. Le laboratoire cherche probablement à éviter une exposition excessive de ses capacités réelles ainsi que la création de précédents réglementaires susceptibles d’ouvrir la voie à des audits plus intrusifs. Derrière cette prudence se joue également une question centrale pour tous les laboratoires américains, jusqu’où accepter l’inspection institutionnelle sans affaiblir son avantage technologique ?

Car le sujet dépasse largement OpenAI et Anthropic, la séquence actuelle marque un changement de doctrine dans les rapports entre l’Europe et la tech américaine. Bruxelles ne veut plus réguler après coup, une fois les technologies massivement déployées et leurs effets déjà subis, mais intervenir en amont face à des risques désormais jugés critiques.

La cybersécurité n’est probablement qu’un point de départ : demain, les mêmes débats pourraient s’étendre aux modèles scientifiques, biologiques, financiers ou militaires les plus avancés. Derrière cette séquence se dessine déjà un nouveau rapport de force entre États et acteurs privés pour le contrôle des infrastructures critiques de l’ère IA.

Suivez nous:
Bouton retour en haut de la page