
MCP, NLWeb, LLMs.txt : décryptage des nouveaux protocoles qui structurent l’accès des IA au web
📩 Pour nous contacter: redaction@frenchweb.fr
Une nouvelle génération de protocoles émerge pour structurer leur interaction avec les contenus en ligne, et alors que les intelligences artificielles génératives deviennent un point d’accès central à l’information. Moins visibles que les interfaces utilisateur, ces normes redéfinissent en profondeur la manière dont les données sont exposées, consommées et orchestrées sur le web. MCP, NLWeb, LLMs.txt ou encore Agent2Agent dessinent les contours d’un web agentique, pensé pour les machines autant que pour les humains.
Du RSS à l’interopérabilité machine
Au début des années 2000, les flux RSS et Atom avaient été conçus pour faciliter la syndication et la découverte de contenus par les humains et les moteurs de recherche. Deux décennies plus tard, le même enjeu se pose pour les intelligences artificielles, comment leur permettre d’accéder, comprendre et utiliser les données publiées en ligne de manière structurée ?
Les initiatives portées par Microsoft, Google, Anthropic ou des communautés open source visent à répondre à ce besoin. Elles ne remplissent pas toutes la même fonction, mais partagent une ambition commune : rendre le web interopérable pour les agents IA, qu’il s’agisse d’enrichir la recherche, de structurer l’orchestration de tâches ou de gérer les droits d’usage.
NLWeb : transformer un site web en interface conversationnelle
Annoncé lors de la conférence Build 2025, NLWeb est un protocole open source développé par Microsoft. Conçu par RV Guha, l’un des initiateurs de RDF et de schema.org, il permet à n’importe quel site de devenir interrogeable en langage naturel, aussi bien par un utilisateur que par une IA.
Le protocole s’appuie sur les formats structurés déjà existants (comme RSS ou JSON-LD), les indexe dans des bases vectorielles, puis les enrichit à l’aide de modèles de langage. Le site devient ainsi une sorte d’application agentique, sans refonte technique majeure.
Kevin Scott, directeur technique de Microsoft, présente NLWeb comme un équivalent de HTML pour l’internet des agents.
MCP : le protocole de transport des données pour les IA
Le Model Control Protocol (MCP), développé initialement par Anthropic, constitue l’infrastructure de communication sous-jacente à NLWeb. MCP définit un standard ouvert permettant aux IA de poser des requêtes à des sources de données, et d’en obtenir des réponses exploitables.
Michael Ni, analyste chez Constellation Research, décrit MCP comme la couche « TCP/IP » de l’agentic web. Tandis que NLWeb représente la couche de présentation, MCP en assure le transport sécurisé et structuré.
L’objectif est d’uniformiser les échanges entre systèmes IA et contenus web, en rendant les requêtes compréhensibles quel que soit le format de données en amont. Cette approche permet aussi bien l’interrogation de bases documentaires internes que l’accès à des contenus publics.
LLMs.txt : un fichier de permissions d’entraînement pour les IA
À un autre niveau du spectre, LLMs.txt vise à réguler la manière dont les modèles de langage accèdent aux contenus publics. Inspiré du fichier robots.txt utilisé pour les moteurs de recherche, LLMs.txt permet aux éditeurs de sites d’indiquer explicitement ce qui peut ou non être utilisé pour l’entraînement des modèles.
Le format, proche du markdown, est simple à implémenter. Il n’a pas vocation à permettre l’interaction, mais il répond à une attente croissante en matière de transparence et de gouvernance des données utilisées par les IA.
Krish Arvapally, CTO de Dappier, souligne que LLMs.txt « fournit une structure claire de permissions d’entraînement pour les IA ». Le protocole ne se substitue pas aux approches conversationnelles, mais il complète l’écosystème technique par un mécanisme de cadrage a priori.
Agent2Agent : orchestrer les tâches entre intelligences artificielles
Enfin, le protocole Agent2Agent (A2A), initié par Google, se concentre sur l’orchestration inter-agent. Contrairement aux précédents, il ne vise pas l’accès aux contenus, mais la coordination entre IA. A2A définit un langage standardisé pour permettre à plusieurs agents d’échanger des tâches, de gérer des contextes partagés et d’exécuter des workflows complexes.
Bien que le protocole se revendique open source et indépendant des modèles, ses premières implémentations restent fortement intégrées à l’écosystème Gemini de Google, ce qui pourrait en limiter l’adoption hors de cet environnement.
Une nouvelle couche d’infrastructure pour les IA
La convergence de ces protocoles annonce l’émergence d’une infrastructure technique du web dédiée aux agents intelligents. NLWeb et MCP permettent d’exposer les contenus de façon conversationnelle. LLMs.txt encadre leur réutilisation. Agent2Agent structure la collaboration entre entités IA.
Selon Michael Ni, NLWeb est encore en phase précoce et devrait nécessiter deux à trois ans avant d’être pleinement adopté par les entreprises. Il note cependant que les organisations disposant de vastes bases de contenus structurés ou d’environnements numériques fortement exposés ont intérêt à anticiper cette mutation.
Un web lu par les machines
À moyen terme, ces protocoles pourraient s’imposer comme les nouvelles normes invisibles du web, à l’instar de ce que furent HTML ou XML. La promesse n’est plus simplement de rendre les pages lisibles, mais de les rendre comprenables. Le web devient un espace de dialogue entre machines, et l’enjeu pour les entreprises est désormais de choisir si, et comment, elles souhaitent y prendre part.