
Pourquoi l’IA conversationnelle oblige à repenser la protection des mineurs
📩 Pour nous contacter: redaction@fw.media
L’IA conversationnelle s’immisce dans le quotidien des mineurs à une vitesse inédite. En quelques mois, des systèmes capables de dialoguer, d’accompagner, de conseiller ou de simuler l’empathie se sont installés dans les messageries, les jeux, les réseaux sociaux et les outils éducatifs. En modifiant les conditions dans lesquelles les enfants et les adolescents interagissent, socialisent et se construisent, ces services n’ont rien d’anecdotique et ne peuvent pas rester dans l’angle mort du législateur.
Des systèmes omniprésents, mais largement invisibles
Contrairement aux réseaux sociaux traditionnels, l’IA conversationnelle n’est pas facilement observable, car elle fonctionne par échanges privés, individualisés, et surtout en continu. Pour les parents comme pour les éducateurs, il devient complexe d’identifier la nature réelle de ces interactions, car il ne s’agit pas d’un contenu publié sur un réseau social, mais d’un lien conversationnel qui s’installe dans le temps. C’est précisément cette dimension relationnelle, plus que le contenu lui-même, qui doit aujourd’hui attirer l’attention des pouvoirs publics
Les architectures déjà en usage chez les mineurs
Plusieurs catégories de systèmes sont déjà largement accessibles.
Les chatbots relationnels généralistes, d’abord, qui reposent sur la continuité de la conversation et l’adaptation émotionnelle. Des services comme Replika ou Character.AI ont popularisé l’idée d’un agent conversationnel capable d’entretenir une relation suivie, parfois personnalisée, souvent immersive
À ces dispositifs s’ajoutent les IA intégrées aux plateformes sociales, comme le chatbot My AI de Snapchat, ou les assistants conversationnels déployés sur Instagram. Ces outils peuvent, en théorie, être désactivés via les dispositifs de contrôle parental proposés par Meta, mais ils s’insèrent par défaut dans des environnements déjà façonnés par l’économie de l’attention. L’IA n’y est pas présentée comme un compagnon, mais comme une couche d’assistance continue, appelée à interagir au plus près des usages quotidiens.
Enfin, les jeux et mondes virtuels intègrent progressivement des personnages non joueurs capables de dialoguer librement. Sur des plateformes comme Roblox, l’IA conversationnelle s’insère dans des univers où la frontière entre jeu, fiction et socialisation est déjà poreuse, en particulier pour les plus jeunes.
Ces systèmes diffèrent par leur finalité, mais partagent une même logique avec une interaction personnalisée, une disponibilité permanente, et des capacités d’adaptation comportementale puissantes.
Le déplacement du risque : du contenu vers la relation
La réglementation existante a été conçue pour répondre aux contenus violents, pornographiques, haineux ou frauduleux. Or l’IA conversationnelle introduit une complexité nouvelle où le risque ne réside pas nécessairement dans les propos tenus, mais dans la manière dont la relation se construit et se développe.
Un chatbot peut fonctionner sans produire de contenu illicite tout en exerçant une influence psychique importante, qu’elle exerce par la répétition, par la validation implicite de certains ressentis, par l’absence de contradiction humaine, ou par la simulation d’une écoute inconditionnelle. Si chez un adulte, ces mécanismes peuvent être compensés, chez un mineur, ils interviennent dans une phase de construction cognitive et émotionnelle encore instable.
Une convergence réglementaire encore fragile
Le Royaume-Uni a été l’un des premiers à appréhender le sujet et en demandant à Ofcom d’utiliser les leviers de l’Online Safety Act pour encadrer les chatbots interagissant avec des mineurs. L’État de New York, sous l’impulsion de son Gouverneur, Kathy Hochul, s’attaque directement au design et aux fonctionnalités accessibles aux mineurs et veut imposer des restrictions par défaut, limiter certaines fonctions d’IA conversationnelle, et un renforcement des contrôles parentaux.
Pourquoi l’urgence est désormais manifeste
L’IA relationnelle ne peut plus être présumée neutre lorsqu’elle s’adresse à des enfants. Comme toujours, le temps joue contre les régulateurs, et chaque mois sans cadre clair consolide des usages, et normalise des interactions dont les effets à long terme restent, à date, mal documentés.
La question n’est pas celle d’une interdiction générale de l’IA conversationnelle pour les mineurs, qui peut être utile dans de nombreux domaines, notamment éducatif, mais porte sur les conditions de son déploiement. Il apparait nécessaire, au sens impératif du terme, d’imposer une transparence explicite sur la nature artificielle de l’interaction, que soient mise en oeuvre des limitations fonctionnelles pensées en fonction de l’âge dès la conception.
Un débat appelé à s’élargir
Les mineurs constituent aujourd’hui le premier terrain de cette requalification, parce qu’ils rendent visibles des vulnérabilités spécifiques. Mais les questions soulevées (influence psychique, dépendance relationnelle, délégation de fonctions émotionnelles à des systèmes artificiels) dépassent largement ce seul public et mérite également réflexion.
En ce sens, le cadrage en cours autour des enfants et des adolescents pourrait bien préfigurer un débat plus large sur la place que les sociétés acceptent d’accorder à l’IA relationnelle, non comme technologie abstraite, mais comme acteur à part entière des environnements sociaux contemporains.






