IN THE LOOPRETAIL & ECOMMERCETHE PROMPT

AMAZON vs PERPLEXITY, la guerre des agents IA a commencé

📩 Pour nous contacter: redaction@fw.media

Le géant du e-commerce accuse la startup d’accès frauduleux et de violation de ses conditions d’utilisation

Amazon a adressé via le cabinet d’avocats Hueston Henningan une lettre de mise en demeure à Perplexity AI, exigeant que la startup cesse immédiatement d’utiliser son agent conversationnel Comet pour effectuer des achats sur sa plateforme. Le groupe de Seattle accuse la société fondée par Aravind Srinivas d’avoir « déguisé » son agent en navigateur Chrome pour contourner ses systèmes de détection, en violation du Computer Fraud and Abuse Act (CFAA) américain et de son équivalent californien.

Selon Amazon, Perplexity aurait « refusé d’opérer de manière transparente » malgré plusieurs avertissements depuis novembre 2024, et aurait « pris des mesures actives pour dissimuler » ses activités dans l’Amazon Store. Le document, daté du 31 octobre 2025 et signé par l’avocat Moez M. Kaba, évoque des « intrusions non autorisées », un « préjudice pour l’expérience client » et des « risques pour la sécurité des données ».

Une bataille juridique aux implications économiques

Amazon fonde sa plainte sur le CFAA, une loi régulièrement utilisée contre les acteurs tiers ayant continué à accéder à des systèmes informatiques après un blocage ou une mise en demeure, comme dans l’affaire Facebook vs Power Ventures. Le géant invoque un « coût significatif » pour ses équipes de sécurité, contraintes de traquer et bloquer les accès de Comet, avant que Perplexity ne les contourne à nouveau.

L’entreprise accuse en outre l’agent IA d’« altérer le parcours client » en ignorant les critères d’optimisation (prix, disponibilité, rapidité de livraison, suggestions personnalisées) et en « risquant de fausser les choix des consommateurs ». Amazon estime que ces pratiques « portent atteinte à la confiance des clients et à l’intégrité du modèle Amazon ».

La réponse de Perplexity : le droit de choisir son IA

Dans un message publié sur X, Perplexity dénonce une manœuvre d’intimidation.

« Nous croyons que chaque utilisateur a le droit d’utiliser l’intelligence artificielle de son choix. Amazon veut empêcher les utilisateurs de Comet d’utiliser un assistant IA pour acheter sur sa plateforme, et elle recourt désormais à des menaces légales pour y parvenir. Mais nous ne nous laisserons pas intimider. »

Le CEO Aravind Srinivas défend la légitimité du recours à un agent mandaté par un utilisateur, estimant qu’« il n’appartient pas à Amazon de surveiller la manière dont un client délègue une action ».

Sur X, il ajoute :

« Nous serions heureux de travailler avec Amazon pour trouver un résultat gagnant-gagnant. Mais si Amazon tente de bloquer notre assistant Comet et de nuire à nos utilisateurs, nous devrons nous défendre et ne pas nous laisser intimider. »

Un conflit au cœur de la nouvelle économie agentique

L’affaire cristallise la question de l’interopérabilité des agents IA. Amazon veut imposer que tout agent opère de façon transparente et identifiée sur sa plateforme, alors que Perplexity revendique le principe de la délégation utilisateur,  avec l’idée qu’un agent agit légalement au nom de celui qui l’a mandaté.

Ce débat ouvre une ligne de fracture stratégique.

  • Pour Amazon, contrôler la transaction, c’est protéger la confiance client et la valeur de son modèle publicitaire fondé sur le search placement.
  • Pour Perplexity, permettre à un agent IA d’agir librement, c’est garantir la liberté d’usage et l’innovation.

Ce conflit pourrait devenir le premier grand précédent juridique de l’ère des agents IA. S’il allait jusqu’aux tribunaux, il pourrait définir les limites du droit d’accès et de la délégation numérique sur les grandes plateformes.

Au-delà du différend entre Amazon et Perplexity, c’est la question du contrôle de l’acte d’achat automatisé qui se profile, jusqu’où une intelligence artificielle peut-elle agir au nom d’un utilisateur ? Un enjeu central du futur web, qui devrait faire jurisprudence et relancer les discussions sur la responsabilité des agents IA.

 

Suivez nous:
Bouton retour en haut de la page