Je vous en parlais dans un précédent post 👉 https://exadvize.fr/ia-dans-le-e-commerce-quand-elle-choisit-pour-nous-qui-porte-la-responsabilite/
Nous analysions alors cette nouvelle frontière : quand une IA choisit pour nous… qui porte la responsabilité ?
Depuis, un premier choc frontal vient d’avoir lieu entre Amazon et Perplexity et son agent IA Comet.
🛒 Amazon tire la sonnette d’alarme
➡️ Amazon a adressé une mise en demeure formelle à Perplexity AI.
Motif : son agent IA « Comet » serait capable d’effectuer des achats autonomes sur Amazon en utilisant un compte client, comme si c’était une navigation humaine classique.
Amazon reproche notamment que :
- l’agent se comporte comme un utilisateur humain,
- sans identifier clairement sa nature automatisée,
- en réalisant des opérations potentiellement non optimales (prix, délais, retours),
- générant des coûts d’investigation et des risques de sécurité, et
- violant leurs conditions d’utilisation.
En clair : Comet agirait dans l’écosystème Amazon sans autorisation explicite et sans transparence technique.
🆚 Réponse de Perplexity : la contre-attaque narrative
Perplexity rejette fermement ces accusations, et dans sa communication publique (« Bullying is Not Innovation »), la société estime qu’Amazon :
- cherche à empêcher l’émergence d’agents IA autonomes,
- verrouille son écosystème,
- limite le choix des utilisateurs dans l’outil qu’ils décident d’utiliser pour naviguer ou acheter.
L’entreprise place le débat sur un autre terrain :
👉 l’interopérabilité et le droit pour un utilisateur d’employer un agent IA tiers pour interagir avec une plateforme.
⚖️ Le sujet juridique
Deux enjeux émergent :
1️⃣ La qualification de la violation contractuelle (CGU Amazon)
Si un agent IA effectue des achats sur Amazon sans respecter les règles imposées aux utilisateurs humains :
- qui en porte la responsabilité ?
- l’utilisateur qui a fourni l’accès ?
- le concepteur de l’agent IA ? ou
- L’agent lui-même (ce que le droit ne reconnaît pas aujourd’hui) ?
Le fait que Comet imite un comportement humain pose une question centrale :
👉 Une plateforme peut-elle exiger que toute interaction automatisée soit explicitement déclarée comme telle ?
2️⃣ L’absence totale de cadre juridique pour les agents IA autonomes
Comet n’est pas seulement un outil : Il agit, choisit, exécute des achats pour le compte d’un usager, sans supervision humaine immédiate.
Toutefois, le droit actuel n’a pas prévu :
- d’encadrement spécifique de ces agents dans les plateformes en ligne,
- ni de règles permettant de définir clairement :
• ce qui est autorisé,
• ce qui doit être déclaré,
• ou ce qui constitue un comportement interdit.
👉 C’est une zone grise.
🧭 Le futur du « commerce agentique »
Ce conflit montre que nous entrons dans une nouvelle ère :
➡️ celle où des agents IA autonomes vont interagir directement avec les plateformes marchandes.
Ce qui soulève déjà plusieurs questions structurantes :
- Les plateformes peuvent-elles refuser l’accès à ces agents IA ?
- Un agent doit-il obligatoirement s’identifier comme non humain ?
- Qui porte la responsabilité en cas d’achat inadapté, erroné ou non conforme aux CGU?
- Comment garantir la loyauté de ces interactions algorithmisées ?
Rien, aujourd’hui, ne répond clairement à ces interrogations.
💬 Un vrai test juridique de l’ère des agents IA
Le conflit Amazon–Perplexity n’est pas seulement un litige commercial.
C’est le premier signal fort que les règles actuelles du commerce en ligne ne suffiront pas à encadrer :
- l’autonomie décisionnelle des agents IA,
- leur accès aux plateformes,
- la responsabilité attachée à leurs actions.
👉 La question n’est pas de savoir qui a raison, mais plutôt si nous sommes prêts pour un droit du commerce numérique où les décisions sont prises… par des agents IA autonomes ?



