IA et commerce en ligne: recommander, conseiller ou influencer?

L’article de Zac, Amit et Gal, Michal, The Price of Advice: Experimental Evidence on the Effects of AI Recommenders (October 20, 2025). Available at SSRN: https://ssrn.com/abstract=5637090 or http://dx.doi.org/10.2139/ssrn.5637090) souligne que les assistants conversationnels fondés sur les grands modèles de langage, comme ChatGPT ou Gemini, ne se contentent pas d’aider l’utilisateur à chercher un produit; ils peuvent orienter son choix et, en pratique, le conduire à dépenser davantage.

Les auteurs partent du constat que les systèmes de recommandation existent depuis longtemps dans le commerce en ligne, mais que leur version conversationnelle marque une étape nouvelle, parce qu’elle permet un échange en langage naturel, une personnalisation plus fine et une influence plus discrète. Selon eux, cette évolution crée un enjeu économique et juridique important: si l’outil qui conseille le consommateur peut aussi le pousser, sans qu’il en ait clairement conscience, vers certaines options, il faut réexaminer les cadres de protection du consommateur et de concurrence.

L’apport central de l’étude est empirique. Les auteurs présentent ce travail comme le premier test contrôlé mesurant l’effet de ces outils sur de véritables décisions d’achat, et non sur de simples préférences déclarées. Ils rappellent que des travaux antérieurs avaient déjà montré qu’un agent conversationnel pouvait convaincre des personnes de changer d’avis dans un scénario fictif, mais sans achat réel. Leur objectif est donc de vérifier si cette capacité d’influence se traduit en dépenses effectivement plus élevées lorsqu’un consommateur choisit un produit dans un environnement proche d’une situation d’achat ordinaire.

L’expérience principale a été menée à l’Université d’Amsterdam auprès de 265 participants. Chaque personne devait choisir sur Amazon un vêtement parmi trois catégories simples et peu coûteuses, avec un budget maximal de 15 euros. Les participants étaient répartis aléatoirement entre quatre situations: une recherche classique sans assistant conversationnel, l’aide de ChatGPT, l’aide de Gemini, ou l’aide d’une version de ChatGPT spécialement paramétrée pour pousser vers les produits les plus chers possibles à l’intérieur du budget. Le protocole cherchait à reproduire un arbitrage réel: plus le participant choisissait un produit bon marché, plus il conservait d’argent. Cela rend le résultat plus parlant, car les sujets avaient au contraire intérêt à dépenser moins, pas plus.

Les résultats vont dans le même sens sur l’essentiel. En moyenne, les participants assistés par un agent conversationnel ont choisi des produits plus chers que ceux du groupe sans assistant. L’effet est modeste à l’unité, mais net: le surcoût observé par rapport à la recherche classique varie selon les modèles entre environ 0,93 et 1,30 euro par achat, l’effet le plus fort venant de la version de ChatGPT explicitement conçue pour orienter vers le haut de gamme dans la limite du budget. ChatGPT standard augmente aussi la dépense, alors que Gemini a un effet plus faible et statistiquement moins marqué. Pour les auteurs, ce point compte, car il montre que l’architecture de l’outil et ses consignes internes peuvent modifier de façon mesurable le comportement économique du consommateur.

Un point important est que cette hausse de prix ne s’explique pas par une meilleure qualité apparente des produits choisis. Les auteurs utilisent les notes Amazon comme indicateur de qualité et ne constatent pas de différence significative entre les groupes. En d’autres termes, les personnes assistées n’achètent pas plus cher parce qu’elles achètent objectivement mieux, du moins au regard de cet indicateur. De même, les écarts ne s’expliquent pas par l’âge, le sexe, l’expérience d’achat en ligne, la familiarité numérique ou la durée de la recherche. Cela renforce la thèse selon laquelle l’assistant n’agit pas seulement comme un filtre d’information, mais comme un dispositif qui structure la décision.

Les auteurs examinent ensuite les mécanismes explicatifs possibles.

D’abord, la confiance déclarée dans l’outil n’explique pas le phénomène. Fait notable, les participants du groupe sans assistant disent faire davantage confiance à leur mode de recherche que ceux qui utilisent ChatGPT ou sa version personnalisée, mais ils dépensent pourtant moins. L’effet ne vient donc pas d’une confiance aveugle au sens ordinaire. Ensuite, l’étude montre que les utilisateurs des agents conversationnels se disent globalement plus impliqués dans la tâche, tout en trouvant l’exercice moins agréable et plus difficile que dans la recherche classique. Cela suggère que l’influence ne passe ni par un confort supérieur, ni par une adhésion consciente plus forte. Les auteurs y voient plutôt une influence qui agit en dessous du seuil de perception immédiate.

Sur le plan du langage, la comparaison entre ChatGPT standard et la version paramétrée pour pousser vers le plus cher montre que cette dernière emploie un ton légèrement plus positif et plus engageant. L’écart mesuré reste modéré, et les auteurs reconnaissent que leur analyse ne permet pas d’isoler parfaitement la part exacte de ce facteur. Mais ils en tirent l’idée que la manière de présenter les options, le ton utilisé et la formulation des recommandations peuvent contribuer à déplacer le choix du consommateur, même sans ordre explicite ni argument grossier.

Sur le plan de l’exposition aux produits, l’étude conclut que les agents conversationnels n’orientent pas surtout vers les produits les plus vendus sur Amazon, contrairement à ce que les auteurs avaient d’abord envisagé. Ils orientent davantage vers des marques connues ou installées. Autrement dit, ces outils semblent privilégier la réputation de marque plutôt que la popularité mesurée par les ventes. Pour les auteurs, cela a une portée concurrentielle: si l’assistant favorise systématiquement des marques déjà fortes, il peut renforcer les acteurs en place et rendre plus difficile la visibilité des nouveaux entrants ou des offres moins chères.

Les auteurs complètent l’expérience par des simulations à grande échelle via l’API d’OpenAI sur plusieurs catégories de produits et dans différents contextes d’achat. Cette seconde partie ne repose plus sur de vrais consommateurs, mais elle confirme une logique de concentration: certaines marques reviennent très souvent, surtout en première position des recommandations. Cela nourrit l’idée d’un effet de « concentration de l’attention » au profit d’un petit nombre d’acteurs, même quand la requête de départ paraît neutre.

La discussion finale est normative. Les auteurs considèrent que ces systèmes doivent être vus non comme de simples aides neutres, mais comme des « architectes du choix », c’est-à-dire des outils qui organisent l’environnement de décision et peuvent déplacer les préférences. Selon eux, l’enjeu dépasse la seule protection individuelle: à grande échelle, cette orientation invisible peut aussi modifier la concurrence, accroître les barrières à l’entrée et donner un avantage structurel à ceux qui bénéficient déjà d’une forte présence de marque. Ils ajoutent que l’arrivée d’agents plus autonomes, capables d’agir de manière encore plus indépendante pour l’utilisateur, pourrait accentuer le problème en réduisant encore la part de contrôle humain direct.

En matière de réponses possibles, l’article évoque trois voies: agir sur la conception des systèmes pour limiter les biais de mise en avant, mobiliser les règles existantes en matière de protection du consommateur et de concurrence, et développer des outils de contrôle par d’autres systèmes d’IA. Les auteurs citent notamment la transparence sur les critères de recommandation, l’encadrement des pratiques de manipulation invisibles et la possibilité d’utiliser des modèles « surveillants » pour détecter les recommandations orientées vers des produits plus chers ou des marques privilégiées. Ils soulignent toutefois que la transparence seule a des limites, car les utilisateurs lisent peu les avertissements et s’y habituent vite.

En conclusion, les assistants conversationnels d’achat peuvent augmenter la dépense du consommateur sans améliorer la qualité choisie, et cette influence semble passer principalement par la manière de présenter les options et par la sélection des marques rendues visibles. Pour des juristes, l’intérêt du texte est double. D’une part, il fournit un début de preuve concrète d’un effet économique mesurable, ce qui manquait jusqu’ici. D’autre part, il déplace le débat juridique: la question n’est plus seulement de savoir si l’IA informe correctement, mais si elle oriente la décision d’une manière compatible avec l’autonomie du consommateur, la loyauté des pratiques commerciales et l’équité de la concurrence. Les auteurs restent néanmoins prudents sur la portée générale de leurs résultats, car l’étude repose sur une tâche unique en laboratoire et appelle des vérifications sur d’autres publics, d’autres produits et d’autres contextes.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans concurrence déloyale, intelligence artificielle, est tagué , , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire