
L’article de Grochowski, Mateusz, Algorithmic Price Fairness (January 28, 2026). 80 Vanderbilt Law Review (forthcoming), Available at SSRN: https://ssrn.com/abstract=6263538 or http://dx.doi.org/10.2139/ssrn.6263538)) repose sur un constat : les prix personnalisés par algorithme sont souvent dénoncés comme “injustes”, mais cette accusation reste en général trop vague pour servir de vrai critère juridique.
L’auteur veut donc répondre à une question précise : à partir de quand un prix personnalisé devient-il juridiquement problématique, et sur quelle base peut-on le dire ?
Sa thèse centrale est que l’injustice ne tient pas d’abord au fait que deux consommateurs paient des prix différents. En droit américain, il n’existe pas de droit général à un prix identique pour tous, et les différences de prix existaient bien avant l’IA. Le vrai problème nouveau est ailleurs : il tient au fait que le prix n’est plus construit à partir d’éléments visibles du marché ou de ce que les parties révèlent dans la négociation, mais à partir d’inférences cachées tirées d’une surveillance fine des comportements. L’entreprise en sait alors beaucoup sur le consommateur, tandis que le consommateur ne sait presque rien sur la manière dont le prix a été produit.
L’auteur commence par rappeler la vieille question du “prix juste”.
Historiquement, deux grandes approches se sont opposées. La première regarde le résultat : un prix est-il, en lui-même, trop élevé, disproportionné ou exploiteur ? C’est l’approche dite “substantielle”. La seconde regarde le processus : même si le prix paraît dur, a-t-il été fixé dans des conditions acceptables, sans contrainte, tromperie ou déséquilibre trop fort entre les parties ? C’est l’approche dite “procédurale”. Avec le temps, surtout dans les économies de marché modernes, le droit a de moins en moins voulu contrôler directement le niveau du prix. Il s’est plutôt concentré sur les conditions dans lesquelles le consentement est donné. Mais cette séparation entre le contenu du prix et la manière dont il est formé n’a jamais été parfaitement nette. Déjà dans les doctrines comme l’unconscionability en droit américain, on retrouve l’idée qu’un prix excessif et un défaut réel d’autonomie du cocontractant vont souvent ensemble.
L’auteur propose alors de comprendre l’équité du prix comme une question de “justice relationnelle”. Autrement dit, il ne s’agit pas de savoir s’il existe un prix objectivement parfait dans l’absolu, mais de vérifier si la relation contractuelle reste compatible avec un minimum de respect mutuel, d’autonomie réelle et d’absence d’exploitation. Sous cet angle, un prix n’est pas injuste seulement parce qu’il diffère d’un autre ; il devient injuste lorsqu’il est obtenu au moyen d’un avantage informationnel ou d’un pouvoir de marché qui permet à une partie d’extraire de la valeur de l’autre sans possibilité réelle pour celle-ci de comprendre, comparer ou contester. Cette idée prépare le terrain pour l’analyse des prix algorithmiques.
Dans la deuxième partie, l’article explique ce qu’est un prix algorithmique. Il ne s’agit pas seulement d’un prix qui change vite, ni d’un simple “yield management” lié à l’offre et à la demande. Le cœur du phénomène est prédictif. L’algorithme cherche à estimer ce qu’un consommateur donné est susceptible d’accepter comme prix, donc sa disposition probable à payer. Cette individualisation n’est d’ailleurs qu’en apparence totalement individuelle. En réalité, la machine classe les personnes dans des groupes statistiques et attribue un prix à partir de corrélations observées chez d’autres individus jugés semblables. Le prix est donc “personnalisé”, mais à partir d’une généralisation probabiliste. L’individu reçoit un prix propre à lui, tout en étant réduit à un type calculé par la machine.
À ce stade, l’auteur critique les discours courants sur “l’injustice” des prix personnalisés. Selon lui, beaucoup d’analyses mélangent plusieurs idées sans les distinguer : l’inégalité de traitement, l’exploitation économique, l’atteinte à la vie privée, la discrimination au sens classique, ou encore le malaise face à une machine opaque. Ce malaise social existe bien, mais il ne suffit pas à donner un critère juridique clair. Il faut donc identifier plus précisément ce qui, dans ces pratiques, justifie une intervention du droit.
L’article montre aussi que parler de “discrimination” ne résout pas tout. Le mot peut viser des cas très différents : l’usage direct de catégories sensibles, l’usage de variables de substitution qui reviennent au même résultat, ou encore des inférences plus indirectes sur la vulnérabilité, l’urgence, la santé, la détresse financière ou le profil psychologique du consommateur. Le problème n’est donc pas seulement l’égalité formelle entre consommateurs ; c’est aussi la manière dont des données personnelles ou quasi personnelles servent à exploiter des fragilités.
L’un des apports les plus importants de l’article est d’expliquer que la tarification algorithmique fait s’effondrer la distinction classique entre la procédure et le résultat. En théorie classique, on peut encore séparer la question de savoir si le prix est trop élevé de celle de savoir si la négociation s’est bien déroulée. Mais avec l’algorithme, cette séparation devient artificielle. Pourquoi ? Parce que le prix lui-même est déjà le produit d’un processus opaque fondé sur des données cachées et des corrélations invisibles. Le vice de procédure est incorporé dans le résultat. De la même façon, l’auteur explique que la tarification algorithmique ruine ce qu’il appelle le “test d’équivalence”, c’est-à-dire la possibilité de comparer le prix offert à un repère intelligible : prix du marché, prix moyen, prix normal dans des circonstances comparables. Si chaque consommateur se voit proposer un prix différent sur la base d’un calcul caché, il devient très difficile de dire si le prix reflète encore une valeur de marché ou s’il exprime seulement la capacité du vendeur à capter un surplus maximal. Sans point de comparaison, les mécanismes habituels du droit perdent leur prise.
L’article examine ensuite les réponses réglementaires déjà apparues. Il observe qu’elles restent fragmentaires et modestes parce qu’elles ne s’accordent pas sur ce qu’il faut vraiment protéger. Certaines approches se contentent d’exiger une information générale : le consommateur doit être averti qu’un prix personnalisé est utilisé. C’est, par exemple, la logique de la directive Omnibus de l’Union européenne, et l’auteur mentionne aussi une loi new-yorkaise récente allant dans le même sens. D’autres approches ajoutent un droit de retrait ou d’opposition, fondé sur la protection des données. Mais, selon l’auteur, ces solutions restent insuffisantes. Savoir qu’un prix est personnalisé ne permet pas de comprendre comment il l’est. Et pouvoir refuser la personnalisation n’aide guère si l’on ne sait pas ce que l’on refuse, ou si le marché n’offre pas de véritable alternative. L’autonomie reste alors purement formelle.
Le cœur théorique de l’article se trouve dans son analyse de la dimension “épistémique” du prix, c’est-à-dire de la place du savoir dans la formation du prix. Dans les marchés classiques, l’information imparfaite existe déjà, mais elle est plus ou moins bilatérale. Le vendeur ignore en partie jusqu’où l’acheteur est prêt à payer ; l’acheteur ignore en partie la qualité du produit ou certaines conditions du marché. Le prix, la négociation et la concurrence servent justement à réduire cette incertitude réciproque. Avec la tarification algorithmique, la situation s’inverse. Le vendeur ne se contente plus d’avoir un léger avantage d’information : il accumule une connaissance prédictive détaillée sur les préférences, les contraintes et les comportements du consommateur. Le consommateur, lui, ignore non seulement les variables utilisées, mais aussi sa propre place dans la distribution des prix et la logique du calcul qui lui est appliqué. L’auteur parle ici d’“inversion épistémique”. L’asymétrie d’information n’est plus un accident du marché ; elle devient la structure même de la transaction.
À partir de là, l’auteur reformule entièrement l’idée de prix équitable. Un prix algorithmique est juste non pas lorsqu’il est uniforme, mais lorsque le consommateur dispose d’assez d’information et de maîtrise pour évaluer ce prix, le situer par rapport à un repère, et empêcher que certaines données trop sensibles soient utilisées contre lui. Il propose donc un cadre en trois piliers.
Premier pilier : l’explicabilité du prix. Il ne s’agit pas d’exiger une transparence totale du code ou de l’algorithme. L’auteur demande plutôt une explication utile des principaux facteurs qui ont influencé le prix : par exemple la demande générale, l’historique d’achats, certains signaux tirés de l’appareil utilisé, de la localisation, ou du comportement de navigation. L’objectif est que le consommateur sache, de manière intelligible, pourquoi son prix est plus élevé ou plus bas. Cette explicabilité a deux fonctions. D’une part, elle permet de repérer des fondements illégitimes, comme l’usage d’indices de vulnérabilité. D’autre part, elle transforme le consommateur en acteur capable d’évaluer et, dans une certaine mesure, d’influencer son traitement futur.
Deuxième pilier : l’accès à un prix de référence. Comme le droit classique reposait sur la possibilité de comparer le prix à un standard, il faut recréer un point d’ancrage. Ce prix de référence peut prendre plusieurs formes. Il peut s’agir d’un prix non personnalisé, lorsque cela existe encore. Il peut aussi s’agir du prix moyen ou médian payé par d’autres consommateurs pour le même bien ou service dans une période donnée. Enfin, il peut prendre la forme d’un écart exprimé en pourcentage, par exemple indiquer au consommateur que son prix est de 15 % au-dessus de la moyenne personnalisée. L’idée n’est pas de garantir à chacun le prix le plus bas, mais de rendre le prix intelligible et comparable. Le prix de référence répond à la question “combien de plus ou de moins je paie que les autres ?”, tandis que l’explicabilité répond à la question “pourquoi ?”.
Troisième pilier : un droit d’exclusion de certaines données. L’auteur estime qu’il faut donner au consommateur un pouvoir réel pour empêcher l’usage de catégories de données jugées trop sensibles ou trop éloignées d’une tarification acceptable. Il cite comme exemples les données de santé, la localisation précise, les indices de vulnérabilité inférée, ou certains signaux tirés de l’usage de l’appareil. Ce droit ne vise pas à supprimer toute personnalisation, mais à permettre au consommateur de façonner sa “persona” sur le marché, c’est-à-dire de décider quelles catégories d’information peuvent légitimement entrer dans la fixation de son prix. Pour l’auteur, cette dimension est inséparable de la justice du prix : protéger l’équité suppose aussi de protéger la souveraineté de la personne sur ses données.
L’article insiste enfin sur le fait que ces trois éléments ne fonctionnent correctement qu’ensemble. La transparence seule ne suffit pas, car comprendre les facteurs d’un prix ne sert à rien si l’on ne peut pas le comparer à un repère. Le prix de référence seul ne suffit pas non plus, car savoir que l’on paie plus cher n’aide pas si l’on ne sait pas pourquoi ni comment s’y opposer. Et le droit d’exclure certaines données reste abstrait si le consommateur ne sait pas quelles données ont été utilisées ni quel effet elles ont eu. La proposition de l’auteur est donc un cadre intégré, centré sur le rééquilibrage de l’information entre entreprise et consommateur.
En conclusion, le droit ne doit pas traiter la tarification algorithmique comme un simple problème d’inégalité de prix, mais comme un problème de savoir, de pouvoir et de maîtrise des données. Le prix personnalisé n’est pas injuste parce qu’il est personnalisé ; il devient injuste lorsqu’il résulte d’une supériorité informationnelle unilatérale qui prive le consommateur de toute capacité réelle de comprendre, comparer et contester. La réponse juridique adéquate n’est donc ni le retour pur et simple au prix uniforme, ni la seule obligation d’avertir. Elle consiste à reconstruire, dans l’économie numérique, les conditions minimales d’une autonomie contractuelle réelle : une explication utile, un point de comparaison, et un droit de bloquer l’usage des données les plus problématiques. C’est sur cette base que l’auteur pense possible de donner enfin un contenu opératoire à la notion de “fairness” dans les prix algorithmiques.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration