
A propos de : Lamprinoudis K. The courts have spoken: examining judicial responses across the EU to algorithmic bias in automated decision-making through the lens of non-discrimination law. European Law Open. Published online 2026:1-27. doi:10.1017/elo.2026.10073 (https://www.cambridge.org/core/journals/european-law-open/article/courts-have-spoken-examining-judicial-responses-across-the-eu-to-algorithmic-bias-in-automated-decisionmaking-through-the-lens-of-nondiscrimination-law/B17BCB33E06ACF28EE07925A9F64AE6E)
L’article de Konstantinos Lamprinoudis étudie la manière dont les juridictions des États membres et la Cour de justice de l’Union européenne traitent les cas de biais algorithmique dans la prise de décision automatisée, en les regardant à travers le prisme du droit de la non-discrimination. Son point de départ est le suivant : la littérature juridique européenne a beaucoup discuté des risques de discrimination causés par les algorithmes, mais elle a beaucoup moins observé ce que les juges font concrètement lorsqu’ils sont saisis de tels litiges.
L’auteur veut donc déplacer l’analyse du terrain théorique vers celui de la jurisprudence.
L’introduction rappelle d’abord le contexte général. Les systèmes de décision automatisée sont désormais utilisés dans des domaines très variés, par les autorités publiques comme par des acteurs privés : contrôle aux frontières, fiscalité, sécurité sociale, publicité en ligne, assurance, finance, emploi. Ils reposent sur l’exploration de données, le profilage et des classifications qui permettent de regrouper des personnes, de prédire leur comportement et d’orienter des décisions qui peuvent être favorables ou défavorables. Or ces décisions peuvent avoir des effets très concrets sur les droits et les intérêts des personnes concernées. C’est pourquoi le RGPD encadre les décisions fondées exclusivement sur un traitement automatisé de données personnelles, notamment par son article 22. L’auteur souligne aussi que le législateur européen a déjà intégré la question de l’égalité dans ses instruments numériques, notamment le RGPD et le RIA. Mais il insiste sur une distinction conceptuelle : en droit, le « biais » et la « discrimination » ne sont pas synonymes. Le biais algorithmique est une notion large, qui vise tout résultat injuste, faussé ou défavorable. La discrimination, au sens juridique, est plus étroite : elle suppose un désavantage fondé sur un motif protégé par le droit, dans un domaine où le droit de la non-discrimination s’applique. Tous les biais ne sont donc pas des discriminations. Pour les cas de biais qui ne rentrent pas dans le champ du droit de la non-discrimination, l’auteur propose de parler de « différenciation algorithmique injuste ». À partir de là, il construit une typologie des jugements : d’un côté, les décisions portant sur une véritable discrimination algorithmique ; de l’autre, celles portant sur une différenciation algorithmique injuste. Dans cette seconde catégorie, il distingue encore les jugements de « réflexion sur la discrimination », les jugements de « conscience de la discrimination » et les jugements de « silence sur la discrimination ». Cette typologie sert ensuite à analyser le rapport entre droit de la non-discrimination et droit de la protection des données.
La deuxième partie est consacrée aux jugements portant sur des cas de discrimination algorithmique proprement dite. L’auteur rappelle que, même si les technologies sont nouvelles, le cadre classique du droit de la non-discrimination reste applicable. Il peut s’agir de discrimination directe lorsque l’algorithme prend explicitement en compte un motif protégé de manière défavorable ; il peut aussi s’agir de discrimination indirecte lorsque des critères apparemment neutres, des données d’entraînement biaisées ou des variables de substitution défavorisent en pratique un groupe protégé. L’auteur note cependant qu’en matière algorithmique, la frontière entre discrimination directe et indirecte peut devenir difficile à tracer, en particulier lorsqu’on utilise des proxys. Il examine ensuite deux affaires. Dans la première, un tribunal a jugé qu’un système de scoring de crédit était directement discriminatoire parce qu’il reposait sur des variables telles que le sexe, la langue, le lieu de résidence et l’âge, sans évaluation individuelle de la situation financière. Le système attribuait moins de points aux hommes, aux locuteurs finnois, aux habitants de zones rurales et à certaines classes d’âge. Pour le tribunal, il s’agissait d’une discrimination multiple. Dans une autre affaire, le tribunal a retenu une discrimination indirecte liée à l’activité syndicale. L’algorithme de réputation pénalisait les coursiers absents ou ayant annulé un créneau, sans distinguer les motifs de cette absence, par exemple une participation à une grève. En traitant toutes les absences de la même manière, le système désavantageait indirectement les travailleurs qui exerçaient un droit protégé. Llorsque l’algorithme produit un désavantage rattachable à un motif protégé dans un domaine couvert par le droit de l’égalité, les juridictions peuvent mobiliser les catégories classiques du droit de la discrimination.
La troisième partie traite des cas de différenciation algorithmique injuste, c’est-à-dire des situations où un algorithme produit des effets discutables ou inéquitables sans qu’on puisse, du moins pas directement, établir une discrimination juridiquement qualifiée. L’auteur précise que ces cas peuvent tout de même intéresser le droit de la non-discrimination lorsqu’il existe un risque plausible d’effets discriminatoires. C’est sur cette base qu’il distingue trois sous-catégories.
Dans les jugements de « réflexion sur la discrimination », les juges examinent concrètement le risque discriminatoire attaché au système en cause et en tiennent compte dans leur raisonnement. L’auteur cite d’abord une affaire portant sur un système public de détection de fraude sociale. Le tribunal de La Haye a vu dans l’opacité du système, l’ampleur du croisement des données et le ciblage de certaines zones ou populations des éléments susceptibles de conduire à des effets discriminatoires. Une autre affaire, également aux Pays-Bas, prolonge cette logique : la haute juridiction administrative y a jugé que, faute de transparence sur la méthode de sélection des personnes ou adresses visées par les contrôles, on ne pouvait exclure un traitement discriminatoire, si bien que les contrôles étaient illégaux. Dans une troisième affaire, la Cour de justice a rappelé que des critères prédéterminés, même neutres en apparence, ne doivent pas conduire à des désavantages particuliers pour des personnes présentant des caractéristiques protégées ; elle a aussi insisté sur la nécessité d’un contrôle humain individuel pour éviter des résultats discriminatoires. Enfin, le Tribunal constitutionnel fédéral allemand a souligné que l’automatisation peut amplifier la discrimination policière, en particulier lorsque des méthodes d’analyse de données à grande échelle détectent des corrélations statistiques difficiles à contrôler. Dans ces affaires, les considérations d’égalité ne sont pas périphériques : elles nourrissent directement le contrôle de proportionnalité et le jugement sur la légalité du dispositif.
Dans les jugements de « conscience de la discrimination », les juridictions reconnaissent de manière générale que les systèmes automatisés peuvent produire des effets discriminatoires, mais elles ne tirent pas de conséquence décisive de ce constat dans l’affaire examinée. Dans un dossier, la Cour juge ainsi que l’établissement automatisé d’un score de crédit peut relever de l’article 22 RGPD lorsque ce score détermine fortement la décision d’un tiers. Pour interpréter cette disposition, elle rappelle que le RGPD vise aussi à protéger les personnes contre les risques particuliers du traitement automatisé, y compris les risques discriminatoires. Le Conseil d’État italien insiste sur l’obligation de prévoir des mesures techniques et organisationnelles aptes à corriger les inexactitudes, réduire les erreurs et prévenir des effets discriminatoires. Mais, dans ces affaires, la référence à la discrimination reste surtout abstraite et n’emporte pas à elle seule la solution.
Dans les jugements de « silence sur la discrimination », enfin, les juridictions ne disent rien du tout du potentiel discriminatoire alors même qu’un soupçon plausible existe. Dans un dossier, des plaintes visaient notamment le manque de transparence et le risque de défavoriser certains candidats en raison de leur établissement d’origine, ce qui pouvait recouper des inégalités sociales ou territoriales. Pourtant, les décisions analysées n’intègrent pas réellement cette dimension. Dans un autre cas, le débat portait sur l’usage de systèmes automatisés dans le contrôle bancaire, avec des effets potentiellement défavorables pour certains clients, mais là encore sans prise en compte explicite du risque discriminatoire. L’intérêt de cette catégorie est de montrer que le silence judiciaire sur la discrimination n’est pas neutre : il révèle une manière de traiter le biais algorithmique uniquement comme un problème de procédure, de transparence ou de données, en laissant de côté la question de l’égalité.
La quatrième partie analyse l’articulation entre droit de la non-discrimination et droit de la protection des données. Dans un premier temps, l’auteur expose le cadre théorique. Les deux branches poursuivent des finalités différentes mais complémentaires. Le droit de la non-discrimination permet de qualifier juridiquement un désavantage injustifié, de l’inscrire dans une logique de protection de groupes vulnérables et de viser l’égalité substantielle. Le droit des données personnelles, lui, offre des instruments particulièrement utiles face à l’opacité des systèmes : exigences de licéité, de loyauté, de minimisation, de qualité des données, de transparence, droit à l’information sur la logique de traitement, contrôle des décisions automatisées, audits, enquêtes et sanctions par les autorités de protection des données. L’auteur insiste sur le fait que ces outils peuvent aider les personnes concernées à mettre au jour le fonctionnement d’un système et, le cas échéant, à établir une présomption de discrimination. Il ajoute que le RGPD offre aussi des mécanismes de recours collectif et des pouvoirs publics d’enquête plus robustes que ceux que l’on trouve souvent en pratique dans le contentieux de la discrimination. D’où l’importance, selon lui, d’une coopération étroite entre autorités de protection des données et organismes de promotion de l’égalité.
Dans un second temps, l’auteur observe que l’intensité de cette interaction varie selon les types d’affaires. Dans les cas de discrimination algorithmique claire, l’analyse au titre de la non-discrimination tend à absorber la dimension « données » : le cœur du litige reste le traitement inégal. En revanche, dans les cas de différenciation algorithmique injuste, les recours passent plus naturellement par le RGPD, faute de pouvoir établir le lien requis avec un motif protégé. C’est ici que la typologie prend tout son sens. Dans les jugements de réflexion, les juridictions intègrent les préoccupations d’égalité dans le cadre du droit des données ; dans les jugements de conscience, elles les évoquent sans les exploiter pleinement ; dans les jugements de silence, elles les écartent totalement. Enfin, l’auteur montre que les juridictions ne « cadrent » pas toutes de la même manière le rapport entre ces deux branches du droit. Certaines font du risque discriminatoire un élément du contrôle de légalité du traitement de données ; d’autres ne voient dans l’affaire qu’un problème de protection des données, même lorsque le contexte social suggère davantage.
La conclusion met en garde contre une tendance : face aux biais algorithmiques, les victimes et les juridictions ont souvent le réflexe de raisonner d’abord en termes de protection des données, et seulement accessoirement en termes de discrimination. L’auteur comprend ce mouvement, car il est souvent plus facile d’attaquer l’opacité, le manque de transparence ou l’irrégularité du traitement que de prouver juridiquement une discrimination, surtout dans des systèmes complexes et peu lisibles. Tant que les préoccupations d’égalité sont réellement intégrées dans l’application du droit des données, cette voie peut être utile et même souhaitable. Mais si la question de l’égalité est entièrement dissoute dans un langage technique sur les données, on perd ce que le droit de la non-discrimination apporte de spécifique : la reconnaissance du stigmate, du désavantage social, des rapports de pouvoir et de l’objectif d’égalité substantielle. Autrement dit, le RGPD permet d’ouvrir la boîte noire algorithmique, mais il ne suffit pas à lui seul à nommer et condamner l’atteinte sociale propre à la discrimination. C’est pourquoi l’auteur estime que le modèle le plus prometteur pour l’avenir est celui des jugements de « réflexion sur la discrimination », qui combinent de façon organique les ressources du droit de la protection des données et celles du droit de la non-discrimination, sans réduire l’une à l’autre.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration