
Introduction
Le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (…) Règlement sur l’intelligence artificielle ou RIA : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689) institue à son art. 86 un véritable droit à l’explication concernant certaines décisions prises par des systèmes d’intelligence artificielle (système d’IA ou SIA) :
Art. 86 RIA Droit à l’explication des décisions individuelles
1. Toute personne concernée faisant l’objet d’une décision prise par un déployeur sur la base des sorties d’un système d’IA à haut risque mentionné à l’annexe III, à l’exception des systèmes énumérés au point 2 de ladite annexe, et qui produit des effets juridiques ou affecte significativement cette personne de façon similaire d’une manière qu’elle considère comme ayant des conséquences négatives sur sa santé, sa sécurité ou ses droits fondamentaux a le droit d’obtenir du déployeur des explications claires et pertinentes sur le rôle du système d’IA dans la procédure décisionnelle et sur les principaux éléments de la décision prise.
2. Le paragraphe 1 ne s’applique pas à l’utilisation de systèmes d’IA pour lesquels des exceptions ou des restrictions à l’obligation prévue audit paragraphe découlent du droit de l’Union ou du droit national dans le respect du droit de l’Union.
3. Le présent article ne s’applique que dans la mesure où le droit visé au paragraphe 1 n’est pas prévu par ailleurs dans le droit de l’Union.
C’est à cette disposition qu’est consacré l’article (en pré-print) de Kaminski, Margot E. and Malgieri, Gianclaudio, The Right to Explanation in the AI Act (March 08, 2025). U of Colorado Law Legal Studies Research Paper No. 25-9, Available at SSRN: https://ssrn.com/abstract=5194301 dont nous extrayons les réflexions suivantes :
Genèse de l’article 86
Le texte initial proposé par la Commission ne contenait aucun droit à explication. C’est le Parlement, dans une volonté d’apporter davantage de garanties aux personnes concernées, qui a ajouté cette disposition. L’article 86 établit ainsi explicitement qu’une personne peut obtenir une explication sur une décision prise ou influencée de manière significative par un système d’IA à haut risque. Il ne s’agit pas simplement d’une information générale sur le fonctionnement de l’algorithme, mais bien d’une justification individualisée de la décision concrète.
Cadre juridique et articulation avec le RGPD
Le droit à explication dans l’AI Act ne remplace pas les droits préexistants dans le RGPD ; il les complète. Tandis que le RGPD prévoit l’accès à des « informations pertinentes sur la logique sous-jacente », ce droit s’est révélé difficile à mettre en œuvre dans la pratique. L’article 86, en revanche, impose une obligation plus opérationnelle aux fournisseurs et aux utilisateurs de systèmes d’IA à haut risque. Il s’ancre aussi dans une logique de responsabilité : l’explication doit permettre aux personnes concernées de comprendre les fondements de la décision, de la contester ou de demander réparation le cas échéant.
Conditions d’application : systèmes concernés et déclenchement du droit
L’article 86 vise spécifiquement les systèmes d’IA à haut risque ayant une incidence significative sur les droits fondamentaux. Sont notamment visés les domaines de l’éducation, du recrutement, de l’octroi de crédit ou encore de l’accès à des prestations sociales. L’explication doit être fournie sur demande, et il est précisé que cette demande peut être formulée auprès de l’utilisateur du système d’IA (par exemple, un employeur ou une administration), même si c’est le fournisseur technique qui détient les informations nécessaires.
Nature et portée de l’explication attendue
L’explication visée par l’article 86 est de nature « procédurale » et non « substantielle ». Autrement dit, elle ne requiert pas une divulgation du code source ou des secrets d’affaires, mais doit fournir une description intelligible des critères ayant influencé la décision. L’objectif est de rendre la décision compréhensible à un non-expert, dans un langage clair, afin de permettre l’exercice effectif d’un droit. L’accent est donc mis sur l’interprétabilité plutôt que sur la transparence brute. La doctrine parle ainsi d’une « explicabilité contextuelle », ajustée à la personne concernée.
Enjeux pratiques : faisabilité et efficacité
Si ce droit à explication constitue un progrès, plusieurs difficultés pratiques demeurent.
D’une part, l’interprétabilité des systèmes d’IA complexes, notamment ceux reposant sur des modèles d’apprentissage profond (deep learning), pose des défis techniques. D’autre part, les utilisateurs finaux – entreprises, administrations – ne disposent pas toujours des moyens pour générer de telles explications. Il faudra dès lors développer des interfaces explicatives adaptées, ou recourir à des méthodes d’audit externe. Le texte prévoit d’ailleurs que les obligations soient partagées entre fournisseur et utilisateur, selon leurs rôles respectifs.
Articulation avec d’autres droits procéduraux
L’article 86 n’est pas isolé. Il s’inscrit dans un ensemble de garanties procédurales plus large prévues par l’AI Act, comme les obligations de documentation (article 16), de transparence (article 13), ou de surveillance humaine (article 14). Le droit à explication doit être lu en synergie avec ces autres droits, ce qui renforce son efficacité. Il s’inscrit aussi dans la continuité du droit à une motivation des décisions, mais appliqué ici à des décisions automatisées.
Conséquences juridiques : contentieux et responsabilité
L’existence d’un droit à explication ouvre potentiellement la voie à de nouveaux contentieux. En cas de refus ou d’explication insuffisante, la personne concernée pourrait invoquer une violation de l’AI Act, voire des droits fondamentaux tels que le droit à un recours effectif ou à une protection juridictionnelle. La doctrine souligne que ce droit pourrait renforcer la responsabilisation des acteurs de l’IA, en créant une forme d’obligation de rendre compte (accountability).
Portée symbolique et perspectives
Au-delà de son effet direct, l’article 86 revêt une portée symbolique forte. Il reconnaît formellement que les décisions prises ou influencées par l’IA peuvent et doivent être justifiées. Il s’agit d’un pas vers une démocratisation du recours à l’IA, en garantissant aux individus les moyens de comprendre et de contester son usage
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle