
Quelques réflexions tirées de A.REBERA/L.LAUWAERT/A.-K.OIMANN, Hidden Risks: Artificial Intelligence and Hermeneutic Harm, Minds and Machines (2025) 35:33, (https://doi.org/10.1007/s11023-025-09733-0), que l’on lira notamment en lien avec les décisions discriminatoires en matière de recrutement automatisé – sujet dont je vous reparlerai bientôt:
L’étude met en lumière une forme de préjudice encore peu explorée dans la littérature juridique et éthique sur l’intelligence artificielle (IA) : le préjudice herméneutique. Contrairement aux biais algorithmiques ou aux discriminations, déjà bien documentés, ce type de préjudice repose sur l’impossibilité pour les individus de comprendre ou de donner un sens à certains événements qui les affectent — notamment lorsqu’ils sont causés par des systèmes d’IA.
Les auteurs définissent le préjudice herméneutique comme une douleur psychologique ou émotionnelle résultant de l’incapacité prolongée à comprendre ce qui s’est passé, en particulier dans des contextes où l’événement est inattendu ou douloureux. Il ne s’agit pas d’un problème nouveau ou propre à l’IA. Des traumatismes comme le deuil, la trahison ou l’injustice peuvent déjà laisser des individus dans une forme d’incompréhension paralysante. Toutefois, l’IA introduit de nouveaux obstacles à la capacité humaine de « faire sens » des événements, notamment à travers son opacité, sa complexité technique ou son insensibilité aux normes sociales.
La section introductive souligne que ce préjudice peut survenir même en l’absence de mauvaise intention ou de dysfonctionnement du système. Un algorithme peut parfaitement fonctionner selon les standards techniques tout en laissant une personne incapable de comprendre pourquoi elle a été écartée d’un processus de sélection ou visée par une décision automatisée.
Les auteurs développent ensuite la notion de « faire sens » (ou « sense-making ») comme processus herméneutique fondamental dans la gestion des événements de la vie. Ce processus consiste à aligner notre compréhension immédiate d’un événement (ce qu’ils appellent la signification situationnelle) avec nos attentes plus profondes (la signification globale). Lorsqu’un écart entre ces deux niveaux de sens se produit et ne peut être résorbé, un préjudice herméneutique peut émerger.
Dans les chapitres suivants, l’étude examine plusieurs exemples concrets de ce type de préjudice.
Le premier concerne un candidat à un emploi rejeté par un système de recrutement automatisé. Il est hautement qualifié mais ne reçoit aucune explication compréhensible à son rejet. Ni le système ni les responsables RH ne sont capables de lui fournir des raisons claires. Ce vide informationnel empêche tout processus de compréhension : il ne sait pas s’il doit revoir son CV, sa stratégie ou simplement accepter une injustice opaque. L’absence de transparence crée ici une souffrance cognitive.
Un deuxième cas décrit une cheffe d’entreprise à qui l’on refuse un prêt bancaire, bien que son dossier semble solide. Elle reçoit un fichier technique JSON comme seule explication, incompréhensible sans formation spécialisée. Même après une réunion avec les techniciens de la banque, elle repart sans avoir compris les critères exacts du rejet. Là encore, ce n’est pas l’absence d’explication brute qui crée le préjudice, mais l’inadéquation entre la forme de l’explication fournie et les capacités ou attentes de la personne concernée.
Ces deux cas révèlent un problème de transparence épistémique : l’IA, notamment dans ses formes dites de « boîte noire » (black box), empêche les individus de comprendre comment une décision a été prise. Des efforts sont faits dans le domaine de l’« IA explicable » (ou XAI, pour Explainable AI), qui vise à rendre les algorithmes plus interprétables. Mais selon les auteurs, ces outils ne suffisent pas à résoudre tous les cas de préjudice herméneutique. Parfois, même une explication techniquement correcte ne suffit pas si elle est inadaptée à son destinataire.
Un point central du texte est que les exigences d’explication ne sont pas uniquement cognitives mais aussi sociales et normatives. Une bonne explication n’est pas seulement juste : elle doit aussi être délivrée dans un cadre qui respecte l’interlocuteur, qui prend en compte ses attentes, ses émotions, et qui témoigne d’une forme de reconnaissance humaine. Les auteurs comparent alors une interaction réussie entre une cliente et une directrice de banque, qui explique avec tact et clarté pourquoi une demande de prêt a été refusée. Ce type d’interaction, profondément humaine, atténue le risque de préjudice herméneutique, même en cas de désaccord sur le fond.
Or, les systèmes d’IA, par nature, manquent de cette intelligence sociale. Ils ne perçoivent ni les signaux sociaux ni les émotions, et ne savent pas adapter leur communication à des attentes implicites. C’est là que réside une limite fondamentale de l’explicabilité automatisée. Même si un système pouvait générer une explication textuelle acceptable, le fait qu’il ne soit pas un agent humain prive cette explication d’une forme essentielle de légitimité relationnelle.
Les auteurs abordent ensuite des situations encore plus graves, notamment des décisions prises par des IA dans des contextes vitaux, comme les véhicules autonomes ou les systèmes d’armes létales autonomes (LAWS). Ils citent des exemples hypothétiques mais réalistes où une voiture autonome décide de heurter un piéton pour éviter un carambolage, ou encore un drone armé attaque une foule, croyant viser un chef militaire. Dans ces cas, l’agentivité de l’IA — même partielle — perturbe profondément nos attentes morales. On comprend comment la machine a « raisonné », mais cela ne permet pas de faire sens sur le plan moral.
Ce que les auteurs mettent en évidence ici, c’est la différence entre la compréhension rationnelle d’un événement et l’acceptation morale de ce dernier. Même si la victime ou ses proches comprennent pourquoi une IA a pris une décision, cela ne les aide pas forcément à l’accepter si cette décision contredit des principes fondamentaux (comme la dignité humaine, la non-instrumentalisation des personnes, ou encore l’interdiction de tuer des innocents). Dans ces situations, le préjudice herméneutique résulte du heurt entre les normes morales profondes et l’action de la machine, même parfaitement « justifiable » sur le plan utilitariste.
Ce type de tension renvoie à un problème d’alignement des valeurs. L’IA, même bien conçue, n’incarne pas nos principes moraux universels. Si elle agit de manière contraire à nos attentes morales, elle risque de provoquer des blessures subjectives durables chez ceux qu’elle affecte.
En conclusion, les auteurs insistent sur le fait que le préjudice herméneutique est une conséquence possible — mais souvent négligée — de l’essor des systèmes d’IA dans nos sociétés. Il n’est pas réservé à des cas extrêmes ou à des pannes. Il peut émerger dans des interactions ordinaires, à cause d’un manque d’explication, d’un manque de reconnaissance, ou d’un heurt entre valeurs humaines et logique algorithmique.
Ils appellent à une réflexion éthique plus large sur l’explicabilité, qui ne se limite pas à la transparence technique mais intègre les dimensions sociales et normatives de nos attentes. Ils suggèrent également la mise en place de mécanismes d’atténuation du préjudice herméneutique, allant de l’accompagnement psychologique au soutien juridique, en passant par des médiateurs humains capables de contextualiser les décisions des machines.
Enfin, les auteurs rappellent que si les systèmes d’IA peuvent accroître la puissance de décision et l’efficacité, ils comportent aussi des risques d’aliénation cognitive et morale, parce qu’ils opèrent en dehors du tissu relationnel humain.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle