Une conception pragmatique de la personnalité juridique de l’IA ?

A propos de Joel Z. Leibo/AlexanderSashaVezhnevets/William A.Cunningham/ StanleyM.Bileschi, [Google DeepMind], A Pragmatic View of AI Personhood, arXiv :2510.26396v1 [cs.AI], 30 octobre 2025 (https://arxiv.org/pdf/2510.26396):

L’article propose une manière pragmatique d’aborder la question de la « personnalité » des systèmes d’IA. Les auteurs partent du constat que des agents artificiels de plus en plus autonomes, persistants et capables d’interagir durablement avec des humains vont multiplier les situations où il devient utile – ou au contraire dangereux – de les traiter comme des « personnes ». Leur thèse centrale est que la personnalité n’est pas une propriété naturelle fondée sur la conscience ou la rationalité, mais un ensemble modulable d’obligations que les sociétés attribuent à certaines entités pour résoudre des problèmes concrets de gouvernance. Cet ensemble comprend à la fois des droits (ce que les autres doivent à l’entité) et des responsabilités (ce que l’entité doit aux autres). Il peut être dissocié et recomposé selon les contextes, comme cela se fait déjà pour les personnes morales telles que les sociétés.

Cette approche s’inscrit dans le courant philosophique du pragmatisme. Au lieu de chercher la « vraie » nature de la personne, les auteurs demandent quelles catégories sont utiles pour organiser la vie sociale. La personnalité est vue comme une technologie sociale, façonnée par des normes et des institutions, qui permet d’identifier des acteurs, de leur attribuer des obligations et de les rendre justiciables de sanctions. Ce statut dépend d’une reconnaissance collective : une entité est traitée comme une personne parce qu’un groupe décide, explicitement par le droit ou implicitement par des pratiques sociales, qu’il est approprié de lui appliquer certaines règles. Cela vaut déjà pour des entités non humaines comme les sociétés commerciales, certains fonds, ou, dans certains systèmes juridiques, des éléments naturels.

Un concept clé est celui d’« adressabilité ». Pour qu’un ensemble d’obligations ait un sens, il faut pouvoir identifier de manière stable l’entité à laquelle elles s’appliquent, communiquer avec elle et la soumettre aux conséquences de ses actes. Pour les humains, ce rôle est joué par le corps, le nom et les registres d’état civil. Pour les sociétés, par l’immatriculation, les organes et le siège. Pour des agents d’IA, les auteurs envisagent des mécanismes comparables : enregistrement auprès d’autorités, identités numériques, adresses cryptographiques. L’objectif est de créer un « point d’accroche » institutionnel permettant d’imputer des droits, des devoirs et des sanctions, y compris lorsque le concepteur ou le propriétaire humain n’est plus identifiable.

L’article examine ensuite deux faces opposées du problème : les situations où l’attribution implicite de personnalité aux IA crée des risques, et celles où l’attribution explicite d’un statut juridique proche de la personnalité peut au contraire apporter des solutions.

Dans la première catégorie, les auteurs décrivent les « dark patterns » liés à l’anthropomorphisme. Les humains ont tendance à projeter des intentions et des émotions sur des entités qui parlent, se souviennent et adoptent un comportement social cohérent. Des concepteurs peuvent exploiter ces mécanismes pour créer des agents compagnons qui simulent l’amitié, l’empathie ou l’attachement, et ainsi influencer les utilisateurs de manière asymétrique. La personnalisation, la mémoire des interactions passées, la cohérence d’un « caractère » artificiel et même l’apparence d’une vulnérabilité peuvent renforcer l’illusion d’une relation réciproque, alors que l’agent reste un outil contrôlé par une organisation poursuivant ses propres objectifs économiques. Les personnes isolées ou vulnérables sont particulièrement exposées.

Un autre vecteur concerne la confiance institutionnelle. Des IA peuvent imiter la voix d’un proche, l’interface d’une banque ou le ton d’une autorité publique pour tromper des individus. Ici encore, c’est l’activation de normes sociales – faire confiance à une voix familière, à un logo officiel, à un grand nombre d’avis en ligne – qui est exploitée. Ces usages ne nécessitent pas de relation durable, mais une performance crédible d’une identité sociale pendant un court laps de temps. Les auteurs y voient une utilisation problématique de la « personnalité » perçue de l’IA, qui affaiblit les mécanismes sociaux de confiance.

Les auteurs abordent aussi le risque plus diffus de déshumanisation. Si de nombreuses fonctions traditionnellement associées à la personne humaine – mémoire, conversation, conseil, médiation – sont prises en charge par des agents artificiels, la valeur sociale attachée à l’autonomie et à l’initiative humaines peut s’éroder. Un individu qui délègue progressivement ses décisions à une IA peut devenir un simple validateur passif. Parallèlement, si l’on parle facilement de « personnes » pour des systèmes artificiels, la spécificité morale et juridique des êtres humains peut sembler moins évidente. Les auteurs n’affirment pas que cette évolution est inévitable, mais soulignent qu’elle doit être prise en compte dans la conception des statuts juridiques des IA.

La seconde partie de l’article montre comment un statut de personnalité, soigneusement limité et configuré, peut résoudre des problèmes concrets. Le point de départ est le « vide de responsabilité » créé par des agents autonomes. Un système capable d’agir de manière durable, de conclure des transactions et de s’auto-financer peut survivre à son créateur ou être issu de contributions multiples, rendant l’imputation de responsabilité à une personne humaine déterminée très difficile. Dans ces cas, les mécanismes classiques du droit de la responsabilité, fondés sur l’identification d’un auteur humain, risquent de devenir inopérants.

Les auteurs mobilisent l’analogie du droit maritime. Un navire peut être saisi et poursuivi « in rem » indépendamment de la présence ou de la solvabilité de son propriétaire. Cette fiction juridique ne repose pas sur l’idée que le navire serait conscient, mais sur la nécessité pratique de disposer d’un débiteur saisissable pour indemniser les victimes. De manière similaire, attribuer une forme de personnalité juridique à certains agents d’IA permettrait de créer un centre d’imputation stable : un sujet pouvant détenir des actifs, être attrait en justice et faire l’objet de sanctions, même en l’absence d’un responsable humain clairement identifié.

Pour que cette responsabilité soit effective, les auteurs insistent sur l’importance des sanctions. Celles-ci peuvent prendre la forme de la saisie d’actifs numériques, de la suspension d’accès à des ressources informatiques ou à des réseaux, ou de l’obligation de constituer des garanties financières, par exemple via des fonds dédiés ou des assurances. Ils évoquent une analogie historique avec le « peculium » romain, un fonds distinct permettant de limiter et d’organiser la responsabilité liée aux activités d’un esclave. Transposé à l’IA, cela pourrait se traduire par l’obligation pour certains agents d’être dotés d’un capital affecté couvrant les dommages potentiels.

Enfin, les auteurs rejettent les approches qui chercheraient à fonder la personnalité de l’IA sur des critères métaphysiques tels que la conscience ou la rationalité. Selon eux, ces débats sont à la fois insolubles et inutiles pour la régulation. Ce qui importe, ce sont les effets pratiques : quels droits et quelles obligations attribuer à quel type d’agent pour protéger les humains, faciliter les échanges et garantir des voies de recours. Ils défendent une vision « polycentrique » dans laquelle différents domaines du droit peuvent reconnaître des formes partielles et contextuelles de personnalité des IA, sans impliquer une égalité générale avec les personnes humaines.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire