Une personnalité juridique pour l’IA ?

Quelques réflexions tirées de UK Law Commission, AI and the Law : A Discussion Paper, juillet 2025, pp. 21-23 (https://lawcom.gov.uk/news/artificial-intelligence-and-the-law-a-discussion-paper/):

La question de savoir si les systèmes d’intelligence artificielle devraient se voir reconnaître une personnalité juridique distincte est aujourd’hui au cœur des réflexions sur la responsabilité en matière d’IA. L’idée peut paraître radicale, voire futuriste, mais elle est déjà débattue dans les milieux académiques et institutionnels. Elle répond à une difficulté bien réelle : l’absence, dans certains cas, de personne physique ou morale clairement responsable des actes ou omissions d’un système autonome. Tant que l’IA n’a pas sa propre personnalité juridique, toute faute ou tout dommage doit être rattaché à un humain ou à une entité existante ; or, plus les systèmes gagnent en autonomie et en capacité d’adaptation, plus cette attribution devient incertaine.

Le droit positif rappelle que la personnalité juridique est une construction de l’ordre juridique : elle n’existe que parce que le système juridique la confère. Les sociétés, associations, fondations ou encore certaines entités non humaines – comme des temples en Inde ou une rivière en Nouvelle-Zélande – en bénéficient. Rien n’interdit donc, en théorie, que cette qualité soit étendue à d’autres entités, pour autant qu’il existe une justification fonctionnelle. La personnalité juridique s’analyse comme un faisceau de droits et d’obligations : le pouvoir d’acquérir des biens, de contracter, de comparaître en justice ou d’être poursuivi. Ce faisceau varie selon les catégories : les sociétés, par exemple, n’ont pas les mêmes droits que les individus.

Certains précédents, certes symboliques, ont déjà testé cette idée. En 2017, l’Arabie saoudite a proclamé le robot « Sophia » citoyen, et la mairie de Shibuya à Tokyo a octroyé un statut de résident à un programme d’IA. Ces décisions relèvent sans doute davantage du marketing technologique que d’une réforme juridique sérieuse, mais elles montrent que la question n’est plus purement théorique. Le Parlement européen, en 2017 également, a évoqué la création d’une personnalité juridique propre aux robots les plus autonomes. L’initiative a suscité une vive réaction : des chercheurs et juristes ont dénoncé cette perspective comme éthiquement et juridiquement inappropriée, estimant qu’elle risquait de brouiller la frontière entre responsabilité humaine et autonomie logicielle.

Le rapport identifie ensuite trois séries de questions : pourquoi accorder ou refuser la personnalité juridique à l’IA ; à quels systèmes elle pourrait être reconnue ; et quelle forme précise elle devrait prendre.

Les arguments favorables reposent d’abord sur la gestion des « trous de responsabilité ». Si un système agit sans contrôle humain direct, il devient difficile de désigner un responsable. Lui reconnaître une personnalité propre permettrait de lui imputer directement certains actes et d’organiser un régime de réparation. Ce statut pourrait aussi encourager l’innovation : les concepteurs, sachant qu’une partie de la responsabilité est transférée à l’entité autonome, seraient plus enclins à expérimenter. Enfin, certains auteurs soutiennent qu’un système rendu juridiquement responsable serait incité à « se comporter » de manière prudente, s’il est programmé pour éviter la sanction ou la perte de ressources.

Les arguments contraires sont tout aussi importants. Accorder une personnalité à l’IA risquerait de servir de bouclier à ses créateurs : des entreprises pourraient l’utiliser pour se décharger indûment de leurs obligations. De plus, un système n’ayant ni volonté propre ni patrimoine n’est pas, en pratique, apte à répondre de ses dettes ; il faudrait donc imaginer des mécanismes artificiels de financement ou d’assurance pour que la responsabilité soit effective.

Admettons néanmoins qu’une telle réforme soit envisagée : à quelles IA l’appliquer ? Il paraît évident qu’un filtre antispam ou un algorithme d’aide à la décision ne justifie pas un statut juridique autonome. En revanche, certains « agents » dotés d’un haut degré d’autonomie, capables d’agir, d’apprendre et d’interagir avec d’autres agents, posent une question différente. La doctrine évoque plusieurs critères possibles : le degré d’autonomie, le niveau de conscience ou de compréhension du contexte, et l’intentionnalité, c’est-à-dire la capacité d’agir dans la poursuite d’un but propre. La difficulté serait de déterminer le seuil précis à partir duquel ces qualités justifieraient une reconnaissance légale.

Si un tel seuil était défini, il faudrait ensuite choisir quel type de personnalité juridique conférer. L’IA pourrait être assimilée à une société, avec des propriétaires, actionnaires ou administrateurs humains. Dans ce cas, devrait-on leur accorder une responsabilité limitée ? Le rapport rappelle que, dans le droit anglais, la limitation de responsabilité est un privilège strictement encadré : elle suppose une inscription officielle, la divulgation des personnes exerçant un contrôle significatif et la production de comptes annuels. Un régime analogue serait probablement nécessaire pour une IA-personne morale, ne serait-ce que pour identifier les individus responsables de sa supervision.

Une autre option serait d’en faire une entité véritablement indépendante, sans propriétaires humains, mais alors se poserait la question de son identification. Comme pour les individus, il faudrait prévoir des éléments d’état civil : nom, date de création, numéro d’enregistrement, voire un identifiant gouvernemental. Cette formalisation serait indispensable pour la distinguer des autres systèmes et pour la soumettre aux obligations légales.

Resterait à déterminer comment la sanctionner en cas de faute. Si une IA commet un délit, il faudrait concevoir un mécanisme d’application de la peine : confiscation d’actifs, suspension d’activité, effacement ou modification forcée du code, voire retrait de sa licence d’exploitation. La responsabilité pénale, dans un monde où l’intention et la conscience n’existent que de façon simulée, soulèverait des difficultés conceptuelles inédites.

Même si un tel cadre était mis en place, de nombreuses questions demeureraient. Quelle norme de comportement appliquer ? Si une IA est tenue à un devoir de diligence, doit-on la comparer au comportement d’un professionnel humain raisonnable ? Et si ses performances dépassent celles d’un humain dans certains domaines, mais leur sont inférieures dans d’autres, comment apprécier la faute ? Ces interrogations montrent que l’attribution de la personnalité juridique ne résout pas automatiquement les défis du droit de l’IA ; elle déplace simplement la frontière du problème.

En conclusion, le rapport reconnaît que la mise en œuvre d’une personnalité juridique pour les systèmes d’IA serait un chantier immense et incertain. À ce jour, aucune IA n’atteint un niveau d’autonomie justifiant objectivement un tel statut. Cependant, les progrès rapides de la technologie laissent entrevoir qu’un jour cette question pourrait devenir plus pressante. Certains y voient une solution pratique pour combler les lacunes immédiates en matière de responsabilité. D’autres rappellent que, sans une réflexion approfondie sur les implications éthiques, sociales et économiques, une telle réforme risquerait de créer plus de complexité qu’elle n’en résout.

Le texte se termine sur une note prudente : il ne s’agit pas d’un projet concret, mais d’une hypothèse de travail. Si la personnalité juridique de l’IA venait à être reconnue, elle devrait s’accompagner de garde-fous solides, de procédures d’enregistrement, de mécanismes de contrôle et de régimes de sanctions adaptés. En somme, le concept a le mérite d’ouvrir la discussion sur la responsabilité dans un monde où les agents autonomes sont appelés à jouer un rôle croissant, mais il ne fournit pas encore de réponse définitive à la question essentielle : qui doit répondre des actes de l’intelligence artificielle ?

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, est tagué , , , . Ajoutez ce permalien à vos favoris.

3 Responses to Une personnalité juridique pour l’IA ?

  1. Avatar de Vaclav Havel Vaclav Havel dit :

    Je formulerais les choses ainsi :
    L’attribution d’une personnalité juridique pleine et entière — c’est-à-dire indépendante de toute responsabilité humaine — n’a jusqu’ici été reconnue qu’aux êtres humains, précisément parce qu’ils possèdent deux facultés essentielles : la volonté et la conscience du bien et du mal, autrement dit la capacité de discernement et de choix moral.

    L’intelligence artificielle, pour sa part, peut raisonner, apprendre, et même produire des décisions complexes. Mais elle demeure dépourvue de volonté propre et de conscience morale : elle ne veut rien, ne juge rien, et n’assume rien.

    De même qu’on ne reconnaît pas la personnalité juridique aux animaux — dont la conscience est dite phénoménale plutôt que morale, c’est-à-dire sensible mais non jugeante —, on ne saurait aujourd’hui l’accorder à une entité purement algorithmique.

    Cependant, la proposition d’un statut juridique spécifique, analogue à celui d’une société, constitue une piste intéressante. Elle invite à s’interroger sur la responsabilité de ces systèmes autonomes et sur la manière dont nos institutions doivent évoluer pour les encadrer.

    Pour approfondir cette question, nous vous invitons à découvrir la série d’articles que nous consacrons à la nature et à la condition de l’intelligence artificielle :
    👉 https://ethiquedumonde.wordpress.com/category/lintelligence-artificielle-qui-est-elle-vraiment/

    • Oui, mais je serais mois affirmatif que vous. Le débat sur la personnalité juridique des animaux est engagé depuis longtemps, par ailleurs on a reconnu la personnalité juridique à une rivière en Nouvelle-Zélande, à des temples en Inde… Je ne dis pas que la démarche est juste ou critiquable, simplement que les frontières de la personnalité juridique sont en train de bouger, et que celle de l’IA est déjà évoquée comme une perspective à moyen terme, ou au moins une piste de discussion.

      • Avatar de Vaclav Havel Vaclav Havel dit :

        Vous soulevez un point essentiel : la personnalité juridique n’est pas « naturelle ». On ne l’accorde pas parce qu’une entité serait « quelqu’un », mais parce qu’il faut un cadre pour agir, posséder, contracter, répondre, etc.À ce titre, qu’une rivière ou une entreprise en bénéficient ne pose pas de difficulté : ce sont des personnalités fonctionnelles, destinées à protéger ou représenter des intérêts humains. Elles n’impliquent ni volonté, ni intention morale.

        C’est pourquoi je proposais de distinguer clairement :

        La personnalité juridique “opérationnelle”outil technique, comme pour une société, sans conscience ni responsabilité intérieure ;

        La personnalité juridique “pleine”, réservée à l’être humain, parce qu’il peut discernir, choisir et répondre de ses actes.

        L’enjeu, à mon sens, n’est donc pas d’exclure l’IA du droit, mais de rester précis sur ce que l’on reconnaît quand on parle de « personnalité ».Confondre optimisation algorithmique et responsabilité morale ferait disparaître la responsabilité humaine, au lieu de la clarifier.

Laisser un commentaire