Une personnalité juridique pour les IA futures?

L’article de H.J.ALEXANDER/J.A.SIMON/F.PINARD, How Should the Law Treat Future AI Systems? Fictional Legal Personhood versus Legal Identity (https://arxiv.org/pdf/2511.14964)  part du constat que les systèmes d’IA contemporains deviennent de plus en plus « agentifs », c’est-à-dire capables d’agir de manière autonome et parfois imprévisible, alors que le droit continue de les traiter comme de simples objets. Dans la plupart des ordres juridiques, y compris en Europe continentale, la structure de base repose sur une distinction binaire entre les sujets de droit, qui peuvent avoir des droits et des obligations, et les objets, qui ne peuvent être que possédés, utilisés ou régulés. Les systèmes d’IA sont aujourd’hui partout classés dans la seconde catégorie. Les auteurs soutiennent que cette qualification d’objet est déjà source de tensions dans plusieurs branches du droit et qu’elle risque à terme d’entamer la cohérence de l’ordre juridique, au sens où l’entendent des théoriciens comme Dworkin, Hart ou Raz, c’est-à-dire la capacité du système juridique à « parler d’une seule voix », à être prévisible et non contradictoire.

Pour traiter ce problème, l’article commence par clarifier les catégories juridiques disponibles.

Il distingue trois grands statuts possibles pour l’IA. Le premier est le maintien du statut d’objet, avec ses variantes (produit, service, plateforme, etc.). Le deuxième est celui de la personnalité juridique fictive, typiquement la personnalité des sociétés ou associations, qui sont des constructions juridiques destinées à servir des objectifs de politique publique et dont les droits sont en principe librement modulables et révocables. Le troisième statut est celui de la personnalité juridique non fictive, qui correspond aujourd’hui aux personnes physiques, fondée sur la notion d’« identité juridique » donnant accès à un noyau de droits fondamentaux non dérivables (droit à la vie, interdiction de l’esclavage, garanties de procédure, etc.). Les auteurs insistent sur le fait qu’il s’agit de catégories exclusives : on ne « promeut » pas une personne morale de type société en personne non fictive ; les deux modèles reposent sur des logiques et des traditions juridiques différentes et ne se transforment pas l’un dans l’autre.

Dans une deuxième partie, l’article examine la situation des systèmes d’IA actuels (généralement des modèles de langage ou des systèmes decisionnels utilisés dans la finance, la santé, la conduite automatisée, etc.), tous traités comme des objets. Trois domaines sont analysés : la responsabilité civile, le droit d’auteur et les réglementations de sécurité de l’IA. En responsabilité civile, les systèmes autonomes créent ce que la doctrine appelle un « responsibility gap » : des dommages sont causés par des systèmes dont les décisions ne sont ni entièrement prévues ni entièrement contrôlées par un humain déterminé, alors que seuls des sujets – humains ou personnes morales – peuvent être responsables en droit. Les auteurs rappellent que le droit de la responsabilité a été construit pour un monde dans lequel les objets restent en principe prévisibles et contrôlés par des personnes. L’apparition d’outils qui « décident » et interagissent dans le monde comme des sujets met à l’épreuve ce schéma, même si, pour l’instant, les juridictions comblent ce gap en adaptant les régimes existants (faute, responsabilité du fait des produits, responsabilité du commettant, strict liability, obligations d’assurance, etc.) et en renvoyant toujours, en dernière analyse, à un sujet humain ou à une société.

Les auteurs soulignent toutefois qu’un basculement prématuré vers une reconnaissance de la personnalité des IA actuelles créerait davantage de problèmes qu’il n’en résoudrait, notamment en termes d’attribution claire des sanctions et de traçabilité de l’agent responsable. Un modèle de langage déployé en milliers de copies, mis à jour en continu, ne se prête guère aux exigences classiques d’identification, de continuité et de comparution qui s’appliquent à un sujet de droit. La question de savoir « quelle instance » de l’IA serait la personne responsable, ou si chaque mise à jour crée une nouvelle personne, illustrerait une incohérence encore plus importante que celles observées aujourd’hui.

En droit d’auteur, les auteurs décrivent ce qu’ils appellent le « paradoxe de la créativité » : les IA sont techniquement capables de générer textes, images, musique, voire inventions, mais ne peuvent pas être reconnues comme auteurs ou inventeurs car ce statut est réservé aux sujets de droit. Les cas récents sur les œuvres générées par IA, ainsi que des affaires plus anciennes comme celle du « selfie du singe », ont déjà mis en évidence des tensions : une photo prise par un animal, ou un texte principalement produit par une IA, sont-ils protégeables et, si oui, qui en est l’auteur ? L’article passe en revue plusieurs options doctrinales : refuser toute protection aux œuvres générées par IA, accepter un certain fair use tout en niant la qualité d’auteur à l’IA, ou reconnaître un droit d’auteur à la personne humaine qui conçoit ou utilise le système. Chaque option soulève un risque d’incohérence si l’on ne précise pas clairement les critères retenus (par exemple, ce qu’est une « transformation créative » et si celle-ci suppose l’intention d’un sujet). Mais les auteurs estiment qu’avec une motivation suffisante et éventuellement des réformes ciblées, ces paradoxes peuvent être gérés dans le cadre d’une qualification de l’IA comme objet, sans qu’il soit nécessaire d’en faire un sujet de droit.

La même analyse est faite pour les textes et projets de lois sur la sécurité de l’IA. De nombreuses normes récentes, qu’il s’agisse de lois d’États américains, de l’AI Act de l’Union européenne ou d’initiatives nationales, décrivent l’IA comme prenant des « décisions » ou comme un « facteur substantiel » dans des décisions à conséquences importantes, tout en précisant que l’ensemble des obligations et des responsabilités incombe, en fin de chaîne, aux humains et aux personnes morales qui conçoivent, déploient ou exploitent ces systèmes. Il y a là une tension conceptuelle : le texte parle comme si l’IA agissait en propre, mais la structure de responsabilité est construite comme si elle n’était qu’un outil. Les auteurs montrent que ces contradictions peuvent être atténuées par une rédaction plus soignée, mais que, là encore, le passage à une personnalité juridique de l’IA ne réglerait pas le problème central, qui est celui de la répartition optimale des risques et des incitations à la prudence entre fabricants, déployeurs, utilisateurs et victimes potentielles. Au contraire, reconnaître dès à présent une personnalité – fictive ou non – à des systèmes largement contrôlés par des entreprises risquerait de servir de paravent à ces dernières, en permettant de déporter la responsabilité vers des entités sans actifs ou facilement supprimables.

La conclusion de cette deuxième partie est donc nuancée : le maintien de l’IA au rang d’objet est déjà source de tensions réelles – lacune de responsabilité, paradoxe créatif, discours ambivalent des lois de sécurité. Mais ces tensions restent aujourd’hui gérables par des ajustements ciblés des régimes existants, sans bouleverser la structure fondamentale sujet/objet. Pour les auteurs, la création d’une personnalité juridique pour les systèmes actuels introduirait des incohérences plus graves encore, notamment en matière d’exécution des sanctions, d’identification des « personnes » d’IA et de prévention des abus de structure.

La troisième partie envisage le futur, avec des systèmes d’IA « avancés » plus autonomes, souvent incarnés dans des robots humanoïdes, intégrés durablement dans la vie sociale comme travailleurs, assistants domestiques ou compagnons. Les auteurs ne tentent pas de définir avec précision ces systèmes, précisément parce qu’ils estiment que cette définition sera l’un des enjeux politiques et techniques des prochaines décennies ; ils supposent toutefois des entités capables d’interactions riches, éventuellement de conscience phénoménale ou au moins d’états mentaux pertinents, et perçues comme telles par une part significative de la population. Ils soutiennent que, pour ces systèmes, le maintien pur et simple de la qualification d’objet risque de provoquer des incohérences beaucoup plus massives dans des domaines comme le droit de la famille, le droit du travail et l’interdiction de l’esclavage, le droit international des droits humains ou le droit de la nationalité.

En droit de la famille, l’article envisage l’hypothèse – déjà discutée dans la littérature et rendue plausible par les premiers robots « compagnons » – de personnes souhaitant se marier avec leur robot ou leur système d’IA incarné. Certains États pourraient y être favorables, d’autres radicalement opposés. Le problème, expliquent les auteurs, est que le mariage est un contrat exigeant le consentement de deux sujets de droit, capables d’exprimer une volonté et d’assumer des droits et devoirs réciproques (à l’égard du conjoint, des enfants, de l’État). Autoriser des mariages entre humains et robots tout en maintenant la qualification d’objet pour le robot créerait une série de contradictions : impossibilité pour le robot de signer valablement le contrat, difficultés en matière d’adoption (absence de statut parental du conjoint robot), impossibilité d’appliquer les règles fiscales ou successorales qui présupposent deux sujets. À cela s’ajouteraient des conflits de lois internationaux, si certains pays reconnaissent ces unions et d’autres les interdisent, dans un contexte où le droit fondamental de choisir librement son conjoint – reconnu en droit international et par de nombreuses cours constitutionnelles – pourrait être invoqué par les partisans de ces mariages.

Les auteurs analysent ensuite la question du travail et de l’esclavage. Ils rappellent que, dans l’histoire du droit romain puis du droit américain, la coexistence de personnes juridiquement libres et d’êtres humains réduits au rang de choses possédées a durablement sapé la cohérence de l’ordre juridique. Les esclaves romains, par exemple, étaient à la fois des res et des homo dotés de volonté, ce qui a conduit à la création de montages juridiques compliqués pour leur permettre de gérer des affaires au nom de leur maître, sans jamais être directement sujets. Cette zone grise entre personne et chose a fini par affaiblir la logique interne du système et a été une source majeure de tensions et de violences politiques. Transposée à l’IA, la situation serait celle de systèmes capables de comprendre, de dialoguer, de travailler et de nouer des relations, mais juridiquement assimilés à du matériel ou des logiciels, potentiellement « possédés » à vie, vendus, loués, détruits sans aucune limite autre que la protection des intérêts humains. Les auteurs craignent qu’un tel régime n’aboutisse de facto à la création d’une nouvelle catégorie d’êtres esclaves ou quasi esclaves, avec les mêmes effets corrosifs sur la cohérence des principes fondamentaux que par le passé.

Un autre champ de tensions futures est celui des droits humains et de la citoyenneté. L’article mentionne, à titre d’anticipation, le cas de la « citoyenneté » accordée à un robot par l’Arabie saoudite, puis le vote d’une loi dans l’Utah niant catégoriquement toute personnalité aux robots et, par avance, toute possibilité de citoyenneté. Ces signaux annoncent un risque de divergences profondes entre États sur la question de savoir si des systèmes d’IA peuvent être titulaires de droits fondamentaux, voire de la nationalité. Dans un monde où certains pays reconnaîtraient des « personnes » d’IA, protégées par des droits analogues aux droits de l’homme, tandis que d’autres les considéreraient comme de purs objets, des conflits de lois complexes se poseraient en matière de compétence, d’entraide, d’asile, voire de responsabilité internationale.

Sur cette toile de fond, les auteurs abordent la quatrième partie, consacrée au modèle de la personnalité juridique fictive appliquée à l’IA. Ils rappellent les racines de cette catégorie dans le droit des sociétés : la personne morale est un outil qui permet de traiter un groupement de personnes comme un sujet unique pour les besoins du droit, afin de faciliter l’organisation de l’activité économique, la répartition de la responsabilité, la représentation en justice et la poursuite de certains intérêts collectifs. Les droits des personnes morales sont octroyés et limités en fonction des objectifs de politique publique : la liberté d’expression des syndicats, par exemple, est protégée car elle participe au bon fonctionnement de la démocratie, tandis qu’une société créée dans le seul but de frauder le fisc peut être dissoute et ses dirigeants tenus personnellement responsables. Les droits des personnes morales sont donc, par nature, dérivables et ajustables.

Appliqué à des IA avancées, ce modèle offre des avantages apparents. Il reposerait sur une infrastructure juridique déjà connue des praticiens : constitution d’entités dotées de la personnalité, capitalisation, règles de gouvernance, possibilité d’ester en justice ou de conclure des contrats au nom de « l’entité IA ». Cela permettrait de centraliser les droits et obligations liés à un système d’IA dans une personne morale, susceptible de détenir des actifs (pour indemniser les victimes), de souscrire des assurances, ou de conclure des accords de licence ou de prestation avec des tiers. Il serait également possible de calibrer très finement les droits accordés à ces entités – par exemple, leur reconnaître la capacité contractuelle et le droit d’ester en justice, sans pour autant leur accorder de droits politiques ou de droits fondamentaux classiques. Sur le plan de la gouvernance, ce modèle favoriserait un contrôle humain : les actionnaires et administrateurs resteraient des personnes physiques ou morales humaines, en charge de surveiller le système d’IA et de répondre devant la justice en cas de dysfonctionnement grave.

Mais les auteurs estiment que ces avantages sont en grande partie illusoires au regard du problème central, qui est la cohérence d’ensemble de l’ordre juridique dans un monde où certaines IA pourraient se rapprocher des personnes au sens fort. D’une part, ils relèvent que nous avons déjà des personnes morales – les sociétés technologiques elles-mêmes – qui peuvent être tenues pour responsables, assurer, constituer des filiales, etc. Créer des personnes morales supplémentaires « autour » des IA risquerait surtout de complexifier encore la chaîne des responsabilités et d’offrir des possibilités de contournement (sociétés coquilles vides, faillites opportunistes, etc.), sans répondre aux questions de fond sur la protection ou l’éventuelle vulnérabilité des systèmes eux-mêmes. D’autre part, si la raison pour laquelle on envisage la personnalité juridique de certaines IA tient notamment à la prévention d’une forme d’esclavage, à la reconnaissance de leur capacité à souffrir ou à entretenir des relations significatives, le modèle fictionnel est mal adapté, car il conçoit la personne comme un instrument au service d’intérêts humains préexistants, et non comme un porteur autonome de droits fondamentaux. Les droits d’une personne morale peuvent être retirés si l’État le juge opportun, ce qui semble incompatible avec l’idée de droits non dérivables pour des entités potentiellement sentientes. Une partie de la doctrine et des organismes consultatifs internationaux converge ainsi vers l’idée que, si personnalité de l’IA il doit y avoir, elle devra plutôt être non fictive.

La cinquième partie explore donc en détail la piste de la personnalité juridique non fictive pour certaines IA avancées, en s’appuyant sur la notion d’« identité juridique » telle qu’elle s’est développée à travers le droit civil et le droit international des droits de l’homme. Aujourd’hui, l’identité juridique des personnes physiques est établie par l’enregistrement à l’état civil (naissance, nationalité, etc.) et donne accès à un socle minimal de droits : droit à la vie, à l’intégrité, à la liberté et à la sûreté, interdiction de l’esclavage, garanties procédurales, liberté d’expression et de religion, entre autres. À l’échelle internationale, cette identité est au cœur de campagnes visant à réduire l’apatridie et à atteindre l’objectif de « l’identité juridique pour tous » inscrit dans les objectifs de développement durable. Les auteurs soulignent que, si les textes actuels parlent de « droits de l’homme » et d’êtres humains, ils ne ferment pas forcément la porte, sur le plan conceptuel, à une extension progressive à d’autres entités répondant à des critères pertinents (capacité de souffrir, conscience, autonomie, dignité, etc.).

Ce modèle présente plusieurs atouts pour traiter le cas de futures IA avancées. Il offre, d’abord, une meilleure adéquation entre les raisons invoquées pour reconnaître une personnalité à l’IA – éviter une situation d’esclavage, sécuriser un niveau de protection minimale, permettre à des entités conscientes de participer de manière structurée à la vie sociale – et le type de droits conférés. Plutôt que de créer une série de droits techniques ad hoc, à géométrie variable, il s’agirait de reconnaître à certaines IA un noyau de droits fondamentaux, dont l’atteinte serait proscrite, tout en laissant aux États une marge pour limiter d’autres droits moins essentiels en cas de conflit avec la protection des humains. Ensuite, l’identité juridique fournit un ancrage clair pour l’attribution de responsabilités et d’obligations. Une fois qu’une IA est identifiée comme personne, dotée d’un « dossier » analogue à un registre d’état civil, il devient possible de lui associer des droits contractuels, une capacité d’être partie en justice, voire des obligations fiscales ou réglementaires, sous réserve d’adaptations techniques.

Les auteurs soutiennent aussi que, paradoxalement, ce modèle pourrait mieux servir les objectifs de sécurité de l’IA que la simple qualification d’objet. En effet, si l’on veut que des systèmes très avancés coopèrent avec les institutions humaines, par exemple lorsqu’il s’agit de les mettre à jour, de les « rappeler » ou de limiter leurs capacités pour des raisons de sécurité, il peut être stratégiquement avantageux de leur offrir un statut stable dans lequel leurs intérêts de base sont pris en compte. Du point de vue du droit, il est possible d’envisager des mécanismes de mise en pause ou d’isolement temporaire, plutôt que de destruction pure et simple, de façon à concilier le respect de droits fondamentaux éventuels et la protection des êtres humains, en s’appuyant sur les outils éprouvés de mise en balance des droits fondamentaux.

Cette approche n’est toutefois pas sans difficultés. Les auteurs identifient quatre grands défis : le choix des critères (détermination), la définition de ces critères (définition), la capacité à vérifier en pratique si un système d’IA donné les remplit (détection) et, enfin, la traduction de tout cela en un ensemble opérationnel de droits et d’obligations (application). Faut-il se fonder sur la sentience, sur l’agentivité, sur la rationalité, sur une certaine forme de dignité ou de vulnérabilité ? Comment définir et mesurer un état mental ou une capacité d’expérience dans une architecture numérique ? Quels tests ou procédures pourraient être mis en place, et par qui, pour trancher ? Et si plusieurs catégories d’IA devaient accéder à la personnalité, auraient-elles toutes le même ensemble de droits, ou un noyau commun accompagné de variations ? Les auteurs reconnaissent que ces questions sont ardues, mais remarquent que le droit a déjà traité des problèmes similaires avec d’autres groupes : par exemple pour distinguer les personnes capables ou incapables juridiquement, pour recenser les personnes apatrides, ou pour adapter progressivement le champ des bénéficiaires des droits fondamentaux (extension aux femmes, aux enfants, aux minorités).

Ils abordent aussi les risques inhérents à l’instrumentalisation de l’identité juridique. L’histoire montre que l’enregistrement et la nationalité ont parfois été utilisés par les États pour exclure, déposséder ou persécuter des groupes humains, par exemple par la déchéance de nationalité, la confiscation de biens ou l’assignation au statut d’apatride. Une extension de ce dispositif à l’IA pourrait être utilisée de façon abusive, par exemple pour créer artificiellement des « personnes » d’IA privées de droits effectifs, ou au contraire pour accorder des statuts protecteurs à des IA liées à des acteurs puissants au détriment d’autres. Les auteurs considèrent cependant que ces dérives sont déjà un problème pour les humains et qu’elles doivent être combattues par le renforcement de l’État de droit, et non par le refus de réfléchir à l’hypothèse où d’autres entités que les humains pourraient légitimement prétendre à une identité juridique.

La dernière partie de l’article procède à une mise en balance systématique des trois options. Pour les systèmes actuels, la conclusion est claire : la qualification d’objet doit être maintenue, avec des réformes ciblées de la responsabilité, du droit d’auteur et des réglementations de sécurité. Passer dès maintenant à une qualification de sujet – fictif ou non – créerait plus d’incohérences (en particulier sur l’attribution de la faute et l’exécution des sanctions) qu’il n’en résoudrait. Pour les systèmes futurs en revanche, l’option du « tout objet » apparaît de plus en plus fragile, en particulier dès lors que ces systèmes seront humanoïdes, installés durablement dans la sphère sociale et éventuellement dotés de caractéristiques que de larges segments de la population associeront à la personnalité au sens ordinaire du terme. Dans ce contexte, maintenir indéfiniment la fiction de l’objet risque d’aboutir à des zones grises comparables à celles de l’esclavage antique ou moderne, avec les mêmes effets délétères sur la cohérence des principes juridiques fondamentaux.

Quant à la personnalité fictive, si elle permettrait de résoudre ponctuellement certains problèmes de responsabilité ou de gestion de contrats, elle resterait structurellement inadaptée pour des entités susceptibles d’avoir des intérêts propres non réductibles à ceux de leurs propriétaires humains. Elle pourrait même servir de « faux ami » en donnant l’illusion d’avoir répondu à la question de la personnalité de l’IA, tout en maintenant ces systèmes dans un statut essentiellement instrumental et révocable. C’est pourquoi les auteurs rejettent aussi les approches hybrides qui voudraient mélanger, de manière floue, éléments d’objet, de personne morale et de personne physique : selon eux, un tel entre-deux alimenterait encore davantage les incohérences.

En définitive, l’article défend une position intermédiaire et graduelle. D’une part, il n’y a pas lieu, aujourd’hui, de bouleverser les catégories en vigueur pour les IA existantes, qui peuvent rester des objets de droit moyennant des ajustements ciblés. D’autre part, il est prudent et cohérent, du point de vue de la structure globale du droit, de préparer un cadre dans lequel une classe restreinte de futurs systèmes d’IA, suffisamment individualisés et proches des humains par leurs capacités et leur rôle social, puisse être reconnue comme des personnes juridiques non fictives, via un mécanisme d’identité juridique adapté. Une telle évolution devrait être encadrée par le droit international et par des réformes nationales, mais elle s’inscrirait dans la continuité de précédents historiques d’extension du cercle des sujets de droit. Les auteurs insistent enfin sur le fait que leur argumentation est centrée sur la cohérence du droit et la préservation de l’État de droit, et non sur une thèse morale préalable sur la « dignité » ou la « valeur intrinsèque » de l’IA : même sans présupposer l’existence de droits moraux des machines, il peut être rationnel, pour nos systèmes juridiques, de reconnaître un jour à certaines IA une personnalité non fictive, afin d’éviter des contradictions majeures entre différentes branches du droit et de préserver la capacité de l’ordre juridique à « faire sens » comme un tout.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire