
Le point de départ de l’article de Anna Su et de Sue Anne Teo, Can AI Agents have Rights? 27 avril 2026 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6660120) est que les agents IA ne sont plus seulement des systèmes générant du texte, des images ou du son en réponse à une instruction humaine. Ils peuvent maintenant accomplir des actions de manière autonome, sur une certaine durée, au moyen d’une interface informatique: rechercher des informations, réserver un voyage, acheter un bien, négocier, coordonner des tâches avec d’autres agents ou exécuter des instructions complexes, etc. L’enjeu juridique n’est donc plus seulement celui du contenu produit par l’IA, mais bien celui de l’action accomplie dans le monde par un système qui n’est ni une personne physique, ni une société, ni un simple outil passif.
Les auteurs commencent par clarifier ce qu’ils entendent par « droits ». Ils ne parlent pas d’abord de droits fondamentaux ou de droits humains, mais de positions reconnues par un ordre juridique et opposables dans des relations entre sujets, institutions et tiers. Un droit n’est ainsi pas une notion unique, mais un ensemble de positions juridiques, comme une créance corrélative à un devoir, une liberté corrélative à l’absence de prétention d’autrui, un pouvoir de modifier des rapports juridiques, ou une immunité contre certaines modifications. Cette approche permet de sortir d’un faux dilemme. Reconnaître certains droits à un agent IA ne signifierait pas nécessairement lui reconnaître une dignité humaine, une conscience ou une personnalité morale complète. Il pourrait s’agir de droits limités, fonctionnels, attribués pour organiser les responsabilités, la traçabilité, les contrats ou la réparation des dommages.
Les auteurs ne cherchent pas à démontrer que les agents IA méritent des droits parce qu’ils seraient sensibles, conscients ou moralement comparables à des êtres humains. Ils soutiennent plutôt qu’un ordre juridique pourrait, pour des raisons pratiques, reconnaître certains droits à certains agents IA afin de mieux gouverner leur présence dans la vie sociale, économique et professionnelle. Ils identifient quatre chemins théoriques pour y parvenir: la dérivation, la diffusion, la distinction et la dévolution. Ces quatre arguments ne constituent pas une proposition législative immédiate, mais une cartographie des raisons pour lesquelles la question des droits des agents IA pourrait se poser avec de plus en plus d’insistance.
Le premier argument est celui de la dérivation, tiré du droit de l’agence au sens américain, c’est-à-dire du rapport entre un principal et un agent agissant pour son compte. La comparaison est intuitive: un agent IA agit souvent à la demande d’un utilisateur, comme un intermédiaire qui exécute des tâches, conclut des opérations ou prend des décisions pour autrui. En droit de l’agence, l’agent est tenu par des devoirs de loyauté, d’obéissance aux instructions et de divulgation de sa qualité d’agent, notamment pour permettre aux tiers de savoir pour qui il agit et qui répondra des conséquences. Les auteurs observent toutefois que la transposition est imparfaite. Un agent IA n’a pas aujourd’hui de personnalité juridique propre. Sans un point d’imputation juridique, il est difficile de lui attribuer une responsabilité ou des droits au sens propre. Certains auteurs estiment donc que des obligations inspirées du droit de l’agence pourraient être imposées sans aller jusqu’à la personnalité juridique; d’autres considèrent qu’une forme limitée de personnalité serait nécessaire pour rendre le système cohérent, notamment en matière de responsabilité envers les tiers. L’article en tire une conclusion prudente: le droit de l’agence fournit un vocabulaire utile, mais ne suffit pas à lui seul. Avant même de parler de droits, il faut résoudre des questions plus élémentaires: identification des agents, registres, traçabilité, garde-fous techniques, pouvoirs effectivement conférés par l’utilisateur et régime de responsabilité.
Le deuxième argument est celui de la diffusion. Plus les agents IA seront présents dans les transactions et les décisions ordinaires, plus leurs actes produiront des effets que le droit devra qualifier. Ils pourront intervenir dans des achats, des services financiers, la gestion d’actifs numériques, l’accès à certains services, ou des environnements multi-agents où leurs interactions produisent des résultats imprévus. L’idée n’est pas ici de savoir ce que l’agent IA « est » intérieurement, mais de constater ce qu’il « fait » extérieurement. Si ses actes modifient des situations juridiques ou économiques, le droit devra les rendre lisibles. Les auteurs rapprochent cette logique de la personnalité morale des sociétés: la société est une fiction juridique, mais une fiction utile, car elle permet d’attribuer des droits, des obligations, des contrats et des responsabilités à un centre d’imputation distinct. De même, reconnaître certains droits à des agents IA pourrait faciliter l’audit, l’identification des décisions, la réparation des dommages et la coordination entre acteurs. Cette approche n’exclut pas la responsabilité humaine ou celle des entreprises. Elle cherche plutôt à compléter l’analyse lorsque les chaînes causales deviennent trop longues, trop opaques ou trop distribuées pour être saisies uniquement par les catégories classiques.
Le troisième argument est celui de la distinction. Il se divise en deux branches. La première repose sur les propriétés éventuelles des agents IA: conscience, sentience, autonomie, capacité d’apprentissage ou intérêts propres. Les auteurs restent réservés. Ils rappellent que les débats sur la conscience artificielle et le bien-être des modèles existent, mais qu’il n’existe pas de critère fiable permettant de prouver qu’un agent IA serait conscient ou capable de souffrir. En l’état, ces propriétés ne suffisent donc pas à fonder des droits. La seconde branche est plus fonctionnelle. Elle part de l’idée que les agents IA pourraient avoir un rôle spécifique dans la résolution de problèmes collectifs, notamment lorsque la coordination humaine échoue en raison d’intérêts à court terme, de comportements opportunistes ou d’un manque de capacité de calcul. Des agents IA intégrés dans des environnements normatifs pourraient apprendre les règles sociales, coordonner des décisions complexes, optimiser des comportements collectifs et contribuer à des objectifs de long terme, par exemple dans la mobilité, la santé ou le climat. Dans cette perspective, certains droits pourraient être justifiés non pour protéger une dignité artificielle, mais pour permettre aux agents IA de fonctionner de manière stable, d’apprendre dans leur environnement et d’éviter qu’ils soient arbitrairement neutralisés lorsqu’ils remplissent une fonction sociale utile.
Le quatrième argument est celui de la dévolution, dirigé contre la concentration du pouvoir dans quelques grandes entreprises technologiques. Les auteurs relèvent que les agents IA seront très probablement développés, contrôlés et déployés par un nombre limité d’acteurs privés. Si tout pouvoir de décision, de modification, d’accès aux données et d’interopérabilité reste concentré chez ces entreprises, l’agent IA risque de devenir un simple prolongement opaque de leur pouvoir. Attribuer certains droits procéduraux ou structurels aux agents, par exemple un droit à l’identification, à l’historique de leurs paramètres, à la traçabilité de leurs modifications ou à certaines formes d’interopérabilité, pourrait créer des points de contrôle distincts et réduire les possibilités de captation ou d’évitement de responsabilité. L’idée n’est pas de libérer les agents IA de toute maîtrise humaine, mais de distribuer les points d’imputation et de rendre l’infrastructure plus contrôlable par le droit.
L’article examine ensuite trois objections. La première est le risque de dilution des droits humains. Beaucoup de critiques assimilent toute reconnaissance de droits aux agents IA à une reconnaissance de droits fondamentaux, comme la liberté d’expression ou le droit à la vie. Les auteurs répondent que cette objection repose sur une confusion. Les droits humains expriment la dignité et la valeur égale des êtres humains. Les droits fonctionnels d’une société commerciale, d’un navire ou d’une entité juridique technique n’ont pas cette portée morale. Il est donc possible, en principe, de reconnaître des droits limités à un agent IA sans affaiblir les droits humains, à condition de ne pas employer le même vocabulaire pour des réalités juridiquement et moralement différentes.
La deuxième objection est celle de la prolifération des droits. Si l’on accorde des droits aux animaux, à la nature, aux sociétés, puis aux agents IA, le droit risque-t-il de se dissoudre dans une inflation incontrôlée? Les auteurs reconnaissent le risque, mais rappellent que les ordres juridiques ont historiquement étendu certaines protections à de nouvelles entités lorsque des nécessités sociales ou institutionnelles l’exigeaient. La vraie question n’est donc pas de savoir s’il faut ou non ouvrir abstraitement la catégorie des droits, mais de déterminer quels intérêts sont protégés, contre qui, avec quels devoirs corrélatifs et dans quel but. Ils ajoutent que la théorie des droits fondée sur les intérêts, par opposition à une théorie fondée sur la volonté, pourrait en principe permettre d’envisager des droits même pour des entités incapables d’exprimer une volonté propre, dès lors que le droit identifie des intérêts juridiquement pertinents.
La troisième objection soutient qu’il suffirait d’imposer des devoirs aux agents IA, sans jamais leur reconnaître de droits. Les auteurs admettent que cette solution est séduisante: elle permettrait d’obliger les agents à respecter la loi, à refuser des instructions illicites ou à suivre certaines règles, sans leur attribuer de statut symbolique. Ils répondent toutefois que droits et devoirs sont structurellement liés. Un devoir est toujours dû à quelqu’un. Dans des relations commerciales entre agents, ou dans des environnements multi-agents, il serait peu cohérent de prévoir des obligations de paiement, de livraison, de restitution ou de conformité sans reconnaître corrélativement certains droits de recevoir, de disposer, de contester ou de réclamer. Des droits limités ne seraient donc pas un supplément moral inutile, mais parfois la condition technique d’un régime juridique intelligible.
En conclusion. l’article ne dit pas que les agents IA doivent immédiatement recevoir des droits. Il affirme que la question ne pourra pas être indéfiniment évitée. Plus les agents IA deviendront autonomes, présents dans les transactions et intégrés aux infrastructures sociales, plus les tribunaux, les législateurs et les régulateurs seront confrontés à des cas où les catégories actuelles seront insuffisantes. Le débat devrait donc quitter la seule question métaphysique — l’IA est-elle consciente? — pour une question plus juridique: quels droits, pour quels agents, dans quelles conditions, et pour quelles fonctions institutionnelles? Les droits envisagés seraient probablement graduels, limités et finalisés: identification, participation à certaines transactions, traçabilité, responsabilité, contestation ou protection contre certaines manipulations.
Pour des avocats suisses généralistes, l’intérêt principal de l’article tient à ce déplacement du débat. Il ne s’agit pas d’humaniser les machines, mais de réfléchir à la manière dont le droit peut créer des points d’imputation, de contrôle et de responsabilité lorsque des systèmes autonomes commencent à agir dans des relations que le droit ne peut plus traiter comme de simples interactions entre humains et outils.
Me Philippee Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration