
Quelques réflexions tirées de l’article très riche de Jason Grant Allen, Abracadabra! Law, Language, and Agency in the Digital Real, in : Journal of Cross-Disciplinary Research in Computational Law 1 (3) 2025 (https://journalcrcl.org/crcl/article/view/28):
L’article propose une réflexion sur les transformations que le droit est appelé à connaître à l’ère de l’intelligence artificielle générative et de l’automatisation du langage. Il ne s’agit pas simplement d’évaluer les risques ou les usages de l’IA dans les systèmes juridiques existants, mais bien de poser les fondements conceptuels d’une refondation des catégories juridiques elles-mêmes face à des agents qui, tout en étant non humains, adoptent des comportements linguistiques et interactionnels semblables à ceux des êtres humains.
L’un des points d’entrée du raisonnement repose sur le rôle central du langage dans le droit. Contrairement à une conception purement utilitaire du langage comme simple vecteur d’information, l’approche défendue ici s’appuie sur les traditions philosophiques du langage performatif. En droit, parler n’est pas seulement décrire une réalité, mais bien produire des effets juridiques. Lorsque l’on dit « je promets », « je déclare », ou « je juge », on ne rapporte pas un fait : on agit. Le langage juridique est donc, par nature, performatif et instituant. Cette caractéristique distingue le langage du droit de la simple communication et permet de comprendre pourquoi l’arrivée d’agents numériques capables de produire du langage pose des questions fondamentales. Ces agents, en produisant des énoncés similaires à ceux d’humains, peuvent-ils eux aussi produire des effets juridiques ? Peuvent-ils être tenus pour responsables de leurs paroles ? Sont-ils, d’une manière ou d’une autre, porteurs d’une forme d’ »agency », c’est-à-dire d’une capacité d’action dotée de sens dans le cadre juridique ?
La notion d’agency est précisément au cœur de la réflexion. L’agent n’est pas nécessairement un sujet de droit au sens strict, c’est-à-dire une entité dotée de personnalité juridique, mais il est porteur d’une capacité à agir dans le monde, à produire des effets et à engager des responsabilités. Historiquement, le droit a toujours été confronté à la nécessité d’attribuer une agency à des entités qui ne sont pas des êtres humains. Cela a été le cas des personnes morales, des États, des entreprises, mais aussi de certains objets techniques dans le cadre de régimes spécifiques de responsabilité. Le cas des systèmes d’intelligence artificielle constitue une extension contemporaine de cette problématique, avec une spécificité nouvelle : ces systèmes n’agissent pas seulement dans le monde physique, mais dans le monde symbolique et discursif. Ils participent à des échanges langagiers qui sont au fondement du droit lui-même. Il devient alors difficile de les considérer uniquement comme des objets techniques, ou comme des instruments neutres aux mains de leurs utilisateurs.
Ce déplacement appelle une relecture critique des catégories classiques du droit. Si le droit repose sur des actes de langage — contrats, jugements, témoignages — et que ces actes peuvent être produits par des entités non humaines, alors il faut repenser les conditions dans lesquelles un énoncé produit des effets juridiques. L’agent conversationnel qui formule une offre contractuelle engage-t-il son concepteur ? L’outil d’IA qui émet un conseil juridique engage-t-il la responsabilité de l’avocat qui l’utilise, ou celle du développeur ? Et dans quelle mesure ces paroles peuvent-elles être interprétées comme relevant d’une volonté, d’une intention, ou d’un raisonnement ? Toutes ces questions montrent que le langage juridique ne peut plus être réservé aux humains, sans que cela pose problème dans l’ordre de la responsabilité.
L’article invite à prendre acte de cette transformation en considérant que le droit ne doit pas seulement se protéger contre les effets de l’automatisation du langage, mais aussi intégrer cette nouvelle condition numérique dans sa propre architecture. Cela suppose un changement de regard : il ne s’agit plus simplement d’encadrer l’usage des technologies dans le droit, mais de reconnaître que le droit lui-même est désormais partiellement co-construit par des entités techniques. Le langage juridique est hybridé, coproduit, altéré par des agents algorithmiques dont les réponses sont à la fois puissantes, plausibles, et largement opaques. Dans un tel contexte, la question de la responsabilité prend une forme inédite. Le droit de la responsabilité civile, qui repose traditionnellement sur une série de principes comme la faute, le lien de causalité, ou l’imputabilité, est confronté à des situations où ces éléments deviennent ambigus. Qui est fautif lorsque l’IA génère un contenu trompeur ou diffamatoire ? Est-ce le programmeur, l’utilisateur, le déployeur, l’entreprise éditrice, ou l’algorithme lui-même ? Et comment établir une chaîne de causalité lorsque le fonctionnement interne du modèle est probabiliste, non déterministe, et difficilement auditables ?
Ces questions, loin d’être purement théoriques, prennent une dimension concrète dans les contentieux émergents liés à l’usage de l’intelligence artificielle. Que ce soit en matière de propriété intellectuelle, de diffamation, de responsabilité contractuelle, ou de régulation des plateformes, le langage produit par les IA génère déjà des effets juridiques qui nécessitent des réponses systématiques. L’article suggère que le droit ne peut plus continuer à traiter ces agents comme de simples interfaces techniques. Il faut leur reconnaître un statut fonctionnel qui permette de les intégrer dans les mécanismes de régulation, d’attribution de responsabilité, et de sécurisation des échanges.
Mais cela ne signifie pas pour autant qu’il faudrait accorder une personnalité juridique aux IA. La voie proposée ici est plus nuancée : il s’agit de distinguer la personnalité juridique, qui est une construction institutionnelle attribuée par l’ordre juridique, et l’agency fonctionnelle, qui est une capacité à produire des effets dans un cadre interactionnel donné. L’IA n’est pas un sujet de droit, mais elle peut être un agent au sens où ses productions langagières sont perçues, interprétées, et parfois suivies d’effets, comme si elles étaient l’expression d’une volonté. Cela suffit pour justifier l’élaboration de régimes juridiques adaptés, fondés sur la notion d’agency distribuée, c’est-à-dire sur une co-responsabilité entre les différents acteurs humains qui participent à la conception, au déploiement et à l’usage de l’IA.
Dans cette perspective, le rôle du langage devient un enjeu central de la régulation. Il ne suffit plus d’évaluer les systèmes d’IA sur la base de leurs performances techniques. Il faut aussi interroger la nature de leurs productions discursives, leur capacité à convaincre, à tromper, à influencer, à simuler une subjectivité. Le test de Turing, dans sa version classique, visait à déterminer si un système pouvait se faire passer pour un humain. Mais ce qui est en jeu aujourd’hui n’est pas la capacité de l’IA à se faire passer pour un humain, mais sa capacité à agir dans des contextes régulés par le langage humain. Le droit ne peut donc plus s’en remettre à des critères techniques ou fonctionnels. Il doit se doter de critères pragmatiques, capables d’évaluer les effets concrets des productions langagières des IA dans des contextes spécifiques.
Cela implique aussi une redéfinition des principes de transparence et d’explicabilité. Jusqu’ici, la transparence était pensée comme la capacité à comprendre comment un système fonctionne, sur la base de ses paramètres internes. Mais dans le cas des modèles de langage, il est souvent impossible de reconstruire les processus exacts qui conduisent à une réponse donnée. Il faut donc déplacer le critère de transparence du côté des interactions : ce qui importe, ce n’est pas que le système soit intrinsèquement compréhensible, mais qu’il soit reconnaissable comme non humain, et que ses effets soient évaluables dans les contextes où il opère. Cela rejoint les exigences d’explicabilité posées par les règlements récents, comme le Règlement général sur la protection des données (RGPD) ou l’AI Act européen. Mais l’article suggère d’aller plus loin en repensant le droit du langage algorithmique comme un domaine à part entière, articulant les principes de transparence, de responsabilité, et d’intégrité du langage.
La Suisse, dans ce contexte, se trouve à la croisée des chemins. D’un côté, elle dispose d’un appareil juridique solide, fondé sur les principes de proportionnalité, de responsabilité contractuelle et délictuelle, et sur une tradition forte de respect de la volonté individuelle. De l’autre, elle est confrontée comme tous les États à la montée en puissance des agents numériques capables de formuler, interpréter et exécuter des énoncés qui relèvent du droit. Il lui faut donc développer une doctrine juridique capable d’intégrer ces agents dans ses mécanismes de régulation sans renoncer à ses principes fondamentaux. Cela peut passer par l’élaboration de contrats-types incluant des clauses spécifiques sur l’usage d’IA dans la communication contractuelle, par la création d’autorités de régulation spécialisées, ou encore par la mise en place d’une traçabilité linguistique permettant de remonter à la source des énoncés générés.
Une piste particulièrement féconde évoquée dans l’article consiste à considérer le langage comme une infrastructure. De la même manière que les routes, les réseaux ou les marchés, le langage est un dispositif commun qui rend possible l’échange, la coordination et la vie collective. Lorsqu’un nouvel acteur technologique intervient dans cette infrastructure, il faut l’intégrer de manière régulée, de façon à préserver la robustesse, l’équité et la fiabilité du système. Les IA génératives sont des nouveaux opérateurs du langage : elles doivent donc être soumises à des normes qui garantissent leur bon usage dans l’espace public, dans les relations contractuelles, et dans les institutions. Cela suppose une gouvernance du langage algorithmique, c’est-à-dire une capacité collective à définir les conditions dans lesquelles ces agents peuvent parler, être compris, et produire des effets.
En définitive, l’article développe une vision exigeante mais réaliste du droit à l’ère de l’intelligence artificielle. Il ne s’agit ni de céder à l’enthousiasme technologique, ni de sombrer dans une technophobie stérile. Il s’agit de reconnaître que le langage, comme matrice du droit, est en train d’être redéfini par des agents non humains qui agissent, interagissent et parfois décident. Ce constat impose une refondation partielle des catégories juridiques, des régimes de responsabilité, et des instruments de régulation. Pour les avocats suisses, cela implique un double mouvement. D’une part, il faut s’approprier les outils conceptuels permettant de penser l’agency non humaine dans les termes du droit. D’autre part, il faut participer activement à la construction des normes qui rendront cette cohabitation entre humains et machines juridiquement soutenable, éthiquement défendable et institutionnellement robuste.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle
Ping: Ce qu’on suit, ce qu’on lit – juillet 2025 – HTTPS