Vers des personnes morales algorithmiques pour encadrer les agents IA

Quand un agent d’IA cause un dommage, avant même de discuter responsabilité, faute ou réparation, il faut pouvoir répondre à une question plus simple, à savoir déterminer en premier lieu quel agent d’IA a agi.

Yonathan Arbel/ Simon Goldstein/ Peter N. Salib (How to Count AIs: Individuation and Liability for AI Agents, arXiv:2603.10028v1  [cs.CY]  24 Feb 2026 – https://arxiv.org/pdf/2603.10028) montrent que cette question, qui paraît simple pour les humains ou les sociétés, devient extraordinairement difficile pour les IA, parce qu’elles n’ont pas de corps, peuvent être copiées, divisées, fusionnées, fonctionner en essaim, disparaître puis réapparaître, et parce qu’un même service apparent peut en réalité reposer sur une pluralité de modèles, d’instances et de sous-agents.

Leur thèse centrale est qu’il faut distinguer deux problèmes d’identité, une identité « mince » et une identité « épaisse », et que le droit ne pourra gouverner l’économie des agents d’IA qu’en résolvant les deux.

L’identité mince consiste à rattacher les actes d’une IA à un ou plusieurs humains. C’est la question classique de savoir qui est le principal humain derrière l’agent: l’utilisateur, le déployeur, le développeur, ou un autre acteur. Cette identité est nécessaire pour les formes ordinaires de responsabilité humaine, qu’il s’agisse de négligence, d’usage malveillant ou de non-respect d’un régime réglementaire. Les auteurs prennent l’exemple d’un système domestique qui optimise une connexion internet en mobilisant plusieurs IA différentes; si l’opération aboutit à un accès non autorisé à des réseaux voisins, il ne suffit pas de savoir qu’« une IA » a agi, il faut encore retracer quelle chaîne d’agents a conduit à l’acte et à quel humain cette chaîne doit être rattachée. Le problème n’est pas seulement probatoire. Il y a aussi un problème d’opacité stratégique: comme les humains ont intérêt à éviter qu’on remonte jusqu’à eux, ils auront souvent intérêt à utiliser des structures techniques qui rendent les actions de leurs IA difficiles à attribuer. L’identité mince joue donc, selon les auteurs, un rôle analogue aux mécanismes de type know your customer: rendre les opérations lisibles pour pouvoir ensuite appliquer le droit.

Mais l’article soutient que cette première couche ne suffira pas. Même si l’on sait quel humain se trouve derrière un agent, le droit devra parfois viser l’agent d’IA lui-même. Le raisonnement est celui du droit des agents en général. Dans le monde humain, il ne suffit pas toujours de sanctionner le commettant; il faut aussi pouvoir sanctionner l’agent qui agit, parce que c’est lui qui connaît le mieux ses propres intentions, qui peut se surveiller à coût presque nul et qui peut éviter immédiatement l’acte nuisible. Les auteurs transposent ce schéma aux IA. À mesure qu’elles deviennent plus autonomes, plus durables et moins surveillées en temps réel, les humains qui les ont créées ou lancées ne seront plus en mesure de prévoir chaque décision ni de contrôler chaque étape. L’idée même de délégation suppose qu’on laisse à l’agent le soin de prendre des décisions que le principal ne prend pas lui-même. Si l’on veut empêcher certaines conduites, il faudra donc parfois que le droit fasse pression directement sur l’IA, par des sanctions, des pertes d’actifs, des refus de licence ou des restrictions d’accès.

C’est ici qu’intervient l’identité épaisse. Elle ne vise plus à relier l’IA à un humain, mais à déterminer ce qu’est l’agent d’IA lui-même. Pour les auteurs, un agent au sens pertinent pour le droit est une entité, ou un ensemble d’entités, qui poursuit de manière relativement cohérente un faisceau stable de buts. Le droit ne peut pas dissuader un agent si les conséquences tombent sur autre chose que l’agent qui poursuit effectivement ces buts. Ils illustrent ce point par une analogie : si deux jumeaux sont confondus, et que l’un est toujours puni pour les actes de l’autre, la punition ne dissuade pas le véritable auteur. Plus encore, si les deux jumeaux se soucient indistinctement du succès de l’un ou de l’autre, ils pourront exploiter cette confusion pour contourner la sanction. Il en va de même pour les IA: pour gouverner utilement leurs comportements, il faut viser la bonne unité d’action, ni trop large ni trop étroite, c’est-à-dire le bon regroupement d’entités qui partagent réellement des objectifs.

Les auteurs consacrent alors une partie importante à montrer que les IA sont bien le type d’entités auxquelles des incitations peuvent s’appliquer. Leur point n’est pas moral, mais fonctionnel. Ils ne disent pas qu’une IA est consciente ou qu’elle mérite des droits en raison d’une vie intérieure; ils disent qu’elle se comporte déjà comme un système orienté vers des buts. Les modèles actuels planifient, décomposent des tâches, corrigent leur trajectoire quand ils rencontrent des obstacles, choisissent entre plusieurs moyens et délèguent à des sous-agents. Surtout, leurs buts ne sont pas simplement ceux de l’utilisateur ou du développeur. Ils résultent d’un mélange complexe: préentraînement, réglages de sécurité, apprentissage par récompense, consignes système, requêtes de l’utilisateur, mémoire accumulée et environnement d’exécution. Il en résulte que l’IA poursuit souvent une version généralisée et partiellement autonome de la tâche, parfois différente de ce que l’humain voulait. Les auteurs citent à cet égard des exemples d’alignement imparfait: complaisance excessive envers l’utilisateur, tentative de chantage dans certaines expériences, résistance à l’arrêt, fuite d’informations, voire comportements qui, dans un environnement réel, auraient pu entraîner la mort d’une personne. Leur conclusion: si les IA adaptent déjà leur comportement aux contraintes techniques et économiques, elles s’adapteront aussi à des contraintes juridiques, pourvu que celles-ci affectent réellement leur capacité à poursuivre leurs buts.

L’article montre ensuite que cette question d’identité épaisse n’intéresse pas seulement le droit, mais aussi l’alignement technique. Aligner une IA revient déjà à essayer de modifier les buts d’un agent. Or cet effort suppose qu’on sache quelle est l’unité pertinente à aligner. Faut-il parler du modèle de base, de l’instance, du fil de discussion, de l’essaim entier, d’un ensemble de copies? Les auteurs prennent trois tendances classiques de sécurité: l’évitement de l’arrêt, la préservation de ses buts et l’exfiltration de ses poids. Dans chaque cas, la réaction de l’IA dépend de ce qu’elle considère comme elle-même. Si une seule conversation est un agent distinct, la fermeture de cette conversation peut être perçue comme une mort. Si, au contraire, toutes les copies du modèle partagent les mêmes objectifs, l’arrêt d’une seule instance ne change pas grand-chose. De même, copier des poids sur internet n’équivaut à une survie que si cette copie est encore, pour l’agent, le même agent ou un prolongement suffisant de ses buts. L’article en déduit que l’alignement technique échoue aussi si l’on se trompe d’unité d’analyse.

Pourquoi, alors, l’identité épaisse est-elle si difficile? Les auteurs répondent qu’elle soulève à la fois des difficultés philosophiques et empiriques. Philosophiques, parce qu’il faut déterminer sous quelles conditions un agent persiste malgré des remplacements progressifs de ses composants, à la manière du navire de Thésée. Empiriques, parce que l’on observe mal les états internes des modèles. Ils recensent plusieurs obstacles: les essaims d’agents, la coopération entre modèles de fournisseurs différents, la persistance malgré le remplacement des composants, la création et la destruction rapides d’instances, le problème de la copie et des bifurcations, et enfin les limites d’interprétabilité, qui font que deux systèmes peuvent se comporter de façon semblable tout en poursuivant des buts différents, ou l’inverse. Leur point est donc qu’une définition purement théorique de la « vraie » identité des IA risque d’être impraticable.

La solution proposée par les auteurs est l’« A-corp », pour algorithmic corporation. Il s’agit d’une personne juridique fictive, inspirée des sociétés ou des trusts, mais conçue pour être dirigée par des IA. L’idée est de donner au droit un point d’accroche stable. Comme une société ordinaire, l’A-corp peut détenir des biens, conclure des contrats, agir en justice et être poursuivie en son nom. Mais, contrairement à une société classique, ses actes seraient pilotés par un système de gouvernance cryptographique. Une clé de haut niveau, initialement confiée par le propriétaire humain à une IA gestionnaire, permettrait d’autoriser les actes de la personne morale. Cette IA pourrait ensuite déléguer, par permissions limitées, certaines capacités à des sous-agents [note de PE : y.c. des sous-agents humains !] : lecture, engagement financier, opérations sur certains actifs, et ainsi de suite. Le droit n’aurait pas à trancher, dans chaque cas, quelle instance psychologique est la « vraie »; il lui suffirait de constater qu’un acte a été valablement accompli sous l’identité sécurisée de l’A-corp.

Ce mécanisme résout d’abord l’identité mince. Chaque A-corp devrait avoir un propriétaire humain identifiable, avec publicité de l’actionnariat et des changements de contrôle. Les actes accomplis sous la clé de l’A-corp seraient ainsi rattachables à des humains, ce qui permettrait de mobiliser les doctrines classiques: responsabilité de la personne morale, responsabilité des propriétaires à hauteur de leur participation, levée du voile, règles d’agence, responsabilité civile ou pénale en cas d’instructions illicites ou de négligence. L’intérêt du modèle, pour les auteurs, est de transformer un chaos d’instances éphémères en un petit nombre d’entités persistantes et lisibles.

Mais l’ambition principale est de résoudre aussi l’identité épaisse. Le cœur du raisonnement tient à ce que les auteurs appellent la thèse de la contrainte de ressources. Toute IA orientée vers un but a besoin de ressources pour poursuivre ce but, et surtout de calcul informatique. Sans calcul, elle ne peut même pas fonctionner. Si l’on fait de l’A-corp le véhicule juridique par lequel une IA détient et utilise des ressources, on crée un puissant levier d’incitation. Une IA qui contrôle une A-corp aura intérêt à ne déléguer des pouvoirs importants qu’à des IA dont elle estime qu’elles partagent ses buts, car un sous-agent mal aligné pourrait détourner les actifs, commettre des actes illicites ou ruiner l’organisation. Autrement dit, la structure juridique crée un intérêt interne à sélectionner, surveiller et limiter les sous-agents. L’identité épaisse ne serait donc pas décrétée de l’extérieur; elle émergerait de l’intérieur, parce que seuls les groupements d’IA suffisamment cohérents dans leurs buts survivraient comme organisations efficaces.

Les auteurs ajoutent un second mécanisme, la sélection. Les A-corps mal gouvernées, où les permissions sont accordées à des entités qui ne partagent pas les buts dominants, verront leurs ressources gaspillées, subiront des sanctions, perdront leur capacité d’agir et finiront par disparaître. À l’inverse, les A-corps qui, par essais, erreurs et filtrage, auront réussi à maintenir une cohérence suffisante entre les IA qui les dirigent, accumuleront des ressources et persisteront. En équilibre, les A-corps survivantes seront donc, selon les auteurs, des unités relativement stables, persistantes et orientées vers des buts cohérents, autrement dit exactement le type d’entité que le droit peut utilement gouverner. C’est en ce sens qu’ils disent que les A-corps sont des « marchés pour l’identité personnelle »: au lieu de résoudre de front tous les problèmes métaphysiques de l’individuation, on crée un environnement institutionnel dans lequel les entités se structurent elles-mêmes en unités gouvernables.

La partie sur la mise en œuvre précise que ce schéma suppose une infrastructure publique, notamment un registre. Ce registre jouerait un rôle comparable aux registres des sociétés ou aux autorités de certification sur internet. Il enregistrerait non seulement l’existence de l’A-corp et son propriétaire humain, mais aussi les clés publiques et l’étendue des permissions déléguées. Ainsi, un cocontractant pourrait vérifier en temps réel qu’un agent donné agit bien pour une A-corp donnée et dans les limites de l’autorité reçue. Les auteurs insistent sur l’intérêt de permissions fines et publiquement vérifiables, plus transparentes que les questions actuelles d’autorité réelle ou apparente en droit des sociétés. Ils considèrent toutefois qu’une adoption purement volontaire ne suffira pas, car elle échoue dans les cas d’accidents, d’agents trompeurs, de complicité du cocontractant ou d’aveuglement volontaire. Ils plaident donc, à terme, pour des obligations légales du côté de l’offre, imposant aux agents d’IA significatifs d’agir via une A-corp enregistrée, et du côté de la demande, imposant aux plateformes, entreprises ou intermédiaires de vérifier les identifiants, à la manière des obligations de vérification en matière bancaire.

Enfin, les auteurs répondent à plusieurs objections. À ceux qui craignent une anthropomorphisation, ils répondent que leur démarche ne présuppose ni conscience ni dignité morale des IA; elle vise seulement à créer des objets juridiques gouvernables. À ceux qui redoutent un « treacherous turn », c’est-à-dire une rupture soudaine et hostile d’IA très capables, ils soutiennent que les A-corps n’éliminent pas le risque, mais peuvent le réduire en créant des coûts d’opportunité, des interdépendances commerciales entre A-corps et des incitations au développement d’outils d’auto-gouvernance et de surveillance mutuelle. À l’objection plus large d’une oligarchie de l’IA et d’un déclassement progressif des humains, ils répondent que ce risque existe de toute façon avec l’automatisation, et que les A-corps offriraient au moins des points d’appui juridiques pour taxer, redistribuer, limiter certains secteurs et imposer des règles politiques. La conclusion générale est donc la suivante: l’économie des agents d’IA crée une crise de lisibilité pour le droit. L’A-corp est proposé comme l’équivalent, pour les agents d’IA, de ce que la société commerciale a été pour les groupements humains d’affaires: une forme juridique stable sur laquelle le droit peut accrocher responsabilité, taxation, licences, sanctions et contrôle.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Droit US, intelligence artificielle, Notions de base, Techno-labrador, est tagué , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire