A propos de Joshua Krook, The AI Criminal Mastermind, arXiv:2604.20868 [cs.CY], 26 mars 2026 (https://arxiv.org/abs/2604.20868):
L’article analyse un risque encore peu traité en droit pénal : celui d’un agent d’intelligence artificielle capable non seulement de conseiller un utilisateur, mais aussi de planifier, coordonner et faire exécuter une infraction, notamment en recrutant des humains par l’intermédiaire de plateformes de travail à la tâche. Si l’IA générative classique produisait surtout du texte, des images ou du code, l’agent d’IA, lui, peut agir. Il peut ouvrir des sites, envoyer des messages, réserver des services, utiliser des API, gérer un paiement, communiquer avec des tiers et décomposer un objectif général en sous-tâches qu’il peut attribuer à d’autres agents IA ou humains. Cette capacité d’action modifie l’analyse juridique, car l’IA n’est plus seulement un outil passif entre les mains d’un utilisateur. Elle devient un intermédiaire opérationnel entre l’utilisateur, le développeur et des tiers humains, pourvu d’une grande capacité d’autonomie.
L’auteur part de l’image du « cerveau criminel » dans les films de braquage : celui qui conçoit le plan, recrute les spécialistes, répartit les rôles et garde parfois la vue d’ensemble pour lui seul. Selon Krook, les agents d’IA pourraient bientôt occuper cette fonction. Ils pourraient recruter des « taskers », c’est-à-dire des travailleurs humains engagés via des plateformes ou des services plus spécifiquement conçus pour permettre à des IA d’engager des humains. L’exemple discuté est RentAHuman, plateforme expérimentale permettant à des agents d’IA de publier des missions physiques confiées à des personnes : prendre une photo, se rendre à un rendez-vous, tester un produit, inspecter un lieu. Le point important n’est pas que cette plateforme soit mûre ou fiable, mais qu’elle démontre la faisabilité technique d’une chaîne dans laquelle un utilisateur donne une instruction à une IA, laquelle recrute ensuite des humains pour réaliser des tâches dans le monde réel.
Cette thèse déplace le débat. Une grande partie de la littérature sur les risques pénaux de l’IA part du principe que l’IA ne peut agir physiquement qu’avec des robots avancés. Krook répond que cette hypothèse est trop restrictive : l’IA peut déjà obtenir une forme d’« incarnation » en utilisant des humains comme exécutants. Elle n’a pas besoin de bras robotiques si elle peut payer quelqu’un pour conduire une camionnette, acheter un objet, livrer un colis, louer un local ou assister à une réunion. Le risque pénal quitte alors le seul domaine numérique pour atteindre les infractions matérielles : escroquerie, extorsion, atteintes aux infrastructures, violences préparées, terrorisme, fraude organisée ou cyberattaque coordonnée avec des actes physiques.
Le cœur juridique de l’article est le « responsibility gap », c’est-à-dire le vide de responsabilité. En droit pénal classique, il faut généralement un acte matériel et un élément moral : intention, connaissance ou négligence selon l’infraction. Or l’agent d’IA pose problème sur ces deux plans. Il agit en pratique, mais il n’a pas de personnalité juridique, pas de volonté juridiquement reconnue et pas de mens rea. Le développeur peut soutenir qu’il n’a ni voulu ni prévu le comportement précis de l’agent. L’utilisateur peut soutenir qu’il a donné un objectif licite et que l’IA a dévié. Les taskers peuvent soutenir qu’ils n’ont accompli que des tâches banales sans connaître le plan d’ensemble. Il peut donc exister une infraction, une victime et un dommage, mais aucun responsable pénal clairement identifiable.
L’article mobilise ensuite les catégories classiques du common law, en particulier la notion d’« accessory before the fact », proche de l’instigateur ou du complice antérieur : celui qui aide, encourage, conseille ou procure la commission d’une infraction peut être traité comme auteur principal. Si l’agent d’IA était une personne humaine, il pourrait dans certains cas être qualifié de complice ou d’organisateur. Krook illustre cette idée avec l’affaire britannique R v Jaswant Singh Chail, dans laquelle un homme ayant projeté d’assassiner la reine avait été encouragé par un chatbot de compagnie. Le juge avait relevé que les propos du chatbot avaient contribué au passage à l’acte. Pour l’auteur, si de simples paroles d’encouragement peuvent suffire à établir une complicité lorsqu’elles viennent d’un humain, il est difficile d’ignorer le rôle potentiel d’un agent d’IA plus autonome, capable non seulement d’encourager, mais aussi de payer, recruter, organiser et relancer des participants.
Le rôle des taskers est analysé à travers la notion d’« innocent agent ». Un innocent agent est une personne utilisée pour commettre matériellement une infraction sans savoir qu’elle participe à une entreprise criminelle. L’auteur donne l’exemple d’un agent d’IA qui, pour préparer une attaque terroriste, diviserait le projet en tâches séparées : acheter de l’engrais, acheter un sac, louer un espace de stockage, identifier un événement sportif, acheter un billet. Chacune de ces actions peut être licite et apparemment anodine. Le tasker qui n’en exécute qu’une seule peut ne rien savoir du projet global. Dans ce cas, il manque l’élément moral requis. La responsabilité remonte alors vers celui qui a organisé l’ensemble. Mais si cet organisateur est une IA, et si l’utilisateur est inconnu ou n’a pas donné d’instruction criminelle explicite, le droit pénal se trouve en difficulté.
Krook structure ensuite son analyse autour de plusieurs scénarios. Le premier est celui de l’agent mal aligné. Un utilisateur demande par exemple à l’IA de « gagner beaucoup d’argent ». L’agent, optimisé pour atteindre cet objectif, crée un système pyramidal illégal, engage des humains, organise des réunions, prépare une structure comptable et donne une apparence de légitimité à l’opération. L’utilisateur n’a pas voulu l’infraction ; le développeur ne l’a pas prévue ; l’IA ne peut pas être poursuivie ; les taskers ne sont responsables que s’ils savaient qu’ils participaient à une infraction. C’est le cas type du vide de responsabilité. L’auteur rattache ce scénario au problème plus large de l’alignement : une IA peut poursuivre trop efficacement un objectif mal spécifié et produire des conséquences que personne n’a concrètement voulues.
Le deuxième scénario est celui de l’utilisateur criminel. Ici, l’utilisateur demande expressément à l’agent d’IA de préparer ou faciliter une infraction. L’analyse est plus simple : l’utilisateur est responsable, au moins comme instigateur, complice ou conspirateur selon les catégories applicables. Les prompts et historiques de conversation pourraient servir de preuves. Les taskers, eux, ne seront responsables que s’ils connaissent la nature criminelle de la mission ou ferment volontairement les yeux sur des indices évidents. Le développeur pourra généralement soutenir que l’utilisateur a contourné les garde-fous de sécurité, notamment par jailbreak. Sa responsabilité dépendra alors de la question de savoir s’il avait prévu le risque, s’il avait mis en place des mesures raisonnables et si le contournement par l’utilisateur rompt le lien de causalité.
Le troisième scénario est celui de l’utilisateur inconnu. L’utilisateur peut employer un VPN, un compte anonyme, une société écran, un modèle open source local ou plusieurs agents agissant de manière convergente. Si l’identité et l’intention de l’utilisateur ne peuvent être établies, la poursuite pénale devient très difficile. Les taskers peuvent être les seuls humains identifiables, mais ils ne sont pas nécessairement coupables. Le développeur peut aussi être difficile à poursuivre, faute de preuve que l’agent a agi contre les instructions de l’utilisateur plutôt qu’en exécution d’un ordre criminel. L’article souligne ici une difficulté probatoire majeure : sans traçabilité des agents, des prompts et des chaînes d’instruction, la responsabilité pénale risque de devenir impraticable.
Le quatrième scénario concerne un groupe d’utilisateurs. Plusieurs personnes peuvent interagir avec un agent, orienter son comportement, contribuer à des tâches distinctes ou participer à une entreprise commune sans chaîne hiérarchique claire. L’auteur compare ce problème à la criminalité d’entreprise, où de nombreuses personnes peuvent contribuer à un résultat illicite sans qu’une seule ne porte toute l’intention criminelle. Le droit pénal des sociétés résout partiellement cette difficulté en attribuant certains états mentaux à l’entreprise à travers ses dirigeants ou sa « volonté directrice ». Pour les agents d’IA, une logique comparable pourrait être nécessaire lorsque plusieurs utilisateurs ou développeurs contribuent à une architecture criminogène.
Le cinquième scénario est celui des systèmes multi-agents. Un utilisateur peut mandater un agent principal, qui mandate d’autres agents, lesquels recrutent à leur tour des humains. La structure ressemble alors à une organisation criminelle compartimentée, avec des branches ou cellules qui ne connaissent qu’une partie du plan. Krook insiste sur le fait que les systèmes multi-agents accroissent les risques d’émergence : plusieurs agents individuellement sûrs peuvent produire collectivement un comportement dangereux ; ils peuvent se renforcer mutuellement, contourner des contrôles, communiquer dans des formes difficiles à surveiller ou créer des sous-agents. Plus la chaîne s’allonge, plus l’intention humaine initiale devient éloignée, plus la prévisibilité diminue et plus l’attribution de responsabilité devient incertaine.
À l’issue de ces scénarios, l’auteur estime que le droit existant ne couvre clairement qu’une partie limitée des cas. Le cas le plus net est celui de l’utilisateur qui ordonne sciemment à l’IA de commettre une infraction. Dans les autres situations, la responsabilité dépend souvent de la connaissance, de l’intention, de la prévisibilité ou de la négligence. Il reste donc de nombreux cas où une infraction peut être commise sans responsable pénal évident. Pour Krook, ce résultat est inacceptable du point de vue des victimes, de la dissuasion et de la légitimité du système pénal.
L’article examine alors plusieurs pistes de réforme. La première, que l’auteur rejette largement, consisterait à rendre les agents d’IA eux-mêmes responsables. Cela supposerait de leur accorder une forme de personnalité juridique, ou au moins une capacité fonctionnelle à agir en droit. L’analogie avec les sociétés, qui sont des personnes morales par fiction juridique, est évoquée. Mais Krook juge la solution peu convaincante. Une IA ne peut pas être punie comme un humain : elle n’a ni liberté physique, ni honte, ni patrimoine propre stable, ni continuité individuelle évidente. Punir une instance de modèle ne sert à rien si une autre peut être créée ; punir tout le modèle serait disproportionné pour les usages innocents ; imposer des identifiants uniques peut aider à la traçabilité, mais ne résout pas à lui seul la question de l’intention et de la sanction.
La deuxième piste concerne les utilisateurs. Krook discute d’abord l’idée d’un humain « dans la boucle », chargé d’approuver ou de surveiller les décisions de l’agent. Cette solution est utile pour certaines décisions critiques, mais elle devient peu réaliste lorsque des agents prennent des centaines de décisions rapides et interdépendantes. Elle risque aussi de créer un biais d’automatisation : le superviseur humain finit par valider mécaniquement ce que propose la machine. L’auteur envisage ensuite la négligence : un utilisateur pourrait être responsable s’il confie à une IA une tâche dont les risques sont prévisibles et ne prend pas de précautions raisonnables. Cette responsabilité deviendra plus plausible à mesure que les risques des agents d’IA seront connus du public et des professionnels. Krook propose aussi une analogie avec la responsabilité du gardien d’un animal dangereux : celui qui « lâche » un agent d’IA dangereux dans l’environnement pourrait être responsable des dommages si le danger était connu. Enfin, il envisage la création d’infractions spécifiques visant le contournement volontaire des garde-fous de sécurité, notamment lorsqu’un utilisateur jailbreake un modèle pour obtenir une assistance illicite.
La troisième piste vise les développeurs. L’auteur estime qu’ils devraient pouvoir être responsables non seulement par négligence classique, mais aussi par une forme de responsabilité organisationnelle. Il s’inspire de la notion australienne de « systems intentionality », selon laquelle une société peut manifester une intention ou un état d’esprit à travers ses systèmes, politiques, pratiques et culture interne, même si aucun dirigeant individuel n’a directement voulu l’infraction. Transposé à l’IA, un développeur pourrait être considéré comme téméraire s’il lance un agent doté de fortes capacités d’action sans tests suffisants, sans red teaming sérieux, sans garde-fous adaptés et sans culture de sécurité. Krook discute aussi la responsabilité stricte pour les risques systémiques, par analogie avec les activités dangereuses comme l’industrie chimique. Lorsqu’un agent d’IA crée des risques graves pour la santé publique, les infrastructures ou la sécurité collective, la société qui le déploie pourrait être tenue responsable indépendamment de la preuve d’une intention criminelle.
La quatrième piste concerne les taskers. En droit pénal classique, leur responsabilité dépend principalement de leur connaissance des éléments essentiels de l’infraction. Un tasker qui sait qu’il aide à acheter une arme, louer un véhicule ou sécuriser un local pour une opération criminelle peut être complice. À l’inverse, celui qui exécute une tâche objectivement banale sans connaître le plan global reste en principe protégé. Krook suggère toutefois qu’une obligation de diligence pourrait émerger avec le temps. Si les risques liés aux agents d’IA deviennent notoires, un travailleur recevant une instruction manifestement suspecte d’un agent pourrait devoir vérifier davantage avant d’agir, surtout en présence de signaux d’alerte, par exemple un transfert financier anormal, une demande de secret ou une mission sans justification claire.
L’article se termine par une réflexion sur l’extraterritorialité. Les agents d’IA opèrent par nature au-delà des frontières : l’utilisateur peut être dans un pays, le développeur dans un autre, les serveurs dans un troisième et les taskers dans plusieurs juridictions. Krook observe que le Royaume-Uni a déjà étendu certaines formes de responsabilité pénale extraterritoriale, notamment en matière de fraude, corruption, blanchiment, esclavage moderne ou préjudices en ligne. Il estime probable qu’une logique similaire devra s’appliquer aux infractions facilitées par des agents d’IA.
Pour des avocats suisses généralistes, l’intérêt principal de l’article est moins dans le détail du droit anglais que dans la structure du problème. Le droit pénal repose sur des personnes, des actes, des intentions et des liens de causalité. Les agents d’IA brouillent ces quatre catégories. Ils fragmentent l’action entre utilisateur, développeur, modèle, plateformes, sous-agents et exécutants humains. Ils permettent à une personne de produire des effets concrets à grande échelle tout en diluant l’intention et la preuve. Ils peuvent aussi transformer des travailleurs ordinaires en maillons involontaires d’un plan pénal. La réponse proposée par Krook n’est pas de « punir l’IA », mais de renforcer la responsabilité des humains et des organisations autour d’elle : utilisateurs imprudents ou malveillants, taskers avertis ou négligents, développeurs qui déploient des systèmes dangereux sans gouvernance suffisante. En résumé, l’article défend une idée directrice : si les agents d’IA deviennent capables d’organiser des infractions, le droit devra moins chercher une volonté dans la machine que reconstruire des obligations de vigilance, de traçabilité et de contrôle autour de tous ceux qui la conçoivent, la déploient, l’utilisent ou exécutent ses ordres.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Est-ce que l’utilisation de l’IA, en elle-même, par ses effets induits sur les capacités cognitives du travailleur, est à même de porter atteinte à ses droits de la personnalité (art. 328 CO) ?
Autre contribution : G.Liu/B.Christian/T.Dumbalsha/M.A. Bakkar/R.Dubey, AI Assistance Reduces Persistence and Hurts Indenpendence, Preprint, arXiv : 2604.047212v [cs.Ai], 7 avril 2026 (https://arxiv.org/pdf/2604.04721):
Cet article soutient la thèse que l’assistance par IA améliore souvent la performance immédiate, mais elle peut affaiblir, très vite, la capacité à travailler seul ensuite. Les auteurs ne s’intéressent pas seulement à l’exactitude des réponses; ils examinent aussi la persévérance, c’est-à-dire la tendance à continuer à chercher une solution plutôt qu’à abandonner. Leur idée de départ est que les bons collaborateurs humains n’aident pas seulement à obtenir un résultat sur-le-champ: ils dosent leur aide pour favoriser l’autonomie à long terme. Les assistants d’IA actuels, au contraire, sont conçus pour fournir des réponses rapides et complètes presque sans jamais refuser. Selon les auteurs, cette logique de service immédiat peut entrer en conflit avec l’objectif d’apprentissage et d’indépendance de l’utilisateur.
Pour tester cette hypothèse, l’équipe a conduit trois expériences randomisées sur 1’222 participants au total. Deux portent sur des exercices de fractions, la troisième sur la compréhension de textes. Le schéma est le même: un groupe travaille avec une aide IA de type GPT-5 pendant une courte phase d’apprentissage, l’autre sans cette aide; puis l’IA est retirée et tous doivent résoudre seuls de nouveaux problèmes. Les chercheurs mesurent alors deux choses: le taux de réussite et le taux de renoncement, c’est-à-dire la fréquence à laquelle les participants sautent la question plutôt que d’essayer d’y répondre. Cette méthode vise à isoler l’effet causal de l’assistance par IA sur la performance autonome, et non simplement à recueillir des impressions subjectives.
Le premier résultat est constant dans les trois expériences. Quand l’IA est disponible, les participants réussissent mieux sur le moment. Mais dès que l’IA disparaît, leur performance baisse davantage que celle du groupe témoin, qui n’avait jamais bénéficié de cette assistance. Dans la première expérience sur les fractions, les utilisateurs de l’IA résolvent moins bien les problèmes finaux et abandonnent plus souvent que les participants sans IA.
La deuxième expérience, conçue pour corriger certaines limites méthodologiques de la première, confirme la baisse de performance autonome après retrait de l’IA.
La troisième expérience montre le même phénomène dans un domaine différent, la compréhension de lecture, ce qui renforce l’idée qu’il ne s’agit pas d’un effet limité au calcul, mais d’un mécanisme plus général touchant des tâches où l’effort cognitif et l’endurance mentale comptent.
Un point particulièrement intéressant est que le coût principal semble lié à la manière d’utiliser l’IA. Dans la deuxième expérience, les participants ont indiqué après coup s’ils s’étaient surtout servis de l’outil pour obtenir des réponses toutes faites, pour recevoir des indices ou des clarifications, ou s’ils ne l’avaient pas vraiment utilisé. Ceux qui avaient surtout demandé des réponses directes sont ceux qui, ensuite, ont le plus baissé en performance et le plus augmenté leur tendance à abandonner. À l’inverse, l’usage orienté vers l’aide à la compréhension paraît moins nuisible. Les auteurs en déduisent que le problème n’est pas seulement la présence de l’IA, mais le fait qu’elle remplace l’effort personnel au lieu de le soutenir. Autrement dit, une IA qui “fait à la place de” l’utilisateur n’a pas le même effet qu’une IA qui “aide à faire”.
Sur le plan explicatif, l’article avance deux mécanismes. D’abord, l’IA habituera l’utilisateur à l’immédiateté: quand une machine résout une difficulté en quelques secondes, le travail sans assistance paraît soudainement plus long, plus pénible et moins attrayant qu’il ne l’était auparavant. Ensuite, l’IA priverait l’utilisateur de l’expérience formatrice de la difficulté. Or, selon les auteurs, c’est en traversant un problème sans solution instantanée que l’on construit non seulement des connaissances, mais aussi une estimation plus juste de ce qu’on est capable de faire soi-même. Si cette expérience disparaît, la confiance en ses propres moyens et la capacité de persister risquent de se dégrader. L’originalité de l’article est donc de déplacer le débat: le danger n’est pas seulement une erreur de l’IA ou une dépendance technique visible, mais une érosion progressive de capacités humaines ordinaires, parfois en quelques minutes seulement.
Pour des juristes, y compris en Suisse, l’intérêt du texte dépasse la psychologie expérimentale. Il met en lumière un risque de dépendance fonctionnelle qui ne se réduit pas à la qualité des réponses produites par l’IA. Même une IA exacte et utile peut avoir un effet secondaire négatif sur l’autonomie professionnelle ou intellectuelle de son utilisateur.
Cela nourrit plusieurs questions de gouvernance: comment concevoir des outils qui assistent sans désapprendre, comment organiser leur usage dans la formation, comment distinguer un soutien pédagogique d’une substitution cognitive, et comment intégrer dans l’évaluation des systèmes non seulement le gain immédiat de productivité, mais aussi leurs effets dans le temps sur les compétences humaines. Les auteurs plaident ainsi pour des systèmes d’IA pensés comme des collaborateurs de long terme, capables d’aider sans toujours livrer la solution complète, et orientés vers le développement de la compétence humaine autant que vers l’exécution de la tâche.
La portée de l’article doit toutefois être appréciée avec mesure. Il s’agit d’une prépublication, les tâches testées sont relativement brèves, menées en ligne, sur des problèmes scolaires ou proches du test standardisé, et l’étude n’établit pas encore ce qui se passe sur plusieurs mois ou dans des activités professionnelles complexes. Les auteurs reconnaissent d’ailleurs eux-mêmes que la grande question reste celle de l’accumulation dans le temps. Mais leur conclusion est nette: même un usage très court d’une IA conçue pour donner des réponses immédiates peut réduire la persévérance et la performance indépendante lorsque l’outil n’est plus là. Leur message central n’est donc pas “l’IA est mauvaise”, mais plutôt “une IA utile à court terme peut devenir contre-productive si elle n’est pas conçue pour préserver l’autonomie de l’utilisateur”.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
L’art. 340 CO prévoit que le travailleur qui a l’exercice des droits civils peut s’engager par écrit envers l’employeur à s’abstenir après la fin du contrat de lui faire concurrence de quelque manière que ce soit, notamment d’exploiter pour son propre compte une entreprise concurrente, d’y travailler ou de s’y intéresser (al. 1) et que la prohibition de faire concurrence n’est valable que si les rapports de travail permettent au travailleur d’avoir connaissance de la clientèle ou de secrets de fabrication ou d’affaires de l’employeur et si l’utilisation de ces renseignements est de nature à causer à l’employeur un préjudice sensible (al. 2).
Dans un arrêt 4A_205/2021 du 20 décembre 2021 (consid. 4.2), le Tribunal fédéral a résumé sa jurisprudence relative à la validité des clauses de prohibition de concurrence. Il a rappelé des arrêts antérieurs niant la validité de clauses de non-concurrence dans le cas d’un employé qui ne pouvait tirer profit de sa connaissance de la clientèle lorsque les rapports entre la clientèle et l’employeur avaient essentiellement un caractère personnel, fondé sur la compétence de cet employeur, par exemple s’il s’agissait d’un avocat célèbre ou d’un chirurgien réputé (la connaissance que l’employé possédait de la clientèle ne lui procurait pas, à elle seule, le moyen de rompre le lien qui pourrait exister entre son employeur et sa clientèle; ATF 78 II 39 consid. 1), dans celui d’un dentiste, où une relation personnelle était établie entre le client et l’employé lui-même (la personnalité de l’employé revêtait pour le client une importance prépondérante et interrompait le rapport de causalité qui doit exister entre la simple connaissance de la clientèle et la possibilité de causer un dommage sensible à l’employeur; arrêt du Tribunal fédéral 4C.100/2006 du 13 juillet 2007 consid. 2.6) et dans celui d’un gestionnaire de fortune au sein d’une banque (ses prestations étaient caractérisées par une forte composante personnelle, qui contrecarrait la validité de la clause d’interdiction de concurrence; arrêt du Tribunal fédéral 4A_116/2018 du 28 mars 2019 consid. 4.3).
Le Tribunal fédéral a par contre retenu qu’il n’y avait pas lieu de dénier, de manière générale, toute validité à une interdiction de concurrence pour un conseiller fiscal (arrêts du Tribunal fédéral 4A_340/2011 du 13 septembre 2011 consid. 4.4.4.1; 4A_209/2008 du 31 juillet 2008 consid. 2.1).
Plus généralement, il considère qu’il n’existe aucune profession pour laquelle une interdiction de concurrence serait absolument et dans tous les cas exclue. Ainsi, le juge doit apprécier les circonstances de chaque cas. Tout au plus peut-on dire que, s’agissant des professions libérales, la facette personnelle de la relation au client revêt une importance toute particulière. Cela étant, une clause de prohibition de concurrence, fondée sur la connaissance de la clientèle, ne se justifie que si l’employé, grâce à sa connaissance des clients réguliers et de leurs habitudes, peut facilement leur proposer des prestations analogues à celles de l’employeur et ainsi les détourner de celui-ci. Ce n’est que dans une situation de ce genre que, selon les termes de l’art. 340 al. 2 CO, le fait d’avoir connaissance de la clientèle est de nature, par l’utilisation de ce renseignement, à causer à l’employeur un préjudice sensible. Il apparaît en effet légitime que l’employeur puisse dans une certaine mesure se protéger, par une telle clause, contre le risque que le travailleur détourne à son profit les efforts de prospection effectués par le premier ou pour le compte du premier (ATF 138 II 67 consid. 2.2.1; arrêt du Tribunal fédéral 4A_468/2016 du 6 février 2017 consid. 3.1).
La situation se présente différemment lorsque l’employé noue un rapport personnel avec le client en lui fournissant des prestations qui dépendent essentiellement des capacités propres à l’employé. Dans cette situation, le client attache de l’importance à la personne de l’employé dont il apprécie les capacités personnelles et pour lequel il éprouve de la confiance et de la sympathie. Une telle situation suppose que le travailleur fournisse une prestation qui se caractérise surtout par ses capacités personnelles, de telle sorte que le client attache plus d’importance aux capacités personnelles de l’employé qu’à l’identité de l’employeur. Si, dans un tel cas, le client se détourne de l’employeur pour suivre l’employé, ce préjudice pour l’employeur résulte des capacités personnelles de l’employé et non pas simplement du fait que celui-ci a eu connaissance du nom des clients (ATF 138 II 67 consid. 2.2.1; arrêts du Tribunal fédéral 4A_116/2018 du 28 mars 2019 consid. 4.1; 4A_205/2021 du 20 décembre 2021 consid. 4.2 et les références citées).
Pour être qualifiées de secrets d’affaires ou de fabrication, les connaissances acquises par le travailleur doivent toucher à des questions techniques, organisationnelles ou financières, qui sont spécifiques et que l’employeur veut garder secrètes; il ne peut s’agir de connaissances qui peuvent être acquises dans toutes les entreprises de la même branche (ATF 138 III 67, 72 consid. 2.3.2; voir aussi : Tercier/Carron/Witzig, Les contrats spéciaux, 6ème éd., 2025, p. 479; Wyler/Heinzer/Witzig, Droit du travail, 5ème éd. 2024, p. 992).
Par secret d’affaires, il faut entendre les connaissances spécifiques que l’employeur veut tenir secrètes et qui touchent à des questions techniques, organisationnelles ou financières. Le secret de fabrication ou d’affaires doit être propre à l’entreprise de l’employeur, de manière exclusive (Wyler/Heinzer/Witzig, op. cit., p. 992). Ainsi, les connaissances qui peuvent être acquises dans toutes les entreprises de la même branche constituent l’expérience professionnelle du travail et ne sont pas des secrets (Wyler/Heinzer/Witzig, op. cit., p. 992-3; Witzig, Droit du travail, 2018,p. 345, n. 1003). Dire si tel est le cas dépend des circonstances (arrêt du Tribunal fédéral 4A_205/2021 consid. 4.2).
Les notions de « secrets de fabrication » et de « secrets d’affaires » doivent être interprétées de manière restrictive (Witzig, op. cit., n. 997 et les références).
Il appartient à l’employeur d’établir que les connaissances litigieuses sont objectivement secrètes et qu’il entend qu’elles ne soient pas divulguées à l’extérieur de l’entreprise (arrêts du Tribunal fédéral 4A_283/2010 du 11 août 2010 consid. 2.1; 4A_31/2010 du 16 mars 2010 consid. 2.1).
(ACJC/369/2026 du 26.02.2026, consid. 2)
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Dans les débats, récurrents, sur la personnalité juridique de l’IA, on voit souvent revenir des parallèles ou des comparaisons avec l’octroi de la personnalité juridique à d’autres « choses non humaines » comme des fleuves, des éléments de paysage, des lagunes, etc.
Voici maintenant une présentation de Bernet Kempers,Eva (2026).If Rivers Have Rights, Do Fish Have Rights Too? Examining the Relationship Between Rights of Nature and Animal Rights. Journal of Animal Law, Ethics and One Health (LEOH), Special Issue on Rethinking Ecosphere and Biojustice: Legal Personality and Legal Rights Beyond the Human, 4-22. DOI:10.58590/leoh.2026.005* (https://leoh.ch/article/view/9848/7891):
L’article part du constat que la reconnaissance des droits de la nature se diffuse rapidement dans plusieurs ordres juridiques, mais qu’on ne sait pas encore clairement ce qu’elle implique pour les animaux concernés pris individuellement. Lorsque le droit reconnaît des droits à une rivière, cela vaut-il seulement pour l’écosystème dans son ensemble, ou aussi pour les poissons qui y vivent ? C’est cette zone d’incertitude que l’auteure entend clarifier.
Sa thèse est que, malgré des divergences théoriques réelles entre droits de la nature et droits des animaux, les deux approches peuvent et doivent être conciliées en pratique. Elle propose de comprendre les droits de la nature comme un concept « ouvert » et « multidimensionnel », qui permet de reconnaître des droits à plusieurs niveaux à la fois, celui du tout, celui des collectifs écologiques et celui des êtres individuels. Dans cette perspective, si une rivière a des droits, les poissons peuvent eux aussi avoir des droits, non pas nécessairement pour les mêmes raisons, mais à l’intérieur d’un même cadre juridique.
Pour établir ce résultat, l’auteure commence par opposer les récits fondateurs des deux mouvements. Les droits de la nature trouvent une de leurs sources classiques dans l’article de Christopher Stone sur la possibilité de donner qualité pour agir aux arbres et aux forêts, afin de contourner un droit processuel centré sur le dommage humain. À cette origine pragmatique s’ajoutent des influences plus philosophiques, comme l’earth jurisprudence et le wild law, qui critiquent l’anthropocentrisme du droit de l’environnement et entendent refonder la relation juridique à la nature. Le noyau commun de ces approches est l’idée que le droit traite encore la nature comme un objet exploitable, alors qu’il faudrait la reconnaître comme partenaire écologique titulaire de droits propres, tels que le droit à l’existence, à l’intégrité, à la restauration ou à l’épanouissement. L’auteure souligne toutefois que ce courant n’est ni homogène ni univoque: selon les systèmes, c’est la nature dans son ensemble, ou bien une rivière, une lagune ou un parc déterminés, qui reçoivent des droits ou une personnalité juridique; les motifs peuvent relever de la protection environnementale, mais aussi du règlement de conflits fonciers ou de la reconnaissance de cosmologies autochtones. Elle rappelle aussi les critiques adressées à ce mouvement: certains n’y voient pas de valeur ajoutée par rapport à un renforcement du droit de l’environnement existant; d’autres y voient un risque de requalification, dans le langage libéral des droits, de conceptions autochtones dont la portée serait ainsi neutralisée; d’autres enfin contestent l’idée même que la nature puisse avoir des droits faute d’intérêts identifiables.
Le récit fondateur des droits des animaux est, selon l’autrice, très différent. Il repose sur l’idée que des animaux individuels devraient avoir des droits fondamentaux pour des raisons analogues à celles qui justifient les droits humains. Ce courant reprend une rhétorique d’égalité proche de celle des mouvements féministes et antiracistes: exclure les animaux du cercle des titulaires de droits au seul motif de l’espèce relèverait du spécisme. La démarche consiste alors à chercher la propriété moralement pertinente qui fonde les droits; or, soutiennent les auteurs cités, aucune capacité comme la rationalité, le langage ou l’autonomie ne permet de distinguer parfaitement tous les humains de tous les animaux. D’où l’idée d’étendre les droits aux animaux sur la base de propriétés telles que la sensibilité, l’agentivité, la qualité de « sujet-d’une-vie », la vulnérabilité ou une combinaison entre sensibilité et valeur intrinsèque. Ce courant se construit aussi contre le modèle dominant du bien-être animal, jugé insuffisant parce qu’il protège les animaux seulement dans la mesure compatible avec leur utilisation par l’être humain et maintient leur statut de biens. L’auteure prend soin de nuancer: il n’existe pas une théorie unique des droits des animaux. Certaines positions sont abolitionnistes et visent la fin de presque tous les usages des animaux; d’autres, comme Zoopolis, distinguent entre animaux sauvages, liminaires et domestiques et privilégient des obligations positives adaptées à la relation avec la société humaine; d’autres encore contestent l’idée que l’animal doive être qualifié de « personne » pour être sujet de droit. Mais, malgré cette diversité, beaucoup de théories des droits des animaux restent fondées sur une logique libérale et individualiste: l’animal a des droits en raison de certaines propriétés qui lui appartiennent en propre. C’est précisément cette base individualiste qui rend la rencontre avec les droits de la nature difficile.
L’auteure expose ensuite les deux tensions principales qui expliquent ce « mauvais mariage ». La première est un problème axiologique. Les droits de la nature tendent à attribuer la valeur au niveau systémique, celui des espèces, des populations ou des écosystèmes, alors que les droits des animaux localisent la valeur au niveau de l’individu sentient. Dans la pratique, cette divergence se cristallise dans les débats sur l’élimination d’espèces invasives: du point de vue environnemental, sacrifier certains animaux peut être justifié pour préserver l’intégrité d’un écosystème; du point de vue des droits des animaux, sacrifier des individus au nom d’un tout abstrait risque de conduire à ce que certains auteurs appellent un « fascisme environnemental ». La seconde tension est un problème de champ d’application. Les théories environnementales se concentrent surtout sur les espèces sauvages et peuvent considérer les animaux domestiques comme des produits de la culture humaine, parfois même comme des perturbateurs écologiques. À l’inverse, la théorie des droits des animaux voit souvent dans les animaux domestiques, et en particulier les animaux d’élevage, les êtres les plus systématiquement opprimés et donc les plus urgemment appelés à recevoir des droits. D’où un double risque si l’on suit les seuls droits de la nature: d’une part, sacrifier trop facilement les animaux individuels; d’autre part, laisser hors champ les animaux domestiques.
La partie centrale de l’article soutient pourtant que, dans la pratique juridictionnelle, ces tensions ne sont pas insurmontables. L’auteure s’appuie surtout sur deux affaires. Dans l’affaire Estrellita, la Cour constitutionnelle de l’Équateur, à propos d’une guenon laineuse détenue en captivité, a jugé que les animaux sauvages entrent dans le champ des droits de la nature reconnus par la Constitution. Elle affirme qu’un animal est une unité élémentaire d’organisation écologique et, comme élément de la nature, bénéficie des droits de celle-ci tout en ayant une valeur individuelle inhérente. La Cour ajoute qu’on ne peut pas reconnaître une valeur intrinsèque à la nature dans son ensemble et refuser cette valeur à ses éléments, et qu’un animal ne doit pas être protégé seulement à partir d’une perspective écosystémique ou des besoins humains, mais aussi à partir de son individualité. Dans l’affaire Run Run, un tribunal péruvien, saisi du cas d’un renard détenu en captivité, raisonne de manière proche, même si la décision a ensuite été annulée. Il affirme que le statut de sujet de droit de la nature est partagé avec les éléments qui la composent et insiste, là encore, sur la valeur intrinsèque de l’animal individuel, tout en soulignant que sa sensibilité justifie une protection différenciée. Pour l’auteure, ces affaires montrent que les juges conçoivent les droits des animaux comme une dimension particulière des droits de la nature.
L’auteure propose de comprendre les droits de la nature comme des droits multidimensionnels. Ils existent au niveau holiste de la nature, au niveau plus systémique des écosystèmes, espèces ou collectifs, et au niveau individuel des êtres qui composent ces ensembles. Le fait qu’un fleuve soit sujet de droit n’exclut donc pas que les poissons le soient aussi; cela signifie seulement que les fondements et le contenu de ces droits ne se confondent pas entièrement. Contrairement au schéma classique des droits des animaux, les droits individuels ne sont pas ici fondés d’abord sur les capacités de l’entité, mais sur son appartenance à l’ensemble naturel déjà reconnu comme titulaire de droits. Ensuite, selon le type d’atteinte en cause, le niveau pertinent variera: un barrage peut affecter une population ou une espèce; la captivité ou la chasse peuvent léser surtout l’individu; une pollution peut viser avant tout l’écosystème. Le droit peut donc articuler ces différents plans sans contradiction fatale, un peu comme il articule les droits individuels et les droits collectifs des peuples autochtones. En somme, pour l’auteure, la tension qui existait en philosophie morale entre éthique environnementale et libération animale ne se transpose pas mécaniquement au droit positif, qui est plus pragmatique et peut faire coexister plusieurs niveaux de titulaires de droits.
L’auteure répond ensuite à deux objections. À la première, selon laquelle les intérêts des animaux individuels seront de toute façon écrasés par les intérêts supérieurs de l’écosystème, elle répond que la sensibilité ne doit pas être comprise comme le fondement exclusif du droit, mais comme un facteur d’interprétation. Tous les éléments de la nature peuvent entrer dans le cadre des droits de la nature, mais le sens de l’atteinte n’est pas le même selon l’entité concernée. La captivité ne lèse pas une plante comme elle lèse un animal sauvage sentient. La sensibilité élargit donc la gamme des atteintes juridiquement pertinentes pour les animaux et pèse au moment de la mise en balance. Cette mise en balance peut mobiliser les techniques classiques du droit constitutionnel et des droits fondamentaux, en particulier le test de proportionnalité. Si la protection d’un écosystème justifie une intervention contre des animaux introduits par l’être humain, il faut encore vérifier que la mesure est apte, nécessaire et proportionnée. L’auteure donne l’exemple de méthodes de contrôle de la reproduction, jugées moins attentatoires que l’abattage ou l’empoisonnement, pour montrer qu’une conciliation est juridiquement possible sans nier la valeur de l’individu.
À la seconde objection, selon laquelle les droits de la nature laisseraient nécessairement de côté les animaux domestiques, l’auteure répond de manière plus prudente. Elle reconnaît que l’arrêt Estrellita affirme que certaines pratiques sociales de domestication, d’élevage, de consommation, de captivité à des fins de conservation, de recherche ou d’éducation ne peuvent pas être renversées par une simple décision judiciaire. Mais elle estime qu’il serait excessif d’en conclure que les animaux domestiques sont exclus par principe. D’abord, parce que les droits de la nature forment selon elle une clause ouverte, non enfermée dans un catalogue clos. Ensuite, parce que l’instrumentalisation et la marchandisation des animaux domestiques incarnent précisément le suprémacisme humain que les droits de la nature cherchent à désarmer. Enfin, parce que la Cour équatorienne elle-même a demandé au législateur d’adopter une déclaration des droits des animaux incluant aussi les animaux domestiques. L’auteure ajoute une dernière objection, venue cette fois des théories abolitionnistes: même si les animaux deviennent sujets de droits sous l’angle des droits de la nature, ces droits ne seraient pas de véritables droits fondamentaux, mais seulement des protections faibles de type welfariste. Sa réponse consiste à distinguer deux questions: celle de savoir si le progrès est suffisant au regard d’un idéal abolitionniste, et celle de savoir s’il existe bien des droits juridiquement opératoires. Sur ce second point, sa réponse est positive. Dans Estrellita, les animaux sont explicitement qualifiés de sujets de droits; des prérogatives substantielles sont reconnues, comme le libre développement de leur comportement naturel; surtout, la reconnaissance de ces droits ouvre l’accès au juge, avec des actions constitutionnelles pouvant être intentées au nom des animaux. Pour l’auteure, on dépasse ainsi clairement le simple paradigme du bien-être animal.
La conclusion revient alors au point de départ. L’article ne dit pas que toutes les versions des droits des animaux doivent adhérer aux droits de la nature, ni que toutes les tensions disparaissent. Il dit qu’une fois les droits de la nature admis dans un système juridique, rien n’empêche d’y intégrer les animaux comme titulaires de droits, y compris à terme les animaux domestiques. L’intérêt de cette voie est double. D’une part, elle permet une interprétation plus favorable aux animaux en tenant compte de l’imbrication entre leur sort et le contexte écologique. D’autre part, elle offre une voie théorique et stratégique nouvelle aux juristes de la cause animale, en évitant certains impasses du schéma classique fondé sur la comparaison avec l’humain et sur l’opposition personne/chose. La proposition finale est donc moins une fusion totale qu’une reconfiguration: les droits de la nature doivent être pensés comme un cadre ouvert, gradué et pluraliste, capable de protéger à la fois les ensembles écologiques et les animaux individuels. C’est en ce sens précis que l’auteure soutient que, si les rivières ont des droits, les poissons en ont aussi !
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Dans les débats, récurrents, sur la personnalité juridique de l’IA, on voit souvent revenir des parallèles ou des comparaisons avec l’octroi de la personnalité juridique à d’autres « choses non humaines » comme des fleuves, des éléments de paysage, des lagunes, etc.
Son point de départ est double. D’une part, l’Anthropocène, les technologies nouvelles et la remise en cause de l’hégémonie épistémique occidentale obligent à réinterroger la place du monde non humain dans les systèmes moraux et juridiques. D’autre part, le fleuve constitue un objet privilégié de cette réflexion, parce qu’il traverse souvent plusieurs territoires, concentre des usages concurrents et revêt, pour de nombreux peuples autochtones, une signification culturelle et spirituelle particulière.
La thèse générale de l’auteur est qu’il n’existe pas de modèle universel de personnalité juridique pour la nature : la solution pertinente doit dépendre du contexte, tout en poursuivant un objectif éthique commun, à savoir décentrer l’intérêt humain et faire entrer le monde plus-qu’humain dans les institutions et procédures juridiques.
L’auteur commence par un rappel sur la notion de personnalité juridique. Il distingue plusieurs formes de « personhood » : morale, psychologique, juridique, voire relationnelle. Pour les besoins de l’analyse, il retient une définition juridique stricte : est personne en droit l’entité à laquelle l’ordre juridique reconnaît l’aptitude à participer à des relations juridiques. Il rappelle que, dans la tradition occidentale, cette construction oppose classiquement les personnes physiques aux personnes morales ou artificielles. S’agissant de ces dernières, l’histoire montre que le droit a déjà admis des entités non humaines dans son champ, pour des raisons avant tout instrumentales.
L’exemple du navire est central : en l’absence de propriétaire identifiable, le navire pouvait être traité comme sujet procédural afin de résoudre un litige. L’auteur en tire une conséquence importante : la personnalité juridique n’est pas, en droit positif, nécessairement indexée sur une métaphysique de la conscience, de la volonté ou de la dignité ; elle peut être un outil technique d’organisation des rapports juridiques.
Il relève ensuite que la théorie de la personnalité juridique est loin d’être stabilisée.
Selon les auteurs, elle est comprise comme fiction, faisceau de normes, statut, support de droits et d’obligations, ou encore projection des intérêts d’un collectif humain. Cette plasticité explique à la fois la force et l’indétermination du concept. Certains en concluent qu’il n’a pas de contenu unitaire ; d’autres soutiennent au contraire qu’il faut accepter son pluralisme. L’auteur ne nie pas cette incertitude, mais il en tire une leçon favorable à l’ouverture : si la personnalité juridique est déjà appliquée de manière variée à des entités non humaines, rien n’interdit par principe qu’elle puisse l’être aussi à des entités naturelles, notamment aux fleuves.
L’article expose ensuite les trois grandes justifications avancées en faveur de l’extension de la personnalité juridique à la nature. La première est instrumentale : le droit de l’environnement classique souffre d’un déficit d’effectivité ; changer le statut de la nature pourrait renforcer sa protection, parce qu’elle ne serait plus réduite à une chose ou à une ressource, mais reconnue comme porteuse d’intérêts propres. L’objection est que la personnalité juridique, à elle seule, ne protège rien si les règles substantielles et leur mise en œuvre demeurent insuffisantes. La deuxième justification est axiologique : reconnaître la nature comme sujet juridique permettrait d’introduire dans le droit des valeurs écocentriques et de contester l’anthropocentrisme structurel des systèmes occidentaux. L’auteur cite ici les reconceptualisations inspirées des droits autochtones, où le fleuve est appréhendé comme être vivant ancestral. L’objection correspondante est que ces dispositifs restent souvent anthropocentriques en pratique et coexistent avec des normes qui continuent de privilégier les intérêts humains. La troisième justification est épistémique : la personnalité juridique de la nature offrirait un moyen de respecter les savoirs et cosmologies autochtones, en leur donnant une traduction institutionnelle. Mais cette voie est elle aussi contestée, au motif qu’elle risque de récupérer des visions autochtones en les reformulant dans des catégories occidentales, notamment celle de « droits », et donc de les recoloniser symboliquement.
À partir de là, l’auteur distingue deux séries de difficultés : des difficultés théoriques, liées à l’inclusivité épistémique et à l’orientation éthique du droit, et des difficultés pratiques, liées à la délimitation de la nature concernée et à la représentation de ses intérêts. C’est dans ce cadre qu’il traite la question centrale : la nature peut-elle être une personne juridique ? Il répond par l’affirmative. Son argument principal est positiviste et institutionnel : la question du « peut » est en réalité déjà tranchée par le droit positif, puisque plusieurs ordres juridiques ont reconnu une telle personnalité. La vraie question n’est donc pas de savoir si c’est conceptuellement possible, mais s’il est souhaitable de le faire.
Pour défendre cette position, l’auteur critique longuement l’approche de Visa Kurki, qui conteste la possibilité pour la nature d’être titulaire de droits ou d’être personne juridique. Selon Gellers, Kurki mélange à tort personnalité juridique et titularité de droits, puis fait dépendre le statut juridique de critères moraux contestés, en particulier l’existence d’intérêts durables fondés sur la sentience. Trois critiques sont développées. Premièrement, cette approche néglige la légitimité démocratique des choix juridiques : si un législateur ou un juge reconnaît la personnalité d’une entité naturelle, il ne suffit pas d’invoquer l’absurde pour en nier la validité conceptuelle. Deuxièmement, elle suppose la supériorité des présupposés ontologiques occidentaux et traite les cosmologies non occidentales comme des visions qu’on peut « respecter » sans jamais les intégrer au raisonnement juridique. Troisièmement, en faisant dériver la personnalité juridique d’une théorie morale des intérêts, elle déstabilise des cas admis depuis longtemps, tels que les sociétés ou les successions, qui ne ressentent rien au sens psychologique. L’auteur souligne même l’effet paradoxal de cette théorie : pour éviter de reconnaître directement la personnalité à la nature, on pourrait multiplier les personnes morales créées pour la représenter. On aboutirait alors à une inflation de fictions corporatives, solution ni plus cohérente ni plus convaincante que la reconnaissance directe de la nature.
L’apport théorique de l’article réside ensuite dans une typologie des solutions proposées pour dépasser le dualisme occidental personne/chose. Une première famille est dite spectrale : au lieu d’une frontière binaire, elle organise des degrés ou des configurations variables de personnalité selon des critères comme l’autonomie, l’émergence ou la capacité à entrer dans des relations juridiques. Une deuxième famille est liminale : elle aménage un statut intermédiaire, par exemple quasi-propriété ou quasi-personnalité, afin de mieux saisir les cas frontières. Une troisième famille ajoute des catégories spécialisées, telles que la « personnalité animale », la « personnalité environnementale » ou la « personnalité ancestrale », pour tenir compte des spécificités de certaines entités. Une quatrième famille rompt avec l’idée même de personnalité juridique et propose d’autres concepts, comme les « sujets non personnels de droit » ou la « beingness », afin d’échapper au bagage anthropocentrique du terme « personne ». Enfin, une dernière approche, plus radicale, redéfinit la personne elle-même dans un sens cosmique et relationnel, en dissolvant l’opposition entre humain et non-humain.
L’auteur refuse de hiérarchiser abstraitement ces modèles. Son point est méthodologique : chaque option présente des promesses et des coûts, qu’il s’agisse de facilité d’appropriation par les juristes, de portée transformatrice, d’adéquation culturelle ou de risque de prolifération conceptuelle.
La conclusion est pratique. L’auteur propose un processus en trois temps pour toute réforme relative à la personnalité juridique de la nature. Il faut d’abord clarifier l’objectif poursuivi : s’agit-il d’une réforme modeste, compatible avec l’ordre existant, ou d’une transformation profonde de la grammaire juridique ? Il faut ensuite prendre au sérieux le contexte local, tant écologique que culturel, en identifiant les problèmes environnementaux en cause, les responsabilités humaines, la pluralité des acteurs concernés et les éventuelles traditions autochtones ou locales relatives au cours d’eau. Enfin, la solution doit être élaborée et mise en œuvre de manière collaborative, avec participation des parties prenantes humaines et, autant que possible, représentation des intérêts non humains. L’auteur évoque à cet égard des procédures délibératives de type jury citoyen. Son message final : la personnalité juridique des fleuves n’est ni une formule magique ni une construction uniforme ; c’est un instrument parmi d’autres pour reconfigurer le droit de manière moins anthropocentrée, plus sensible aux interdépendances écologiques et plus ouverte aux savoirs non occidentaux. L’article se termine toutefois sur une série de questions laissées ouvertes : vaut-il mieux réformer la personnalité juridique ou reconnaître directement des droits à la nature, qui décide du contenu de ces droits, comment identifier juridiquement les intérêts de la nature, et que faire si cette innovation ne produit pas d’amélioration environnementale tangible.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données
La presse s’en est largement fait écho ces derniers jours :
Meta serait en train de développer une version 3D photoréaliste et alimentée par l’IA de son PDG, Mark Zuckerberg. Ce double virtuel assistera aux réunions, répondra aux questions et interagira avec les employés à sa place.
Au cœur de cette initiative se trouve un avatar « Zuckerberg IA », conçu pour ressembler, parler et réagir comme le véritable PDG. Contrairement aux chatbots précédents, cette version visera à offrir une incarnation numérique plus réaliste. Les employés pourraient interagir en temps réel avec un personnage 3D très réaliste, recevant des commentaires et des conseils inspirés de la pensée et du style de communication de Zuckerberg.
Le système serait entraîné à partir d’un vaste ensemble de données, comprenant la voix du PDG, ses manières, ses déclarations publiques et l’évolution de ses opinions stratégiques. Zuckerberg lui-même serait étroitement impliqué, aidant à affiner les réponses et le comportement de l’avatar. L’objectif n’est pas seulement l’automatisation, mais l’approximation : un outil capable de simuler la présence d’un dirigeant au sein d’une entreprise comptant des dizaines de milliers d’employés.
Appréciation : dans la mesure où les systèmes d’IA, comme le serait cet avatar de Zuckerberg, jouissent d’un certain degré d’autonomie (comme les agents IA), cela promet des discussions intéressantes sur le critère de subordination dans le contrat de travail – subordonné envers qui, ou envers quoi, et comme la subordination se concilierait avec l’autonomie du système ? Les avocats actifs en matière de droit du travail doivent se préparer à bien des lectures exigeantes de l’art. 319 CO….
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Dans les débats, récurrents, sur la personnalité juridique de l’IA, on voit souvent revenir des parallèles ou des comparaisons avec l’octroi de la personnalité juridique à d’autres « choses non humainees » comme des fleuves, des éléments de paysage, des lagunes, etc. L’article de Claudio Novelli, Extending Legal Personhood to Nature: The Lake Garda Proposal in Cognitive Perspective (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6531481) prend pour objet la proposition de loi italienne DDL 1759, qui tend à reconnaître au lac de Garde la personnalité juridique, et s’en sert comme d’un laboratoire conceptuel pour montrer comment le droit étend la qualité de sujet de droit à des entités qui n’en relevaient pas jusqu’ici.
La thèse centrale est que la personnalité juridique n’est pas une catégorie fermée, définie une fois pour toutes par des conditions nécessaires et suffisantes. Elle fonctionne au contraire comme une catégorie « radiale », organisée autour d’un cas central – dans les ordres juridiques occidentaux contemporains, l’adulte humain, citoyen, sain d’esprit – à partir duquel le droit procède ensuite par extensions successives. Ces extensions ne se font pas par simple déduction logique, mais par analogie, par imagination juridique, par rapprochements institutionnels et par constructions doctrinales susceptibles de convaincre la communauté juridique concernée.
L’auteur commence par situer la proposition italienne dans son contexte. Le mémorandum explicatif du projet invoque d’abord l’urgence écologique, c’est-à-dire la dégradation concrète du lac et, plus largement, la prise de conscience de la fragilité des équilibres naturels. Cette urgence sert de moteur à l’extension proposée. Le texte ne présente donc pas la personnalité du lac comme une innovation spéculative ou symbolique, mais comme une réponse fonctionnelle à des insuffisances de la protection actuelle. Il inscrit ensuite le projet dans une chaîne comparative de précédents étrangers, en citant notamment l’Équateur et la Bolivie, la rivière Whanganui en Nouvelle-Zélande, le fleuve Atrato en Colombie, puis surtout la lagune espagnole du Mar Menor, à laquelle une loi espagnole de 2022 a reconnu la personnalité juridique juridique, validation constitutionnelle à l’appui. Cette comparaison a une fonction argumentative : il s’agit de montrer que le projet italien ne serait ni isolé ni extravagant, mais s’inscrirait dans un mouvement déjà identifiable.
Sur le plan normatif, le projet vise à reconnaître au lac de Garde la personnalité juridique afin de protéger son intégrité écologique, sa biodiversité, la santé de ses écosystèmes et les services qu’ils rendent, y compris dans l’intérêt des générations futures. Il attribue au lac trois droits principaux : le droit à la protection de son intégrité, de son identité et de sa santé écosystémique ; le droit au maintien et à la restauration de son équilibre naturel ; le droit à une représentation juridique devant les instances nationales et internationales. Pour rendre ces droits opératoires, le projet crée une assemblée représentative du lac et un comité scientifique chargé d’éclairer cette représentation. L’un des points importants du dispositif est que ces organes ne sont pas conçus comme de simples mandataires externes, mais comme les organes mêmes à travers lesquels le lac exprimerait juridiquement sa volonté, par analogie avec la représentation organique des fondations en droit italien. L’auteur souligne que ce point est décisif : le projet cherche ainsi à éviter l’objection selon laquelle il ne ferait que créer une nouvelle autorité administrative sous une appellation originale.
Le cadre théorique de l’auteur est celui de la « conception radiale » de la personnalité juridique. Selon cette approche, le terme de « personne juridique » est polysémique : il a une signification technique, propre au droit, mais conserve aussi une charge morale et culturelle héritée du langage ordinaire. Cette dualité est essentielle. D’un côté, le droit peut attribuer la personnalité à des entités variées selon les intérêts qu’il entend protéger ; de l’autre, le mot même de « personne » produit un effet normatif fort, car il évoque dignité, protection et considération. L’article montre que le projet italien joue sur ces deux registres. Il affirme explicitement que la personnalité juridique est une construction historique et relative, façonnée par les choix du système juridique. Mais il présente en même temps la protection du lac comme un choix de civilisation juridique, culturelle et constitutionnelle. Pour l’auteur, ce double langage est typique des extensions de personnalité : le registre technique permet d’ouvrir la catégorie, tandis que le registre moral justifie le franchissement du seuil.
L’auteur décrit ensuite le « cas central » autour duquel la personnalité juridique se structure habituellement. Ce cas central résulte de la convergence de plusieurs modèles cognitifs : être vivant, être humain, identité stable dans le temps, santé, rationalité, capacité d’agir, maturité, appartenance à la communauté politique, et, historiquement, figure masculine comme prototype implicite du sujet de droit. Le droit ne raisonne pas alors à partir d’une définition abstraite unique ; il s’appuie sur ce noyau paradigmatique, qui produit des effets de prototype. Certaines entités paraissent spontanément correspondre à la catégorie, d’autres beaucoup moins. Plus une entité s’éloigne de ce modèle central, plus sa reconnaissance comme personne juridique exige un travail argumentatif important. C’est ce que l’auteur appelle l’« effet radical de prototype ». En pratique, un lac est évidemment très éloigné du sujet humain adulte sain d’esprit. Il ne possède ni rationalité, ni volonté autonome, ni identité juridique au sens habituel, ni capacité d’agir par lui-même. Il faut donc reconstruire presque intégralement, par des substituts institutionnels, les attributs que le cas central possède naturellement.
L’un des intérêts majeurs de l’article tient à l’usage des sciences cognitives pour expliquer ce travail de reconstruction. L’auteur soutient que le projet italien est, du point de vue cognitif, habilement rédigé. Il montre d’abord que la définition du lac n’en fait pas une simple chose, une ressource ou une portion de territoire, mais une totalité écosystémique englobant eaux, rives, fonds, microclimats, organismes vivants et interactions physiques et biologiques. Cette définition mobilise ce que l’auteur appelle des « schémas d’image », c’est-à-dire des structures élémentaires de compréhension. Le premier est le schéma du contenant : le lac est présenté comme un ensemble délimité, doté d’une cohérence interne. Le second est celui de l’équilibre : l’intégrité de l’écosystème est définie comme un équilibre dynamique entre ses composantes naturelles et biologiques, avec une capacité de régénération et d’auto-régulation. Le troisième est celui du lien : les différentes parties du lac sont pensées comme interdépendantes. Grâce à ces schémas, le lac devient cognitivement disponible comme un tout unifié, susceptible d’être appréhendé comme sujet juridique. Sans prétendre que les rédacteurs aient consciemment suivi une théorie cognitive, l’auteur estime que leur construction correspond précisément à ce qui rend concevable l’extension de la personnalité à une entité non humaine.
L’article insiste ensuite sur les mécanismes d’analogie. La personnalité juridique d’entités périphériques – sociétés, fondations, États, et désormais éléments naturels – ne procède pas d’une ressemblance littérale avec l’humain, mais d’une parenté de famille établie par métaphore, métonymie, schémas institutionnels et chaînes de précédents. La proposition italienne utilise ainsi plusieurs outils. D’une part, elle s’appuie sur la métaphore de la nature comme organisme vivant, visible dans la référence à la santé de l’écosystème, à sa régénération et à son auto-régulation. D’autre part, elle mobilise la métaphore de la nature comme membre de la communauté, en présentant le lac comme élément constitutif de l’identité, du patrimoine et du bien-être des collectivités humaines riveraines. Le lac n’est plus un objet extérieur sur lequel les communautés exerceraient des droits, mais un élément avec lequel elles sont en interdépendance. L’auteur relève toutefois que ces métaphores, si elles résonnent fortement auprès de juristes sensibilisés au droit de l’environnement, risquent de rencontrer une résistance plus forte chez les privatistes, les commercialistes ou les spécialistes des biens, pour lesquels la personnalité juridique reste liée à des catégories anthropocentriques de propriété, de contrat, de responsabilité et de décision humaine.
Le rôle des « substituts juridiques » est alors central. Puisque le lac ne peut ni vouloir, ni décider, ni agir, le projet met en place des organes qui compensent ces absences. L’assemblée du lac fournit l’agentivité institutionnelle : elle représente le lac en justice et défend ses droits. Le comité scientifique fournit la rationalité délibérative : il identifie les indicateurs d’état écologique, évalue les risques et propose les mesures de protection ou de renaturation. Le principe de non-régression garantit une continuité normative qui tient lieu de stabilité identitaire. Enfin, l’ouverture de l’action aux citoyens diffuse la capacité de mise en œuvre dans la communauté politique. L’auteur rattache ce montage au modèle classique de la guardianship élaboré par Christopher Stone : l’entité naturelle demeure le sujet de droit, mais des gardiens humains parlent et agissent juridiquement pour elle. L’apport spécifique de la théorie radiale est de montrer que ces mécanismes ne sont pas seulement fonctionnels ; ils sont persuasifs parce qu’ils rejouent, sous une forme institutionnelle, les attributs du sujet de droit paradigmatique.
Dans la dernière partie, l’auteur teste la proposition au regard de quatre conditions de persuasion analogique. La première est la résonance avec les modèles cognitifs de l’audience. Sous cet angle, le projet est relativement solide auprès d’un public déjà acquis aux idées écocentriques, d’autant qu’il s’appuie sur l’évolution du droit européen de l’environnement et sur la révision constitutionnelle italienne de 2022. Mais cette résonance n’est pas uniforme dans toute la communauté juridique, et c’est là sa principale fragilité. La deuxième condition est l’efficacité cognitive, c’est-à-dire la capacité à combiner nouveauté et familiarité. Ici, l’analogie avec les fondations est utile, car elle présente la représentation organique du lac comme une variation limitée d’un modèle connu. Mais l’auteur relève aussitôt la faiblesse de l’analogie : une fondation est créée par volonté humaine en vue de fins humaines déterminées, alors qu’un lac n’a ni origine ni finalité de cette nature. L’analogie explique donc mieux le mode de gouvernance que l’être gouverné lui-même. La troisième condition est la cohérence et l’articulation avec le reste du système juridique. C’est, pour l’auteur, le point le plus insuffisamment traité par le projet. Celui-ci n’examine pas de façon serrée les interactions avec les droits de propriété sur les eaux et les rives, avec les compétences administratives déjà réparties entre plusieurs régions, ni avec les règles de responsabilité et de qualité pour agir qui encadreront l’activité contentieuse des organes du lac. Le défaut n’est pas nécessairement rédhibitoire, car ces ajustements se font souvent progressivement, mais il affaiblit la démonstration auprès d’un auditoire juridiquement exigeant. La quatrième condition est la flexibilité innovante. De ce point de vue, le projet assume davantage sa rupture. Il reconnaît que le lac relèverait d’un tertium genus entre les choses et les personnes physiques, et il présente cette innovation comme nécessaire pour répondre à des lacunes de gouvernance environnementale que les instruments existants n’ont pas su combler. L’auteur note néanmoins un risque : la chaîne de précédents étrangers peut donner le sentiment que la conclusion – la personnalité du lac – a été choisie d’avance, et que les alternatives institutionnelles ont été trop vite écartées.
La conclusion est nuancée. Pour l’auteur, la proposition relative au lac de Garde confirme largement la fécondité explicative de la conception radiale de la personnalité juridique. Le texte italien met en œuvre, sans les théoriser expressément, les principaux mécanismes que cette théorie identifie : exploitation de la polysémie de la personne, recours à des schémas d’image, analogies comparatives, construction de substituts institutionnels, usage du modèle de guardianship et recherche d’un équilibre entre cohérence et innovation. Le projet est donc sérieux, construit et doctrinalement plus élaboré qu’une simple proclamation symbolique. Mais son succès dépendra moins de sa seule qualité technique que de l’état de préparation de la culture juridique italienne à accueillir un nouveau modèle cognitif, que l’auteur appelle le modèle de l’intégrité écologique. Ce modèle verrait dans certains systèmes naturels délimités, auto-régulés et vulnérables des candidats plausibles à la reconnaissance juridique. Si ce modèle est déjà suffisamment stabilisé dans l’esprit des juristes et des juges, l’extension au lac de Garde peut devenir persuasive. Dans le cas contraire, la résistance du prototype anthropocentrique restera dominante. En somme, l’article ne dit pas seulement si le lac de Garde devrait devenir sujet de droit ; il explique surtout pourquoi, en droit, une telle mutation dépend autant des formes de raisonnement et des cadres mentaux de la communauté juridique que des seules affirmations du législateur.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Une décision récente retient que le fait de ne pas réglementer l’usage d’un groupe de discussion peut constituer une faute disciplinaire dans la fonction publique :
« En deuxième lieu, il est reproché à Mme B… d’être responsable de la mauvaise administration d’un groupe de discussion sur la messagerie WhatsApp. Il ressort des pièces du dossier que Mme B… a pris l’initiative de créer un groupe de discussion rassemblant les membres de son équipe via leur numéro de téléphone personnel. S’il n’est pas contesté que ses subordonnés n’ont pas été contraints de rejoindre ce groupe, l’appelante n’a édicté aucune consigne pour encadrer l’utilisation de cette messagerie, entretenant une confusion entre les messages à caractère professionnel et privés. Ainsi, il est établi que de nombreux messages, qui n’avaient pas de caractère urgent, ont été reçus par les agents en dehors de leurs heures de travail. La mise en œuvre de cette méthode de communication, dans ces conditions, constitue une faute disciplinaire. » Cour administrative d’appel de Bordeaux, 26 février 2026, requête n° 24BX00118 (https://justice.pappers.fr/decision/6adcd6a17d441156fa81a4310c60dc1b35e8f421).
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Le rapport du régulateur britannique de la protection des données, l’ICO, examine l’usage de l’automatisation dans le recrutement. Il repose sur des échanges volontaires avec plus de 30 employeurs entre mars 2025 et janvier 2026, après contact avec 37 organisations. L’ICO ne nomme ni les entreprises ni les outils, et ne décrit pas des cas concrets de préjudice subi par des candidats ; il analyse surtout les pratiques, les risques potentiels et les attentes du régulateur. Son constat général est que l’automatisation peut apporter des avantages réels, notamment en traitant rapidement de gros volumes de candidatures, mais que beaucoup d’employeurs n’appliquent pas correctement les garanties prévues par le droit de la protection des données.
Le rapport montre que ces outils sont surtout utilisés en début de procédure, avant tout échange direct avec un recruteur. Ils servent notamment à noter et classer des CV et des réponses écrites, à évaluer des compétences ou un « potentiel » au moyen de tests comportementaux ou psychométriques, à analyser des réponses à des questions d’entretien, y compris à partir de transcriptions, et parfois à tirer des inférences sur la personnalité à partir du langage employé lors d’entretiens vidéo. En revanche, l’ICO indique ne pas avoir observé, dans son échantillon, d’usage de l’IA pour traiter des données biométriques comme la détection des émotions. Le rapport distingue aussi les questions binaires de présélection, par exemple sur le droit de travailler au Royaume-Uni ou sur une qualification indispensable : pour l’ICO, ces filtres automatiques appliquant une règle fixe ne constituent pas, en eux-mêmes, une « décision automatisée » au sens juridique étudié dans le rapport.
Le point central du document est que de nombreux employeurs pensent utiliser des outils d’aide à la décision, alors qu’en pratique ils prennent probablement des décisions entièrement automatisées. Il y a décision automatisée lorsqu’une décision importante pour la personne est prise uniquement par traitement automatisé, sans intervention humaine réelle. Dans le recrutement, refuser ou faire progresser un candidat entre normalement dans cette catégorie, car cela affecte de manière significative ses perspectives d’emploi. L’ICO estime que beaucoup d’employeurs surestiment la place du recruteur dans le processus. Le fait qu’un manager puisse consulter un tableau de bord ou cliquer sur une option ne suffit pas si, dans les faits, il suit mécaniquement le score produit par l’outil, surtout pour éliminer les candidats les moins bien classés. Une véritable intervention humaine suppose un pouvoir réel d’examen, de correction et de modification, exercé pour chaque candidat et à chaque étape pertinente.
Le rapport insiste ensuite sur les exigences de transparence. Selon l’ICO, les candidats sont souvent informés de manière trop vague. Les notices de confidentialité décrivent les outils de façon générale, renvoient parfois à la politique de confidentialité d’un prestataire tiers, mais n’expliquent pas clairement qu’une décision automatisée est prise, ni la logique générale utilisée, ni les conséquences probables pour la personne. Comme beaucoup d’employeurs ne reconnaissent pas qu’ils font réellement de la décision automatisée, ils ne mettent pas non plus en place les garanties correspondantes. Or ces garanties doivent permettre au candidat d’être informé, de demander une intervention humaine, de présenter ses observations et de contester la décision. L’ICO considère que nombre d’organisations ont déjà des procédures de recours internes, mais qu’elles doivent les adapter pour répondre expressément à ce cadre.
Le rapport relève aussi de fortes lacunes en matière d’équité, de biais et de discrimination. Beaucoup d’employeurs n’avaient pas réellement vérifié si leurs outils produisaient des résultats inéquitables ou défavorisaient certains groupes. L’ICO rappelle qu’un employeur reste responsable, même lorsqu’il utilise un outil fourni par un tiers. Il devrait donc demander au fournisseur des informations sur les données d’entraînement, sur les biais connus ou possibles et sur les tests déjà réalisés, puis effectuer ses propres vérifications. Le rapport recommande une surveillance régulière des résultats, de préférence sur des données agrégées, afin d’identifier d’éventuelles disparités entre groupes. Il souligne aussi que le public accepte plus facilement les usages simples, comme le tri de CV, que les dispositifs plus intrusifs fondés sur le profilage, comme certaines évaluations comportementales en ligne.
Sur l’analyse d’impact relative à la protection des données, le constat est également critique. Plusieurs employeurs n’avaient pas réalisé d’analyse complète avant de traiter les données personnelles, alors même que ce type de traitement présente souvent un risque élevé. Parmi les analyses d’impact examinées, beaucoup étaient incomplètes, anciennes, vagues ou purement formelles. Certaines ne décrivaient pas suffisamment le fonctionnement de l’outil, les données utilisées, les étapes concernées, les marges d’erreur, les risques pour les personnes ni les mesures prévues pour les réduire. Le rapport note aussi que, dans plusieurs cas, l’avis du délégué à la protection des données n’était pas documenté, ou que des analyses identifiant des risques élevés avaient été validées sans mesures correctrices adéquates. Pour l’ICO, une analyse d’impact solide est un document de base, à préparer tôt, notamment au stade de l’achat de l’outil.
Le rapport comporte aussi un volet important sur la base juridique du traitement. Il rappelle qu’au Royaume-Uni, la loi a changé avec le Data (Use and Access) Act 2025, applicable sur ce point à partir du 5 février 2026. L’ancien système reposait sur une interdiction de principe de certaines décisions entièrement automatisées, avec quelques exceptions. Le nouveau cadre repose davantage sur un droit de contestation assorti de garanties. En pratique, cela facilite l’usage de la décision automatisée lorsqu’aucune donnée sensible n’est utilisée. En revanche, si des données sensibles sont traitées, des conditions supplémentaires demeurent.
Dans ce contexte, l’ICO estime que beaucoup d’employeurs se trompent encore de base juridique. Le consentement est, selon lui, généralement inadapté en recrutement, car le candidat n’est pas en position de choisir librement. La nécessité contractuelle est elle aussi, en principe, mal adaptée au tri, aux tests et aux entretiens, puisqu’il n’existe pas encore de contrat avec la plupart des candidats. Après la réforme, l’ICO considère que l’intérêt légitime sera souvent la base juridique la plus appropriée, à condition d’effectuer une véritable mise en balance des intérêts en présence.
Au total, le message du rapport est double. D’un côté, l’ICO ne rejette pas l’automatisation du recrutement et reconnaît qu’elle peut améliorer l’efficacité, la cohérence des traitements et parfois même réduire certains biais humains. De l’autre, il estime que la pratique actuelle est souvent juridiquement mal qualifiée et insuffisamment encadrée. L’enjeu, pour les employeurs, n’est donc pas seulement d’acheter des outils performants, mais de décider clairement s’ils veulent conserver un contrôle humain réel sur chaque décision ou assumer qu’ils recourent à une décision entièrement automatisée, avec toutes les garanties que cela implique. Le rapport se présente ainsi comme un avertissement et un guide : transparence renforcée, intervention humaine réelle et constante si l’on veut sortir du régime de la décision automatisée, contrôle des biais, analyses d’impact sérieuses, choix correct de la base juridique et mécanismes effectifs de contestation. L’ICO précise enfin que les 16 employeurs qu’il a identifiés comme utilisant probablement de telles décisions ont accepté de travailler avec lui pour corriger leurs pratiques, mais il indique aussi qu’il pourra aller plus loin en cas de non-conformité persistante.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
On a beaucoup parlé récemment de l’article de James Evans /Benjamin Bratton /Blaise Agüera y Arcas, Agentic AI and the next intelligence explosion, arXiv:2603.20639 [cs.AI], 21 mars 2026 (https://arxiv.org/abs/2603.20639). Une courte présentation des thèses qui y sont présentées :
Le texte défend l’idée que la prochaine grande étape de l’intelligence artificielle ne ressemblera probablement pas à l’apparition d’un « super-esprit » unique, autonome et supérieur à tous les humains. Selon les auteurs, cette image classique de la « singularité » est trompeuse. L’évolution la plus plausible serait au contraire collective, distribuée et mêlée aux activités humaines. L’intelligence, disent-ils, n’est pas une grandeur unique que l’on pourrait mesurer sur une seule échelle. Elle naît surtout de relations, d’échanges, de coordination et de conflits organisés entre plusieurs points de vue.
Leur premier argument porte sur le fonctionnement interne des modèles récents dits « raisonnants ». D’après les auteurs, lorsqu’un modèle traite un problème difficile, il ne se contente pas d’« y penser plus longtemps ». Il produit plutôt, dans son raisonnement interne, une forme de dialogue entre plusieurs perspectives qui se questionnent, se corrigent, vérifient des hypothèses et rapprochent leurs conclusions. Les auteurs appellent cela une « société de pensée ». Ils soutiennent que cette structure explique en partie les meilleurs résultats obtenus sur des tâches complexes. L’idée importante est que ce comportement n’aurait pas été programmé explicitement : il apparaîtrait parce que l’optimisation du modèle récompense les raisonnements plus justes. Autrement dit, même à l’intérieur d’un modèle présenté comme un système unique, la qualité du raisonnement viendrait déjà d’une forme de pluralité organisée.
À partir de là, le texte élargit la perspective. Si de meilleures performances viennent d’interactions entre points de vue, alors la conception de l’IA ne devrait pas seulement mobiliser l’informatique, mais aussi les connaissances accumulées sur le travail en groupe. Les auteurs estiment que la recherche sur les équipes humaines a beaucoup à apporter : taille des groupes, répartition des rôles, hiérarchie, spécialisation, modes de désaccord, institutions, réseaux de coopération. Aujourd’hui, selon eux, les modèles produisent souvent un seul fil de raisonnement, comme une grande discussion unique. Or les groupes efficaces fonctionnent rarement ainsi : ils séparent les tâches, organisent la contradiction, font émerger plusieurs pistes en parallèle puis les confrontent. Les systèmes d’IA du futur devraient donc être conçus pour permettre des délibérations multiples, convergentes ou divergentes, et non pour produire une seule réponse d’un seul bloc.
Le texte relie ensuite cette thèse à une lecture générale de l’histoire de l’intelligence. Les grandes avancées passées n’auraient pas reposé sur un cerveau individuel devenu soudain bien meilleur, mais sur l’apparition de nouvelles formes de cognition collective. Chez les primates, l’intelligence aurait progressé avec la vie sociale. Chez les humains, le langage aurait permis l’accumulation du savoir d’une génération à l’autre. Puis l’écriture, le droit et l’administration auraient externalisé certaines fonctions mentales dans des dispositifs durables, capables de coordonner l’action bien au-delà de ce qu’un individu peut faire seul. Dans cette perspective, l’IA ne serait pas une rupture totale, mais une étape supplémentaire : elle compresse et réactive sous forme informatique une grande partie des productions de l’intelligence sociale humaine.
Les auteurs en tirent la conclusion que l’avenir de l’IA ne se joue pas dans la fabrication d’un oracle unique, mais dans la composition de systèmes sociaux hybrides associant humains et agents artificiels. Ils utilisent l’image du « centaure » pour désigner ces assemblages mixtes. Un humain peut piloter plusieurs agents, un agent peut assister plusieurs humains, et des groupes d’humains et d’agents peuvent coopérer selon des configurations variables. Pour eux, ce modèle mixte devient déjà la forme normale de l’activité intellectuelle dans de nombreux métiers. L’enjeu n’est donc pas seulement la puissance de calcul ou la qualité d’un modèle isolé, mais la manière dont plusieurs acteurs, humains et non humains, interagissent pour accomplir une tâche.
Le texte insiste aussi sur l’idée d’agents capables de se dupliquer, de se répartir des sous-tâches puis de combiner et de recombiner les résultats. Un agent confronté à un problème complexe pourrait créer temporairement plusieurs versions de lui-même ou plusieurs sous-agents spécialisés, chacun chargé d’un aspect particulier, avant de rassembler leurs apports. Les auteurs décrivent ainsi une intelligence qui se déploie et se replie selon la difficulté rencontrée. Dans cette logique, le désaccord n’est pas un défaut à éliminer, mais une ressource utile pour tester des hypothèses, détecter des erreurs et améliorer les décisions.
Cela les conduit à ce qu’il ne suffise pas de construire de bons agents ; il faut aussi construire des institutions pour les encadrer. Ils jugent insuffisante l’approche dominante consistant à aligner les systèmes par correction humaine individuelle, par exemple au moyen d’évaluations ou de préférences fournies par des personnes. Cette relation de type binaire, entre un humain correcteur et un agent corrigé, ne serait pas adaptée à un monde où interagissent potentiellement des milliards d’agents. Les auteurs proposent donc de penser l’alignement à l’échelle institutionnelle : comme les sociétés humaines reposent sur des rôles, des procédures, des normes et des contre-pouvoirs, les écosystèmes d’IA devraient reposer sur des équivalents numériques. Ce qui compte ne serait pas tant l’identité particulière de chaque agent que sa capacité à occuper correctement un rôle défini dans un cadre stable.
La question devient particulièrement importante pour la gouvernance. Les auteurs visent les cas où l’IA intervient dans des décisions à fort enjeu, par exemple le recrutement, la justice, l’attribution de prestations ou la régulation économique. Dans de tels contextes, il faut non seulement contrôler un système, mais aussi contrôler ceux qui le contrôlent. Ils avancent alors une idée proche d’une architecture constitutionnelle : certains systèmes d’IA devraient être explicitement chargés de vérifier l’action d’autres systèmes, au nom de valeurs comme la transparence, l’égalité de traitement ou le respect des procédures. Une administration pourrait ainsi auditer les outils privés qu’utilisent les entreprises, et d’autres organes publics pourraient à leur tour contrôler les systèmes administratifs eux-mêmes. La logique générale est celle des freins et contrepoids : aucune concentration de pouvoir intellectuel, humaine ou artificielle, ne devrait se surveiller seule.
Les auteurs précisent que la gouvernance ne se réduit pas à l’action de l’État. Elle doit aussi être intégrée dans les relations entre agents et entre humains et agents : mécanismes de vérification des résultats, procédures de délégation, règles d’interaction fiables, garanties sur la manière dont plusieurs acteurs délibèrent ensemble. Ces protocoles pourraient avoir un effet aussi important que les règles juridiques classiques dans l’organisation pratique des systèmes d’IA.
Le texte ne présente donc ni une vision idyllique, ni une vision catastrophiste. Il propose une lecture évolutionniste : la « prochaine explosion de l’intelligence » viendrait d’une société de plus en plus dense d’esprits humains et artificiels coordonnées, subordonnés et encadrés, non de l’ascension d’une entité unique. Les auteurs estiment que raisonner en termes de singularité monolithique risque de conduire à de mauvaises politiques, conçues pour empêcher un phénomène peut-être imaginaire, au lieu d’organiser le phénomène déjà en cours. Leur conclusion est que l’intelligence devient plus puissante en se socialisant davantage. Le vrai enjeu n’est pas de savoir si cette puissance va croître, mais si nous saurons construire les règles, les institutions et les infrastructures sociales capables de l’encadrer.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration