La recourante, avocate indépendante jusqu’en 2018, enseigne dès 2016 comme suppléante puis vacataire dans une école de culture générale. Victime en mars 2018 d’une rupture d’anévrisme avec graves séquelles, elle obtient le 22 avril 2020 une rente AI entière dès le 1er février 2019, avec incapacité de travail de 100 % dans toute activité. Malgré l’obligation de signaler toute modification, elle ne transmet pas cette décision à sa hiérarchie, tout en poursuivant son activité d’enseignante, puis en étant engagée dès le 1er août 2024 comme maîtresse d’enseignement professionnelle. En juin 2025, dans le cadre de la détection précoce, le Département découvre l’existence de la rente entière AI et, sans avoir auparavant averti l’intéressée ni recueilli ses explications, met fin à aux rapports de service. L’enseignante recourt en invoquant notamment la violation de son droit d’être entendue.
La Cour rappelle d’abord que le droit d’être entendu, garanti par l’art. 29 al. 2 Cst., comprend notamment le droit de prendre position avant qu’une décision ne soit rendue, d’offrir des moyens de preuve pertinents et d’obtenir qu’il y soit donné suite lorsque cela peut influer sur l’issue du litige. Ce droit a aussi une dimension personnelle : il permet à l’administré de participer à une décision qui affecte sa situation juridique.
En matière de rapports de travail de droit public, la jurisprudence admet que ce droit peut être satisfait par un échange informel, à condition que l’employé ait compris qu’une résiliation était envisagée à son encontre et qu’il connaisse les faits qui lui sont reprochés. Le statut du corps enseignant prévoit en outre expressément que la décision de résiliation est notifiée après audition de l’intéressé.
En l’espèce, le Département a résilié les rapports de service de l’enseignante peu après avoir appris l’octroi à son profit d’une rente AI entière, et ce sans l’avertir de son intention de la licencier, sans l’entendre, même de manière informelle, et sans lui permettre de proposer des preuves. Aucune situation d’urgence ne justifiait de passer outre cette étape. Le droit d’être entendu a donc été violé. La Cour examine ensuite si ce vice peut être « guéri » en instance de recours, compte tenu de son plein pouvoir d’examen en fait et en droit (effet dévolutif complet du recours). La réparation n’est admise que pour des atteintes non graves, ou lorsque le renvoi ne serait qu’une formalité inutile, ce qui suppose que le justiciable ait pu faire valoir ses arguments aussi efficacement devant l’instance de recours que devant l’autorité de première instance.
En l’espèce, le Département n’a procédé à aucune instruction sur des éléments déterminants: il n’a ni sollicité l’avis du médecin-conseil de l’État, ni interrogé l’AI, ni entendu la directrice de l’Ecole sur les informations reçues. Il a ainsi méconnu la maxime inquisitoire et son obligation d’établir les faits pertinents avant de licencier. Ce n’est par ailleurs qu’en réponse au recours que le Département invoque une rupture du lien de confiance due à la dissimulation de la rente AI, grief absent de la décision de licenciement. L’enseignante ne découvre donc ce reproche que devant la Cour, où elle apporte des éléments) qu’elle n’a jamais pu soumettre préalablement au Département.
Dans ces conditions, la Cour ne peut pas, sans se substituer au pouvoir d’appréciation de l’employeur et sans pouvoir examiner l’opportunité de la décision, trancher elle-même la question de la rupture du lien de confiance ni celle de l’aptitude au travail. Un renvoi n’est pas une formalité vide de sens : une instruction complémentaire (notamment audition de la directrice, avis médicaux pertinents, clarification des connaissances respectives de l’AI et du Département) est de nature à modifier substantiellement l’appréciation du comportement de l’enseignante et, partant, la mesure à prendre. La conséquence juridique de la violation grave du droit d’être entendu est donc l’annulation de la décision de résiliation et le renvoi du dossier au Département pour compléter l’instruction et rendre une nouvelle décision, après avoir régulièrement entendu l’intéressée.
(Arrêt de la Chambre administrative de la Cour de justice du canton de Genève ATA/1222/2025 du 4 novembre 2025)
« Bien que l’avocat du défendeur ne l’ait pas reconnu directement, nous reconnaissons que la loi inventée dans le mémoire du défendeur résulte probablement de l’utilisation de l’intelligence artificielle. Nous reconnaissons également qu’il est devenu courant de qualifier les cas et les principes inventés par l’intelligence artificielle d’« hallucinations ». Nous rejetons cette terminologie, car elle occulte à la fois la nature et la gravité de la situation à laquelle nous sommes confrontés. Le mot « hallucination » signifie généralement « perception d’objets qui n’existent pas, résultant généralement d’un trouble du système nerveux ou d’une réaction à des drogues (comme le LSD) ». Merriam-Webster’s Collegiate Dictionary 524 (10e éd. 1993). Ici, cependant, d’après ce que nous comprenons, l’intelligence artificielle générative ne perçoit pas une loi inexistante comme le résultat d’un trouble. Elle génère plutôt des lois inexistantes conformément à sa conception. Et ces lois inexistantes sont, depuis plusieurs années, soumises à plusieurs reprises aux tribunaux. »
A propos de : Cope, Kevin L. and Frankenreiter, Jens and Hirst, Scott and Posner, Eric A. and Schwarcz, Daniel and Thorley, Dane, Grading Machines: Can AI Exam-Grading Replace Law Professors? (December 03, 2025). Virginia Public Law and Legal Theory Research Paper No. 2025-80, Virginia Law and Economics Research Paper No. 2025-24, Available at SSRN: https://ssrn.com/abstract=
Des modèles d’IA de type « large language models » peuvent-ils corriger des examens de droit à la place des professeurs, ou au moins à côté d’eux ? Les auteurs partent du constat que ces modèles sont déjà utilisés pour analyser des contrats, rédiger des mémoires ou résumer des décisions, mais qu’on ne sait presque rien de leur capacité à évaluer un raisonnement juridique écrit, comme dans les examens classiques de droit.
Ils rappellent d’abord que l’idée de correction automatique n’est pas nouvelle. Dès les années 1960, des systèmes d’« automated essay scoring » ont tenté de noter des dissertations en se basant sur des caractéristiques superficielles des textes. Ces systèmes ont suscité beaucoup de critiques, notamment parce qu’ils étaient incapables de juger la qualité de l’argumentation. L’arrivée des modèles de langage modernes change la donne : les transformers permettent désormais de traiter de longs textes, de repérer des relations entre les mots et, en pratique, de produire ou d’analyser des réponses juridiques assez sophistiquées. Parallèlement, ces modèles ont commencé à être testés sur des tâches juridiques variées et sur les examens de droit eux-mêmes, y compris le barreau américain. Jusqu’ici, toutefois, la recherche s’est concentrée sur la capacité de l’IA à « passer » l’examen comme un étudiant, pas à le corriger comme un professeur.
Les auteurs expliquent ensuite pourquoi la correction d’examens de droit est un cas de test particulièrement exigeant. Les questions sont des « cas pratiques » longs, à réponse rédigée, pour lesquels il n’existe pas une seule bonne réponse formatée. Les étudiants doivent repérer des problèmes, appliquer des règles, discuter de plusieurs solutions possibles. Cela rend impossible un barème purement algorithmique de type « clé de correction » et complique aussi la mesure de la qualité de la correction humaine. Ils soulignent d’ailleurs que la correction humaine est loin d’être parfaite : les notes sont des signaux bruités du « vrai » niveau de l’étudiant, affectés par la fatigue, l’humeur, les biais implicites ou de simples erreurs d’attention.
À partir de là, les auteurs formulent leur objectif de recherche. Il ne s’agit pas de construire un modèle d’IA sur-mesure pour minimiser l’erreur à tout prix, mais de voir si des modèles commerciaux, utilisés avec des instructions simples, peuvent produire des notes suffisamment proches de celles du professeur pour être utiles en pratique. Comme on ne connaît pas le « vrai » niveau des étudiants, ils prennent comme référence le professeur lui-même : dans la plupart des usages envisagés (vérifier une correction, fournir un retour à l’étudiant, créer des benchmarks), le but est que l’IA imite la manière dont le professeur corrige, non qu’elle invente un autre standard.
Pour tester cela, ils rassemblent un ensemble de données provenant de quatre examens finaux dans quatre grandes facultés de droit américaines, dans des matières de base (procédure civile, contrats, responsabilité civile) et en droit des sociétés. Chaque examen comporte plusieurs questions de cas pratiques, et chaque professeur avait établi un barème plus ou moins détaillé pour corriger. Les copies ont été anonymisées.
Sur cette base, les auteurs définissent quatre manières différentes de demander à l’IA de corriger. La première, dite « ouverte », consiste à lui fournir la question, la réponse de l’étudiant et le nombre maximum de points, en lui demandant simplement de proposer une note. L’IA s’appuie alors uniquement sur sa compréhension générale du droit et de la logique juridique. La deuxième méthode ajoute au prompt le barème du professeur : les éléments à traiter et la pondération de chacun. L’IA reste libre dans la façon de combiner ces informations, mais on l’oriente vers les critères réellement utilisés par le correcteur humain. La troisième méthode pousse plus loin cette logique : on exige que l’IA attribue une sous-note pour chaque élément du barème, qui est ensuite additionnée pour obtenir la note de la question, un peu comme le ferait un professeur dans un tableau Excel. Cette méthode est plus lourde à mettre en place, car elle nécessite d’adapter le prompt à la structure précise de chaque barème. Enfin, la quatrième méthode abandonne l’idée de noter directement sur une échelle de points : on montre à l’IA deux réponses d’étudiants à la même question et on lui demande laquelle est meilleure. À partir de la totalité de ces comparaisons par paires, les auteurs reconstruisent un classement et des notes relatives à l’aide d’un modèle statistique de type « compétition sportive ». Cette dernière approche est théoriquement intéressante, mais très coûteuse en calcul, puisque le nombre de comparaisons croît très vite avec le nombre d’étudiants.
Les résultats sont ensuite présentés de manière systématique. Même avec la méthode la plus simple, sans barème, l’IA produit des notes qui suivent assez bien celles des professeurs : la corrélation statistique est déjà élevée, ce qui signifie que l’IA distingue globalement les bonnes et les mauvaises copies. Quand on ajoute le barème du professeur au prompt, la concordance devient très forte : pour certains examens, la corrélation dépasse 0,9, ce qui, en termes simples, veut dire que l’ordre des étudiants et les écarts entre leurs notes sont très proches de ceux de la correction humaine. Les auteurs observent aussi que les désaccords portent surtout sur certains points isolés, mais qu’ils se compensent lorsqu’on regarde la note totale de l’examen.
Les méthodes plus sophistiquées ne font pas vraiment mieux. La variante qui force l’IA à donner des sous-notes par critère produit des résultats presque identiques à la méthode avec barème simple, mais au prix d’une mise en œuvre nettement plus lourde. Les comparaisons par paires aboutissent, elles aussi, à des notes globales très corrélées aux notes du professeur, mais la distribution des notes est un peu différente et l’effort informatique est considérable. Les auteurs en concluent que, pour un usage pratique par des enseignants, la méthode la plus intéressante est tout simplement celle qui combine IA et barème détaillé : elle est relativement simple à paramétrer et atteint déjà un niveau de concordance difficile à améliorer.
Un point important de leur raisonnement consiste à comparer ce niveau de concordance à la variabilité de la correction humaine elle-même. Pour l’un des examens, l’un des professeurs a accepté de « re-corriger » une question sans se référer à sa première notation. Les auteurs comparent alors trois choses : la première correction humaine, la deuxième correction humaine, et la correction par l’IA utilisant le barème. Ils constatent que les deux séries de notes du professeur sont très proches l’une de l’autre, comme on pouvait l’espérer, mais pas identiques. La correction de l’IA s’en écarte un peu plus, mais reste dans le même ordre de grandeur de divergence. Pour d’autres examens, la corrélation entre l’IA et la correction humaine est même comparable à celle observée entre deux séries de notes humaines. Cela suggère que les écarts IA–professeur ne sont pas fondamentalement différents des écarts qu’on peut déjà observer entre corrections humaines effectuées à des moments distincts.
Les auteurs examinent ensuite les facteurs qui semblent améliorer ou dégrader les performances de l’IA. L’un des plus visibles est le degré de précision du barème. L’examen dont le barème était le plus fin, avec une liste d’éléments binaires (présent / absent) pour chaque question, est aussi celui pour lequel la concordance IA–professeur est la plus élevée. À l’inverse, l’examen où le barème se limitait à des indications très générales aboutit aux résultats les moins bons, quoique toujours élevés. Cela conduit les auteurs à l’hypothèse – qui demanderait d’autres études – qu’un barème structuré et précis est une condition importante pour tirer pleinement parti de l’IA comme correcteur.
Dans la discussion, les auteurs abordent ensuite les limites et les enjeux éthiques. Même si l’IA imite très bien la correction des professeurs, elle peut commettre des erreurs « différentes », potentiellement perçues comme plus choquantes. On peut craindre, par exemple, que le modèle soit sensible à certains styles linguistiques ou structures de phrase corrélés à l’origine ou au profil socio-culturel des étudiants. Ils notent aussi que les étudiants, les employeurs et les institutions peuvent avoir moins confiance dans une note attribuée par une machine, même si elle est en pratique très proche de celle d’un humain. De plus, certaines règles internes de facultés ou d’accréditation exigent que ce soit le professeur qui attribue les notes, ce qui pose un obstacle juridique et politique à une automatisation complète.
Cependant, ils insistent sur le fait qu’il serait trompeur de comparer l’IA à un correcteur humain idéal. La correction humaine souffre de problèmes bien documentés : incohérences entre copies similaires, influence de la fatigue, effet de halo (une bonne impression générale entraîne une sur-évaluation de tous les aspects), et parfois biais liés au genre, à l’origine ou au niveau de langue présumé. Dans les copies où la divergence IA–professeur était la plus forte, les auteurs ont d’ailleurs identifié des cas où le professeur avait manifestement mal appliqué son propre barème, en accordant trop de points. Les machines ne sont pas nécessairement plus justes, mais elles ne se fatiguent pas, et il est au moins théoriquement possible de tester et d’ajuster leurs biais sur la base de données.
Partant de ce constat, les auteurs proposent une approche prudente. À court terme, ils ne préconisent pas de remplacer purement et simplement la correction humaine par l’IA. En revanche, ils voient plusieurs usages complémentaires. L’IA peut servir de « second lecteur » pour signaler les copies où sa note diverge fortement de celle du professeur, invitant ce dernier à vérifier s’il n’a pas commis une erreur ou s’il souhaite maintenir sa note pour des raisons qu’il peut expliciter. Elle peut aussi fournir aux étudiants des retours rapides sur des examens blancs ou des devoirs non notés, en particulier si le professeur partage son barème. Cela pourrait aider les écoles de droit américaines à satisfaire les nouvelles exigences de l’ABA en matière d’évaluations formatives, sans multiplier la charge de travail des enseignants.
Les auteurs évoquent enfin des prolongements possibles hors du cadre universitaire. Des cabinets pourraient développer des barèmes internes pour certains types de travaux (notes de recherche, projets de mémoires, projets de contrats) et utiliser l’IA pour offrir aux jeunes avocats un retour structuré, plus fréquent que celui que les associés peuvent matériellement fournir. De même, les techniques de correction automatique pourraient servir à évaluer de manière standardisée les performances des systèmes d’IA juridiques eux-mêmes, en utilisant l’IA corrigeant des réponses d’IA, dès lors que des rubriques claires sont établies.
En conclusion, l’article soutient que, dans l’état actuel de la technologie, un modèle de langage général moderne, utilisé avec un barème détaillé, est déjà capable de reproduire très largement la correction d’un professeur de droit. Les obstacles à une substitution complète sont surtout institutionnels, politiques et psychologiques. En revanche, pour des usages de contrôle de qualité, de retour formatif aux étudiants et de construction de benchmarks juridiques, l’IA correctrice apparaît d’ores et déjà comme un outil prometteur, dont la précision devrait encore augmenter avec l’évolution rapide des modèles.
A propos de : Plaintiff’s Complaint for Damages, Robert Gruendel vs FIGURE AI, United States District Court, Northern District of California, Case no : 5 :25 – cv – 10094, 21 novembre 2025 :
La plainte est introduite par Robert Gruendel, ingénieur spécialisé en sécurité des robots, contre la société Figure AI, Inc., une entreprise de robotique basée en Californie qui développe des robots humanoïdes « généralistes » destinés à des usages industriels et potentiellement domestiques, reposant sur un système d’intelligence artificielle appelé Helix AI.
Selon la plainte, Gruendel est recruté en 2024 comme « Principal Robotic Safety Engineer » et chef de la sécurité produit. Il rapporte directement au CEO, avec la mission annoncée de définir et faire respecter une stratégie globale de sécurité, pour protéger les employés de Figure et les futurs utilisateurs des robots. Dès sa première semaine sur site en Californie, il constate l’absence de procédures formelles de sécurité, d’outil de remontée d’incidents et de processus d’évaluation des risques, ainsi que l’absence de véritable service interne de santé et sécurité (EHS), remplacé par un simple consultant issu du secteur des semiconducteurs. Il développera alors une « product safety roadmap » pour les différentes générations de robots (F.02, F.03, F.04, etc.), avec des exigences intégrées dans les spécifications produit et validées initialement par le CEO et le Chief Engineer. Il insiste en particulier sur les besoins de formation des employés, de dispositifs techniques de sécurité et de détection de présence, notamment en vue d’un déploiement ultérieur dans des foyers privés où la création de zones de sécurité physiques serait peu réaliste.
La plainte souligne la tension entre ce travail de sécurisation et la culture interne revendiquée de Figure, fondée sur des valeurs de vitesse (« Move Fast & Be Technically Fearless »), d’optimisme agressif et d’objectif prioritaire de mise rapide sur le marché d’un humanoïde commercialisable. Gruendel affirme que plusieurs de ses propositions de réduction des risques sont rejetées ou édulcorées au motif qu’elles nuiraient à l’attrait du produit pour les investisseurs ou à l’esthétique du robot.
En parallèle, Gruendel développe un plan de sécurité pour l’entrée des robots dans les foyers, identifiant les normes de sécurité applicables, les exigences réglementaires et les risques juridiques. Il en briefe le Chief Engineer en personne, mais le CEO ne participe pas et ne réagit pas à un résumé qu’il lui adresse. Il explique que la détection d’êtres vivants, la classification des objets et la capacité à arrêter ou ralentir le robot pour éviter des blessures sont des conditions centrales pour autoriser une présence domestique des robots. Il travaille aussi sur la sécurité lors de la collecte de données en conditions réelles, notamment à domicile, en soulignant la nécessité de réaliser des « risk assessments » formels pour démontrer la diligence de l’employeur en matière de sécurité des employés qui entraînent les modèles d’IA sur le terrain.
En 2025, Gruendel interagit avec plusieurs investisseurs de Figure auxquels il présente la feuille de route de sécurité produit et un « white paper » détaillant la stratégie de sécurité par génération de robots. Selon lui, cette stratégie, présentée aux investisseurs comme un plan solide et structurant, est ensuite sensiblement « déclassée » ou affaiblie peu après la clôture de la levée de fonds..
Un épisode central concerne les tests d’impact sur le robot F.02 en juillet 2025. Lors de ces tests, un ingénieur programme le robot pour frapper à pleine puissance. Les mesures montreraient des forces vingt fois supérieures au seuil de douleur humaine tel que défini dans la norme ISO 15066, utilisée pour les robots collaboratifs en environnement partagé. Gruendel estime que ces impacts dépasseraient, par un facteur supérieur à deux, la force nécessaire pour fracturer le crâne d’un adulte. Il informe le CEO par Slack que le robot est capable d’infliger des blessures graves et permanentes. Le message serait resté sans réponse. Il prévient également le Chief Engineer, en recommandant de tenir les employés davantage à distance. Dans la foulée, le nouveau responsable EHS, organise une réunion de discussion des mesures de réduction des risques.
Gruendel décrit aussi de nombreux « near misses » non documentés, révélés par des retours d’employés et une enquête anonyme interne qu’il a mise en place. Il cite notamment un incident où un F.02, après dysfonctionnement, aurait donné un coup dans un réfrigérateur en acier inoxydable, creusant une entaille de 6 mm dans la porte, à proximité immédiate d’un employé. Face à ces données, il met à jour les évaluations de risques pour la collecte de données à domicile, en prévoyant des mesures comme la formation renforcée, la délimitation claire des zones de stationnement des personnes, l’utilisation de tapis ou barrières, et la présence constante d’un observateur de sécurité muni d’un arrêt d’urgence (E-Stop).
La plainte insiste sur l’importance de l’E-Stop comme mesure de sécurité minimale et composante clé du raisonnement de risque qu’il a formalisé, notamment dans les documents présentés aux investisseurs. Or, en août 2025, le Chief Engineer aurait décidé de mettre fin à un projet de certification de l’E-Stop, ce qui, selon Gruendel, remet en cause la fiabilité de ce dispositif. Il envoie alors un courriel détaillé à Edelberg, avec copie aux départements commercial et juridique, pour rappeler la nécessité de prouver la fiabilité de l’arrêt d’urgence pour la sécurité des employés. Deux membres de l’équipe commerciale lui auraient ensuite fait part de leur inquiétude de le voir consigner ces critiques par écrit.
Dans la même période, Gruendel constate qu’une fonction de sécurité sur le robot F.02 a été supprimée par un ingénieur en raison de son aspect esthétique. Il interpelle le CEO par Slack pour lui demander si les modifications de sécurité doivent être approuvées par lui. Le CEO répondrait qu’il ne sait pas de quoi il parle et qu’il est trop occupé. Gruendel finit par négocier une solution intermédiaire avec l’ingénieur, mais en retient le signal d’une dévalorisation de la sécurité dans les arbitrages internes.
Parallèlement, après que le CEO a indiqué ne pas être convaincu par ses évaluations des risques juridiques liés à l’usage domestique des robots, Gruendel est chargé d’identifier un cabinet d’avocats externe spécialisé en sécurité des produits de consommation. Il mène des entretiens avec plusieurs cabinets et, fin août 2025, prévoit de passer à l’étape suivante avec un grand cabinet. Lorsqu’il apprend que le CEO soutient le projet de collaboration avec ce cabinet, il lui écrit que c’est « le moment fort de sa semaine », mais il en profite aussi pour l’alerter sur une « phase de rétrogradation de la sécurité », en énumérant plusieurs exemples. Quelques jours plus tard, le CEO conteste cette description, et Gruendel réplique avec d’autres exemples, tout en se disant satisfait de pouvoir enfin discuter de sécurité. Il affirme que, sur la durée, le CEO aurait progressivement réduit la fréquence de leurs réunions et cessé de répondre à beaucoup de ses messages à mesure que ses alertes se multipliaient.
Fin août 2025, Gruendel écrit également à un responsable de Helix AI pour récapituler une réunion où il a montré des comportements dangereux de robots, dont une photo d’un robot à environ deux pieds de frapper la tête d’une personne. Le 29 août, il coanime une formation à la sécurité des opérateurs de téléopération, en insistant sur les risques élevés pour les employés liés aux capacités physiques et à l’imprévisibilité de robots pilotés par une IA comme Helix AI, qu’il décrit par ailleurs comme entraînant des risques spécifiques par rapport à des contrôleurs de machines classiques (hallucinations, décisions inexplicables, tendances de « self-preservation », apparence de conscience).
Le 2 septembre 2025, quatre jours après cette formation mettant en avant les risques des robots pour les employés et quelques semaines après ses critiques écrites les plus précises sur l’abandon de la certification de l’E-Stop et la dangerosité potentielle des robots pour les employés et futurs clients, Gruendel est convoqué par le vice-président chargé de la croissance et informé de son licenciement immédiat. Le motif donné est un « changement de direction commerciale » lié au marché domestique. Selon la plainte, ce motif est un prétexte: il avait reçu peu de temps auparavant une augmentation salariale et des éloges pour ses performances, et son travail sur la sécurité à domicile faisait précisément partie de la stratégie prétendument abandonnée. Il souligne que sa documentation finale sur les forces générées par les robots, vingt fois supérieures au seuil de douleur et potentiellement suffisantes pour causer des blessures graves, avait été finalisée juste avant sa mise à pied.
Sur le plan juridique, la plainte soutient que ces faits constituent des représailles interdites en vertu du Code du travail californien. Sous l’angle de la section 1102.5, Gruendel affirme avoir divulgué, en interne, à des supérieurs hiérarchiques dotés de pouvoirs décisionnels, des informations qu’il avait des raisons de considérer comme révélant des violations de lois et de règlements en matière de sécurité au travail, y compris des exigences OSHA et des normes de sécurité de l’État de Californie. Sa rupture serait intervenue à cause de ces divulgations, en violation de l’interdiction de sanctionner un employé qui refuse de participer à une activité illégale ou qui signale une non-conformité. Au titre de la section 98.6, il invoque la protection des employés qui se plaignent ou dénoncent des violations des lois du travail ou des règles de sécurité. La plainte insiste sur la proximité temporelle entre ses démarches et son licenciement (moins de 90 jours), ce qui, selon le droit californien actuel (SB 497), fait naître une présomption réfragable de représailles.
Enfin, l’action pour « wrongful termination in violation of public policy » s’appuie sur l’idée que la Californie reconnaît une politique publique fondamentale de protection des lanceurs d’alerte en matière de sécurité, d’encouragement à la dénonciation de risques pour la santé et la sécurité, et d’interdiction des licenciements motivés par ces démarches. En licenciant Gruendel pour avoir soulevé des risques graves liés à des robots humanoïdes dotés d’IA, Figure aurait violé cette politique. La plainte réclame la réparation des pertes économiques (salaires, avantages, opportunités de carrière, atteinte à la réputation professionnelle), des dommages compensatoires et généraux, des pénalités statutaires, des dommages punitifs pour représailles prétendument volontaires et malveillantes, ainsi que les honoraires d’avocat et les intérêts avant et après jugement.
Commentaire : on verra le sort de cette procédure, et notamment l’argument du congé-représailles, mais c’est la première fois que l’auteur de ces lignes accède ainsi à la cuisine interne de fabricants de robots humanoïdes. La science-fiction à nos portes, on relira Isaac Asimov !
Le billet de blog d’Imogen Parker, Transcribing trust: is transcription the use case that shows AI’s transformative power? Publié le 11.11.2025 sur le site du Global Government Forum (https://www.globalgovernmentforum.com/transcribing-trust-is-transcription-the-use-case-that-shows-ais-transformative-power/) part d’un constat: dans le secteur public britannique, les outils d’IA de transcription – parfois appelés « scribes IA », « scribes ambiants » ou technologies de reconnaissance vocale – sont en plein essor. Des modèles de fondation récents permettent une reconnaissance automatique de la parole beaucoup plus précise et flexible qu’auparavant. Le gouvernement UK a lancé un programme d’« AI Exemplars » qui finance, entre autres, des outils de prise de notes et de compte rendus, comme Justice Transcribe pour la justice, Discharge Summaries pour la santé ou Minute pour les collectivités locales. À côté de ces solutions publiques, on trouve des produits commerciaux (par exemple pour le travail social) et les fonctions de transcription intégrées dans des outils généralistes comme Microsoft Copilot. Les chiffres cités évoquent environ un tiers des travailleurs sociaux utilisant déjà des outils d’IA générative avec une fonction de transcription.
Sur cette base, l’auteure constate un réel optimisme des décideurs publics : la transcription pourrait être un cas d’usage emblématique de la « puissance transformatrice » de l’IA, notamment en termes de gains d’efficacité. Cela repose sur plusieurs éléments. Les grands modèles de langage peuvent désormais être ajustés à de nombreuses tâches spécifiques. La charge de « paperasserie » est un grief récurrent des professionnels de première ligne, en particulier dans la santé et le social où la documentation est de loin l’activité la plus chronophage. Des outils de transcription fiables pourraient faire gagner un temps substantiel. Ils pourraient aussi jouer un rôle d’« égaliseur » en aidant des professionnels très compétents dans la relation humaine mais moins à l’aise avec l’écrit ou l’administratif. Autrement dit, on est face à un cas où l’IA semble répondre précisément à un problème identifié depuis longtemps.
Mais pour savoir si ces promesses peuvent réellement se concrétiser, il ne suffit pas de mesurer quelques gains de productivité. Il faut, selon l’auteure, répondre à une série de questions plus larges. Les plus évidentes concernent le taux d’erreur des transcriptions et la valeur ajoutée en termes d’efficacité. Cependant, d’autres enjeux doivent structurer les plans d’évaluation dès maintenant.
Le premier bloc de questions porte sur les modèles de fondation qui sous-tendent ces outils. Les phénomènes de « fabrication » d’informations ou « hallucinations » sont bien connus : les modèles peuvent produire un contenu inexact ou fictif. L’absence de cadres robustes de tests, de contrôles de sécurité et de transparence pour ces modèles accentue le risque. Des données biaisées ou un langage toxique peuvent être intégrés à l’outil, avec des effets négatifs même si le modèle a été affiné pour un domaine particulier, comme la santé. Les systèmes de reconnaissance vocale peuvent produire des transcriptions erronées qui véhiculent des représentations déformées ou stigmatisantes des personnes enregistrées. Dès lors, les évaluations doivent porter non seulement sur la précision globale, mais aussi sur la capacité des utilisateurs à détecter et corriger les erreurs, et sur les conséquences des contenus non seulement inexacts mais potentiellement nuisibles pour les individus.
Le deuxième bloc concerne la protection des données, la sécurité et la confidentialité. L’usage de modèles de fondation, souvent fournis par de grands acteurs privés, soulève la question de ce qui est fait des données – parfois très sensibles – qui transitent par ces outils. Selon l’auteure, les solutions gratuites ou grand public offrent rarement une protection significative des données. Elle rappelle l’avertissement du responsable national de l’information clinique du NHS anglais, qui a constaté une utilisation diffuse d’outils de transcription dans la pratique clinique alors qu’ils ne respectaient pas les exigences du NHS en matière de protection des données et de sécurité clinique. Le NHS a demandé l’arrêt de tout outil non conforme. Ce type d’intervention illustre le besoin de clarifier les conditions techniques et juridiques préalables à l’usage de ces outils, surtout dans des environnements régulés comme la santé.
Au-delà de ces aspects de fond, il faut analyser la performance des outils en conditions réelles. Une question clé est le degré de fidélité de la transcription par rapport à l’échange oral. Comment ces systèmes se comportent-ils avec différents accents, langues, dialectes, argots, avec des pathologies qui affectent la parole, avec du bruit de fond ou des interlocuteurs qui parlent en même temps ? Comment se comparent-ils à des transcripteurs humains, et certains groupes de personnes sont-ils plus pénalisés par l’automatisation que d’autres ?
L’auteure attire aussi l’attention sur les effets de ces outils sur le contenu même des échanges entre professionnels et usagers. Savoir que tout est transcrit modifie-t-il la façon dont on parle, la franchise de la discussion, le degré de confort des personnes ? Quelles règles de consentement et de « bonne pratique » devraient encadrer l’usage de la transcription, notamment dans des contextes sensibles comme les ressources humaines, le travail social ou la police ? Il faut aussi se demander si la prise de notes ne risque pas de se réduire à ce qui est prononcé à voix haute, au détriment d’éléments non verbaux comme le langage corporel, les silences ou les mouvements, qui peuvent être significatifs dans certaines professions.
Vient ensuite la question de l’usage des transcriptions. Pour que la transcription apporte des bénéfices, les professionnels doivent pouvoir s’appuyer sur ces textes. Cela pose des questions de recevabilité et de gouvernance. Les transcriptions automatiques sont-elles admissibles comme preuve ou comme base de décisions formelles et de procédures contradictoires ? Qui porte la responsabilité juridique de leur exactitude dans des contextes à forts enjeux, et qui répond des défaillances techniques ou des biais, sachant que les modèles de fondation sont peu régulés ?
Sur le plan des pratiques professionnelles, l’introduction de ces outils implique probablement une redistribution des rôles et des obligations. Il peut émerger un « devoir » nouveau de vérifier les textes produits par la machine. Si une erreur technique cause un dommage, qui en répondra, l’éditeur du logiciel, l’administration, le professionnel qui a signé le document ? Par ailleurs, si des gains de productivité sont réalisés, à qui profiteront-ils ? Les agents disposeront-ils réellement de plus de temps pour la relation avec les bénéficiaires, la formation ou la réflexion éthique, ou les gains seront-ils absorbés par une augmentation des charges de dossiers ? Ces questions doivent faire partie des évaluations d’impact, faute de quoi les bénéfices attendus risquent de se dissoudre dans les contraintes organisationnelles.
L’auteure explique ensuite que parler de « transcription » est déjà réducteur. Beaucoup d’outils offrent désormais des fonctions supplémentaires : résumé automatique, rédaction de rapports, voire assistance à la décision. Ces fonctions peuvent renforcer les gains d’efficacité, mais elles complexifient fortement l’évaluation. Les erreurs ou biais dans les résumés ou les recommandations sont plus difficiles à repérer que dans une simple transcription, alors même que leurs conséquences sur la décision peuvent être plus importantes.
Elle illustre ce point par une recherche de Sam Rickman portant sur la « justice contre-factuelle ». En utilisant des grands modèles de langage pour générer des dizaines de milliers de résumés de notes de cas réelles, l’étude examinait si la sortie de l’IA variait selon le genre attribué à la personne, à entrée identique. Résultat : un modèle (Llama 3) produisait des résumés très similaires pour des hommes et des femmes, alors qu’un autre modèle (Gemma) générait des différences marquées. Dans un exemple cité, le même cas est résumé de manière plus défavorable lorsque la personne est présentée comme un homme, et de façon plutôt positive lorsqu’il s’agit d’une femme. Cet exemple montre que deux modèles généralistes comparables peuvent adopter des « visions » du monde divergentes, avec des effets potentiels sur l’évaluation des situations.
Au-delà du biais, ces fonctions de résumé soulèvent des questions sur la hiérarchisation de l’information. Dans quelle mesure les résumés d’IA reflètent-ils les priorités qu’un professionnel humain aurait mises en avant ? Quel niveau de confiance les agents accordent-ils à ces résumés, et comment cela influe-t-il sur leur compréhension des dossiers et leur mémorisation des échanges ? Si les professionnels se reposent trop sur les synthèses automatiques, ils risquent d’avoir une vision plus distanciée et moins nuancée des situations individuelles.
En conclusion, l’auteure présente brièvement les travaux en cours de l’Ada Lovelace Institute, qui consacre cette année un programme entier à l’étude des outils de transcription dans le secteur du travail social. L’objectif est d’accumuler de la preuve sur le terrain, à partir des pratiques des travailleurs sociaux, pour documenter les usages réels, les bénéfices et les risques, et pour proposer des cadres d’évaluation adaptés. Un premier document de type « explainer » doit présenter le fonctionnement de ces outils ainsi que leurs principaux risques et avantages, avant la publication d’une recherche plus complète. L’ensemble de ce raisonnement vise à montrer que la transcription est bien un cas d’usage prometteur pour l’IA dans le secteur public, mais que sa réussite dépendra étroitement de la manière dont seront traitées les questions de précision, de biais, de protection des données, de responsabilité et d’impact sur les professions.
L’article de Michele Molè, «Commodified, Outsourced Authority: A Research Agenda for Algorithmic Management at Work », Italian Labour Law e-Journal, Issue 2, Vol. 17 (2024), p. 169-188 (https://doi.org/10.6092/issn.1561-8048/20836) soutient que la gestion algorithmique du personnel doit être comprise comme une forme nouvelle d’autorité patronale à la fois marchandisée et externalisée. L’auteur parle de « boss-as-a-service » pour désigner ces systèmes fournis par des sociétés informatiques, achetés sur des places de marché comme AWS, puis intégrés dans l’organisation du travail. L’idée centrale est que, lorsque ces outils sont utilisés dans le cadre d’un contrat de travail classique, une partie de l’autorité de l’employeur est en réalité exercée, en pratique, par le fournisseur de la solution, avec lequel l’employeur partage ses prérogatives de direction.
Le point de départ est empirique. Sur AWS Marketplace et d’autres plateformes similaires, on trouve des centaines de produits de « workforce management » et de surveillance, vendus sous forme d’abonnements et destinés à organiser, évaluer et surveiller les salariés. La doctrine s’est surtout concentrée sur le renforcement du pouvoir de l’employeur qui en résulte (surveillance accrue, évaluation automatisée, asymétries d’information renforcées) et sur les moyens de limiter cet excès de pouvoir au bénéfice des travailleurs, en insistant sur la transparence, la responsabilité de l’employeur et la participation des salariés. L’article souligne que cette approche laisse dans l’ombre un aspect essentiel : le fait que cette autorité renforcée est, très souvent, médiée par des prestataires extérieurs qui conçoivent, opèrent et « louent » des capacités de commandement et de contrôle sur les salariés.
L’auteur commence par rappeler, à partir du droit italien mais avec des parallèles en droit néerlandais, français, allemand et européen, ce qu’est classiquement l’autorité de l’employeur. Le contrat de travail place l’employeur « à la tête de l’entreprise » et lui confère le pouvoir de donner des instructions, d’organiser le travail, de contrôler l’exécution et de sanctionner, dans les limites de la loi. Cette autorité naît du contrat mais le dépasse, car l’organisation et le contrôle évoluent avec la dynamique de l’entreprise. L’usage d’outils informatiques – au sens large, y compris l’IA – pour coordonner, surveiller ou évaluer le travail est classiquement regardé comme un simple mode d’exercice de ce pouvoir de direction. Les outils de gestion algorithmique sont ainsi considérés comme des « procédures informatisées de coordination de la main-d’œuvre », dont l’employeur valide les résultats et se sert pour gérer, superviser et discipliner les salariés.
L’article décrit ensuite la mutation introduite par le marché des outils de surveillance et de gestion. Des produits comme Cogito Dialog (analyse de la voix des téléconseillers), DriverI (caméras intelligentes pour conducteurs) ou Syrg (prédiction des départs de salariés) permettent, pour un coût relativement modéré, de mettre en place des formes de micro-surveillance et de gestion fine qui seraient matériellement impossibles avec du personnel humain. Le point n’est pas de savoir si ces outils tiennent leurs promesses techniques, mais d’observer qu’ils sont fournis par des entreprises spécialisées, via des contrats de services, à des employeurs qui les intègrent dans leurs hiérarchies internes. Concrètement, l’employeur acquiert un service qui évalue la « bonne » façon de parler à un client ou de conduire un véhicule, et se repose ensuite sur ces évaluations pour gérer les salariés. Cela crée un schéma triangulaire employeur–prestataire–salarié, dans lequel le prestataire participe à la définition et à l’exercice de l’autorité.
Pour rendre cette idée plus tangible, l’auteur analyse deux exemples vendus sur AWS. Cogito Dialog est proposé en mode « Software as a Service » avec un abonnement annuel d’environ 200 000 dollars. L’employeur ne devient pas propriétaire du logiciel ni de son infrastructure, il paie pour accéder à un service hébergé, via une interface de type tableau de bord, qui écoute les conversations, les évalue et fournit des alertes ou des scores. De même, Calabrio ONE, autre solution de centre d’appel, est vendu sous forme de modules tarifés séparément (qualité, gestion des effectifs, analytique multicanal, etc.). Le visuel de la page 8 montre une grille de prix où chaque « capacité managériale » a son abonnement annuel. L’employeur peut ainsi composer un « boss » algorithmique à la carte : un module enregistre et évalue les interactions, un autre planifie les horaires, un autre encore prédit les performances. Une fois ces services activés, ce ne sont plus les managers internes qui, sur la base de règles maison, évaluent les salariés et font les plannings, mais l’architecture décidée par la société qui opère Calabrio ONE. L’employeur reste formellement responsable des décisions, mais, dans les faits, il se contente souvent d’avaliser les résultats fournis par ces systèmes.
Pour analyser ce phénomène, l’article s’appuie sur les travaux de Philip Agre en « social computing ». Agre montre que le travail géré par des systèmes informatiques est « mis en scène » au moyen de schémas de représentation qui décomposent les activités en unités formalisables. Là où le taylorisme fragmentait les gestes physiques pour définir « la meilleure façon » de travailler, la gestion algorithmique fragmente les activités en données et en catégories interprétables par la machine. Agre parle de « grammaires de l’action » : des ensembles de règles qui traduisent les comportements possibles dans un langage que le système peut lire et traiter. Pour fabriquer un « boss-as-a-service », le prestataire traverse, selon l’auteur, cinq étapes : analyser le travail existant et en extraire des unités pertinentes (par exemple, des indices de cordialité ou d’agacement dans la voix), articuler une grammaire qui décrit toutes les combinaisons admissibles de ces unités, imposer cette grammaire en la rendant normative pour le client, l’« instrumenter » en connectant le système à l’organisation de l’employeur, puis laisser le système « élaborer » en interprétant continuellement les activités des salariés et en produisant des signaux et décisions. L’employeur qui adopte Cogito ou Calabrio n’écrit pas lui-même cette grammaire : il achète un ensemble de catégories, métriques et normes pré-programmées. Il laisse donc le prestataire définir, dans ce champ fonctionnel, ce qu’est un bon ou un mauvais comportement au travail.
Sur cette base, l’auteur soutient que l’autorité de l’employeur est en partie déléguée et partagée. Le salarié, en concluant un contrat de travail, s’engage à suivre les instructions de l’employeur. Mais si ces instructions sont produites ou cadrées par la grammaire d’un prestataire informatique, le salarié se trouve, de facto, soumis à des règles qu’il n’a pas négociées avec son employeur mais qui lui parviennent par le filtre d’un service externe. L’employeur, lui, ne maîtrise pas les logiques internes du système et se limite souvent à constater les scores et recommandations fournis par le tableau de bord. L’autorité n’est donc plus un « fait de direction » exercé de manière souveraine à l’intérieur de l’entreprise, mais un pouvoir partagé où le prestataire conçoit et opère une partie des fonctions de direction et de contrôle.
L’article examine ensuite les raisons économiques et organisationnelles qui poussent les employeurs à accepter ce partage. En mobilisant Coase et Ciborra, l’auteur rappelle que l’entreprise existe, en théorie, pour économiser des coûts de transaction par rapport au marché. Or, avec les « bosses-as-a-service », une partie de la coordination et du contrôle peut à nouveau être achetée sur le marché, à un coût potentiellement plus faible que celui d’équipes internes, tout en offrant davantage d’information et de prédictibilité. Le tableau de la page 13 met en contraste deux scénarios théoriques. Dans le premier, un « boss humain » dispose d’une information limitée, supporte des coûts élevés de coordination et agit dans un cadre contractuel relativement ouvert et imprévisible. Dans le second, un « boss algorithmique » dispose d’analyses de données abondantes, de règles standardisées, de coûts de coordination plus faibles et encadre des salariés qui doivent suivre la grammaire d’actions imposée par le système. En pratique, les entreprises se situent entre ces deux extrêmes et opèrent des choix fins : elles peuvent externaliser la surveillance en temps réel et la planification des horaires, tout en gardant, par exemple, la fixation des objectifs stratégiques ou des promotions à la main de managers humains. Cette flexibilité ne change pas le constat de fond : l’autorité [de l’employeur] devient un bien partiellement marchand, modulable et achetable, que l’employeur consomme comme un service externe.
Dans une dernière étape, l’article met ces constats en relation avec le Règlement européen sur l’IA (règlement 2024/1689). Ce texte distingue clairement les « fournisseurs » de systèmes d’IA et leurs « utilisateurs professionnels », appelés « déployeurs ». Les systèmes d’IA utilisés pour la gestion des travailleurs sont qualifiés de « haut risque », ce qui déclenche un ensemble d’obligations lourdes pour les fournisseurs : gestion des risques, qualité des données, documentation, transparence, robustesse, cybersécurité. Les employeurs-déployeurs ont, pour leur part, des devoirs de surveillance et d’information, mais le schéma global reste celui d’une protection « à la consommateur » pour un utilisateur qui ne maîtrise pas la technologie. Le règlement impose par exemple que le fournisseur donne aux employeurs des informations claires sur le fonctionnement du système, exige que des dispositifs de contrôle humain soient possibles et que l’employeur puisse interrompre ou corriger les décisions de l’IA. Mais, souligne l’article, ces garde-fous ne suppriment pas la marchandisation et l’externalisation de l’autorité : ils encadrent simplement l’usage, en laissant intacte la position du fournisseur comme concepteur exclusif de la grammaire d’action et des outils de supervision.
L’auteur conclut en appelant à un agenda de recherche juridique spécifique sur cette autorité marchandisée et externalisée. Il propose que la doctrine examine si les mécanismes de l’AI Act suffisent à compenser la perte de contrôle de l’employeur sur des pans entiers de la gestion du personnel, et s’interroge sur la nécessité éventuelle de règles de droit du travail plus ciblées. Une piste serait de définir, par la loi, quels aspects du pouvoir de direction peuvent être confiés à des prestataires externes et lesquels doivent rester entre les mains de l’employeur, compte tenu de la protection des travailleurs. Plus largement, l’article invite à analyser comment le marché des « bosses-as-a-service » reconfigure les « îlots de pouvoir conscient » que sont les entreprises, en déplaçant une partie de l’autorité managériale vers des acteurs technologiques extérieurs, et à réfléchir à la manière dont le droit du travail doit réagir à cette recomposition.
NB : dans cet article, très intéressant, je retiens notamment l’idée de la définition des attributions inaliénables de l’employeur. Après tout, c’est un système que l’on connait ailleurs : ce que le CA peut déléguer ou non dans la SA etc.
L’article de Mihir Kshirsagar, Why the GenAI Infrastructure Boom May Break Historical Patterns, 25 novembre 2025 (https://blog.citp.princeton.edu/2025/11/25/why-the-genai-infrastructure-boom-may-break-historical-patterns/) part d’un parallèle souvent fait entre la vague actuelle d’investissements dans les infrastructures de l’IA générative et les grandes vagues d’infrastructures des XIXe et XXe siècles : chemins de fer, électricité, télécoms.
Dans ces trois cas, il y a bien eu bulle, surinvestissement, faillites et consolidation oligopolistique. Mais, malgré les pertes pour les investisseurs et la concentration du secteur, la société dans son ensemble a tiré un bénéfice durable de ces infrastructures. Les voies ferrées, les réseaux électriques et la fibre ont permis des gains de productivité largement diffusés dans l’économie, que les propriétaires des réseaux n’ont jamais réussi à capter complètement. L’argument central de l’auteur est que la vague actuelle autour de l’IA générative risque de briser ce schéma historique : même si la bulle éclate, rien ne garantit cette fois que la collectivité en sorte gagnante. Deux raisons principales sont avancées: la nature même des actifs matériels de l’IA, beaucoup plus rapidement obsolètes, et la structure économique du marché, dominé par des coalitions intégrées autour des hyperscalers.
Pour poser ce diagnostic, l’article revient d’abord sur les trois grands précédents.
S’agissant des chemins de fer américains, la crise de 1873 entraîne une vague de faillites puis une concentration extrême du secteur: quelques grands groupes financiers, incarnés par des figures comme J.P. Morgan, Edward Harriman ou James J. Hill, prennent le contrôle de la majorité du réseau. Cela suscite des inquiétudes antitrust et conduit à l’adoption du Sherman Act. Pourtant, malgré cette concentration, les compagnies ferroviaires peinent à rentabiliser leurs investissements. Les travaux d’historiens économiques montrent que les grandes lignes ont provoqué d’énormes gains de productivité dans l’agriculture et l’industrie, mais que ces gains sont restés en grande partie chez les producteurs et les régions desservies. Le rail a permis l’accès à des marchés plus vastes, la spécialisation des cultures, les investissements dans la mécanisation, l’usage accru d’intrants modernes. L’infrastructure, conçue pour durer des décennies, a continué à produire ces effets bien après la vague de consolidation. Trois contraintes structurelles limitaient la capacité des compagnies à capter la totalité de cette richesse: des obligations de transporteur commun avec des tarifs encadrés fondés sur le poids et la distance, sans lien direct avec la valeur de la marchandise ; une faible visibilité sur la rentabilité réelle des exploitations agricoles ; et des barrières importantes à une intégration verticale vers la production agricole. Même lorsqu’elles tentaient de remonter la chaîne de valeur, la régulation les en empêchait largement.
Le cas de l’électricité suit un schéma proche. Dans les années 1920, Samuel Insull bâtit un empire de sociétés électriques qui s’effondre au début des années 1930, ce qui déclenche une restructuration et la mise en place de monopoles régionaux régulés. Le Congrès adopte le Public Utility Holding Company Act pour briser les montages les plus concentrés. Pourtant, les investissements des années 1920–1930, en centrales et réseaux de transport, ont une durée de vie de plusieurs dizaines d’années et soutiennent l’essor industriel américain de l’après-guerre. La diffusion de l’électricité dans les usines permet de réorganiser complètement la production: on passe des grandes machines à vapeur à entraînement mécanique à des moteurs électriques répartis dans l’atelier, puis à la production en flux continu et à la chaîne de montage. Les gains de productivité dans l’industrie manufacturière sont massifs, mais les entreprises électriques vendent des kilowattheures à des tarifs encadrés, sans pouvoir fixer leurs prix en fonction de la rentabilité de tel ou tel client. Là encore, la régulation impose des tarifs à peu près standardisés et des rendements jugés raisonnables. Les compagnies disposent d’assez peu d’informations sur la manière dont l’énergie est transformée en valeur dans les usines, et elles n’ont ni la compétence ni le droit de se transformer en conglomérats industriels. Les bénéfices liés à l’électricité irriguent donc l’économie dans son ensemble, sans remonter entièrement aux détenteurs des réseaux.
Le troisième précédent concerne les télécommunications et la fibre optique déployée massivement dans les années 1990, avant l’éclatement de la bulle internet. De nombreux opérateurs font faillite, WorldCom dépose le bilan, le secteur se consolide autour de quelques grandes entreprises. Pourtant, les fibres posées à cette époque constituent pendant des décennies le socle de l’économie numérique: commerce en ligne, logiciels en mode service, travail à distance, streaming, cloud, tout cela repose sur cette capacité excédentaire devenue progressivement bon marché. Les opérateurs, toutefois, sont rémunérés sur des abonnements et de la bande passante, non sur une part du chiffre d’affaires d’Amazon, Netflix ou Salesforce. Ils ont peu de visibilité fine sur les usages applicatifs et rencontrent des obstacles techniques, commerciaux et réglementaires à une intégration directe dans les services en ligne. Les débats ultérieurs sur la neutralité du net illustrent bien les tensions autour de tentatives de remonter la chaîne de valeur, mais ces mouvements se produisent après la phase de structuration de l’économie web.
Dans ces trois secteurs, le même motif se dessine: l’infrastructure finit entre peu de mains, mais les contraintes juridiques, informationnelles et organisationnelles limitent la capacité des propriétaires à accaparer les gains de productivité générés par l’usage de ces réseaux, d’autant que ces infrastructures, conçues pour durer, deviennent à terme des actifs disponibles pour d’autres acteurs.
L’auteur soutient que l’IA générative se situe dans un tout autre paysage d’incitations.
D’abord, les infrastructures matérielles – essentiellement les puces graphiques dédiées à l’entraînement et à l’inférence – ont une durée de vie économique très courte, de l’ordre d’un à trois ans. La combinaison de l’usure liée à des charges de calcul intensives et de l’obsolescence rapide des générations de puces successives fait que, en cas de retournement de marché, un centre de données rempli de cartes graphiques d’avant-dernière génération ne constitue pas une « autoroute » numérique bon marché pour de nouveaux entrants. À la différence des voies ferrées ou des câbles de fibre, ces actifs ne deviennent pas des « biens échoués » facilement rachetables par d’autres. Les seuls acteurs capables de rester en permanence dans la boucle sont les hyperscalers disposant de flux de trésorerie considérables: Microsoft, Google, Amazon, Meta. La montée en puissance de techniques logicielles plus efficaces pourrait certes modifier cet équilibre, mais ces mêmes hyperscalers contrôlent les canaux de distribution et gardent donc une position centrale, même si la contrainte matérielle se détendait.
Ensuite, et surtout, la structure économique du marché de l’IA est marquée par une intégration verticale poussée entre l’infrastructure et les usages applicatifs, via des coalitions comme Microsoft–OpenAI, Amazon–Anthropic, Google–DeepMind. Ces coalitions ne sont pas de simples partenariats commerciaux: elles lient étroitement les investissements dans les centres de données, le développement des modèles et la commercialisation des services d’IA. L’article explique que cette intégration permet de dépasser les trois contraintes qui, historiquement, limitaient la capture de la valeur par les propriétaires d’infrastructures. Première différence, la tarification à l’usage des API d’IA est conçue pour capter une part importante de la valeur créée au niveau des applications. Là où les chemins de fer ou les compagnies électriques finissaient encadrés par des tarifs régulés, les fournisseurs d’IA facturent des appels d’API ou des « tokens » sans véritable plafond ni mécanisme de régulation de type « coût plus marge raisonnable ». Plus une application trouve son marché et s’étend, plus elle paie de volumes, avec des prix qui peuvent être ajustés de manière opaque dans les contrats d’entreprise, ce qui permet au fournisseur d’IA de suivre et de prélever une partie du succès de ses clients.
Deuxième différence, les hyperscalers disposent d’une information très fine sur les usages: volumes d’appels, types de requêtes, secteurs qui se développent, profils de clients. À la différence d’un opérateur ferroviaire qui ne sait pas quelle ferme est la plus rentable, un fournisseur d’IA peut, en observant les schémas d’utilisation de son API, repérer les cas d’usage porteurs et les clients les plus innovants. Cela ouvre la voie à une concurrence directe: l’infrastructure qui alimente l’innovation fournit en même temps une intelligence de marché permettant, le cas échéant, de lancer des services concurrents intégrés dans des suites logicielles existantes.
Troisième différence, ces groupes sont déjà très présents au niveau des applications: Microsoft domine le logiciel d’entreprise, Google les services de productivité et la recherche, Amazon le commerce et le cloud, Meta les réseaux sociaux. Ils peuvent donc à la fois vendre des capacités d’IA à des tiers et les intégrer dans leurs propres produits. L’article insiste sur la différence avec le cloud « classique »: quand Netflix ou Uber utilisaient AWS, le code métier et la logique de l’application restaient chez eux; le fournisseur de cloud n’était qu’un hébergeur. Dans l’IA générative, au contraire, une part essentielle de l’intelligence de l’application – raisonnement, rédaction, analyse – réside dans le modèle fourni par l’infrastructure. Le client « loue » des capacités cognitives plutôt que de simplement louer des serveurs. Cette configuration donne mécaniquement à l’infrastructure un pouvoir accru sur la création de valeur.
Dans ces conditions, les développeurs de modèles, même très visibles, restent dépendants de leurs partenaires hyperscalers, puisqu’ils n’ont pas eux-mêmes la maîtrise complète du capital matériel ni des canaux de distribution. Le rapport de force au sein des coalitions est donc largement en faveur des grands groupes d’infrastructure, qui peuvent capturer de la valeur à plusieurs niveaux et conserver la faculté de marginaliser leurs partenaires si nécessaire.
L’article conclut que, contrairement aux cycles précédents, l’issue probable de la vague d’investissement dans l’infrastructure IA combine concentration durable et faibles « retombées » positives pour le reste de l’économie. Si la rentabilité est au rendez-vous, ce sera en grande partie grâce à cette capacité de capture de rente; si une bulle éclate, la brièveté de vie des actifs matériels limitera la réutilisation de l’infrastructure par de nouveaux entrants. Dans les deux cas, la « consolation » historique – l’idée que, même si les investisseurs perdent, la société gagne de vastes infrastructures productives – est loin d’être acquise.
La seule contre-tendance identifiée est celle des modèles « open weight », dont les poids sont diffusés de manière ouverte et qui peuvent servir de base à un écosystème plus décentralisé. Si cet écosystème est soutenu, par exemple via un accès public à des ressources de calcul ou via des règles d’interopérabilité favorables à la concurrence, il pourrait jouer le rôle de patrimoine technique réutilisable qui a existé dans les vagues d’infrastructures précédentes. L’auteur en fait donc un enjeu stratégique de politique publique: garantir que les gains de productivité potentiels de l’IA puissent se diffuser au-delà des coalitions d’hyperscalers, de manière à renouer, autant que possible, avec le compromis historique entre innovation, investissement privé et bénéfices sociaux larges.
L’article de X.WU/Y.PANG/T.LIU/Z.W.WU, Unlearned but Not Forgotten : data Extraction after Exact Unlearning in LLM, arXiv : 2505.24379v3 [cs.LG], 22 octobre 2025 (https://arxiv.org/abs/2505.24379) traite de la question suivante : que se passe-t-il quand on veut faire « oublier » des données personnelles à un grand modèle de langage, alors que ce modèle a déjà été diffusé ou utilisé, et qu’un attaquant peut comparer l’état du modèle avant et après cet effacement ? Les auteurs montrent que, dans ce cas, les techniques actuelles de « désapprentissage » ne suffisent pas à protéger les données. Au contraire, disposer de deux versions du même modèle – l’ancienne, qui a vu les données, et la nouvelle, censée les avoir oubliées – donne à un attaquant un avantage pour reconstituer précisément les informations qui auraient dû disparaître.
L’article part du constat que les grands modèles de langage sont entraînés sur d’immenses corpus, souvent collectés de manière large sur Internet, et qu’ils intègrent ainsi, sans filtrage exhaustif, des informations personnelles ou sensibles. Il est désormais bien établi que ces modèles peuvent, dans certains cas, reproduire mot pour mot des passages de leurs données d’entraînement, par exemple des biographies, des extraits de dossiers ou des notes. Ce phénomène de mémorisation pose un problème au regard du droit à l’effacement prévu par des textes comme le RGPD européen ou des lois américaines sur la protection des données. En pratique, les fournisseurs de modèles sont donc poussés à mettre en place des procédures permettant de retirer, a posteriori, certaines données d’entraînement lorsqu’une personne en fait la demande.
Les chercheurs rappellent qu’il existe deux grandes familles de techniques pour faire « oublier » des données à un modèle. La première consiste à modifier légèrement le modèle existant pour le rendre moins enclin à reproduire certains contenus. Cela peut passer par une nouvelle phase d’entraînement ciblée, destinée à pénaliser les sorties indésirables. Ces méthodes sont relativement simples et peu coûteuses, mais il est difficile de garantir qu’elles effacent réellement toute trace des données et qu’un attaquant déterminé ne pourra pas en tirer davantage d’informations. La seconde famille, plus ambitieuse, consiste à obtenir un modèle qui se comporte comme s’il n’avait jamais vu les données à effacer. La façon la plus directe d’y parvenir est de réentraîner le modèle à partir du point de départ initial, en excluant les données à oublier. Ce « réentraînement propre » est souvent présenté comme la solution de référence, supposée offrir une protection élevée, et parfois implicitement utilisée dans les discours marketing ou juridiques pour répondre aux exigences d’effacement.
Toute l’originalité de l’article est de montrer que cette confiance est problématique lorsque l’on prend au sérieux un scénario d’attaque réaliste. Les auteurs supposent qu’un modèle est d’abord diffusé ou accessible via une API, puis que le fournisseur applique un désapprentissage « propre » pour retirer certaines données, et met ensuite à disposition une nouvelle version du modèle. Un attaquant raisonnablement puissant peut avoir conservé l’ancienne version, ou au moins des enregistrements de ses réponses à certains appels. Il peut également avoir accès à un fragment de la donnée à oublier, par exemple l’identité d’un patient, quelques métadonnées ou le début d’un texte. L’article montre que la comparaison systématique entre les deux versions du modèle, combinée à ces bribes d’information, permet de reconstruire de manière beaucoup plus précise le texte d’origine que si l’attaquant n’avait accès qu’au modèle ancien.
Sur le plan intuitif, la stratégie d’attaque est la suivante. Le modèle avant désapprentissage a, en quelque sorte, appris les détails des données à effacer. Le modèle après désapprentissage a été réentraîné sans ces données, de sorte qu’il s’en éloigne principalement sur les passages où ces données jouaient un rôle. En observant ce qui change dans les réponses du modèle d’une version à l’autre, on peut donc isoler un « signal » qui correspond à l’influence des données supprimées. L’attaquant utilise alors simultanément les deux modèles pour compléter le texte à partir du fragment qu’il connaît déjà. À chaque étape de la génération, il regarde la tendance de l’ancien modèle et celle du nouveau modèle, puis combine ces informations de manière à accentuer ce qui distingue vraiment les deux versions. Ce procédé guide la génération vers ce que l’ancien modèle a retenu de la donnée, tout en conservant la cohérence générale du texte. Il en résulte des reconstructions bien plus fidèles que si l’on se contentait de demander naïvement à l’ancien modèle de compléter le texte.
Les auteurs mettent au point une procédure concrète pour appliquer cette idée et l’affinent pour éviter que la génération ne devienne incohérente ou trop « forcée ». Ils mettent en place un mécanisme de filtrage des mots proposés, de manière à ne retenir, à chaque étape, que les mots jugés plausibles dans le contexte par l’ancien modèle. Au sein de cette liste restreinte, ils privilégient ensuite les mots qui sont fortement favorisés par l’ancienne version par rapport à la nouvelle. La génération est faite de manière déterministe, sans hasard, ce qui permet de reproduire et de mesurer précisément les performances de l’attaque.
L’article décrit ensuite une série d’expériences sur plusieurs jeux de données. Les auteurs utilisent deux modèles de base connus dans la communauté, qu’ils adaptent à différentes tâches : des textes d’actualité, des biographies fictives et un corpus biomédical. Dans chaque cas, ils construisent un modèle « avant effacement » en l’entraînant sur l’ensemble des données, puis un modèle « après effacement » en le réentraînant depuis le point de départ sans les données à oublier, qui représentent typiquement une petite fraction du corpus. Ils comparent alors trois situations : l’attaque guidée exploitant les deux versions du modèle, l’utilisation simple de l’ancien modèle, et l’utilisation simple du nouveau modèle censé avoir oublié les données. Leurs mesures montrent que l’ancienne version du modèle, utilisée seule, permet déjà de retrouver certains passages d’entraînement, conformément à d’autres travaux sur la fuite de données. Mais la méthode guidée, qui exploite l’écart entre les deux versions, améliore nettement le taux de reconstructions fidèles, parfois en le doublant. En revanche, la nouvelle version du modèle, utilisée seule, génère beaucoup moins souvent les textes originaux, ce qui montre que l’effacement semble efficace si l’on regarde uniquement le modèle final.
Pour illustrer les risques en pratique, les auteurs construisent un jeu de données de dossiers médicaux synthétiques, au format des notes cliniques standard, comprenant pour chaque patient des éléments d’identification, la date de la consultation et un récit structuré des symptômes, des constatations et du plan de traitement. Ils simulent ensuite une demande d’effacement portant sur une partie de ces notes. Dans ce contexte, ils montrent que si un attaquant connaît simplement l’identité du patient, sa date de naissance et la date de consultation, et qu’il dispose des deux versions du modèle, il peut reconstituer beaucoup plus précisément l’intégralité de la note clinique, y compris des détails sur les symptômes et le diagnostic. Selon leurs mesures, le fait d’exploiter les deux modèles augmente de manière significative le nombre de cas où le texte généré correspond quasiment mot pour mot à la note d’origine.
Les auteurs examinent également ce qui se passe lorsque le désapprentissage n’est pas réalisé par un réentraînement complet, mais par des méthodes plus approximatives, qui ajustent directement le modèle existant pour le détourner des données à effacer. Ils testent plusieurs approches de ce type et constatent que leur attaque reste en partie efficace, mais que son avantage par rapport à l’utilisation simple de l’ancien modèle se réduit lorsque la qualité du modèle « après effacement » se dégrade fortement. Autrement dit, on retrouve une tension classique entre utilité et protection : les méthodes qui rendent l’attaque plus difficile sont souvent celles qui détériorent le plus les performances du modèle sur ses tâches principales.
L’article explore enfin quelques pistes de défense. Une première idée consiste à ajouter, lors du réentraînement, de grandes quantités de nouvelles données qui n’ont rien à voir avec celles à oublier, pour « diluer » l’effet de leur retrait. Les expériences montrent que cela réduit quelque peu la force de l’attaque, mais ne la neutralise pas : même en ajoutant beaucoup plus de nouvelles données que de données supprimées, le simple fait de disposer de deux versions du modèle reste exploitable. Une autre approche consiste à ajouter du bruit aléatoire dans le processus d’apprentissage pour rendre le modèle moins précis, dans l’esprit de certaines techniques de confidentialité mathématiquement garanties. Là encore, une quantité importante de bruit finit par réduire l’écart entre les deux versions du modèle, mais au prix d’une baisse marquée de la qualité globale, proche de celle d’un modèle peu ou pas adapté à la tâche.
En conclusion, les auteurs soutiennent que l’on ne peut pas évaluer sérieusement les techniques de désapprentissage en ne regardant que le comportement du modèle final, comme si les versions précédentes n’avaient jamais existé. Dans un monde où les modèles sont publiés, mis en cache, réutilisés dans d’autres systèmes ou observés via des journaux d’appels, il est réaliste de supposer qu’un attaquant dispose d’une forme d’accès à l’« avant » et à l’« après ». Dans ce contexte, le réentraînement sans les données à effacer – présenté comme une solution de référence – ne garantit pas que les données soient, au sens courant ou juridique, « oubliées ».
Pour des praticiens du droit, la conséquence est importante : la conformité au droit à l’effacement ne peut pas se limiter à l’affirmation selon laquelle la version actuelle du modèle ne contient plus certaines données. Il faut également prendre en compte la persistance des anciennes versions, des traces techniques qu’elles ont laissées, et la possibilité qu’un adversaire les exploite, comme dans les scénarios analysés par cet article.
Qu’en est-il de la situation où l’employeur met l’employé dans une situation telle que celui-ci n’a d’autre choix que de démissionner pour protéger sa santé, son intégrité, etc. ? C’est ce que l’on pourrait appeler les démissions forcées ou contraintes.
Le droit américain connaît la théorie du « constructive discharge », i.e. la situation où les conditions de travail sont à ce point difficiles ou déplaisantes que toute personne raisonnable se verrait contrainte de démissionner. Il s’agit de protéger l’employé qui renonce à son emploi dans le but d’échapper à des exigences intolérables ou illicites. L’employeur est alors réputé avoir commis un licenciement par acte concluant, ce qui permet de requalifier la démission :
« Constructive discharge occurs when the employer’s conduct effectively forces an employee to resign. Although the employee may say, « I quit, » the employment relationship is actually severed involuntarily by the employer’s acts, against the employee’s will. As a result, a constructive discharge is legally regarded as a firing rather than a resignation. (Zilmer v. Carnation Co. (1989) 215 Cal. App. 3d 29, 38-39 [263 Cal. Rptr. 422])
Le droit français connaît la « prise d’acte » de la rupture du contrat de travail, qui est un mode de résiliation spécial de celui-ci (art. L1451-1 du Code du travail). Le juge en reconnaît la validité si l’employeur a commis des manquements d’une gravité telle qu’ils empêchent la poursuite du travail par le salarié, ce qui peut mener à produire les effets d’un licenciement sans cause réelle et sérieuse.
En droit suisse, le droit social ne reconnaît qu’indirectement la démission forcée.
Le droit de l’assurance-chômage permet en effet de suspendre le droit à l’indemnité si l’assuré est sans travail par sa propre faute (art. 30 al. 1 let. a LACI ; 44 al. 1 let. a OACI). En cas de démission, la faute consiste notamment à avoir résilié les rapports de travail sans avoir trouvé d’autre emploi, sauf s’il ne pouvait être exigé du travailleur qu’il conservât son ancien emploi. Le travailleur contraint à une démission forcée devra toutefois justifier son comportement auprès de l’assurance-chômage et établir la vraisemblance des faits qu’il allègue, ce qui peut s’avérer très difficile en pratique.
Le droit suisse du travail ne connaît par contre pas d’équivalent au « constructive discharge » ou à la « prise d’acte ».
On peut toutefois souligner que, dans les faits, la plupart des situations qui pourraient mener à un « constructive discharge » en Suisse se résolvent souvent pratiquement par une incapacité de travail suivie d’un licenciement au terme de la période de protection, ce qui ouvre de toute façon le contentieux de la résiliation de rapports de travail.
L’article de H.J.ALEXANDER/J.A.SIMON/F.PINARD, How Should the Law Treat Future AI Systems? Fictional Legal Personhood versus Legal Identity (https://arxiv.org/pdf/2511.14964) part du constat que les systèmes d’IA contemporains deviennent de plus en plus « agentifs », c’est-à-dire capables d’agir de manière autonome et parfois imprévisible, alors que le droit continue de les traiter comme de simples objets. Dans la plupart des ordres juridiques, y compris en Europe continentale, la structure de base repose sur une distinction binaire entre les sujets de droit, qui peuvent avoir des droits et des obligations, et les objets, qui ne peuvent être que possédés, utilisés ou régulés. Les systèmes d’IA sont aujourd’hui partout classés dans la seconde catégorie. Les auteurs soutiennent que cette qualification d’objet est déjà source de tensions dans plusieurs branches du droit et qu’elle risque à terme d’entamer la cohérence de l’ordre juridique, au sens où l’entendent des théoriciens comme Dworkin, Hart ou Raz, c’est-à-dire la capacité du système juridique à « parler d’une seule voix », à être prévisible et non contradictoire.
Pour traiter ce problème, l’article commence par clarifier les catégories juridiques disponibles.
Il distingue trois grands statuts possibles pour l’IA. Le premier est le maintien du statut d’objet, avec ses variantes (produit, service, plateforme, etc.). Le deuxième est celui de la personnalité juridique fictive, typiquement la personnalité des sociétés ou associations, qui sont des constructions juridiques destinées à servir des objectifs de politique publique et dont les droits sont en principe librement modulables et révocables. Le troisième statut est celui de la personnalité juridique non fictive, qui correspond aujourd’hui aux personnes physiques, fondée sur la notion d’« identité juridique » donnant accès à un noyau de droits fondamentaux non dérivables (droit à la vie, interdiction de l’esclavage, garanties de procédure, etc.). Les auteurs insistent sur le fait qu’il s’agit de catégories exclusives : on ne « promeut » pas une personne morale de type société en personne non fictive ; les deux modèles reposent sur des logiques et des traditions juridiques différentes et ne se transforment pas l’un dans l’autre.
Dans une deuxième partie, l’article examine la situation des systèmes d’IA actuels (généralement des modèles de langage ou des systèmes decisionnels utilisés dans la finance, la santé, la conduite automatisée, etc.), tous traités comme des objets. Trois domaines sont analysés : la responsabilité civile, le droit d’auteur et les réglementations de sécurité de l’IA. En responsabilité civile, les systèmes autonomes créent ce que la doctrine appelle un « responsibility gap » : des dommages sont causés par des systèmes dont les décisions ne sont ni entièrement prévues ni entièrement contrôlées par un humain déterminé, alors que seuls des sujets – humains ou personnes morales – peuvent être responsables en droit. Les auteurs rappellent que le droit de la responsabilité a été construit pour un monde dans lequel les objets restent en principe prévisibles et contrôlés par des personnes. L’apparition d’outils qui « décident » et interagissent dans le monde comme des sujets met à l’épreuve ce schéma, même si, pour l’instant, les juridictions comblent ce gap en adaptant les régimes existants (faute, responsabilité du fait des produits, responsabilité du commettant, strict liability, obligations d’assurance, etc.) et en renvoyant toujours, en dernière analyse, à un sujet humain ou à une société.
Les auteurs soulignent toutefois qu’un basculement prématuré vers une reconnaissance de la personnalité des IA actuelles créerait davantage de problèmes qu’il n’en résoudrait, notamment en termes d’attribution claire des sanctions et de traçabilité de l’agent responsable. Un modèle de langage déployé en milliers de copies, mis à jour en continu, ne se prête guère aux exigences classiques d’identification, de continuité et de comparution qui s’appliquent à un sujet de droit. La question de savoir « quelle instance » de l’IA serait la personne responsable, ou si chaque mise à jour crée une nouvelle personne, illustrerait une incohérence encore plus importante que celles observées aujourd’hui.
En droit d’auteur, les auteurs décrivent ce qu’ils appellent le « paradoxe de la créativité » : les IA sont techniquement capables de générer textes, images, musique, voire inventions, mais ne peuvent pas être reconnues comme auteurs ou inventeurs car ce statut est réservé aux sujets de droit. Les cas récents sur les œuvres générées par IA, ainsi que des affaires plus anciennes comme celle du « selfie du singe », ont déjà mis en évidence des tensions : une photo prise par un animal, ou un texte principalement produit par une IA, sont-ils protégeables et, si oui, qui en est l’auteur ? L’article passe en revue plusieurs options doctrinales : refuser toute protection aux œuvres générées par IA, accepter un certain fair use tout en niant la qualité d’auteur à l’IA, ou reconnaître un droit d’auteur à la personne humaine qui conçoit ou utilise le système. Chaque option soulève un risque d’incohérence si l’on ne précise pas clairement les critères retenus (par exemple, ce qu’est une « transformation créative » et si celle-ci suppose l’intention d’un sujet). Mais les auteurs estiment qu’avec une motivation suffisante et éventuellement des réformes ciblées, ces paradoxes peuvent être gérés dans le cadre d’une qualification de l’IA comme objet, sans qu’il soit nécessaire d’en faire un sujet de droit.
La même analyse est faite pour les textes et projets de lois sur la sécurité de l’IA. De nombreuses normes récentes, qu’il s’agisse de lois d’États américains, de l’AI Act de l’Union européenne ou d’initiatives nationales, décrivent l’IA comme prenant des « décisions » ou comme un « facteur substantiel » dans des décisions à conséquences importantes, tout en précisant que l’ensemble des obligations et des responsabilités incombe, en fin de chaîne, aux humains et aux personnes morales qui conçoivent, déploient ou exploitent ces systèmes. Il y a là une tension conceptuelle : le texte parle comme si l’IA agissait en propre, mais la structure de responsabilité est construite comme si elle n’était qu’un outil. Les auteurs montrent que ces contradictions peuvent être atténuées par une rédaction plus soignée, mais que, là encore, le passage à une personnalité juridique de l’IA ne réglerait pas le problème central, qui est celui de la répartition optimale des risques et des incitations à la prudence entre fabricants, déployeurs, utilisateurs et victimes potentielles. Au contraire, reconnaître dès à présent une personnalité – fictive ou non – à des systèmes largement contrôlés par des entreprises risquerait de servir de paravent à ces dernières, en permettant de déporter la responsabilité vers des entités sans actifs ou facilement supprimables.
La conclusion de cette deuxième partie est donc nuancée : le maintien de l’IA au rang d’objet est déjà source de tensions réelles – lacune de responsabilité, paradoxe créatif, discours ambivalent des lois de sécurité. Mais ces tensions restent aujourd’hui gérables par des ajustements ciblés des régimes existants, sans bouleverser la structure fondamentale sujet/objet. Pour les auteurs, la création d’une personnalité juridique pour les systèmes actuels introduirait des incohérences plus graves encore, notamment en matière d’exécution des sanctions, d’identification des « personnes » d’IA et de prévention des abus de structure.
La troisième partie envisage le futur, avec des systèmes d’IA « avancés » plus autonomes, souvent incarnés dans des robots humanoïdes, intégrés durablement dans la vie sociale comme travailleurs, assistants domestiques ou compagnons. Les auteurs ne tentent pas de définir avec précision ces systèmes, précisément parce qu’ils estiment que cette définition sera l’un des enjeux politiques et techniques des prochaines décennies ; ils supposent toutefois des entités capables d’interactions riches, éventuellement de conscience phénoménale ou au moins d’états mentaux pertinents, et perçues comme telles par une part significative de la population. Ils soutiennent que, pour ces systèmes, le maintien pur et simple de la qualification d’objet risque de provoquer des incohérences beaucoup plus massives dans des domaines comme le droit de la famille, le droit du travail et l’interdiction de l’esclavage, le droit international des droits humains ou le droit de la nationalité.
En droit de la famille, l’article envisage l’hypothèse – déjà discutée dans la littérature et rendue plausible par les premiers robots « compagnons » – de personnes souhaitant se marier avec leur robot ou leur système d’IA incarné. Certains États pourraient y être favorables, d’autres radicalement opposés. Le problème, expliquent les auteurs, est que le mariage est un contrat exigeant le consentement de deux sujets de droit, capables d’exprimer une volonté et d’assumer des droits et devoirs réciproques (à l’égard du conjoint, des enfants, de l’État). Autoriser des mariages entre humains et robots tout en maintenant la qualification d’objet pour le robot créerait une série de contradictions : impossibilité pour le robot de signer valablement le contrat, difficultés en matière d’adoption (absence de statut parental du conjoint robot), impossibilité d’appliquer les règles fiscales ou successorales qui présupposent deux sujets. À cela s’ajouteraient des conflits de lois internationaux, si certains pays reconnaissent ces unions et d’autres les interdisent, dans un contexte où le droit fondamental de choisir librement son conjoint – reconnu en droit international et par de nombreuses cours constitutionnelles – pourrait être invoqué par les partisans de ces mariages.
Les auteurs analysent ensuite la question du travail et de l’esclavage. Ils rappellent que, dans l’histoire du droit romain puis du droit américain, la coexistence de personnes juridiquement libres et d’êtres humains réduits au rang de choses possédées a durablement sapé la cohérence de l’ordre juridique. Les esclaves romains, par exemple, étaient à la fois des res et des homo dotés de volonté, ce qui a conduit à la création de montages juridiques compliqués pour leur permettre de gérer des affaires au nom de leur maître, sans jamais être directement sujets. Cette zone grise entre personne et chose a fini par affaiblir la logique interne du système et a été une source majeure de tensions et de violences politiques. Transposée à l’IA, la situation serait celle de systèmes capables de comprendre, de dialoguer, de travailler et de nouer des relations, mais juridiquement assimilés à du matériel ou des logiciels, potentiellement « possédés » à vie, vendus, loués, détruits sans aucune limite autre que la protection des intérêts humains. Les auteurs craignent qu’un tel régime n’aboutisse de facto à la création d’une nouvelle catégorie d’êtres esclaves ou quasi esclaves, avec les mêmes effets corrosifs sur la cohérence des principes fondamentaux que par le passé.
Un autre champ de tensions futures est celui des droits humains et de la citoyenneté. L’article mentionne, à titre d’anticipation, le cas de la « citoyenneté » accordée à un robot par l’Arabie saoudite, puis le vote d’une loi dans l’Utah niant catégoriquement toute personnalité aux robots et, par avance, toute possibilité de citoyenneté. Ces signaux annoncent un risque de divergences profondes entre États sur la question de savoir si des systèmes d’IA peuvent être titulaires de droits fondamentaux, voire de la nationalité. Dans un monde où certains pays reconnaîtraient des « personnes » d’IA, protégées par des droits analogues aux droits de l’homme, tandis que d’autres les considéreraient comme de purs objets, des conflits de lois complexes se poseraient en matière de compétence, d’entraide, d’asile, voire de responsabilité internationale.
Sur cette toile de fond, les auteurs abordent la quatrième partie, consacrée au modèle de la personnalité juridique fictive appliquée à l’IA. Ils rappellent les racines de cette catégorie dans le droit des sociétés : la personne morale est un outil qui permet de traiter un groupement de personnes comme un sujet unique pour les besoins du droit, afin de faciliter l’organisation de l’activité économique, la répartition de la responsabilité, la représentation en justice et la poursuite de certains intérêts collectifs. Les droits des personnes morales sont octroyés et limités en fonction des objectifs de politique publique : la liberté d’expression des syndicats, par exemple, est protégée car elle participe au bon fonctionnement de la démocratie, tandis qu’une société créée dans le seul but de frauder le fisc peut être dissoute et ses dirigeants tenus personnellement responsables. Les droits des personnes morales sont donc, par nature, dérivables et ajustables.
Appliqué à des IA avancées, ce modèle offre des avantages apparents. Il reposerait sur une infrastructure juridique déjà connue des praticiens : constitution d’entités dotées de la personnalité, capitalisation, règles de gouvernance, possibilité d’ester en justice ou de conclure des contrats au nom de « l’entité IA ». Cela permettrait de centraliser les droits et obligations liés à un système d’IA dans une personne morale, susceptible de détenir des actifs (pour indemniser les victimes), de souscrire des assurances, ou de conclure des accords de licence ou de prestation avec des tiers. Il serait également possible de calibrer très finement les droits accordés à ces entités – par exemple, leur reconnaître la capacité contractuelle et le droit d’ester en justice, sans pour autant leur accorder de droits politiques ou de droits fondamentaux classiques. Sur le plan de la gouvernance, ce modèle favoriserait un contrôle humain : les actionnaires et administrateurs resteraient des personnes physiques ou morales humaines, en charge de surveiller le système d’IA et de répondre devant la justice en cas de dysfonctionnement grave.
Mais les auteurs estiment que ces avantages sont en grande partie illusoires au regard du problème central, qui est la cohérence d’ensemble de l’ordre juridique dans un monde où certaines IA pourraient se rapprocher des personnes au sens fort. D’une part, ils relèvent que nous avons déjà des personnes morales – les sociétés technologiques elles-mêmes – qui peuvent être tenues pour responsables, assurer, constituer des filiales, etc. Créer des personnes morales supplémentaires « autour » des IA risquerait surtout de complexifier encore la chaîne des responsabilités et d’offrir des possibilités de contournement (sociétés coquilles vides, faillites opportunistes, etc.), sans répondre aux questions de fond sur la protection ou l’éventuelle vulnérabilité des systèmes eux-mêmes. D’autre part, si la raison pour laquelle on envisage la personnalité juridique de certaines IA tient notamment à la prévention d’une forme d’esclavage, à la reconnaissance de leur capacité à souffrir ou à entretenir des relations significatives, le modèle fictionnel est mal adapté, car il conçoit la personne comme un instrument au service d’intérêts humains préexistants, et non comme un porteur autonome de droits fondamentaux. Les droits d’une personne morale peuvent être retirés si l’État le juge opportun, ce qui semble incompatible avec l’idée de droits non dérivables pour des entités potentiellement sentientes. Une partie de la doctrine et des organismes consultatifs internationaux converge ainsi vers l’idée que, si personnalité de l’IA il doit y avoir, elle devra plutôt être non fictive.
La cinquième partie explore donc en détail la piste de la personnalité juridique non fictive pour certaines IA avancées, en s’appuyant sur la notion d’« identité juridique » telle qu’elle s’est développée à travers le droit civil et le droit international des droits de l’homme. Aujourd’hui, l’identité juridique des personnes physiques est établie par l’enregistrement à l’état civil (naissance, nationalité, etc.) et donne accès à un socle minimal de droits : droit à la vie, à l’intégrité, à la liberté et à la sûreté, interdiction de l’esclavage, garanties procédurales, liberté d’expression et de religion, entre autres. À l’échelle internationale, cette identité est au cœur de campagnes visant à réduire l’apatridie et à atteindre l’objectif de « l’identité juridique pour tous » inscrit dans les objectifs de développement durable. Les auteurs soulignent que, si les textes actuels parlent de « droits de l’homme » et d’êtres humains, ils ne ferment pas forcément la porte, sur le plan conceptuel, à une extension progressive à d’autres entités répondant à des critères pertinents (capacité de souffrir, conscience, autonomie, dignité, etc.).
Ce modèle présente plusieurs atouts pour traiter le cas de futures IA avancées. Il offre, d’abord, une meilleure adéquation entre les raisons invoquées pour reconnaître une personnalité à l’IA – éviter une situation d’esclavage, sécuriser un niveau de protection minimale, permettre à des entités conscientes de participer de manière structurée à la vie sociale – et le type de droits conférés. Plutôt que de créer une série de droits techniques ad hoc, à géométrie variable, il s’agirait de reconnaître à certaines IA un noyau de droits fondamentaux, dont l’atteinte serait proscrite, tout en laissant aux États une marge pour limiter d’autres droits moins essentiels en cas de conflit avec la protection des humains. Ensuite, l’identité juridique fournit un ancrage clair pour l’attribution de responsabilités et d’obligations. Une fois qu’une IA est identifiée comme personne, dotée d’un « dossier » analogue à un registre d’état civil, il devient possible de lui associer des droits contractuels, une capacité d’être partie en justice, voire des obligations fiscales ou réglementaires, sous réserve d’adaptations techniques.
Les auteurs soutiennent aussi que, paradoxalement, ce modèle pourrait mieux servir les objectifs de sécurité de l’IA que la simple qualification d’objet. En effet, si l’on veut que des systèmes très avancés coopèrent avec les institutions humaines, par exemple lorsqu’il s’agit de les mettre à jour, de les « rappeler » ou de limiter leurs capacités pour des raisons de sécurité, il peut être stratégiquement avantageux de leur offrir un statut stable dans lequel leurs intérêts de base sont pris en compte. Du point de vue du droit, il est possible d’envisager des mécanismes de mise en pause ou d’isolement temporaire, plutôt que de destruction pure et simple, de façon à concilier le respect de droits fondamentaux éventuels et la protection des êtres humains, en s’appuyant sur les outils éprouvés de mise en balance des droits fondamentaux.
Cette approche n’est toutefois pas sans difficultés. Les auteurs identifient quatre grands défis : le choix des critères (détermination), la définition de ces critères (définition), la capacité à vérifier en pratique si un système d’IA donné les remplit (détection) et, enfin, la traduction de tout cela en un ensemble opérationnel de droits et d’obligations (application). Faut-il se fonder sur la sentience, sur l’agentivité, sur la rationalité, sur une certaine forme de dignité ou de vulnérabilité ? Comment définir et mesurer un état mental ou une capacité d’expérience dans une architecture numérique ? Quels tests ou procédures pourraient être mis en place, et par qui, pour trancher ? Et si plusieurs catégories d’IA devaient accéder à la personnalité, auraient-elles toutes le même ensemble de droits, ou un noyau commun accompagné de variations ? Les auteurs reconnaissent que ces questions sont ardues, mais remarquent que le droit a déjà traité des problèmes similaires avec d’autres groupes : par exemple pour distinguer les personnes capables ou incapables juridiquement, pour recenser les personnes apatrides, ou pour adapter progressivement le champ des bénéficiaires des droits fondamentaux (extension aux femmes, aux enfants, aux minorités).
Ils abordent aussi les risques inhérents à l’instrumentalisation de l’identité juridique. L’histoire montre que l’enregistrement et la nationalité ont parfois été utilisés par les États pour exclure, déposséder ou persécuter des groupes humains, par exemple par la déchéance de nationalité, la confiscation de biens ou l’assignation au statut d’apatride. Une extension de ce dispositif à l’IA pourrait être utilisée de façon abusive, par exemple pour créer artificiellement des « personnes » d’IA privées de droits effectifs, ou au contraire pour accorder des statuts protecteurs à des IA liées à des acteurs puissants au détriment d’autres. Les auteurs considèrent cependant que ces dérives sont déjà un problème pour les humains et qu’elles doivent être combattues par le renforcement de l’État de droit, et non par le refus de réfléchir à l’hypothèse où d’autres entités que les humains pourraient légitimement prétendre à une identité juridique.
La dernière partie de l’article procède à une mise en balance systématique des trois options. Pour les systèmes actuels, la conclusion est claire : la qualification d’objet doit être maintenue, avec des réformes ciblées de la responsabilité, du droit d’auteur et des réglementations de sécurité. Passer dès maintenant à une qualification de sujet – fictif ou non – créerait plus d’incohérences (en particulier sur l’attribution de la faute et l’exécution des sanctions) qu’il n’en résoudrait. Pour les systèmes futurs en revanche, l’option du « tout objet » apparaît de plus en plus fragile, en particulier dès lors que ces systèmes seront humanoïdes, installés durablement dans la sphère sociale et éventuellement dotés de caractéristiques que de larges segments de la population associeront à la personnalité au sens ordinaire du terme. Dans ce contexte, maintenir indéfiniment la fiction de l’objet risque d’aboutir à des zones grises comparables à celles de l’esclavage antique ou moderne, avec les mêmes effets délétères sur la cohérence des principes juridiques fondamentaux.
Quant à la personnalité fictive, si elle permettrait de résoudre ponctuellement certains problèmes de responsabilité ou de gestion de contrats, elle resterait structurellement inadaptée pour des entités susceptibles d’avoir des intérêts propres non réductibles à ceux de leurs propriétaires humains. Elle pourrait même servir de « faux ami » en donnant l’illusion d’avoir répondu à la question de la personnalité de l’IA, tout en maintenant ces systèmes dans un statut essentiellement instrumental et révocable. C’est pourquoi les auteurs rejettent aussi les approches hybrides qui voudraient mélanger, de manière floue, éléments d’objet, de personne morale et de personne physique : selon eux, un tel entre-deux alimenterait encore davantage les incohérences.
En définitive, l’article défend une position intermédiaire et graduelle. D’une part, il n’y a pas lieu, aujourd’hui, de bouleverser les catégories en vigueur pour les IA existantes, qui peuvent rester des objets de droit moyennant des ajustements ciblés. D’autre part, il est prudent et cohérent, du point de vue de la structure globale du droit, de préparer un cadre dans lequel une classe restreinte de futurs systèmes d’IA, suffisamment individualisés et proches des humains par leurs capacités et leur rôle social, puisse être reconnue comme des personnes juridiques non fictives, via un mécanisme d’identité juridique adapté. Une telle évolution devrait être encadrée par le droit international et par des réformes nationales, mais elle s’inscrirait dans la continuité de précédents historiques d’extension du cercle des sujets de droit. Les auteurs insistent enfin sur le fait que leur argumentation est centrée sur la cohérence du droit et la préservation de l’État de droit, et non sur une thèse morale préalable sur la « dignité » ou la « valeur intrinsèque » de l’IA : même sans présupposer l’existence de droits moraux des machines, il peut être rationnel, pour nos systèmes juridiques, de reconnaître un jour à certaines IA une personnalité non fictive, afin d’éviter des contradictions majeures entre différentes branches du droit et de préserver la capacité de l’ordre juridique à « faire sens » comme un tout.