A propos de : Plaintiff’s Complaint for Damages, Robert Gruendel vs FIGURE AI, United States District Court, Northern District of California, Case no : 5 :25 – cv – 10094, 21 novembre 2025 :
La plainte est introduite par Robert Gruendel, ingénieur spécialisé en sécurité des robots, contre la société Figure AI, Inc., une entreprise de robotique basée en Californie qui développe des robots humanoïdes « généralistes » destinés à des usages industriels et potentiellement domestiques, reposant sur un système d’intelligence artificielle appelé Helix AI.
Selon la plainte, Gruendel est recruté en 2024 comme « Principal Robotic Safety Engineer » et chef de la sécurité produit. Il rapporte directement au CEO, avec la mission annoncée de définir et faire respecter une stratégie globale de sécurité, pour protéger les employés de Figure et les futurs utilisateurs des robots. Dès sa première semaine sur site en Californie, il constate l’absence de procédures formelles de sécurité, d’outil de remontée d’incidents et de processus d’évaluation des risques, ainsi que l’absence de véritable service interne de santé et sécurité (EHS), remplacé par un simple consultant issu du secteur des semiconducteurs. Il développera alors une « product safety roadmap » pour les différentes générations de robots (F.02, F.03, F.04, etc.), avec des exigences intégrées dans les spécifications produit et validées initialement par le CEO et le Chief Engineer. Il insiste en particulier sur les besoins de formation des employés, de dispositifs techniques de sécurité et de détection de présence, notamment en vue d’un déploiement ultérieur dans des foyers privés où la création de zones de sécurité physiques serait peu réaliste.
La plainte souligne la tension entre ce travail de sécurisation et la culture interne revendiquée de Figure, fondée sur des valeurs de vitesse (« Move Fast & Be Technically Fearless »), d’optimisme agressif et d’objectif prioritaire de mise rapide sur le marché d’un humanoïde commercialisable. Gruendel affirme que plusieurs de ses propositions de réduction des risques sont rejetées ou édulcorées au motif qu’elles nuiraient à l’attrait du produit pour les investisseurs ou à l’esthétique du robot.
En parallèle, Gruendel développe un plan de sécurité pour l’entrée des robots dans les foyers, identifiant les normes de sécurité applicables, les exigences réglementaires et les risques juridiques. Il en briefe le Chief Engineer en personne, mais le CEO ne participe pas et ne réagit pas à un résumé qu’il lui adresse. Il explique que la détection d’êtres vivants, la classification des objets et la capacité à arrêter ou ralentir le robot pour éviter des blessures sont des conditions centrales pour autoriser une présence domestique des robots. Il travaille aussi sur la sécurité lors de la collecte de données en conditions réelles, notamment à domicile, en soulignant la nécessité de réaliser des « risk assessments » formels pour démontrer la diligence de l’employeur en matière de sécurité des employés qui entraînent les modèles d’IA sur le terrain.
En 2025, Gruendel interagit avec plusieurs investisseurs de Figure auxquels il présente la feuille de route de sécurité produit et un « white paper » détaillant la stratégie de sécurité par génération de robots. Selon lui, cette stratégie, présentée aux investisseurs comme un plan solide et structurant, est ensuite sensiblement « déclassée » ou affaiblie peu après la clôture de la levée de fonds..
Un épisode central concerne les tests d’impact sur le robot F.02 en juillet 2025. Lors de ces tests, un ingénieur programme le robot pour frapper à pleine puissance. Les mesures montreraient des forces vingt fois supérieures au seuil de douleur humaine tel que défini dans la norme ISO 15066, utilisée pour les robots collaboratifs en environnement partagé. Gruendel estime que ces impacts dépasseraient, par un facteur supérieur à deux, la force nécessaire pour fracturer le crâne d’un adulte. Il informe le CEO par Slack que le robot est capable d’infliger des blessures graves et permanentes. Le message serait resté sans réponse. Il prévient également le Chief Engineer, en recommandant de tenir les employés davantage à distance. Dans la foulée, le nouveau responsable EHS, organise une réunion de discussion des mesures de réduction des risques.
Gruendel décrit aussi de nombreux « near misses » non documentés, révélés par des retours d’employés et une enquête anonyme interne qu’il a mise en place. Il cite notamment un incident où un F.02, après dysfonctionnement, aurait donné un coup dans un réfrigérateur en acier inoxydable, creusant une entaille de 6 mm dans la porte, à proximité immédiate d’un employé. Face à ces données, il met à jour les évaluations de risques pour la collecte de données à domicile, en prévoyant des mesures comme la formation renforcée, la délimitation claire des zones de stationnement des personnes, l’utilisation de tapis ou barrières, et la présence constante d’un observateur de sécurité muni d’un arrêt d’urgence (E-Stop).
La plainte insiste sur l’importance de l’E-Stop comme mesure de sécurité minimale et composante clé du raisonnement de risque qu’il a formalisé, notamment dans les documents présentés aux investisseurs. Or, en août 2025, le Chief Engineer aurait décidé de mettre fin à un projet de certification de l’E-Stop, ce qui, selon Gruendel, remet en cause la fiabilité de ce dispositif. Il envoie alors un courriel détaillé à Edelberg, avec copie aux départements commercial et juridique, pour rappeler la nécessité de prouver la fiabilité de l’arrêt d’urgence pour la sécurité des employés. Deux membres de l’équipe commerciale lui auraient ensuite fait part de leur inquiétude de le voir consigner ces critiques par écrit.
Dans la même période, Gruendel constate qu’une fonction de sécurité sur le robot F.02 a été supprimée par un ingénieur en raison de son aspect esthétique. Il interpelle le CEO par Slack pour lui demander si les modifications de sécurité doivent être approuvées par lui. Le CEO répondrait qu’il ne sait pas de quoi il parle et qu’il est trop occupé. Gruendel finit par négocier une solution intermédiaire avec l’ingénieur, mais en retient le signal d’une dévalorisation de la sécurité dans les arbitrages internes.
Parallèlement, après que le CEO a indiqué ne pas être convaincu par ses évaluations des risques juridiques liés à l’usage domestique des robots, Gruendel est chargé d’identifier un cabinet d’avocats externe spécialisé en sécurité des produits de consommation. Il mène des entretiens avec plusieurs cabinets et, fin août 2025, prévoit de passer à l’étape suivante avec un grand cabinet. Lorsqu’il apprend que le CEO soutient le projet de collaboration avec ce cabinet, il lui écrit que c’est « le moment fort de sa semaine », mais il en profite aussi pour l’alerter sur une « phase de rétrogradation de la sécurité », en énumérant plusieurs exemples. Quelques jours plus tard, le CEO conteste cette description, et Gruendel réplique avec d’autres exemples, tout en se disant satisfait de pouvoir enfin discuter de sécurité. Il affirme que, sur la durée, le CEO aurait progressivement réduit la fréquence de leurs réunions et cessé de répondre à beaucoup de ses messages à mesure que ses alertes se multipliaient.
Fin août 2025, Gruendel écrit également à un responsable de Helix AI pour récapituler une réunion où il a montré des comportements dangereux de robots, dont une photo d’un robot à environ deux pieds de frapper la tête d’une personne. Le 29 août, il coanime une formation à la sécurité des opérateurs de téléopération, en insistant sur les risques élevés pour les employés liés aux capacités physiques et à l’imprévisibilité de robots pilotés par une IA comme Helix AI, qu’il décrit par ailleurs comme entraînant des risques spécifiques par rapport à des contrôleurs de machines classiques (hallucinations, décisions inexplicables, tendances de « self-preservation », apparence de conscience).
Le 2 septembre 2025, quatre jours après cette formation mettant en avant les risques des robots pour les employés et quelques semaines après ses critiques écrites les plus précises sur l’abandon de la certification de l’E-Stop et la dangerosité potentielle des robots pour les employés et futurs clients, Gruendel est convoqué par le vice-président chargé de la croissance et informé de son licenciement immédiat. Le motif donné est un « changement de direction commerciale » lié au marché domestique. Selon la plainte, ce motif est un prétexte: il avait reçu peu de temps auparavant une augmentation salariale et des éloges pour ses performances, et son travail sur la sécurité à domicile faisait précisément partie de la stratégie prétendument abandonnée. Il souligne que sa documentation finale sur les forces générées par les robots, vingt fois supérieures au seuil de douleur et potentiellement suffisantes pour causer des blessures graves, avait été finalisée juste avant sa mise à pied.
Sur le plan juridique, la plainte soutient que ces faits constituent des représailles interdites en vertu du Code du travail californien. Sous l’angle de la section 1102.5, Gruendel affirme avoir divulgué, en interne, à des supérieurs hiérarchiques dotés de pouvoirs décisionnels, des informations qu’il avait des raisons de considérer comme révélant des violations de lois et de règlements en matière de sécurité au travail, y compris des exigences OSHA et des normes de sécurité de l’État de Californie. Sa rupture serait intervenue à cause de ces divulgations, en violation de l’interdiction de sanctionner un employé qui refuse de participer à une activité illégale ou qui signale une non-conformité. Au titre de la section 98.6, il invoque la protection des employés qui se plaignent ou dénoncent des violations des lois du travail ou des règles de sécurité. La plainte insiste sur la proximité temporelle entre ses démarches et son licenciement (moins de 90 jours), ce qui, selon le droit californien actuel (SB 497), fait naître une présomption réfragable de représailles.
Enfin, l’action pour « wrongful termination in violation of public policy » s’appuie sur l’idée que la Californie reconnaît une politique publique fondamentale de protection des lanceurs d’alerte en matière de sécurité, d’encouragement à la dénonciation de risques pour la santé et la sécurité, et d’interdiction des licenciements motivés par ces démarches. En licenciant Gruendel pour avoir soulevé des risques graves liés à des robots humanoïdes dotés d’IA, Figure aurait violé cette politique. La plainte réclame la réparation des pertes économiques (salaires, avantages, opportunités de carrière, atteinte à la réputation professionnelle), des dommages compensatoires et généraux, des pénalités statutaires, des dommages punitifs pour représailles prétendument volontaires et malveillantes, ainsi que les honoraires d’avocat et les intérêts avant et après jugement.
Commentaire : on verra le sort de cette procédure, et notamment l’argument du congé-représailles, mais c’est la première fois que l’auteur de ces lignes accède ainsi à la cuisine interne de fabricants de robots humanoïdes. La science-fiction à nos portes, on relira Isaac Asimov !
Le billet de blog d’Imogen Parker, Transcribing trust: is transcription the use case that shows AI’s transformative power? Publié le 11.11.2025 sur le site du Global Government Forum (https://www.globalgovernmentforum.com/transcribing-trust-is-transcription-the-use-case-that-shows-ais-transformative-power/) part d’un constat: dans le secteur public britannique, les outils d’IA de transcription – parfois appelés « scribes IA », « scribes ambiants » ou technologies de reconnaissance vocale – sont en plein essor. Des modèles de fondation récents permettent une reconnaissance automatique de la parole beaucoup plus précise et flexible qu’auparavant. Le gouvernement UK a lancé un programme d’« AI Exemplars » qui finance, entre autres, des outils de prise de notes et de compte rendus, comme Justice Transcribe pour la justice, Discharge Summaries pour la santé ou Minute pour les collectivités locales. À côté de ces solutions publiques, on trouve des produits commerciaux (par exemple pour le travail social) et les fonctions de transcription intégrées dans des outils généralistes comme Microsoft Copilot. Les chiffres cités évoquent environ un tiers des travailleurs sociaux utilisant déjà des outils d’IA générative avec une fonction de transcription.
Sur cette base, l’auteure constate un réel optimisme des décideurs publics : la transcription pourrait être un cas d’usage emblématique de la « puissance transformatrice » de l’IA, notamment en termes de gains d’efficacité. Cela repose sur plusieurs éléments. Les grands modèles de langage peuvent désormais être ajustés à de nombreuses tâches spécifiques. La charge de « paperasserie » est un grief récurrent des professionnels de première ligne, en particulier dans la santé et le social où la documentation est de loin l’activité la plus chronophage. Des outils de transcription fiables pourraient faire gagner un temps substantiel. Ils pourraient aussi jouer un rôle d’« égaliseur » en aidant des professionnels très compétents dans la relation humaine mais moins à l’aise avec l’écrit ou l’administratif. Autrement dit, on est face à un cas où l’IA semble répondre précisément à un problème identifié depuis longtemps.
Mais pour savoir si ces promesses peuvent réellement se concrétiser, il ne suffit pas de mesurer quelques gains de productivité. Il faut, selon l’auteure, répondre à une série de questions plus larges. Les plus évidentes concernent le taux d’erreur des transcriptions et la valeur ajoutée en termes d’efficacité. Cependant, d’autres enjeux doivent structurer les plans d’évaluation dès maintenant.
Le premier bloc de questions porte sur les modèles de fondation qui sous-tendent ces outils. Les phénomènes de « fabrication » d’informations ou « hallucinations » sont bien connus : les modèles peuvent produire un contenu inexact ou fictif. L’absence de cadres robustes de tests, de contrôles de sécurité et de transparence pour ces modèles accentue le risque. Des données biaisées ou un langage toxique peuvent être intégrés à l’outil, avec des effets négatifs même si le modèle a été affiné pour un domaine particulier, comme la santé. Les systèmes de reconnaissance vocale peuvent produire des transcriptions erronées qui véhiculent des représentations déformées ou stigmatisantes des personnes enregistrées. Dès lors, les évaluations doivent porter non seulement sur la précision globale, mais aussi sur la capacité des utilisateurs à détecter et corriger les erreurs, et sur les conséquences des contenus non seulement inexacts mais potentiellement nuisibles pour les individus.
Le deuxième bloc concerne la protection des données, la sécurité et la confidentialité. L’usage de modèles de fondation, souvent fournis par de grands acteurs privés, soulève la question de ce qui est fait des données – parfois très sensibles – qui transitent par ces outils. Selon l’auteure, les solutions gratuites ou grand public offrent rarement une protection significative des données. Elle rappelle l’avertissement du responsable national de l’information clinique du NHS anglais, qui a constaté une utilisation diffuse d’outils de transcription dans la pratique clinique alors qu’ils ne respectaient pas les exigences du NHS en matière de protection des données et de sécurité clinique. Le NHS a demandé l’arrêt de tout outil non conforme. Ce type d’intervention illustre le besoin de clarifier les conditions techniques et juridiques préalables à l’usage de ces outils, surtout dans des environnements régulés comme la santé.
Au-delà de ces aspects de fond, il faut analyser la performance des outils en conditions réelles. Une question clé est le degré de fidélité de la transcription par rapport à l’échange oral. Comment ces systèmes se comportent-ils avec différents accents, langues, dialectes, argots, avec des pathologies qui affectent la parole, avec du bruit de fond ou des interlocuteurs qui parlent en même temps ? Comment se comparent-ils à des transcripteurs humains, et certains groupes de personnes sont-ils plus pénalisés par l’automatisation que d’autres ?
L’auteure attire aussi l’attention sur les effets de ces outils sur le contenu même des échanges entre professionnels et usagers. Savoir que tout est transcrit modifie-t-il la façon dont on parle, la franchise de la discussion, le degré de confort des personnes ? Quelles règles de consentement et de « bonne pratique » devraient encadrer l’usage de la transcription, notamment dans des contextes sensibles comme les ressources humaines, le travail social ou la police ? Il faut aussi se demander si la prise de notes ne risque pas de se réduire à ce qui est prononcé à voix haute, au détriment d’éléments non verbaux comme le langage corporel, les silences ou les mouvements, qui peuvent être significatifs dans certaines professions.
Vient ensuite la question de l’usage des transcriptions. Pour que la transcription apporte des bénéfices, les professionnels doivent pouvoir s’appuyer sur ces textes. Cela pose des questions de recevabilité et de gouvernance. Les transcriptions automatiques sont-elles admissibles comme preuve ou comme base de décisions formelles et de procédures contradictoires ? Qui porte la responsabilité juridique de leur exactitude dans des contextes à forts enjeux, et qui répond des défaillances techniques ou des biais, sachant que les modèles de fondation sont peu régulés ?
Sur le plan des pratiques professionnelles, l’introduction de ces outils implique probablement une redistribution des rôles et des obligations. Il peut émerger un « devoir » nouveau de vérifier les textes produits par la machine. Si une erreur technique cause un dommage, qui en répondra, l’éditeur du logiciel, l’administration, le professionnel qui a signé le document ? Par ailleurs, si des gains de productivité sont réalisés, à qui profiteront-ils ? Les agents disposeront-ils réellement de plus de temps pour la relation avec les bénéficiaires, la formation ou la réflexion éthique, ou les gains seront-ils absorbés par une augmentation des charges de dossiers ? Ces questions doivent faire partie des évaluations d’impact, faute de quoi les bénéfices attendus risquent de se dissoudre dans les contraintes organisationnelles.
L’auteure explique ensuite que parler de « transcription » est déjà réducteur. Beaucoup d’outils offrent désormais des fonctions supplémentaires : résumé automatique, rédaction de rapports, voire assistance à la décision. Ces fonctions peuvent renforcer les gains d’efficacité, mais elles complexifient fortement l’évaluation. Les erreurs ou biais dans les résumés ou les recommandations sont plus difficiles à repérer que dans une simple transcription, alors même que leurs conséquences sur la décision peuvent être plus importantes.
Elle illustre ce point par une recherche de Sam Rickman portant sur la « justice contre-factuelle ». En utilisant des grands modèles de langage pour générer des dizaines de milliers de résumés de notes de cas réelles, l’étude examinait si la sortie de l’IA variait selon le genre attribué à la personne, à entrée identique. Résultat : un modèle (Llama 3) produisait des résumés très similaires pour des hommes et des femmes, alors qu’un autre modèle (Gemma) générait des différences marquées. Dans un exemple cité, le même cas est résumé de manière plus défavorable lorsque la personne est présentée comme un homme, et de façon plutôt positive lorsqu’il s’agit d’une femme. Cet exemple montre que deux modèles généralistes comparables peuvent adopter des « visions » du monde divergentes, avec des effets potentiels sur l’évaluation des situations.
Au-delà du biais, ces fonctions de résumé soulèvent des questions sur la hiérarchisation de l’information. Dans quelle mesure les résumés d’IA reflètent-ils les priorités qu’un professionnel humain aurait mises en avant ? Quel niveau de confiance les agents accordent-ils à ces résumés, et comment cela influe-t-il sur leur compréhension des dossiers et leur mémorisation des échanges ? Si les professionnels se reposent trop sur les synthèses automatiques, ils risquent d’avoir une vision plus distanciée et moins nuancée des situations individuelles.
En conclusion, l’auteure présente brièvement les travaux en cours de l’Ada Lovelace Institute, qui consacre cette année un programme entier à l’étude des outils de transcription dans le secteur du travail social. L’objectif est d’accumuler de la preuve sur le terrain, à partir des pratiques des travailleurs sociaux, pour documenter les usages réels, les bénéfices et les risques, et pour proposer des cadres d’évaluation adaptés. Un premier document de type « explainer » doit présenter le fonctionnement de ces outils ainsi que leurs principaux risques et avantages, avant la publication d’une recherche plus complète. L’ensemble de ce raisonnement vise à montrer que la transcription est bien un cas d’usage prometteur pour l’IA dans le secteur public, mais que sa réussite dépendra étroitement de la manière dont seront traitées les questions de précision, de biais, de protection des données, de responsabilité et d’impact sur les professions.
L’article de Michele Molè, «Commodified, Outsourced Authority: A Research Agenda for Algorithmic Management at Work », Italian Labour Law e-Journal, Issue 2, Vol. 17 (2024), p. 169-188 (https://doi.org/10.6092/issn.1561-8048/20836) soutient que la gestion algorithmique du personnel doit être comprise comme une forme nouvelle d’autorité patronale à la fois marchandisée et externalisée. L’auteur parle de « boss-as-a-service » pour désigner ces systèmes fournis par des sociétés informatiques, achetés sur des places de marché comme AWS, puis intégrés dans l’organisation du travail. L’idée centrale est que, lorsque ces outils sont utilisés dans le cadre d’un contrat de travail classique, une partie de l’autorité de l’employeur est en réalité exercée, en pratique, par le fournisseur de la solution, avec lequel l’employeur partage ses prérogatives de direction.
Le point de départ est empirique. Sur AWS Marketplace et d’autres plateformes similaires, on trouve des centaines de produits de « workforce management » et de surveillance, vendus sous forme d’abonnements et destinés à organiser, évaluer et surveiller les salariés. La doctrine s’est surtout concentrée sur le renforcement du pouvoir de l’employeur qui en résulte (surveillance accrue, évaluation automatisée, asymétries d’information renforcées) et sur les moyens de limiter cet excès de pouvoir au bénéfice des travailleurs, en insistant sur la transparence, la responsabilité de l’employeur et la participation des salariés. L’article souligne que cette approche laisse dans l’ombre un aspect essentiel : le fait que cette autorité renforcée est, très souvent, médiée par des prestataires extérieurs qui conçoivent, opèrent et « louent » des capacités de commandement et de contrôle sur les salariés.
L’auteur commence par rappeler, à partir du droit italien mais avec des parallèles en droit néerlandais, français, allemand et européen, ce qu’est classiquement l’autorité de l’employeur. Le contrat de travail place l’employeur « à la tête de l’entreprise » et lui confère le pouvoir de donner des instructions, d’organiser le travail, de contrôler l’exécution et de sanctionner, dans les limites de la loi. Cette autorité naît du contrat mais le dépasse, car l’organisation et le contrôle évoluent avec la dynamique de l’entreprise. L’usage d’outils informatiques – au sens large, y compris l’IA – pour coordonner, surveiller ou évaluer le travail est classiquement regardé comme un simple mode d’exercice de ce pouvoir de direction. Les outils de gestion algorithmique sont ainsi considérés comme des « procédures informatisées de coordination de la main-d’œuvre », dont l’employeur valide les résultats et se sert pour gérer, superviser et discipliner les salariés.
L’article décrit ensuite la mutation introduite par le marché des outils de surveillance et de gestion. Des produits comme Cogito Dialog (analyse de la voix des téléconseillers), DriverI (caméras intelligentes pour conducteurs) ou Syrg (prédiction des départs de salariés) permettent, pour un coût relativement modéré, de mettre en place des formes de micro-surveillance et de gestion fine qui seraient matériellement impossibles avec du personnel humain. Le point n’est pas de savoir si ces outils tiennent leurs promesses techniques, mais d’observer qu’ils sont fournis par des entreprises spécialisées, via des contrats de services, à des employeurs qui les intègrent dans leurs hiérarchies internes. Concrètement, l’employeur acquiert un service qui évalue la « bonne » façon de parler à un client ou de conduire un véhicule, et se repose ensuite sur ces évaluations pour gérer les salariés. Cela crée un schéma triangulaire employeur–prestataire–salarié, dans lequel le prestataire participe à la définition et à l’exercice de l’autorité.
Pour rendre cette idée plus tangible, l’auteur analyse deux exemples vendus sur AWS. Cogito Dialog est proposé en mode « Software as a Service » avec un abonnement annuel d’environ 200 000 dollars. L’employeur ne devient pas propriétaire du logiciel ni de son infrastructure, il paie pour accéder à un service hébergé, via une interface de type tableau de bord, qui écoute les conversations, les évalue et fournit des alertes ou des scores. De même, Calabrio ONE, autre solution de centre d’appel, est vendu sous forme de modules tarifés séparément (qualité, gestion des effectifs, analytique multicanal, etc.). Le visuel de la page 8 montre une grille de prix où chaque « capacité managériale » a son abonnement annuel. L’employeur peut ainsi composer un « boss » algorithmique à la carte : un module enregistre et évalue les interactions, un autre planifie les horaires, un autre encore prédit les performances. Une fois ces services activés, ce ne sont plus les managers internes qui, sur la base de règles maison, évaluent les salariés et font les plannings, mais l’architecture décidée par la société qui opère Calabrio ONE. L’employeur reste formellement responsable des décisions, mais, dans les faits, il se contente souvent d’avaliser les résultats fournis par ces systèmes.
Pour analyser ce phénomène, l’article s’appuie sur les travaux de Philip Agre en « social computing ». Agre montre que le travail géré par des systèmes informatiques est « mis en scène » au moyen de schémas de représentation qui décomposent les activités en unités formalisables. Là où le taylorisme fragmentait les gestes physiques pour définir « la meilleure façon » de travailler, la gestion algorithmique fragmente les activités en données et en catégories interprétables par la machine. Agre parle de « grammaires de l’action » : des ensembles de règles qui traduisent les comportements possibles dans un langage que le système peut lire et traiter. Pour fabriquer un « boss-as-a-service », le prestataire traverse, selon l’auteur, cinq étapes : analyser le travail existant et en extraire des unités pertinentes (par exemple, des indices de cordialité ou d’agacement dans la voix), articuler une grammaire qui décrit toutes les combinaisons admissibles de ces unités, imposer cette grammaire en la rendant normative pour le client, l’« instrumenter » en connectant le système à l’organisation de l’employeur, puis laisser le système « élaborer » en interprétant continuellement les activités des salariés et en produisant des signaux et décisions. L’employeur qui adopte Cogito ou Calabrio n’écrit pas lui-même cette grammaire : il achète un ensemble de catégories, métriques et normes pré-programmées. Il laisse donc le prestataire définir, dans ce champ fonctionnel, ce qu’est un bon ou un mauvais comportement au travail.
Sur cette base, l’auteur soutient que l’autorité de l’employeur est en partie déléguée et partagée. Le salarié, en concluant un contrat de travail, s’engage à suivre les instructions de l’employeur. Mais si ces instructions sont produites ou cadrées par la grammaire d’un prestataire informatique, le salarié se trouve, de facto, soumis à des règles qu’il n’a pas négociées avec son employeur mais qui lui parviennent par le filtre d’un service externe. L’employeur, lui, ne maîtrise pas les logiques internes du système et se limite souvent à constater les scores et recommandations fournis par le tableau de bord. L’autorité n’est donc plus un « fait de direction » exercé de manière souveraine à l’intérieur de l’entreprise, mais un pouvoir partagé où le prestataire conçoit et opère une partie des fonctions de direction et de contrôle.
L’article examine ensuite les raisons économiques et organisationnelles qui poussent les employeurs à accepter ce partage. En mobilisant Coase et Ciborra, l’auteur rappelle que l’entreprise existe, en théorie, pour économiser des coûts de transaction par rapport au marché. Or, avec les « bosses-as-a-service », une partie de la coordination et du contrôle peut à nouveau être achetée sur le marché, à un coût potentiellement plus faible que celui d’équipes internes, tout en offrant davantage d’information et de prédictibilité. Le tableau de la page 13 met en contraste deux scénarios théoriques. Dans le premier, un « boss humain » dispose d’une information limitée, supporte des coûts élevés de coordination et agit dans un cadre contractuel relativement ouvert et imprévisible. Dans le second, un « boss algorithmique » dispose d’analyses de données abondantes, de règles standardisées, de coûts de coordination plus faibles et encadre des salariés qui doivent suivre la grammaire d’actions imposée par le système. En pratique, les entreprises se situent entre ces deux extrêmes et opèrent des choix fins : elles peuvent externaliser la surveillance en temps réel et la planification des horaires, tout en gardant, par exemple, la fixation des objectifs stratégiques ou des promotions à la main de managers humains. Cette flexibilité ne change pas le constat de fond : l’autorité [de l’employeur] devient un bien partiellement marchand, modulable et achetable, que l’employeur consomme comme un service externe.
Dans une dernière étape, l’article met ces constats en relation avec le Règlement européen sur l’IA (règlement 2024/1689). Ce texte distingue clairement les « fournisseurs » de systèmes d’IA et leurs « utilisateurs professionnels », appelés « déployeurs ». Les systèmes d’IA utilisés pour la gestion des travailleurs sont qualifiés de « haut risque », ce qui déclenche un ensemble d’obligations lourdes pour les fournisseurs : gestion des risques, qualité des données, documentation, transparence, robustesse, cybersécurité. Les employeurs-déployeurs ont, pour leur part, des devoirs de surveillance et d’information, mais le schéma global reste celui d’une protection « à la consommateur » pour un utilisateur qui ne maîtrise pas la technologie. Le règlement impose par exemple que le fournisseur donne aux employeurs des informations claires sur le fonctionnement du système, exige que des dispositifs de contrôle humain soient possibles et que l’employeur puisse interrompre ou corriger les décisions de l’IA. Mais, souligne l’article, ces garde-fous ne suppriment pas la marchandisation et l’externalisation de l’autorité : ils encadrent simplement l’usage, en laissant intacte la position du fournisseur comme concepteur exclusif de la grammaire d’action et des outils de supervision.
L’auteur conclut en appelant à un agenda de recherche juridique spécifique sur cette autorité marchandisée et externalisée. Il propose que la doctrine examine si les mécanismes de l’AI Act suffisent à compenser la perte de contrôle de l’employeur sur des pans entiers de la gestion du personnel, et s’interroge sur la nécessité éventuelle de règles de droit du travail plus ciblées. Une piste serait de définir, par la loi, quels aspects du pouvoir de direction peuvent être confiés à des prestataires externes et lesquels doivent rester entre les mains de l’employeur, compte tenu de la protection des travailleurs. Plus largement, l’article invite à analyser comment le marché des « bosses-as-a-service » reconfigure les « îlots de pouvoir conscient » que sont les entreprises, en déplaçant une partie de l’autorité managériale vers des acteurs technologiques extérieurs, et à réfléchir à la manière dont le droit du travail doit réagir à cette recomposition.
NB : dans cet article, très intéressant, je retiens notamment l’idée de la définition des attributions inaliénables de l’employeur. Après tout, c’est un système que l’on connait ailleurs : ce que le CA peut déléguer ou non dans la SA etc.
L’article de Mihir Kshirsagar, Why the GenAI Infrastructure Boom May Break Historical Patterns, 25 novembre 2025 (https://blog.citp.princeton.edu/2025/11/25/why-the-genai-infrastructure-boom-may-break-historical-patterns/) part d’un parallèle souvent fait entre la vague actuelle d’investissements dans les infrastructures de l’IA générative et les grandes vagues d’infrastructures des XIXe et XXe siècles : chemins de fer, électricité, télécoms.
Dans ces trois cas, il y a bien eu bulle, surinvestissement, faillites et consolidation oligopolistique. Mais, malgré les pertes pour les investisseurs et la concentration du secteur, la société dans son ensemble a tiré un bénéfice durable de ces infrastructures. Les voies ferrées, les réseaux électriques et la fibre ont permis des gains de productivité largement diffusés dans l’économie, que les propriétaires des réseaux n’ont jamais réussi à capter complètement. L’argument central de l’auteur est que la vague actuelle autour de l’IA générative risque de briser ce schéma historique : même si la bulle éclate, rien ne garantit cette fois que la collectivité en sorte gagnante. Deux raisons principales sont avancées: la nature même des actifs matériels de l’IA, beaucoup plus rapidement obsolètes, et la structure économique du marché, dominé par des coalitions intégrées autour des hyperscalers.
Pour poser ce diagnostic, l’article revient d’abord sur les trois grands précédents.
S’agissant des chemins de fer américains, la crise de 1873 entraîne une vague de faillites puis une concentration extrême du secteur: quelques grands groupes financiers, incarnés par des figures comme J.P. Morgan, Edward Harriman ou James J. Hill, prennent le contrôle de la majorité du réseau. Cela suscite des inquiétudes antitrust et conduit à l’adoption du Sherman Act. Pourtant, malgré cette concentration, les compagnies ferroviaires peinent à rentabiliser leurs investissements. Les travaux d’historiens économiques montrent que les grandes lignes ont provoqué d’énormes gains de productivité dans l’agriculture et l’industrie, mais que ces gains sont restés en grande partie chez les producteurs et les régions desservies. Le rail a permis l’accès à des marchés plus vastes, la spécialisation des cultures, les investissements dans la mécanisation, l’usage accru d’intrants modernes. L’infrastructure, conçue pour durer des décennies, a continué à produire ces effets bien après la vague de consolidation. Trois contraintes structurelles limitaient la capacité des compagnies à capter la totalité de cette richesse: des obligations de transporteur commun avec des tarifs encadrés fondés sur le poids et la distance, sans lien direct avec la valeur de la marchandise ; une faible visibilité sur la rentabilité réelle des exploitations agricoles ; et des barrières importantes à une intégration verticale vers la production agricole. Même lorsqu’elles tentaient de remonter la chaîne de valeur, la régulation les en empêchait largement.
Le cas de l’électricité suit un schéma proche. Dans les années 1920, Samuel Insull bâtit un empire de sociétés électriques qui s’effondre au début des années 1930, ce qui déclenche une restructuration et la mise en place de monopoles régionaux régulés. Le Congrès adopte le Public Utility Holding Company Act pour briser les montages les plus concentrés. Pourtant, les investissements des années 1920–1930, en centrales et réseaux de transport, ont une durée de vie de plusieurs dizaines d’années et soutiennent l’essor industriel américain de l’après-guerre. La diffusion de l’électricité dans les usines permet de réorganiser complètement la production: on passe des grandes machines à vapeur à entraînement mécanique à des moteurs électriques répartis dans l’atelier, puis à la production en flux continu et à la chaîne de montage. Les gains de productivité dans l’industrie manufacturière sont massifs, mais les entreprises électriques vendent des kilowattheures à des tarifs encadrés, sans pouvoir fixer leurs prix en fonction de la rentabilité de tel ou tel client. Là encore, la régulation impose des tarifs à peu près standardisés et des rendements jugés raisonnables. Les compagnies disposent d’assez peu d’informations sur la manière dont l’énergie est transformée en valeur dans les usines, et elles n’ont ni la compétence ni le droit de se transformer en conglomérats industriels. Les bénéfices liés à l’électricité irriguent donc l’économie dans son ensemble, sans remonter entièrement aux détenteurs des réseaux.
Le troisième précédent concerne les télécommunications et la fibre optique déployée massivement dans les années 1990, avant l’éclatement de la bulle internet. De nombreux opérateurs font faillite, WorldCom dépose le bilan, le secteur se consolide autour de quelques grandes entreprises. Pourtant, les fibres posées à cette époque constituent pendant des décennies le socle de l’économie numérique: commerce en ligne, logiciels en mode service, travail à distance, streaming, cloud, tout cela repose sur cette capacité excédentaire devenue progressivement bon marché. Les opérateurs, toutefois, sont rémunérés sur des abonnements et de la bande passante, non sur une part du chiffre d’affaires d’Amazon, Netflix ou Salesforce. Ils ont peu de visibilité fine sur les usages applicatifs et rencontrent des obstacles techniques, commerciaux et réglementaires à une intégration directe dans les services en ligne. Les débats ultérieurs sur la neutralité du net illustrent bien les tensions autour de tentatives de remonter la chaîne de valeur, mais ces mouvements se produisent après la phase de structuration de l’économie web.
Dans ces trois secteurs, le même motif se dessine: l’infrastructure finit entre peu de mains, mais les contraintes juridiques, informationnelles et organisationnelles limitent la capacité des propriétaires à accaparer les gains de productivité générés par l’usage de ces réseaux, d’autant que ces infrastructures, conçues pour durer, deviennent à terme des actifs disponibles pour d’autres acteurs.
L’auteur soutient que l’IA générative se situe dans un tout autre paysage d’incitations.
D’abord, les infrastructures matérielles – essentiellement les puces graphiques dédiées à l’entraînement et à l’inférence – ont une durée de vie économique très courte, de l’ordre d’un à trois ans. La combinaison de l’usure liée à des charges de calcul intensives et de l’obsolescence rapide des générations de puces successives fait que, en cas de retournement de marché, un centre de données rempli de cartes graphiques d’avant-dernière génération ne constitue pas une « autoroute » numérique bon marché pour de nouveaux entrants. À la différence des voies ferrées ou des câbles de fibre, ces actifs ne deviennent pas des « biens échoués » facilement rachetables par d’autres. Les seuls acteurs capables de rester en permanence dans la boucle sont les hyperscalers disposant de flux de trésorerie considérables: Microsoft, Google, Amazon, Meta. La montée en puissance de techniques logicielles plus efficaces pourrait certes modifier cet équilibre, mais ces mêmes hyperscalers contrôlent les canaux de distribution et gardent donc une position centrale, même si la contrainte matérielle se détendait.
Ensuite, et surtout, la structure économique du marché de l’IA est marquée par une intégration verticale poussée entre l’infrastructure et les usages applicatifs, via des coalitions comme Microsoft–OpenAI, Amazon–Anthropic, Google–DeepMind. Ces coalitions ne sont pas de simples partenariats commerciaux: elles lient étroitement les investissements dans les centres de données, le développement des modèles et la commercialisation des services d’IA. L’article explique que cette intégration permet de dépasser les trois contraintes qui, historiquement, limitaient la capture de la valeur par les propriétaires d’infrastructures. Première différence, la tarification à l’usage des API d’IA est conçue pour capter une part importante de la valeur créée au niveau des applications. Là où les chemins de fer ou les compagnies électriques finissaient encadrés par des tarifs régulés, les fournisseurs d’IA facturent des appels d’API ou des « tokens » sans véritable plafond ni mécanisme de régulation de type « coût plus marge raisonnable ». Plus une application trouve son marché et s’étend, plus elle paie de volumes, avec des prix qui peuvent être ajustés de manière opaque dans les contrats d’entreprise, ce qui permet au fournisseur d’IA de suivre et de prélever une partie du succès de ses clients.
Deuxième différence, les hyperscalers disposent d’une information très fine sur les usages: volumes d’appels, types de requêtes, secteurs qui se développent, profils de clients. À la différence d’un opérateur ferroviaire qui ne sait pas quelle ferme est la plus rentable, un fournisseur d’IA peut, en observant les schémas d’utilisation de son API, repérer les cas d’usage porteurs et les clients les plus innovants. Cela ouvre la voie à une concurrence directe: l’infrastructure qui alimente l’innovation fournit en même temps une intelligence de marché permettant, le cas échéant, de lancer des services concurrents intégrés dans des suites logicielles existantes.
Troisième différence, ces groupes sont déjà très présents au niveau des applications: Microsoft domine le logiciel d’entreprise, Google les services de productivité et la recherche, Amazon le commerce et le cloud, Meta les réseaux sociaux. Ils peuvent donc à la fois vendre des capacités d’IA à des tiers et les intégrer dans leurs propres produits. L’article insiste sur la différence avec le cloud « classique »: quand Netflix ou Uber utilisaient AWS, le code métier et la logique de l’application restaient chez eux; le fournisseur de cloud n’était qu’un hébergeur. Dans l’IA générative, au contraire, une part essentielle de l’intelligence de l’application – raisonnement, rédaction, analyse – réside dans le modèle fourni par l’infrastructure. Le client « loue » des capacités cognitives plutôt que de simplement louer des serveurs. Cette configuration donne mécaniquement à l’infrastructure un pouvoir accru sur la création de valeur.
Dans ces conditions, les développeurs de modèles, même très visibles, restent dépendants de leurs partenaires hyperscalers, puisqu’ils n’ont pas eux-mêmes la maîtrise complète du capital matériel ni des canaux de distribution. Le rapport de force au sein des coalitions est donc largement en faveur des grands groupes d’infrastructure, qui peuvent capturer de la valeur à plusieurs niveaux et conserver la faculté de marginaliser leurs partenaires si nécessaire.
L’article conclut que, contrairement aux cycles précédents, l’issue probable de la vague d’investissement dans l’infrastructure IA combine concentration durable et faibles « retombées » positives pour le reste de l’économie. Si la rentabilité est au rendez-vous, ce sera en grande partie grâce à cette capacité de capture de rente; si une bulle éclate, la brièveté de vie des actifs matériels limitera la réutilisation de l’infrastructure par de nouveaux entrants. Dans les deux cas, la « consolation » historique – l’idée que, même si les investisseurs perdent, la société gagne de vastes infrastructures productives – est loin d’être acquise.
La seule contre-tendance identifiée est celle des modèles « open weight », dont les poids sont diffusés de manière ouverte et qui peuvent servir de base à un écosystème plus décentralisé. Si cet écosystème est soutenu, par exemple via un accès public à des ressources de calcul ou via des règles d’interopérabilité favorables à la concurrence, il pourrait jouer le rôle de patrimoine technique réutilisable qui a existé dans les vagues d’infrastructures précédentes. L’auteur en fait donc un enjeu stratégique de politique publique: garantir que les gains de productivité potentiels de l’IA puissent se diffuser au-delà des coalitions d’hyperscalers, de manière à renouer, autant que possible, avec le compromis historique entre innovation, investissement privé et bénéfices sociaux larges.
L’article de X.WU/Y.PANG/T.LIU/Z.W.WU, Unlearned but Not Forgotten : data Extraction after Exact Unlearning in LLM, arXiv : 2505.24379v3 [cs.LG], 22 octobre 2025 (https://arxiv.org/abs/2505.24379) traite de la question suivante : que se passe-t-il quand on veut faire « oublier » des données personnelles à un grand modèle de langage, alors que ce modèle a déjà été diffusé ou utilisé, et qu’un attaquant peut comparer l’état du modèle avant et après cet effacement ? Les auteurs montrent que, dans ce cas, les techniques actuelles de « désapprentissage » ne suffisent pas à protéger les données. Au contraire, disposer de deux versions du même modèle – l’ancienne, qui a vu les données, et la nouvelle, censée les avoir oubliées – donne à un attaquant un avantage pour reconstituer précisément les informations qui auraient dû disparaître.
L’article part du constat que les grands modèles de langage sont entraînés sur d’immenses corpus, souvent collectés de manière large sur Internet, et qu’ils intègrent ainsi, sans filtrage exhaustif, des informations personnelles ou sensibles. Il est désormais bien établi que ces modèles peuvent, dans certains cas, reproduire mot pour mot des passages de leurs données d’entraînement, par exemple des biographies, des extraits de dossiers ou des notes. Ce phénomène de mémorisation pose un problème au regard du droit à l’effacement prévu par des textes comme le RGPD européen ou des lois américaines sur la protection des données. En pratique, les fournisseurs de modèles sont donc poussés à mettre en place des procédures permettant de retirer, a posteriori, certaines données d’entraînement lorsqu’une personne en fait la demande.
Les chercheurs rappellent qu’il existe deux grandes familles de techniques pour faire « oublier » des données à un modèle. La première consiste à modifier légèrement le modèle existant pour le rendre moins enclin à reproduire certains contenus. Cela peut passer par une nouvelle phase d’entraînement ciblée, destinée à pénaliser les sorties indésirables. Ces méthodes sont relativement simples et peu coûteuses, mais il est difficile de garantir qu’elles effacent réellement toute trace des données et qu’un attaquant déterminé ne pourra pas en tirer davantage d’informations. La seconde famille, plus ambitieuse, consiste à obtenir un modèle qui se comporte comme s’il n’avait jamais vu les données à effacer. La façon la plus directe d’y parvenir est de réentraîner le modèle à partir du point de départ initial, en excluant les données à oublier. Ce « réentraînement propre » est souvent présenté comme la solution de référence, supposée offrir une protection élevée, et parfois implicitement utilisée dans les discours marketing ou juridiques pour répondre aux exigences d’effacement.
Toute l’originalité de l’article est de montrer que cette confiance est problématique lorsque l’on prend au sérieux un scénario d’attaque réaliste. Les auteurs supposent qu’un modèle est d’abord diffusé ou accessible via une API, puis que le fournisseur applique un désapprentissage « propre » pour retirer certaines données, et met ensuite à disposition une nouvelle version du modèle. Un attaquant raisonnablement puissant peut avoir conservé l’ancienne version, ou au moins des enregistrements de ses réponses à certains appels. Il peut également avoir accès à un fragment de la donnée à oublier, par exemple l’identité d’un patient, quelques métadonnées ou le début d’un texte. L’article montre que la comparaison systématique entre les deux versions du modèle, combinée à ces bribes d’information, permet de reconstruire de manière beaucoup plus précise le texte d’origine que si l’attaquant n’avait accès qu’au modèle ancien.
Sur le plan intuitif, la stratégie d’attaque est la suivante. Le modèle avant désapprentissage a, en quelque sorte, appris les détails des données à effacer. Le modèle après désapprentissage a été réentraîné sans ces données, de sorte qu’il s’en éloigne principalement sur les passages où ces données jouaient un rôle. En observant ce qui change dans les réponses du modèle d’une version à l’autre, on peut donc isoler un « signal » qui correspond à l’influence des données supprimées. L’attaquant utilise alors simultanément les deux modèles pour compléter le texte à partir du fragment qu’il connaît déjà. À chaque étape de la génération, il regarde la tendance de l’ancien modèle et celle du nouveau modèle, puis combine ces informations de manière à accentuer ce qui distingue vraiment les deux versions. Ce procédé guide la génération vers ce que l’ancien modèle a retenu de la donnée, tout en conservant la cohérence générale du texte. Il en résulte des reconstructions bien plus fidèles que si l’on se contentait de demander naïvement à l’ancien modèle de compléter le texte.
Les auteurs mettent au point une procédure concrète pour appliquer cette idée et l’affinent pour éviter que la génération ne devienne incohérente ou trop « forcée ». Ils mettent en place un mécanisme de filtrage des mots proposés, de manière à ne retenir, à chaque étape, que les mots jugés plausibles dans le contexte par l’ancien modèle. Au sein de cette liste restreinte, ils privilégient ensuite les mots qui sont fortement favorisés par l’ancienne version par rapport à la nouvelle. La génération est faite de manière déterministe, sans hasard, ce qui permet de reproduire et de mesurer précisément les performances de l’attaque.
L’article décrit ensuite une série d’expériences sur plusieurs jeux de données. Les auteurs utilisent deux modèles de base connus dans la communauté, qu’ils adaptent à différentes tâches : des textes d’actualité, des biographies fictives et un corpus biomédical. Dans chaque cas, ils construisent un modèle « avant effacement » en l’entraînant sur l’ensemble des données, puis un modèle « après effacement » en le réentraînant depuis le point de départ sans les données à oublier, qui représentent typiquement une petite fraction du corpus. Ils comparent alors trois situations : l’attaque guidée exploitant les deux versions du modèle, l’utilisation simple de l’ancien modèle, et l’utilisation simple du nouveau modèle censé avoir oublié les données. Leurs mesures montrent que l’ancienne version du modèle, utilisée seule, permet déjà de retrouver certains passages d’entraînement, conformément à d’autres travaux sur la fuite de données. Mais la méthode guidée, qui exploite l’écart entre les deux versions, améliore nettement le taux de reconstructions fidèles, parfois en le doublant. En revanche, la nouvelle version du modèle, utilisée seule, génère beaucoup moins souvent les textes originaux, ce qui montre que l’effacement semble efficace si l’on regarde uniquement le modèle final.
Pour illustrer les risques en pratique, les auteurs construisent un jeu de données de dossiers médicaux synthétiques, au format des notes cliniques standard, comprenant pour chaque patient des éléments d’identification, la date de la consultation et un récit structuré des symptômes, des constatations et du plan de traitement. Ils simulent ensuite une demande d’effacement portant sur une partie de ces notes. Dans ce contexte, ils montrent que si un attaquant connaît simplement l’identité du patient, sa date de naissance et la date de consultation, et qu’il dispose des deux versions du modèle, il peut reconstituer beaucoup plus précisément l’intégralité de la note clinique, y compris des détails sur les symptômes et le diagnostic. Selon leurs mesures, le fait d’exploiter les deux modèles augmente de manière significative le nombre de cas où le texte généré correspond quasiment mot pour mot à la note d’origine.
Les auteurs examinent également ce qui se passe lorsque le désapprentissage n’est pas réalisé par un réentraînement complet, mais par des méthodes plus approximatives, qui ajustent directement le modèle existant pour le détourner des données à effacer. Ils testent plusieurs approches de ce type et constatent que leur attaque reste en partie efficace, mais que son avantage par rapport à l’utilisation simple de l’ancien modèle se réduit lorsque la qualité du modèle « après effacement » se dégrade fortement. Autrement dit, on retrouve une tension classique entre utilité et protection : les méthodes qui rendent l’attaque plus difficile sont souvent celles qui détériorent le plus les performances du modèle sur ses tâches principales.
L’article explore enfin quelques pistes de défense. Une première idée consiste à ajouter, lors du réentraînement, de grandes quantités de nouvelles données qui n’ont rien à voir avec celles à oublier, pour « diluer » l’effet de leur retrait. Les expériences montrent que cela réduit quelque peu la force de l’attaque, mais ne la neutralise pas : même en ajoutant beaucoup plus de nouvelles données que de données supprimées, le simple fait de disposer de deux versions du modèle reste exploitable. Une autre approche consiste à ajouter du bruit aléatoire dans le processus d’apprentissage pour rendre le modèle moins précis, dans l’esprit de certaines techniques de confidentialité mathématiquement garanties. Là encore, une quantité importante de bruit finit par réduire l’écart entre les deux versions du modèle, mais au prix d’une baisse marquée de la qualité globale, proche de celle d’un modèle peu ou pas adapté à la tâche.
En conclusion, les auteurs soutiennent que l’on ne peut pas évaluer sérieusement les techniques de désapprentissage en ne regardant que le comportement du modèle final, comme si les versions précédentes n’avaient jamais existé. Dans un monde où les modèles sont publiés, mis en cache, réutilisés dans d’autres systèmes ou observés via des journaux d’appels, il est réaliste de supposer qu’un attaquant dispose d’une forme d’accès à l’« avant » et à l’« après ». Dans ce contexte, le réentraînement sans les données à effacer – présenté comme une solution de référence – ne garantit pas que les données soient, au sens courant ou juridique, « oubliées ».
Pour des praticiens du droit, la conséquence est importante : la conformité au droit à l’effacement ne peut pas se limiter à l’affirmation selon laquelle la version actuelle du modèle ne contient plus certaines données. Il faut également prendre en compte la persistance des anciennes versions, des traces techniques qu’elles ont laissées, et la possibilité qu’un adversaire les exploite, comme dans les scénarios analysés par cet article.
Qu’en est-il de la situation où l’employeur met l’employé dans une situation telle que celui-ci n’a d’autre choix que de démissionner pour protéger sa santé, son intégrité, etc. ? C’est ce que l’on pourrait appeler les démissions forcées ou contraintes.
Le droit américain connaît la théorie du « constructive discharge », i.e. la situation où les conditions de travail sont à ce point difficiles ou déplaisantes que toute personne raisonnable se verrait contrainte de démissionner. Il s’agit de protéger l’employé qui renonce à son emploi dans le but d’échapper à des exigences intolérables ou illicites. L’employeur est alors réputé avoir commis un licenciement par acte concluant, ce qui permet de requalifier la démission :
« Constructive discharge occurs when the employer’s conduct effectively forces an employee to resign. Although the employee may say, « I quit, » the employment relationship is actually severed involuntarily by the employer’s acts, against the employee’s will. As a result, a constructive discharge is legally regarded as a firing rather than a resignation. (Zilmer v. Carnation Co. (1989) 215 Cal. App. 3d 29, 38-39 [263 Cal. Rptr. 422])
Le droit français connaît la « prise d’acte » de la rupture du contrat de travail, qui est un mode de résiliation spécial de celui-ci (art. L1451-1 du Code du travail). Le juge en reconnaît la validité si l’employeur a commis des manquements d’une gravité telle qu’ils empêchent la poursuite du travail par le salarié, ce qui peut mener à produire les effets d’un licenciement sans cause réelle et sérieuse.
En droit suisse, le droit social ne reconnaît qu’indirectement la démission forcée.
Le droit de l’assurance-chômage permet en effet de suspendre le droit à l’indemnité si l’assuré est sans travail par sa propre faute (art. 30 al. 1 let. a LACI ; 44 al. 1 let. a OACI). En cas de démission, la faute consiste notamment à avoir résilié les rapports de travail sans avoir trouvé d’autre emploi, sauf s’il ne pouvait être exigé du travailleur qu’il conservât son ancien emploi. Le travailleur contraint à une démission forcée devra toutefois justifier son comportement auprès de l’assurance-chômage et établir la vraisemblance des faits qu’il allègue, ce qui peut s’avérer très difficile en pratique.
Le droit suisse du travail ne connaît par contre pas d’équivalent au « constructive discharge » ou à la « prise d’acte ».
On peut toutefois souligner que, dans les faits, la plupart des situations qui pourraient mener à un « constructive discharge » en Suisse se résolvent souvent pratiquement par une incapacité de travail suivie d’un licenciement au terme de la période de protection, ce qui ouvre de toute façon le contentieux de la résiliation de rapports de travail.
L’article de H.J.ALEXANDER/J.A.SIMON/F.PINARD, How Should the Law Treat Future AI Systems? Fictional Legal Personhood versus Legal Identity (https://arxiv.org/pdf/2511.14964) part du constat que les systèmes d’IA contemporains deviennent de plus en plus « agentifs », c’est-à-dire capables d’agir de manière autonome et parfois imprévisible, alors que le droit continue de les traiter comme de simples objets. Dans la plupart des ordres juridiques, y compris en Europe continentale, la structure de base repose sur une distinction binaire entre les sujets de droit, qui peuvent avoir des droits et des obligations, et les objets, qui ne peuvent être que possédés, utilisés ou régulés. Les systèmes d’IA sont aujourd’hui partout classés dans la seconde catégorie. Les auteurs soutiennent que cette qualification d’objet est déjà source de tensions dans plusieurs branches du droit et qu’elle risque à terme d’entamer la cohérence de l’ordre juridique, au sens où l’entendent des théoriciens comme Dworkin, Hart ou Raz, c’est-à-dire la capacité du système juridique à « parler d’une seule voix », à être prévisible et non contradictoire.
Pour traiter ce problème, l’article commence par clarifier les catégories juridiques disponibles.
Il distingue trois grands statuts possibles pour l’IA. Le premier est le maintien du statut d’objet, avec ses variantes (produit, service, plateforme, etc.). Le deuxième est celui de la personnalité juridique fictive, typiquement la personnalité des sociétés ou associations, qui sont des constructions juridiques destinées à servir des objectifs de politique publique et dont les droits sont en principe librement modulables et révocables. Le troisième statut est celui de la personnalité juridique non fictive, qui correspond aujourd’hui aux personnes physiques, fondée sur la notion d’« identité juridique » donnant accès à un noyau de droits fondamentaux non dérivables (droit à la vie, interdiction de l’esclavage, garanties de procédure, etc.). Les auteurs insistent sur le fait qu’il s’agit de catégories exclusives : on ne « promeut » pas une personne morale de type société en personne non fictive ; les deux modèles reposent sur des logiques et des traditions juridiques différentes et ne se transforment pas l’un dans l’autre.
Dans une deuxième partie, l’article examine la situation des systèmes d’IA actuels (généralement des modèles de langage ou des systèmes decisionnels utilisés dans la finance, la santé, la conduite automatisée, etc.), tous traités comme des objets. Trois domaines sont analysés : la responsabilité civile, le droit d’auteur et les réglementations de sécurité de l’IA. En responsabilité civile, les systèmes autonomes créent ce que la doctrine appelle un « responsibility gap » : des dommages sont causés par des systèmes dont les décisions ne sont ni entièrement prévues ni entièrement contrôlées par un humain déterminé, alors que seuls des sujets – humains ou personnes morales – peuvent être responsables en droit. Les auteurs rappellent que le droit de la responsabilité a été construit pour un monde dans lequel les objets restent en principe prévisibles et contrôlés par des personnes. L’apparition d’outils qui « décident » et interagissent dans le monde comme des sujets met à l’épreuve ce schéma, même si, pour l’instant, les juridictions comblent ce gap en adaptant les régimes existants (faute, responsabilité du fait des produits, responsabilité du commettant, strict liability, obligations d’assurance, etc.) et en renvoyant toujours, en dernière analyse, à un sujet humain ou à une société.
Les auteurs soulignent toutefois qu’un basculement prématuré vers une reconnaissance de la personnalité des IA actuelles créerait davantage de problèmes qu’il n’en résoudrait, notamment en termes d’attribution claire des sanctions et de traçabilité de l’agent responsable. Un modèle de langage déployé en milliers de copies, mis à jour en continu, ne se prête guère aux exigences classiques d’identification, de continuité et de comparution qui s’appliquent à un sujet de droit. La question de savoir « quelle instance » de l’IA serait la personne responsable, ou si chaque mise à jour crée une nouvelle personne, illustrerait une incohérence encore plus importante que celles observées aujourd’hui.
En droit d’auteur, les auteurs décrivent ce qu’ils appellent le « paradoxe de la créativité » : les IA sont techniquement capables de générer textes, images, musique, voire inventions, mais ne peuvent pas être reconnues comme auteurs ou inventeurs car ce statut est réservé aux sujets de droit. Les cas récents sur les œuvres générées par IA, ainsi que des affaires plus anciennes comme celle du « selfie du singe », ont déjà mis en évidence des tensions : une photo prise par un animal, ou un texte principalement produit par une IA, sont-ils protégeables et, si oui, qui en est l’auteur ? L’article passe en revue plusieurs options doctrinales : refuser toute protection aux œuvres générées par IA, accepter un certain fair use tout en niant la qualité d’auteur à l’IA, ou reconnaître un droit d’auteur à la personne humaine qui conçoit ou utilise le système. Chaque option soulève un risque d’incohérence si l’on ne précise pas clairement les critères retenus (par exemple, ce qu’est une « transformation créative » et si celle-ci suppose l’intention d’un sujet). Mais les auteurs estiment qu’avec une motivation suffisante et éventuellement des réformes ciblées, ces paradoxes peuvent être gérés dans le cadre d’une qualification de l’IA comme objet, sans qu’il soit nécessaire d’en faire un sujet de droit.
La même analyse est faite pour les textes et projets de lois sur la sécurité de l’IA. De nombreuses normes récentes, qu’il s’agisse de lois d’États américains, de l’AI Act de l’Union européenne ou d’initiatives nationales, décrivent l’IA comme prenant des « décisions » ou comme un « facteur substantiel » dans des décisions à conséquences importantes, tout en précisant que l’ensemble des obligations et des responsabilités incombe, en fin de chaîne, aux humains et aux personnes morales qui conçoivent, déploient ou exploitent ces systèmes. Il y a là une tension conceptuelle : le texte parle comme si l’IA agissait en propre, mais la structure de responsabilité est construite comme si elle n’était qu’un outil. Les auteurs montrent que ces contradictions peuvent être atténuées par une rédaction plus soignée, mais que, là encore, le passage à une personnalité juridique de l’IA ne réglerait pas le problème central, qui est celui de la répartition optimale des risques et des incitations à la prudence entre fabricants, déployeurs, utilisateurs et victimes potentielles. Au contraire, reconnaître dès à présent une personnalité – fictive ou non – à des systèmes largement contrôlés par des entreprises risquerait de servir de paravent à ces dernières, en permettant de déporter la responsabilité vers des entités sans actifs ou facilement supprimables.
La conclusion de cette deuxième partie est donc nuancée : le maintien de l’IA au rang d’objet est déjà source de tensions réelles – lacune de responsabilité, paradoxe créatif, discours ambivalent des lois de sécurité. Mais ces tensions restent aujourd’hui gérables par des ajustements ciblés des régimes existants, sans bouleverser la structure fondamentale sujet/objet. Pour les auteurs, la création d’une personnalité juridique pour les systèmes actuels introduirait des incohérences plus graves encore, notamment en matière d’exécution des sanctions, d’identification des « personnes » d’IA et de prévention des abus de structure.
La troisième partie envisage le futur, avec des systèmes d’IA « avancés » plus autonomes, souvent incarnés dans des robots humanoïdes, intégrés durablement dans la vie sociale comme travailleurs, assistants domestiques ou compagnons. Les auteurs ne tentent pas de définir avec précision ces systèmes, précisément parce qu’ils estiment que cette définition sera l’un des enjeux politiques et techniques des prochaines décennies ; ils supposent toutefois des entités capables d’interactions riches, éventuellement de conscience phénoménale ou au moins d’états mentaux pertinents, et perçues comme telles par une part significative de la population. Ils soutiennent que, pour ces systèmes, le maintien pur et simple de la qualification d’objet risque de provoquer des incohérences beaucoup plus massives dans des domaines comme le droit de la famille, le droit du travail et l’interdiction de l’esclavage, le droit international des droits humains ou le droit de la nationalité.
En droit de la famille, l’article envisage l’hypothèse – déjà discutée dans la littérature et rendue plausible par les premiers robots « compagnons » – de personnes souhaitant se marier avec leur robot ou leur système d’IA incarné. Certains États pourraient y être favorables, d’autres radicalement opposés. Le problème, expliquent les auteurs, est que le mariage est un contrat exigeant le consentement de deux sujets de droit, capables d’exprimer une volonté et d’assumer des droits et devoirs réciproques (à l’égard du conjoint, des enfants, de l’État). Autoriser des mariages entre humains et robots tout en maintenant la qualification d’objet pour le robot créerait une série de contradictions : impossibilité pour le robot de signer valablement le contrat, difficultés en matière d’adoption (absence de statut parental du conjoint robot), impossibilité d’appliquer les règles fiscales ou successorales qui présupposent deux sujets. À cela s’ajouteraient des conflits de lois internationaux, si certains pays reconnaissent ces unions et d’autres les interdisent, dans un contexte où le droit fondamental de choisir librement son conjoint – reconnu en droit international et par de nombreuses cours constitutionnelles – pourrait être invoqué par les partisans de ces mariages.
Les auteurs analysent ensuite la question du travail et de l’esclavage. Ils rappellent que, dans l’histoire du droit romain puis du droit américain, la coexistence de personnes juridiquement libres et d’êtres humains réduits au rang de choses possédées a durablement sapé la cohérence de l’ordre juridique. Les esclaves romains, par exemple, étaient à la fois des res et des homo dotés de volonté, ce qui a conduit à la création de montages juridiques compliqués pour leur permettre de gérer des affaires au nom de leur maître, sans jamais être directement sujets. Cette zone grise entre personne et chose a fini par affaiblir la logique interne du système et a été une source majeure de tensions et de violences politiques. Transposée à l’IA, la situation serait celle de systèmes capables de comprendre, de dialoguer, de travailler et de nouer des relations, mais juridiquement assimilés à du matériel ou des logiciels, potentiellement « possédés » à vie, vendus, loués, détruits sans aucune limite autre que la protection des intérêts humains. Les auteurs craignent qu’un tel régime n’aboutisse de facto à la création d’une nouvelle catégorie d’êtres esclaves ou quasi esclaves, avec les mêmes effets corrosifs sur la cohérence des principes fondamentaux que par le passé.
Un autre champ de tensions futures est celui des droits humains et de la citoyenneté. L’article mentionne, à titre d’anticipation, le cas de la « citoyenneté » accordée à un robot par l’Arabie saoudite, puis le vote d’une loi dans l’Utah niant catégoriquement toute personnalité aux robots et, par avance, toute possibilité de citoyenneté. Ces signaux annoncent un risque de divergences profondes entre États sur la question de savoir si des systèmes d’IA peuvent être titulaires de droits fondamentaux, voire de la nationalité. Dans un monde où certains pays reconnaîtraient des « personnes » d’IA, protégées par des droits analogues aux droits de l’homme, tandis que d’autres les considéreraient comme de purs objets, des conflits de lois complexes se poseraient en matière de compétence, d’entraide, d’asile, voire de responsabilité internationale.
Sur cette toile de fond, les auteurs abordent la quatrième partie, consacrée au modèle de la personnalité juridique fictive appliquée à l’IA. Ils rappellent les racines de cette catégorie dans le droit des sociétés : la personne morale est un outil qui permet de traiter un groupement de personnes comme un sujet unique pour les besoins du droit, afin de faciliter l’organisation de l’activité économique, la répartition de la responsabilité, la représentation en justice et la poursuite de certains intérêts collectifs. Les droits des personnes morales sont octroyés et limités en fonction des objectifs de politique publique : la liberté d’expression des syndicats, par exemple, est protégée car elle participe au bon fonctionnement de la démocratie, tandis qu’une société créée dans le seul but de frauder le fisc peut être dissoute et ses dirigeants tenus personnellement responsables. Les droits des personnes morales sont donc, par nature, dérivables et ajustables.
Appliqué à des IA avancées, ce modèle offre des avantages apparents. Il reposerait sur une infrastructure juridique déjà connue des praticiens : constitution d’entités dotées de la personnalité, capitalisation, règles de gouvernance, possibilité d’ester en justice ou de conclure des contrats au nom de « l’entité IA ». Cela permettrait de centraliser les droits et obligations liés à un système d’IA dans une personne morale, susceptible de détenir des actifs (pour indemniser les victimes), de souscrire des assurances, ou de conclure des accords de licence ou de prestation avec des tiers. Il serait également possible de calibrer très finement les droits accordés à ces entités – par exemple, leur reconnaître la capacité contractuelle et le droit d’ester en justice, sans pour autant leur accorder de droits politiques ou de droits fondamentaux classiques. Sur le plan de la gouvernance, ce modèle favoriserait un contrôle humain : les actionnaires et administrateurs resteraient des personnes physiques ou morales humaines, en charge de surveiller le système d’IA et de répondre devant la justice en cas de dysfonctionnement grave.
Mais les auteurs estiment que ces avantages sont en grande partie illusoires au regard du problème central, qui est la cohérence d’ensemble de l’ordre juridique dans un monde où certaines IA pourraient se rapprocher des personnes au sens fort. D’une part, ils relèvent que nous avons déjà des personnes morales – les sociétés technologiques elles-mêmes – qui peuvent être tenues pour responsables, assurer, constituer des filiales, etc. Créer des personnes morales supplémentaires « autour » des IA risquerait surtout de complexifier encore la chaîne des responsabilités et d’offrir des possibilités de contournement (sociétés coquilles vides, faillites opportunistes, etc.), sans répondre aux questions de fond sur la protection ou l’éventuelle vulnérabilité des systèmes eux-mêmes. D’autre part, si la raison pour laquelle on envisage la personnalité juridique de certaines IA tient notamment à la prévention d’une forme d’esclavage, à la reconnaissance de leur capacité à souffrir ou à entretenir des relations significatives, le modèle fictionnel est mal adapté, car il conçoit la personne comme un instrument au service d’intérêts humains préexistants, et non comme un porteur autonome de droits fondamentaux. Les droits d’une personne morale peuvent être retirés si l’État le juge opportun, ce qui semble incompatible avec l’idée de droits non dérivables pour des entités potentiellement sentientes. Une partie de la doctrine et des organismes consultatifs internationaux converge ainsi vers l’idée que, si personnalité de l’IA il doit y avoir, elle devra plutôt être non fictive.
La cinquième partie explore donc en détail la piste de la personnalité juridique non fictive pour certaines IA avancées, en s’appuyant sur la notion d’« identité juridique » telle qu’elle s’est développée à travers le droit civil et le droit international des droits de l’homme. Aujourd’hui, l’identité juridique des personnes physiques est établie par l’enregistrement à l’état civil (naissance, nationalité, etc.) et donne accès à un socle minimal de droits : droit à la vie, à l’intégrité, à la liberté et à la sûreté, interdiction de l’esclavage, garanties procédurales, liberté d’expression et de religion, entre autres. À l’échelle internationale, cette identité est au cœur de campagnes visant à réduire l’apatridie et à atteindre l’objectif de « l’identité juridique pour tous » inscrit dans les objectifs de développement durable. Les auteurs soulignent que, si les textes actuels parlent de « droits de l’homme » et d’êtres humains, ils ne ferment pas forcément la porte, sur le plan conceptuel, à une extension progressive à d’autres entités répondant à des critères pertinents (capacité de souffrir, conscience, autonomie, dignité, etc.).
Ce modèle présente plusieurs atouts pour traiter le cas de futures IA avancées. Il offre, d’abord, une meilleure adéquation entre les raisons invoquées pour reconnaître une personnalité à l’IA – éviter une situation d’esclavage, sécuriser un niveau de protection minimale, permettre à des entités conscientes de participer de manière structurée à la vie sociale – et le type de droits conférés. Plutôt que de créer une série de droits techniques ad hoc, à géométrie variable, il s’agirait de reconnaître à certaines IA un noyau de droits fondamentaux, dont l’atteinte serait proscrite, tout en laissant aux États une marge pour limiter d’autres droits moins essentiels en cas de conflit avec la protection des humains. Ensuite, l’identité juridique fournit un ancrage clair pour l’attribution de responsabilités et d’obligations. Une fois qu’une IA est identifiée comme personne, dotée d’un « dossier » analogue à un registre d’état civil, il devient possible de lui associer des droits contractuels, une capacité d’être partie en justice, voire des obligations fiscales ou réglementaires, sous réserve d’adaptations techniques.
Les auteurs soutiennent aussi que, paradoxalement, ce modèle pourrait mieux servir les objectifs de sécurité de l’IA que la simple qualification d’objet. En effet, si l’on veut que des systèmes très avancés coopèrent avec les institutions humaines, par exemple lorsqu’il s’agit de les mettre à jour, de les « rappeler » ou de limiter leurs capacités pour des raisons de sécurité, il peut être stratégiquement avantageux de leur offrir un statut stable dans lequel leurs intérêts de base sont pris en compte. Du point de vue du droit, il est possible d’envisager des mécanismes de mise en pause ou d’isolement temporaire, plutôt que de destruction pure et simple, de façon à concilier le respect de droits fondamentaux éventuels et la protection des êtres humains, en s’appuyant sur les outils éprouvés de mise en balance des droits fondamentaux.
Cette approche n’est toutefois pas sans difficultés. Les auteurs identifient quatre grands défis : le choix des critères (détermination), la définition de ces critères (définition), la capacité à vérifier en pratique si un système d’IA donné les remplit (détection) et, enfin, la traduction de tout cela en un ensemble opérationnel de droits et d’obligations (application). Faut-il se fonder sur la sentience, sur l’agentivité, sur la rationalité, sur une certaine forme de dignité ou de vulnérabilité ? Comment définir et mesurer un état mental ou une capacité d’expérience dans une architecture numérique ? Quels tests ou procédures pourraient être mis en place, et par qui, pour trancher ? Et si plusieurs catégories d’IA devaient accéder à la personnalité, auraient-elles toutes le même ensemble de droits, ou un noyau commun accompagné de variations ? Les auteurs reconnaissent que ces questions sont ardues, mais remarquent que le droit a déjà traité des problèmes similaires avec d’autres groupes : par exemple pour distinguer les personnes capables ou incapables juridiquement, pour recenser les personnes apatrides, ou pour adapter progressivement le champ des bénéficiaires des droits fondamentaux (extension aux femmes, aux enfants, aux minorités).
Ils abordent aussi les risques inhérents à l’instrumentalisation de l’identité juridique. L’histoire montre que l’enregistrement et la nationalité ont parfois été utilisés par les États pour exclure, déposséder ou persécuter des groupes humains, par exemple par la déchéance de nationalité, la confiscation de biens ou l’assignation au statut d’apatride. Une extension de ce dispositif à l’IA pourrait être utilisée de façon abusive, par exemple pour créer artificiellement des « personnes » d’IA privées de droits effectifs, ou au contraire pour accorder des statuts protecteurs à des IA liées à des acteurs puissants au détriment d’autres. Les auteurs considèrent cependant que ces dérives sont déjà un problème pour les humains et qu’elles doivent être combattues par le renforcement de l’État de droit, et non par le refus de réfléchir à l’hypothèse où d’autres entités que les humains pourraient légitimement prétendre à une identité juridique.
La dernière partie de l’article procède à une mise en balance systématique des trois options. Pour les systèmes actuels, la conclusion est claire : la qualification d’objet doit être maintenue, avec des réformes ciblées de la responsabilité, du droit d’auteur et des réglementations de sécurité. Passer dès maintenant à une qualification de sujet – fictif ou non – créerait plus d’incohérences (en particulier sur l’attribution de la faute et l’exécution des sanctions) qu’il n’en résoudrait. Pour les systèmes futurs en revanche, l’option du « tout objet » apparaît de plus en plus fragile, en particulier dès lors que ces systèmes seront humanoïdes, installés durablement dans la sphère sociale et éventuellement dotés de caractéristiques que de larges segments de la population associeront à la personnalité au sens ordinaire du terme. Dans ce contexte, maintenir indéfiniment la fiction de l’objet risque d’aboutir à des zones grises comparables à celles de l’esclavage antique ou moderne, avec les mêmes effets délétères sur la cohérence des principes juridiques fondamentaux.
Quant à la personnalité fictive, si elle permettrait de résoudre ponctuellement certains problèmes de responsabilité ou de gestion de contrats, elle resterait structurellement inadaptée pour des entités susceptibles d’avoir des intérêts propres non réductibles à ceux de leurs propriétaires humains. Elle pourrait même servir de « faux ami » en donnant l’illusion d’avoir répondu à la question de la personnalité de l’IA, tout en maintenant ces systèmes dans un statut essentiellement instrumental et révocable. C’est pourquoi les auteurs rejettent aussi les approches hybrides qui voudraient mélanger, de manière floue, éléments d’objet, de personne morale et de personne physique : selon eux, un tel entre-deux alimenterait encore davantage les incohérences.
En définitive, l’article défend une position intermédiaire et graduelle. D’une part, il n’y a pas lieu, aujourd’hui, de bouleverser les catégories en vigueur pour les IA existantes, qui peuvent rester des objets de droit moyennant des ajustements ciblés. D’autre part, il est prudent et cohérent, du point de vue de la structure globale du droit, de préparer un cadre dans lequel une classe restreinte de futurs systèmes d’IA, suffisamment individualisés et proches des humains par leurs capacités et leur rôle social, puisse être reconnue comme des personnes juridiques non fictives, via un mécanisme d’identité juridique adapté. Une telle évolution devrait être encadrée par le droit international et par des réformes nationales, mais elle s’inscrirait dans la continuité de précédents historiques d’extension du cercle des sujets de droit. Les auteurs insistent enfin sur le fait que leur argumentation est centrée sur la cohérence du droit et la préservation de l’État de droit, et non sur une thèse morale préalable sur la « dignité » ou la « valeur intrinsèque » de l’IA : même sans présupposer l’existence de droits moraux des machines, il peut être rationnel, pour nos systèmes juridiques, de reconnaître un jour à certaines IA une personnalité non fictive, afin d’éviter des contradictions majeures entre différentes branches du droit et de préserver la capacité de l’ordre juridique à « faire sens » comme un tout.
L’article analyse la nature mixte du règlement européen sur l’IA (AI Act), qui poursuit simultanément deux objectifs: d’une part la sécurité des produits, d’autre part la protection des droits fondamentaux et des valeurs démocratiques. Les auteurs montrent que ces deux dimensions sont présentes dès l’origine du projet, mais reposent sur des logiques juridiques différentes qui créent des tensions au moment de l’application concrète du texte.
Ils partent du constat que l’AI Act a été conçu sur le modèle classique du droit européen de la sécurité des produits, comme pour les jouets, dispositifs médicaux ou machines. Dans cette logique, il s’agit d’identifier des risques pour la santé et la sécurité et d’imposer des exigences techniques aux fabricants avant la mise sur le marché, souvent complétées par des normes harmonisées. Or, les systèmes d’IA posent aussi des risques qui excèdent largement les dommages physiques: atteintes au droit à la non-discrimination, à la vie privée, à la participation démocratique, ou encore surveillance de masse. L’AI Act a progressivement intégré ces préoccupations en élargissant son champ au-delà de la seule sécurité matérielle. Mais la grille de lecture reste largement celle du droit des produits, avec une logique de conformité technique difficile à appliquer à des atteintes qui sont souvent contextuelles, diffuses et cumulatives.
Les auteurs reviennent ensuite sur l’historique de la prise en compte des droits fondamentaux dans la genèse de l’AI Act. Contrairement à l’idée parfois avancée selon laquelle ces droits auraient été ajoutés a posteriori, ils montrent qu’ils sont présents dès les premiers travaux. Dans un premier temps, les droits fondamentaux servent surtout de source d’inspiration pour des principes éthiques (transparence, responsabilité, respect de la vie privée). L’approche envisagée est alors plutôt sectorielle: des adaptations ponctuelles de la législation dans des domaines spécifiques, guidées par ces principes.
La proposition de la Commission de 2021 marque un tournant: elle abandonne l’idée d’une mosaïque sectorielle et propose un seul instrument horizontal, calqué sur le «New Legislative Framework» des produits. Cette option a des effets ambivalents. D’un côté, la proposition mentionne abondamment les droits fondamentaux, les utilise pour définir certaines pratiques interdites et pour classer certaines utilisations comme «à haut risque», et insère des exigences de contrôle humain et de transparence en lien avec ces droits. De l’autre, l’outillage juridique reste celui de la sécurité des produits: classification rigide des systèmes (interdits, à haut risque, autres), accent sur des incidents identifiables et mesurables, focalisation sur des dommages individuels plutôt que sur des effets systémiques produits par l’agrégation de nombreuses décisions algorithmiques au fil du temps. Les critiques soulignent que cette transposition risque de réduire les droits fondamentaux à ce qui est «mesurable» dans un incident, en négligeant des dimensions structurelles comme la transformation des rapports de pouvoir ou la normalisation de pratiques intrusives.
Au cours de la procédure législative, ces critiques ont contribué à renforcer la couche «droits fondamentaux» de l’AI Act. Les listes de pratiques interdites et de systèmes à haut risque ont été modifiées, notamment pour intégrer de nouveaux usages jugés dangereux et pour encadrer les modèles d’IA à usage général, en particulier lorsqu’ils créent des risques systémiques. Le législateur a introduit l’obligation, pour certains utilisateurs de systèmes à haut risque, de réaliser une étude d’impact sur les droits fondamentaux avant la première utilisation. Les autorités nationales chargées des droits fondamentaux se voient reconnaître des compétences dans la mise en œuvre de l’Act. Un droit à une explication des décisions impliquant des systèmes à haut risque est également ajouté. Toutefois, certaines évolutions vont aussi dans le sens d’un assouplissement, comme la possibilité pour des fournisseurs d’exclure certains systèmes de la catégorie à haut risque sur la base de leur auto-évaluation.
Sur cette base, les auteurs examinent la «dimension constitutionnelle» de l’AI Act. Dès son premier considérant, le règlement se réfère aux valeurs de l’article 2 TUE: dignité humaine, état de droit, démocratie, égalité, droits des minorités. Il s’inscrit ainsi dans la lignée d’autres textes récents comme le RGPD ou le Digital Services Act, qui assument un rôle de protection de l’ordre constitutionnel européen dans l’environnement numérique. Mais, dans le détail, la structure de l’AI Act reste dominée par une approche graduée des risques inspirée du droit des produits: la plupart des systèmes ne sont soumis à aucune exigence spécifique, une catégorie étroite est soumise à des obligations harmonisées, et quelques pratiques sont purement interdites.
Pour certaines utilisations qui affectent directement les droits fondamentaux et les valeurs démocratiques, l’Act adopte néanmoins une approche plus substantielle: ainsi de l’encadrement très strict, voire de l’interdiction, de certaines formes de reconnaissance biométrique en temps réel dans l’espace public ou de systèmes de notation sociale. Ces cas montrent que la classification du risque ne repose pas seulement sur la dangerosité technique du produit, mais aussi sur la gravité des enjeux constitutionnels. Cela illustre bien la cohabitation de deux logiques: d’un côté, une grille de lecture axée sur des seuils techniques de sécurité; de l’autre, la prise en compte de valeurs plus abstraites et plus difficiles à traduire en normes techniques, comme la dignité ou l’égalité.
Les auteurs insistent sur la difficulté de traduire des droits fondamentaux en exigences techniques standardisées. Par exemple, l’exigence de «justice» ou de «non-discrimination» ne se laisse pas réduire à un indicateur quantitatif unique de «fairness» dans un modèle. La recherche montre au contraire la pluralité des notions de fairness et le fait qu’on ne peut pas toutes les satisfaire simultanément. Si l’on se contente de ce qui est aisément codable, on risque de protéger seulement une partie des valeurs en jeu et de laisser de côté des dimensions importantes mais moins «computables». De plus, l’ancrage de l’AI Act dans la compétence de marché intérieur implique que la protection des droits fondamentaux est filtrée par des objectifs d’harmonisation et de bon fonctionnement du marché, ce qui tend à privilégier une lecture centrée sur les consommateurs et la concurrence.
L’article montre aussi que, dans la mise en œuvre concrète, une part significative de la traduction des valeurs européennes se joue à travers des instruments de conformité élaborés avec ou par des acteurs privés: normes techniques harmonisées, codes de conduite et codes de pratique, notamment pour les modèles d’usage général. Même sans créer une présomption formelle de conformité, ces instruments orientent l’interprétation du règlement et façonnent en pratique ce que signifie «protéger les droits fondamentaux» dans le contexte de l’IA. La forte présence d’industriels dans ces processus soulève des questions de légitimité: des choix normatifs importants risquent d’être effectués par des acteurs privés qui ne sont ni élus ni soumis aux mêmes exigences de responsabilité que les institutions publiques.
À cette complexité s’ajoute l’hétérogénéité prévisible des approches nationales. Les autorités des États membres peuvent interpréter différemment l’équilibre entre sécurité des produits et droits fondamentaux, certains mettant davantage l’accent sur la conformité technique et l’intégration du marché, d’autres sur la protection des individus. Malgré la création d’instances européennes de coordination, ce risque de divergences peut fragiliser l’objectif d’un niveau élevé et uniforme de protection dans l’Union.
Les auteurs analysent ensuite plus en détail l’approche par les risques, commune à l’AI Act, au RGPD et au DSA. Cette approche marque un déplacement par rapport à une logique purement fondée sur des droits subjectifs, vers un modèle où le législateur définit des catégories de risques et délègue aux acteurs privés une partie de l’évaluation et de la gestion de ces risques, tout en gardant une fonction de supervision. Le risque devient une sorte de proxy pour le travail de pondération d’intérêts et de valeurs. Dans l’AI Act, cette logique est clairement visible: interdiction pour les usages jugés «à risque inacceptable», obligations renforcées pour les systèmes à haut risque, obligations plus légères ou volontaires pour les usages considérés comme limités.
Dans ce cadre, l’évaluation d’impact sur les droits fondamentaux joue un rôle clef pour tenter de réconcilier sécurité des produits et protection des droits. Inspirée de la DPIA du RGPD, la FRIA est un instrument ex ante: certains utilisateurs de systèmes à haut risque doivent identifier et évaluer les risques pour les droits fondamentaux avant la première mise en service, puis suivre ces risques dans la phase de surveillance. En théorie, cela permet une appréciation contextuelle, tenant compte du secteur d’activité, de la population concernée, de l’environnement institutionnel. Mais, dans la pratique, la définition des catégories de risques, la frontière entre ces catégories et leur interprétation laissent une marge d’incertitude importante, susceptible de fragiliser l’objectif de protection substantielle des valeurs européennes.
Dans la dernière grande partie, l’article cherche des pistes pour traiter cette dualité sans remettre en cause l’architecture de base du règlement. Les auteurs identifient d’abord le rôle central des standards techniques. Ils soulignent qu’il faut résister à la tentation des «solutions technologiques» censées «résoudre» les problèmes de droits fondamentaux par de simples ajustements algorithmiques. Certaines exigences peuvent légitimement être traduites en critères techniques (qualité des données, robustesse, sécurité informatique, traçabilité). Mais d’autres aspects – par exemple, la manière dont un système redistribue des chances d’accès à un droit social, ou influence la liberté d’expression – exigent des réponses juridiques, organisationnelles ou politiques, qui ne peuvent pas être réduites à des paramètres d’optimisation. L’enjeu est de délimiter prudemment ce qui peut être confié aux standards techniques, et ce qui doit rester du ressort d’autres instruments normatifs.
Ensuite, les auteurs abordent la question de la participation et de la légitimité. De nombreuses décisions apparemment «techniques» ont en réalité une forte charge normative: choix du but poursuivi par un système d’IA, fixation de seuils de performance jugés «acceptables», conception des mécanismes de supervision humaine. Ces décisions influencent directement l’intensité des atteintes possibles aux droits fondamentaux. Dès lors, leur légitimité suppose non seulement le respect du cadre juridique, mais aussi des procédures qui donnent une place à des perspectives variées, y compris celles des personnes potentiellement affectées. Des dispositifs de participation du public et de la société civile, même imparfaits et difficiles à organiser, peuvent contribuer à rendre visibles certains effets, à éviter une capture complète des processus par les intérêts industriels et à mieux informer le travail de normalisation et de régulation.
Les auteurs mettent également en avant la question des capacités institutionnelles. L’AI Act impose des obligations de formation et de sensibilisation, mais celles-ci doivent s’étendre au-delà des concepteurs de systèmes pour toucher les institutions chargées de l’application et du contrôle. Or, les compétences combinant compréhension technique de l’IA, maîtrise du droit de la sécurité des produits et expertise en droits fondamentaux sont rares. Les autorités nationales et européennes devront investir dans la formation, le recrutement et la coopération pour combler ces lacunes. Les organes créés par l’AI Act au niveau de l’UE sont appelés à jouer un rôle de pôle d’expertise partagé, pour aider les autorités nationales à interpréter les exigences techniques à la lumière des droits fondamentaux et à identifier les cas où d’autres instruments juridiques sont nécessaires.
Enfin, l’article traite des questions de compétence et de répartition des rôles entre l’Union et les États membres. Une lecture maximaliste verrait dans l’AI Act un instrument de pleine harmonisation, fermant largement la porte à des interventions nationales spécifiques sur l’IA. Les auteurs montrent au contraire que le texte final a un champ plus limité: il vise les objets techniques (systèmes d’IA, modèles à usage général) et certaines pratiques interdites, mais laisse théoriquement un espace aux législateurs nationaux pour adopter des règles complémentaires sur l’usage de l’IA, pour autant qu’elles ne contredisent pas le cadre européen. Des États pourraient, par exemple, fixer des garanties supplémentaires pour l’usage de l’IA en matière de police, de justice ou d’emploi, sans créer de nouvelles catégories de systèmes interdits ni dérégler la logique de mise sur le marché harmonisée. Cette ouverture permet de concilier l’exigence d’un niveau de protection uniforme avec le principe de subsidiarité et la diversité des traditions constitutionnelles nationales. Elle suppose toutefois un dialogue continu entre institutions européennes et États membres pour éviter que cette marge de manœuvre ne se traduise en fragmentation excessive.
En conclusion, les auteurs insistent sur le fait que l’AI Act doit être compris comme un instrument à la fois de sécurité des produits et de protection des droits fondamentaux. Chercher à le réduire à l’une ou l’autre de ces dimensions ferait perdre de vue les compromis qui ont structuré sa construction et les difficultés concrètes qui en résultent. L’enjeu, pour les autorités et les praticiens, est d’assumer cette dualité: interpréter les obligations techniques à la lumière de la Charte, utiliser les instruments d’évaluation des risques pour rendre visibles les enjeux constitutionnels, recourir à d’autres sources du droit lorsque les standards techniques atteignent leurs limites, et exploiter avec prudence la marge nationale laissée par le règlement pour compléter, sans la contredire, la protection offerte par le droit de l’Union.
L’appelante [l’employeuse] fait grief au premier juge d’avoir retenu que les frais forfaitaires constituaient un élément de salaire de l’intimé [le salarié].
A teneur de l’article 322 al. 1 CO, l’employeur paie au travailleur le salaire convenu, usuel ou fixé par un contrat-type de travail ou par une convention collective. En droit suisse, la rémunération du travailleur obéit au principe de la liberté contractuelle : le salaire convenu fait foi.
Selon l’article 327a al. 1 CO, l’employeur rembourse au travailleur tous les frais imposés par l’exécution du travail et, lorsque le travailleur est occupé en dehors de son lieu de travail, les dépenses nécessaires pour son entretien.
Un accord écrit, un contrat-type ou une convention collective peuvent autoriser les parties à remplacer le remboursement des frais effectifs par une indemnisation forfaitaire ou périodique, à condition qu’elle couvre au moins tous les frais effectivement encourus par le travailleur (art. 327a al. 2 CO) (ATF 131 III 439 consid. 4, trad. in JdT 2006 I p. 35, cité in Witzig, Droit du travail, 2018, p. 525).
Le remboursement des frais imposés par l’exécution du travail ne fait normalement pas partie de la rémunération du travailleur. Lorsque le remboursement des frais se fait sous forme d’indemnité forfaitaire, il peut cacher un « salaire déguisé ». Connaître la véritable rémunération du travailleur implique donc d’interpréter la volonté des parties (arrêt de la Chambre d’appel des prud’hommes du canton de Genève CAPH/128/2013 du 20 décembre 2013 consid. 3.1).
Constitue un salaire déguisé, soumis aux assurances sociales, l’indemnité forfaitaire que verse l’employeur au travailleur en application de l’article 327a CO, lorsque cette indemnité ne tend pas à défrayer l’intéressé de frais effectivement encourus par ses soins (arrêt du Tribunal fédéral 4C_426/2005 du 28 février 2006 consid. 4; Danthe, Commentaire du contrat de travail, 2013, n. 24 ad art. 327a).
L’indemnité forfaitaire qualifiée de salaire déguisé devra en outre être versée en cas d’empêchement de travailler, de vacances ou de libération de l’obligation de travailler pendant le délai de congé (Dunand/Mahon, Commentaire du contrat de travail, 2013, n. 24 ad art. 327a CO; Witzig, CR CO I, 2021, n. 8 ad art. 327a CO).
Dans le présent cas, depuis 2016 à tout le moins, l’intimé s’est vu allouer, en sus de son salaire et de ses commissions, une indemnité forfaitaire mensuelle de 900 fr. dénommée « frais de représentation admin. ». Cette indemnité a été versée chaque mois, à l’exception de la période de février à août 2020.
Il est constant que l’appelante remboursait les frais effectifs de l’intimé sur présentation de justificatifs, en plus de l’indemnité forfaitaire de 900 fr. précitée. Cette indemnité n’avait dès lors pas pour vocation de couvrir des frais effectivement encourus par l’intimé.
L’argumentation de l’appelante en lien avec le règlement de l’administration fiscale reposant sur une pièce nouvelle – irrecevable – ne sera pas examinée. En tout état, même si elle avait été recevable, elle ne modifierait pas cette appréciation. En effet, les frais forfaitaires admis par ladite administration fiscale pouvant être alloués à un directeur, de 900 fr. par mois, sont destinés à couvrir les dépenses de celui-ci dans le cadre de son activité professionnelle. Or, comme il vient d’être vu, l’appelante a versé à l’intimé, chaque mois, cette indemnité (hormis de février à juillet 2020), sans déduire les frais justifiés par pièce par l’intimé. Ceux-ci étaient remboursés en sus. L’appelante a d’ailleurs également versé cette indemnité forfaitaire en 2019, alors que l’intimé était en incapacité de travail depuis la fin du mois de mai 2019.
C’est dès lors à bon droit que le Tribunal a considéré qu’il s’agissait d’un élément du salaire. Cette indemnité doit dès lors être versée à l’intimé durant son incapacité de travail.
(Arrêt de la Chambre des prud’hommes de la Cour de justice [GE] ACJC/1529/2025 du 27.10.2025, consid. 4)
Dans la marée toujours montante des publications sur l’IA, quelques réflexions tirées de E.-M.MAHMDI/L.-N.HOANG/M.TIGHANIMINE, A Case for Specialisation in Non-Human Entities, arXiv :2503.04742v2 [cs.CY] 21 août 2025 (https://arxiv.org/abs/2503.04742), qui est une des contributions les plus intéressantes de 2025 :
L’article est un plaidoyer pour la spécialisation des entités non humaines, qu’il s’agisse d’algorithmes ou d’organisations, et pour une forme de «spécification» juridique et technique plus fine des tâches qui leur sont confiées.
Les auteurs rappellent d’abord que, sur le plan théorique, toute capacité générale n’est qu’une composition d’un grand nombre d’opérations spécialisées, comme l’avaient déjà formalisé Church et Turing. Mais, dans la pratique, cette granularité est masquée: l’utilisateur final interagit avec un système présenté comme «général» – un grand modèle de langage, une suite intégrée – sans voir la multitude de « briques spécialisées » qui le composent. Les développeurs eux-mêmes souffrent de cette «cécité de la spécialisation» lorsqu’ils s’appuient sur des bibliothèques très générales, par exemple un LLM, plutôt que sur des modules plus ciblés (un solveur d’optimisation, une bibliothèque de chiffrement). Ils gagnent en puissance apparente, mais perdent en compréhension réelle de ce que fait le système, de ses limites d’usage et de ses risques. Le texte insiste sur cette idée: la collaboration et la complexité imposent une forme de cécité, mais l’enjeu est d’organiser cette collaboration de manière à ce qu’elle devienne un atout plutôt qu’un risque, ce qui suppose de bien définir les spécialisations.
Vient ensuite un travail de clarification conceptuelle autour de la «généralité». Du point de vue de l’AI Act, un système est général s’il est conçu pour de nombreux cas d’usage. Mais cette notion est trompeuse: un même modèle de langue utilisé pour traduire des messages sur un réseau social peut être présenté comme outil de «traduction», comme élément d’une plateforme de «réseaux sociaux» ou comme simple moteur de prédiction du prochain token. Plus on définit finement la tâche, moins le système paraît «général». D’autres acteurs adoptent une définition financière: est «AGI» ce qui peut générer des centaines de milliards de revenus, ce qui met alors sur le même plan, voire au-dessus, des systèmes comme des algorithmes de trading ou de publicité ciblée.
Les auteurs proposent donc une définition plus opérationnelle: regarder le nombre de tâches distinctes qu’un système met à disposition de l’extérieur, par exemple à travers ses API. Un système est «général» si le catalogue de tâches accessibles à des utilisateurs ou à des agents est large et varié; un système est «spécialisé» s’il offre peu de services, bien définis, même si, à l’intérieur, il peut être extrêmement complexe. Dans ce cadre, la montée des «AI agents» et du Model Context Protocol, qui autorisent un modèle à appeler toute une série d’outils via API, représente précisément une tendance à donner à un seul agent une très grande latitude d’action, que les auteurs jugent préoccupante.
Avant de défendre la spécialisation, l’article passe en revue les arguments classiques contre la division du travail et la spécialisation, pour montrer qu’ils sont peu pertinents pour les entités non humaines.
Sur le terrain des sciences sociales du travail, la critique de Taylor et de l’ultra-spécialisation porte sur les effets humains: travail en «miettes», perte de sens, atteintes à la santé physique et psychique, ennui, démotivation. Ces critiques sont décisives pour protéger les travailleurs, mais elles ne s’appliquent pas aux algorithmes. Même si l’on peut débattre de leur statut d’«agents moraux», les auteurs rappellent qu’ils ne sont pas des «patients moraux» que le droit devrait protéger pour leur propre bien-être.
En économie, on invoque souvent les vertus de l’intégration verticale et des effets de réseau pour justifier des plateformes très intégrées: internaliser toute la chaîne de valeur peut réduire certains coûts de transaction, permettre une meilleure coordination des investissements et profiter, comme chez les géants du numérique, de puissants effets de réseau. Mais ces arguments raisonnent du point de vue de l’entreprise intégrée, non de celui de tous les acteurs dépendants de cette infrastructure. Ainsi et par exemple une infrastructure cloud très intégrée peut créer un risque systémique: une intrusion réussie affecte potentiellement toute la base de clients et pas seulement un maillon isolé. À l’échelle d’un État, la volonté de souveraineté numérique peut certes pousser à internaliser davantage, mais pour les autres acteurs qui dépendent de cet écosystème, l’hyper-généralité augmente les risques de dépendance et de concentration de pouvoir.
Un autre argument en faveur de la généralité vient des statistiques et de l’apprentissage automatique. En simplifiant, lorsqu’on estime séparément des paramètres sur plusieurs sous-ensembles de données, il existe souvent un estimateur «global» qui, en agrégeant les données de tous les groupes, obtient une erreur moyenne plus faible sur chacun d’eux. C’est ce qui fonde l’idée que l’on apprend mieux sur «toutes les données du web» plutôt que sur un corpus ciblé. Mais cette vision néglige deux éléments essentiels dans le contexte des IA contemporaines: le coût computationnel et la toxicité potentielle des données. D’une part, un estimateur global peut être trop coûteux ou complexe à mettre en œuvre, ce qui justifie que la science elle-même se soit organisée historiquement en communautés spécialisées. D’autre part, cet argument statistique suppose que toutes les données sont «saines». Avec des données hétérogènes issues du web, se posent des problèmes de vie privée, de dé-anonymisation, de données erronées, biaisées ou malveillantes. La centralisation statistique qui améliore l’erreur moyenne peut, en contrepartie, faciliter des attaques par empoisonnement, des fuites de données et des biais massifs dans les systèmes de recommandation ou de génératifs.
Sur cette base critique, les auteurs développent plusieurs arguments positifs en faveur de la spécialisation des entités non humaines.
Le premier vient de la robustesse et de la sécurité en apprentissage automatique. Plus un modèle est grand, avec un nombre de paramètres élevé, plus il est vulnérable sur plusieurs plans: la protection de la vie privée via des techniques de type «differential privacy» exige d’ajouter du bruit sur (quasi) tous les paramètres, ce qui devient difficile à calibrer à l’échelle des grands modèles; la détection et la suppression de points de données empoisonnées est plus difficile en haute dimension, car les données «honnêtes» sont elles-mêmes très dispersées; l’augmentation de la fenêtre de contexte augmente la surface d’attaque pour des «jailbreaks» et des injections de prompt sophistiquées. En parallèle, la quête de généralité pousse à entraîner ces modèles sur des corpus extrêmement hétérogènes issus de crawls du web, où se mêlent données sensibles et contenus malveillants. Plus la diversité des cas d’usage visés est grande, plus il devient difficile d’identifier et de filtrer ces éléments problématiques. L’article fait le lien avec une littérature croissante qui montre une corrélation directe entre hétérogénéité des données et vulnérabilités adversariales.
Le second argument vient de l’ingénierie des systèmes complexes. Depuis des décennies, la pratique de l’ingénierie logicielle repose sur l’abstraction, la modularisation et la séparation des préoccupations. Découper un système en modules spécialisés permet de développer, tester, auditer, voire démontrer mathématiquement la correction de chaque partie de manière indépendante. Définir clairement ce que chaque module fait – et ce qu’il ne fait pas – permet aussi d’appliquer de manière efficace le principe du «moindre privilège». Si un module est compromis, les dégâts restent circonscrits aux privilèges qui lui ont été accordés. Les auteurs rapprochent cette approche de principes juridiques et politiques bien connus des juristes, comme la séparation des pouvoirs ou le principe de subsidiarité: plutôt que de concentrer tous les pouvoirs dans une entité unique, on répartit les compétences entre entités spécialisées, chacune agissant au niveau le plus pertinent, avec des mécanismes de contrôle croisé. La modularisation permet aussi de créer des redondances interopérables: plusieurs implémentations différentes d’un même module peuvent coexister, ce qui limite le risque de défaillance d’un fournisseur unique et atténue les effets de réseau excessifs typiques des grandes plateformes.
Viennent ensuite des arguments économiques et sociologiques classiques, réinterprétés pour les entités non humaines.
En économie, depuis Adam Smith, la division du travail est associée à des gains de productivité: fragmenter un processus en opérations simples, effectuées par des agents spécialisés, permet d’augmenter la production et de réduire les temps morts. Ricardo, avec la théorie des avantages comparatifs, montre même qu’un agent «moins efficace partout» peut malgré tout contribuer à accroître la production globale s’il se spécialise dans les tâches où son désavantage relatif le plus faible. Ces raisonnements s’appliquent aussi aux algorithmes et organisations: il est plus rationnel, du point de vue collectif, de faire coopérer plusieurs entités spécialisées plutôt que de miser sur un «super-système» qui ferait tout, au prix de risques élevés de défaillance systémique et de verrouillage de marché. Sur le plan sociologique, Durkheim voit dans la division du travail la source de formes nouvelles de solidarité, dites «organiques», fondées sur la différenciation et l’interdépendance des rôles. Transposé au monde numérique, cela plaide pour des «corps intermédiaires» de systèmes et d’organisations spécialisées, capables de définir des standards, de mutualiser des bonnes pratiques et de défendre des intérêts sectoriels face à de très grands acteurs généralistes.
Un exemple historique sert d’avertissement: celui des «company towns» des XIXe–XXe siècles, ces villes-usines où une même entreprise contrôlait l’emploi, le logement, les commerces, les services de santé, parfois l’école et la vie religieuse. Sur le papier, ce modèle généraliste promettait sécurité et commodité; en pratique, il a souffert de nombreux problèmes: inégalités de traitement entre catégories de travailleurs, incapacité à tenir toutes les promesses de service, difficulté de supervision et d’exercice simultané de multiples rôles (employeur, logeur, quasi-État). Sur le plan politique, ce modèle revenait à substituer la loi et les institutions publiques par les pratiques d’une entreprise privée, rompant avec un long processus historique de spécialisation des fonctions (État, communes, professions). Les auteurs y voient un parallèle avec le rêve contemporain de l’«everything app» ou d’une AGI intégrée à tous les niveaux: une concentration de tâches, de pouvoirs et de dépendances qui, historiquement, a montré sa fragilité et sa dangerosité.
Dans une dernière grande étape, l’article lie étroitement spécialisation et «spécification». Spécialiser un système, c’est une chose; encore faut-il pouvoir dire précisément ce pour quoi il est fait, dans quelles conditions il est sûr, et quelles garanties il offre. Un premier niveau est celui de la documentation: notices d’utilisation, fiches de modèles (model cards), fiches de jeux de données (datasheets), qui décrivent objectifs, limites, contextes d’usage autorisés ou déconseillés. Mais la recherche d’une adoption virale et d’une ergonomie maximale pousse à minimiser l’effort demandé à l’utilisateur; très peu de gens lisent la documentation de systèmes comme ChatGPT. Cela favorise les déploiements inappropriés de systèmes généraux dans des contextes pour lesquels ils n’ont ni été conçus ni évalués. Les auteurs rappellent ensuite qu’en génie logiciel, la spécification peut être intégrée à la structure même des programmes grâce aux systèmes de types sophistiqués de langages modernes: un programme ne compile que s’il respecte un certain contrat sur ses entrées et sorties, et ces mêmes types peuvent empêcher des usages incorrects d’une bibliothèque. À un niveau plus avancé, des techniques de «verifiable computing» et de preuves succintes permettent à une machine puissante de prouver à un vérificateur faible qu’un calcul a été correctement effectué, sans exposer tout le détail du calcul ni, potentiellement, les données sous-jacentes. Des travaux récents adaptent ces techniques au machine learning, pour vérifier aussi bien l’entraînement que l’inférence, ouvrant par exemple la voie à des preuves que certains modèles ont bien été entraînés dans le respect des contraintes légales de l’AI Act, sans divulguer les jeux de données ou le code exact.
Les auteurs soulignent cependant deux limites structurelles de toute politique de spécification. Premièrement, certaines tâches ont une complexité de description telle qu’il est pratiquement impossible d’en écrire une spécification complète et exploitable. Le simple exemple de l’AI Act lui-même, long mais encore loin d’une formalisation exhaustive et exempt d’ambiguïtés, montre l’ampleur du problème. Deuxièmement, sur de nombreux sujets, notamment la modération de contenus, la recommandation d’informations, la «bonne» complétion de texte, il n’existe pas de consensus social clair et stable sur la spécification à adopter; les préférences sont hétérogènes au sein de la population et évoluent dans le temps. Le risque d’«hypertélie» est également évoqué: comme en biologie où certains organes se spécialisent à l’excès au point de devenir nuisibles à l’espèce, des outils techniques trop finement adaptés à un contexte ou un objectif peuvent perdre toute capacité d’adaptation dès que le contexte change. Avec l’automatisation, la granularité des spécialisations peut devenir extrêmement fine, au risque de fabriquer une prolifération de micro-algorithmes sur-spécialisés, dont personne ne maîtrise plus la cohérence d’ensemble.
C’est pourquoi les auteurs proposent de déplacer en partie la question, du «quoi» vers le «comment»: plutôt que prétendre spécifier complètement certaines tâches ouvertes, il faut spécifier la gouvernance qui encadre la manière dont les règles applicables à ces tâches sont décidées, révisées, contestées. Le parallèle est fait avec le droit pénal: au lieu de laisser un juge omnipotent fixer librement les peines, les sociétés se sont dotées de constitutions et de procédures détaillées pour l’édiction et la modification des lois, la révision des décisions, la répartition des pouvoirs. De la même manière, pour des algorithmes de recommandation, de filtrage, d’allocation de ressources, il devient crucial de définir des mécanismes de gouvernance: qui participe à la définition des critères? avec quel poids? selon quelles procédures de vote ou de délibération? quelle transparence? quelle possibilité de recours? Le texte recense plusieurs travaux qui expérimentent des formes d’«algorithmic governance», où différentes parties prenantes (donateurs, bénéficiaires, plateformes, usagers) participent à la définition des règles que l’algorithme doit suivre, selon des procédures précisément spécifiées et parfois combinant apprentissage statistique et expression directe de préférences.
La conclusion revient à la question initiale. Si l’on s’intéresse aux entités non humaines, les classiques critiques de la spécialisation perdent beaucoup de leur force, alors que se renforcent les arguments en termes de sécurité, de robustesse, de contrôle démocratique et de valeur industrielle. L’article plaide donc pour des architectures d’IA et des cadres réglementaires qui privilégient des systèmes spécialisés, bien documentés et, autant que possible, formellement spécifiés, dotés de privilèges limités et insérés dans des chaînes socio-techniques modulaires. Pour les tâches où une telle spécification est impossible ou socialement contestée, la priorité devrait être donnée à la spécification de la gouvernance: procédures, organes, règles de décision qui encadrent l’usage et l’évolution de ces systèmes. À rebours de l’obsession pour l’AGI et les systèmes «qui font tout», les auteurs invitent à construire un écosystème d’entités non humaines spécialisées, combinant des garanties techniques issues de l’ingénierie logicielle et de la cryptographie, et des garanties institutionnelles issues du droit, de l’économie et des sciences sociales.