A propos de : Upol Ehsan/Todd McNutt/ Samir Passi/ Mark O. Riedl/ Koustuv Saha/ Sara Alcorn, From Future of Work to Future of Workers: Addressing Asymptomatic AI Harms for Dignified Human-AI Interaction, arXiv:2601.21920v1 [cs.HC] 29 Jan 2026
L’article propose de déplacer le regard, habituel dans les débats sur « le futur du travail », vers « le futur des travailleurs ». Les auteurs partent d’un constat : les organisations évaluent souvent l’IA au prisme d’indicateurs visibles et immédiats – vitesse, précision, débit, économies – alors que l’intégration durable de systèmes d’aide peut modifier, de façon plus discrète, l’expertise, l’autonomie et le sentiment de valeur professionnelle des personnes. Leur thèse centrale est formulée comme un paradoxe : l’IA agit comme un amplificateur, capable d’améliorer la performance à court terme tout en érodant progressivement les compétences humaines qui soutiennent cette performance. Ils nomment cela l’« AI-as-Amplifier Paradox».
Pour étayer cette idée, l’article s’appuie sur une étude longitudinale d’un an dans un environnement à forts enjeux : la radio-oncologie, où des équipes (médecins radio-oncologues, physiciens médicaux, dosimétristes) conçoivent des plans de radiothérapie.
Le système étudié, « RadPlan » (nom fictif), produit des propositions de plans et de doses que les cliniciens valident et ajustent.
Au début du déploiement, tout ressemble à une réussite classique : les cycles de planification raccourcissent (environ 15 % plus rapides selon les mesures internes), certains indicateurs de qualité des plans s’améliorent, et la satisfaction déclarée augmente. Mais, au fil des mois, apparaissent des signaux faibles, difficiles à voir dans des tableaux de bord : des praticiens décrivent une impression de « rouille de l’intuition », l’idée qu’ils approuvent « trop vite » et qu’ils explorent moins d’alternatives qu’avant, parce que la proposition de l’IA paraît « suffisamment bonne ».
Les auteurs décrivent alors une trajectoire en trois temps, qu’ils présentent comme une « cascade d’érosion de l’expertise ».
Le premier temps correspond à des « effets asymptomatiques » : des changements réels de comportements ou de routines qui ne déclenchent pas d’alerte, parce qu’ils ne produisent pas immédiatement d’erreur mesurable ni de baisse de qualité apparente. Dans ce régime, l’IA incite à une dérive de vigilance : moins de vérifications indépendantes, moins de scénarios comparatifs, davantage d’acceptations rapides, surtout pour les cas routiniers. Un point important est la dimension distributionnelle : les seniors semblent parfois mieux savoir quand ignorer l’IA (cas rares, anatomies atypiques), tandis que les juniors risquent de construire leurs habitudes dans un contexte où l’IA « tient » déjà une partie du raisonnement, ce qui pose un problème de formation et de transmission. Les auteurs insistent sur le caractère insidieux : comme la performance globale reste bonne, l’organisation ne voit pas « le problème », alors même que les conditions d’une fragilisation ultérieure se mettent en place.
Le deuxième temps est celui des « dommages chroniques », qui deviennent plus tangibles vers le milieu ou la fin de l’année observée. Ici, l’érosion ne concerne plus seulement l’attention, mais aussi la compétence et la capacité d’agir sans l’outil. Des dosimétristes disent devenir moins rapides et moins à l’aise lorsqu’on leur demande de produire un plan « à la main » ; l’IA devient une béquille. En parallèle, certains décrivent une baisse de confiance dans leur propre jugement : ils « doutent d’eux-mêmes » même lorsqu’ils pensent que l’IA se trompe, ce qui ressemble à des formes d’automatisation biaisée et de dépendance. Les auteurs emploient aussi l’image d’un succès « fragile » : le système sociotechnique semble robuste tant que l’IA est disponible et performante, mais la « redondance humaine » – la capacité collective à rattraper des surprises, des pannes, des changements de contexte – s’amincit. Le risque n’est pas seulement l’erreur ponctuelle ; c’est la perte de résilience quand survient l’exception (panne, dérive des données, cas hors distribution).
Le troisième temps touche à l’identité professionnelle et à la dignité au travail, ce que les auteurs appellent « l’industrialisation » ou « commoditization » de l’identité. Les praticiens ne craignent pas uniquement d’être remplacés ; ils craignent d’être « vidés » de ce qui fait la substance du métier, réduits à des rôles de surveillance ou de signature, parfois décrits comme « baby-sitters de l’IA » ou « pousse-boutons ». Cette dimension est importante, car elle relie l’IA à la reconnaissance sociale du travail : la dignité est comprise comme le fait de rester un agent qualifié, porteur de jugement, et non un simple maillon d’un processus algorithmique. L’article souligne aussi une anxiété économique : si l’IA fait une grande partie du « travail intelligent », des décideurs pourraient finir par percevoir les spécialistes comme des superviseurs interchangeables, ce qui peut peser sur les effectifs, la valorisation salariale, ou la conception même des carrières et de la formation.
Face à cette trajectoire, les auteurs décrivent un « point de bascule » autour d’une intervention de conception : l’ajout d’une couche de « Social Transparency » (transparence sociale) à RadPlan. L’idée n’est pas d’expliquer l’algorithme au sens technique, mais de remettre en visibilité le travail collectif et le raisonnement professionnel : une surcouche « 4W » (qui a fait quoi, quand, et pourquoi) montrant les contributions humaines, les modifications, les désaccords, et les justifications associées à des décisions antérieures. Cette transparence sociale introduit une friction utile : voir que des pairs ont corrigé l’IA, ou comprendre les raisons d’un arbitrage, aide à calibrer la confiance, à sortir du mode « pilote automatique » et à redonner une place active au jugement. La transparence sociale sert aussi à documenter des limites de l’IA (ce qu’elle ne peut pas « savoir » à partir des données), en rappelant que la décision est située dans des contraintes organisationnelles et humaines.
À partir de ces observations, l’article propose un cadre plus général : le cadre de « Dignified Human–AI Interaction », construit avec les travailleurs au cours d’ateliers participatifs. La notion est celle d’« immunité sociotechnique », empruntant une métaphore médicale : plutôt que d’attendre une crise visible (erreur grave, effondrement de qualité, incident), il faut doter l’organisation et les collectifs de mécanismes pour détecter tôt les dérives, les contenir, puis restaurer activement les compétences. Le cadre est organisé en trois niveaux, qui correspondent à trois lieux d’action : le niveau individuel (travailleurs), le niveau technologique (conception des systèmes), et le niveau organisationnel (politiques, gouvernance, arbitrages de productivité). L’intérêt, pour les auteurs, est de proposer une approche « praticable » dans des environnements où la contestation frontale est coûteuse : ils décrivent une catégorie de travailleurs qualifiés qu’ils appellent le « missing middle », ni protégés comme certains salariés précaires très visibles dans les débats publics, ni armés comme les dirigeants, et parfois contraints par des accords de confidentialité ou des environnements où l’action collective est difficile. Le cadre cherche donc à produire des outils qui ressemblent, extérieurement, à de la qualité et de la conformité, tout en servant, pour les travailleurs, à préserver la compétence et le pouvoir d’agir.
Concrètement, l’« immunité » est déclinée en trois fonctions. D’abord « sense » : repérer des indicateurs précoces de dérive, par exemple des approbations instantanées répétées, des validations sans modifications, ou l’absence de justification humaine dans des dossiers où elle devrait exister. Ensuite « contain » : mettre des coupe-circuits proportionnés au risque, comme des revues « IA désactivée » sur certains cas, des exigences de second lecteur, des blocages procéduraux tant qu’une justification n’est pas consignée, ou des points d’arrêt lorsque l’outil se trouve dans une zone d’incertitude. Enfin « recover » : réinvestir le temps gagné par l’IA dans l’entretien des compétences, via des exercices réguliers « sans IA », des routines de pratique manuelle, et l’exploitation des corrections humaines pour créer une mémoire institutionnelle et, idéalement, améliorer le système.
Les auteurs évaluent la pertinence du cadre par des ateliers de scénarisation dans le domaine médical et dans un second domaine, l’ingénierie logicielle assistée par IA. Dans le scénario médical, l’outil de détection peut être symbolisé par un signal simple (par exemple un marqueur d’approbation « en un clic » sur des cas limites), utilisé comme « bouton pause » déclenchant une revue sans IA et une justification signée. Dans le scénario logiciel, un quasi-incident illustre le même mécanisme : un extrait de code généré par IA passe les tests mais comporte une erreur de calcul monétaire ; l’équipe identifie alors des signaux précoces (fusions trop rapides, manque de revue), instaure des contenances (revue renforcée pour composants sensibles), et des récupérations (drills, traçabilité des corrections, apprentissage organisationnel). L’article rapporte que ce type d’outillage donne surtout un langage commun pour transformer des inquiétudes individuelles (perte de compétence, dépendance) en éléments partageables, actionnables et défendables dans l’organisation.
Dans la discussion, les auteurs insistent sur un point utile pour des juristes du travail et de la conformité : ils ne présentent pas la « dignité » comme un supplément éthique abstrait, mais comme une variable de sécurité, de qualité et de continuité. Une organisation qui optimise l’efficience en « creusant » les compétences humaines crée des points de défaillance uniques : lorsque surviennent des situations non prévues, l’équipe n’a plus les réflexes ni les savoir-faire pour diagnostiquer et arrêter une dérive. Ils avancent aussi un argument de risque réglementaire : les cadres de gouvernance des systèmes à risque (ils citent notamment des exigences d’« oversight » humain dans des régimes comme l’EU AI Act et des référentiels de gestion des risques) rendent dangereux, à moyen terme, le fait d’avoir des humains nominalement responsables mais pratiquement dépossédés des moyens et de la maîtrise nécessaires. De là vient une idée très transposable au raisonnement juridique : si l’humain porte la responsabilité, il doit conserver une autorité effective, y compris un droit pratique de veto ou d’arrêt « sans pénalité », et une capacité entretenue à exercer un jugement indépendant.
L’article reconnaît enfin ses limites : l’étude de terrain est profonde mais centrée sur un domaine principal ; la généralisation doit être testée dans d’autres secteurs et avec des mesures mixtes (qualitatives et quantitatives) pour mieux estimer les vitesses d’érosion, les conditions de récupération, et les seuils où l’immunité devient nécessaire. La conclusion revient à la question directrice : l’IA va transformer le travail, mais l’enjeu décisif est de savoir si cette transformation « honore » l’expertise humaine ou la « creuse ». Le message de fond est qu’une stratégie de déploiement responsable ne peut pas se contenter de garder « un humain dans la boucle » au sens formel ; elle doit organiser, dès la conception et la gouvernance, des mécanismes qui maintiennent dans le temps l’agence, les compétences, la résilience et le sens du travail, parce que ce sont précisément ces éléments qui rendent l’organisation sûre, durable et juridiquement tenable lorsque l’IA se trompe ou sort de son domaine de validité.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Arvind Narayanan examine donc dans son post, Fact checking Moravec’s paradox : The famous aphorism is neither true nor useful, 29 janvier 2026 (https://www.normaltech.ai/p/fact-checking-moravecs-paradox) ce qu’on appelle le paradoxe de Moravec, souvent résumé ainsi : il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour l’IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). L’auteur soutient que cette formule, très répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non.
D’abord, il rappelle que le « paradoxe » n’a jamais été réellement testé de façon systématique. En théorie, on pourrait prendre un grand ensemble de tâches, mesurer à quel point elles sont difficiles pour des humains, mesurer à quel point elles sont difficiles pour des systèmes d’IA, puis regarder si l’on observe une corrélation négative (ce qui confirmerait l’idée). Mais, explique-t-il, le choix des tâches n’est pas neutre : quand des chercheurs affirment que le paradoxe « se vérifie », ils parlent en pratique des tâches qui intéressent la recherche et l’industrie de l’IA. Or il existe une multitude de tâches faciles pour tout le monde (humains et ordinateurs) qui n’attirent pas l’attention, et une multitude de tâches très difficiles pour tout le monde (humains et IA) dont on parle peu parce qu’il n’y a pas de progrès crédible. En se concentrant surtout sur les deux catégories « intéressantes » (les tâches humaines faciles mais encore difficiles pour l’IA, et les tâches humaines difficiles mais déjà faisables par ordinateur), on crée un effet de sélection qui donne l’impression d’une règle générale, alors qu’on a surtout filtré le reste.
Ensuite, l’auteur critique l’explication « évolutionniste » souvent associée au paradoxe. Dans la formulation originale, l’idée est que la perception et la motricité reposent sur des mécanismes très anciens, perfectionnés par une longue évolution, alors que le raisonnement abstrait serait une capacité plus récente et plus superficielle ; donc, paradoxalement, la perception et la motricité seraient ardues à reproduire, tandis que le raisonnement serait relativement accessible à la machine. L’auteur juge cette histoire séduisante mais douteuse, notamment parce que des chercheurs en IA avancent parfois des affirmations sur le cerveau et l’évolution sans base solide en neurosciences ou en biologie. Il souligne surtout que « le raisonnement » n’est pas un bloc unique et simple à isoler : dès qu’on sort de domaines fermés et entièrement définis (comme les règles d’un jeu d’échec ou de go), les systèmes de raisonnement symbolique ont historiquement montré une grande fragilité. Il cite l’idée générale que ces approches réussissent dans des démonstrations étroites, mais se comportent mal dans le monde réel, où les situations sont ouvertes, ambiguës et changeantes. De ce point de vue, le raisonnement utile dans des domaines ouverts – typiquement le droit, la recherche scientifique, la médecine, la gestion – exige du « bon sens », de la connaissance du monde, et des capacités d’adaptation qui ne se réduisent pas à appliquer des règles. Donc, même si l’IA peut être très performante dans certains tests ou domaines structurés, cela ne permet pas de conclure que le « raisonnement » en général est facile pour elle.
Le texte explique ensuite comment ce type de modèle simpliste a produit deux erreurs opposées. D’un côté, il alimente l’alarmisme : si l’on croit que le raisonnement est intrinsèquement facile pour l’IA, on peut conclure que l’IA deviendra bientôt « superhumaine » pour des tâches intellectuelles de haut niveau (découvrir des traitements médicaux, remplacer des experts, diriger des organisations, voire gouverner), ce qui nourrit des prédictions apocalyptiques de bouleversements imminents et des incitations de course aux investissements. L’auteur met en cause l’idée selon laquelle il suffirait d’injecter des moyens (par exemple, d’énormes infrastructures de calcul) pour obtenir automatiquement des résultats comme « guérir le cancer », sans analyser le lien concret entre l’outil et l’objectif. Il suggère aussi que certaines positions politiques ou industrielles extrêmes reposent sur cette croyance dans un « raisonnement » machine généralisable.
De l’autre côté, le paradoxe sert parfois de « fausse réassurance », surtout au sujet de la robotique : si l’on croit que les tâches sensorimotrices resteront forcément difficiles, on en déduit que les ruptures dans ces domaines ne peuvent pas arriver vite, donc qu’il n’y a pas d’urgence à s’y préparer. L’auteur considère que cette conclusion est aussi fragile que l’alarmisme inverse : une percée peut survenir, comme cela s’est produit pour la vision par ordinateur, longtemps citée comme exemple de compétence « facile pour l’humain mais difficile pour l’IA », avant l’amélioration rapide autour de 2012–2013 avec l’apprentissage profond et l’usage des GPU (Graphics Processing Units). Il ajoute un point important : des idées scientifiques peuvent exister longtemps avant que les conditions pratiques (matériel, données, organisation industrielle) permettent leur déploiement, ce qui rend les règles générales du type « c’est impossible » ou « c’est imminent » peu fiables.
Enfin, la conclusion pratique est que, pour s’adapter aux avancées de l’IA, il n’est pas nécessaire de prédire précisément quelle capacité va « percer » et quand. L’auteur insiste sur le fait que même lorsqu’une capacité technique existe, sa diffusion à grande échelle prend du temps, en partie parce qu’il faut des produits, des processus, des données, des règles, des infrastructures, et une acceptation sociale. Ce délai crée, en principe, une fenêtre d’action pour les décideurs et les organisations : on peut observer ce qui devient réellement utilisable, puis adapter le droit, les politiques publiques, la formation et les mécanismes de protection, au lieu de se reposer sur des aphorismes. Il illustre cette idée par des technologies dont l’adoption est lente et par l’exemple des véhicules autonomes : selon lui, on aurait dû travailler plus tôt sur les conséquences sociales et la transition, plutôt que d’attendre que les systèmes soient déjà sur les routes pour réagir dans l’urgence. L’enseignement général est donc double : se méfier des slogans qui prétendent dire, en une phrase, ce qui sera facile ou difficile pour l’IA ; et concentrer l’effort sur la préparation et l’adaptation à des capacités dont on constate l’arrivée progressive, plutôt que sur des prédictions abstraites.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Repéré dans l’excellent blog d’Andres Guadamuz le 27 janvier 2025, une question grave (comme dirait l’IA…) : peut-on voler les pièces d’or utilisées par les joueurs dans un jeu vidéo ?
Le post commente une décision récente de la Court of Appeal (Criminal Division) d’Angleterre et du Pays de Galles, R v Andrew Lakeman [2026] EWCA Crim 4, présentée comme potentiellement l’un des jugements les plus importants depuis des années sur la qualification de “biens” (property) à propos d’actifs numériques dans un contexte pénal.
Le point central est que des “gold pieces” (monnaie virtuelle) du MMORPG Old School RuneScape peuvent constituer un “bien” au sens du Theft Act 1968 et, par conséquent, être susceptibles de vol au sens du droit pénal anglais.
Les faits exposés sont typiques des litiges liés aux économies de jeux en ligne.
A.L., employé de Jagex (éditeur de RuneScape) comme développeur de contenu, n’aurait pas eu d’accès légitime aux comptes des joueurs, mais aurait compromis des identifiants liés à l’équipe interne de “récupération de compte”. Il aurait ainsi accédé à 68 comptes, retiré environ 705 milliards de pièces d’or, puis revendu ces actifs sur un marché noir contre du Bitcoin et de la monnaie “fiat”. Jagex aurait évalué le préjudice à environ 543’123 GBP.
Le billet rappelle le fonctionnement économique du jeu : les pièces d’or s’obtiennent par l’activité en jeu (“grinding”), par une place de marché interne (“grand exchange”), ou indirectement via l’achat de “bonds” auprès de l’éditeur (environ 6 GBP l’unité), lesquels peuvent être échangés en jeu contre un certain volume d’or. Les conditions contractuelles de Jagex interdisent les échanges contre de l’argent réel, mais le billet souligne l’existence d’un marché noir actif les pièces d’or virtuelles séchangent à un taux nettement inférieur au “taux officiel” implicite des bonds.
Sur le plan pénal, Lakeman faisait face à plusieurs chefs : accès non autorisé à un système (Computer Misuse Act 1990), vol (Theft Act 1968) et blanchiment (Proceeds of Crime Act).
Tout dépendait d’une question préalable : ces “gold pieces” sont-elles un “bien” susceptible d’appropriation et de vol ?
En première instance (Crown Court), le juge (HHJ Grey) avait donné raison à la défense en considérant, en substance, que ces pièces ne satisfaisaient pas un critère de “rivalité” (rivalrousness) tel que discuté dans des travaux de la Law Commission sur les actifs numériques : selon ce raisonnement, puisque les pièces sont interchangeables et que l’offre globale est “infinie” (le jeu pouvant en générer sans limite), la richesse des uns n’empêcherait pas les autres d’acquérir des pièces, de sorte que l’actif ne serait pas “rival”. Le juge avait aussi rapproché ces pièces de la “pure information” au sens de l’arrêt Oxford v Moss (1979), où le fait de s’approprier des informations (par ex. la connaissance de sujets d’examen) n’avait pas été traité comme un vol de “biens” parce que l’information ne se “dépossède” pas de la même manière qu’un objet.
La Court of Appeal renverse cette analyse et explique, selon le billet, pourquoi l’approche pénale peut diverger de la qualification en droit privé.
Le juge rejette l’idée que la notion de “property” en matière de vol doive se confondre avec les critères de propriété en droit civil. Il rappelle que les finalités du droit civil et du droit pénal diffèrent, et qu’il n’est pas pertinent de décider a priori que le pénal devrait s’aligner sur le civil.
Cet angle est décisif face aux conditions générales de Jagex, qui affirment que les pièces d’or ne sont pas la “propriété privée” du joueur et qu’elles ne représentent qu’une mesure de l’étendue de la licence d’utilisation du produit Jagex. Pour la Cour, de telles stipulations contractuelles ne tranchent pas la question de savoir si l’actif est un “bien” au sens du Theft Act ; le billet illustre cette séparation en évoquant une analogie : certains objets illicites (par ex. des stupéfiants) peuvent néanmoins être traités comme “property” susceptible de vol en droit pénal, même si le droit civil n’entend pas protéger ou faire exécuter des droits patrimoniaux sur eux.
Sur la “rivalité”, la Cour critique frontalement le raisonnement de première instance. Le fait qu’une unité soit fongible (“une pièce vaut une autre”) et que l’offre puisse être augmentée ne suffit pas à nier la rivalité : de nombreux biens physiques sont fongibles et leur production peut être, en pratique, illimitée (le billet reprend l’exemple du trombone), sans que cela retire leur caractère de bien susceptible d’appropriation. Pour la Cour, la vraie question est plus simple : si le joueur A dispose de ces pièces et les utilise/transfère, le joueur B ne peut pas simultanément utiliser ces mêmes unités rattachées au compte de A ; lorsque l’actif est déplacé, A en est privé. La possibilité que d’autres pièces soient créées, ou que d’autres joueurs puissent devenir riches par ailleurs, est jugée non pertinente pour décider si les unités actuellement détenues sont “rivalrous”.
La Cour distingue également ces pièces de la “pure information” à la Oxford v Moss. Le billet insiste sur deux différences mises en avant : la connaissance dans l’esprit d’une personne peut être transmise sans dépossession (A conserve l’information même si B l’apprend), alors que les pièces d’or fonctionnent comme des unités d’actif identifiables au sein du système du jeu, existant “hors de l’esprit” des personnes et dont le transfert opère une privation pour le titulaire initial. Le jugement développe aussi une distinction conceptuelle entre l’actif et le code qui l’instancie : la défense soutenait que “ce n’est que du code”, donc de l’information réplicable. La Cour répond que beaucoup d’actifs numériques reposent sur du code public et réplicable (le billet cite les Bitcoins), sans que cela empêche de les traiter comme des biens ; ce qui compte est la fonctionnalité économique et la structure de contrôle/exclusivité. Le billet résume l’idée ainsi : lors d’un transfert, le système supprime l’allocation des pièces au joueur A et en crée une nouvelle au joueur B ; le fait que l’opération se matérialise techniquement par le remplacement d’un état de code par un autre est irrelevant au regard de la réalité fonctionnelle du transfert.
Enfin, la Cour mobilise des comparaisons étrangères. Le billet mentionne un cas néerlandais où une agression physique avait servi à contraindre un mineur à transférer des objets virtuels RuneScape (un amulette et un masque), traité comme vol/robbery ; et une décision australienne récente (Yeates v The King [2025] VSCA 288) qualifiant le Bitcoin de bien au sens d’une législation sur le vol similaire à celle du Royaume-Uni. L’auteur en tire l’argument d’“absurdité pratique” repris par la Cour : si les pièces d’or n’étaient pas des biens, des situations proches du cas néerlandais ne pourraient pas être poursuivies pour vol en droit anglais, résultat jugé surprenant et insatisfaisant.
En conclusion, le billet apprécie le caractère “substantiel” de l’analyse : pour l’auteur, le droit pénal doit pouvoir réprimer l’intrusion dans des comptes, l’appropriation d’actifs virtuels valorisés à plusieurs centaines de milliers de livres, puis leur conversion en numéraire. Au-delà de RuneScape, la décision est présentée comme un modèle de raisonnement pour de futurs dossiers portant sur des biens virtuels et, plus largement, sur divers actifs numériques (y compris NFT), en clarifiant trois points : la dissociation entre propriété civile et “property” pénale, une compréhension opérationnelle de la rivalité, et une distinction entre l’actif en tant qu’objet fonctionnel et le code/données qui le représentent. L’affaire est renvoyée pour jugement au fond sur les faits, la question de droit ayant été tranchée en faveur de l’accusation sur la qualification de “property”.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
En présence d’une contestation de nature pécuniaire, le recours n’est en principe recevable que si la valeur litigieuse atteint 15’000 fr. ou si la contestation soulève une question juridique de principe (art. 85 al. 1 let. b et al. 2 LTF).
La demande de délivrance d’un certificat de travail ne tend pas au paiement d’une somme d’argent déterminée. Dans un tel cas, le Tribunal fédéral fixe la valeur litigieuse selon son appréciation (art. 51 al. 2 LTF; à propos de la valeur litigieuse d’une demande de remise ou de modification d’un certificat de travail, voir arrêt 8C_151/2010 du 31 août 2010 consid. 2.5 à 2.7). Il incombe à la partie, sous peine d’irrecevabilité, de donner les éléments suffisants pour permettre au Tribunal fédéral d’estimer aisément cette valeur (cf. art. 42 al. 1 et 2 LTF). Le contrôle d’office ne supplée pas au défaut d’indication de la valeur litigieuse. Il n’appartient pas au Tribunal fédéral de procéder lui-même à des investigations pour la déterminer, si elle ne résulte pas d’emblée des constatations de la décision attaquée (art. 105 al. 1 LTF) ou d’autres éléments ressortant du dossier. Le Tribunal fédéral n’est lié ni par l’estimation de la partie recourante ou un accord des parties, ni par une estimation manifestement erronée de l’autorité inférieure (ATF 140 III 571 consid. 1.2; 136 III 60 consid. 1.1.1; arrêt 4A_53/2022 du 30 août 2022 consid. 1.1.1).
Il est généralement difficile d’estimer la valeur litigieuse d’un certificat de travail (cf. arrêt 8C_553/2022 du 13 janvier 2023 consid. 2.4; 4A_2/2019 du 13 juin 2019 consid. 7 avec les références). Jusqu’à présent, la jurisprudence a renoncé à fixer des critères généraux pour l’évaluation de la valeur litigieuse d’un certificat de travail. Il ne se justifie toutefois pas de nier toute estimation possible et il convient de déterminer la valeur litigieuse en appréciant les circonstances du cas concret (cf. arrêt 1C_320/2024 du 6 septembre 2024 consid. 2.5 avec les références). Des critères tels que l’avancement et la situation professionnels de l’employé, les fonctions exercées jusqu’alors, la durée du contrat de travail et le salaire, ont été jugés comme pertinents pour déterminer la valeur litigieuse. En tous les cas, la valeur d’un certificat de travail ne saurait être fixée indépendamment des circonstances du cas concret à une fraction ou à un multiple du salaire mensuel (cf. arrêt 1C_320/2024 précité consid. 2.5; 8C_553/2022 précité consid. 2.4; 8C_151/2010 du 31 août 2010).
En l’espèce, l’instance précédente n’a pas fixé la valeur litigieuse (cf. art. 112 al. 1 let. d LTF; arrêt 1C_320/2024 précité consid. 2.2), de sorte qu’il revient au Tribunal fédéral de fixer celle-ci selon son appréciation (art. 51 al. 2 LTF).
Le recourant [l’employé] soutient que la valeur litigieuse devrait au minimum correspondre à deux mois de salaire brut, à savoir 20’554 francs. Pour l’intimée [l’employeuse], la valeur litigieuse ne devrait pas dépasser un mois de salaire, ce d’autant plus qu’un certificat de travail avait déjà été délivré à plus de cinq reprises au recourant qui n’a de surcroît pas établi avoir subi un réel dommage en raison de ce document.
Le recourant demande en particulier à ce que le certificat de travail soit complété en ce sens qu’il s’agit d’un certificat intermédiaire et qu’il reconnaisse qu’il est « responsable informatique » au sein de [l’employeuse] et non uniquement un « fonctionnaire spécialiste ». Il est évident qu’une telle modification portant directement sur sa fonction est importante pour son avenir économique, la question de savoir s’il a effectivement occupé une telle charge n’étant pas déterminante au stade de l’examen de la valeur litigieuse. La relation de travail a commencé en 2003 et peut dès lors être qualifiée de longue, même si le recourant n’a plus travaillé au sein de l’intimée depuis son arrêt maladie de 2016. Il n’explique par ailleurs pas pour quelle raison il n’a pas retrouvé d’activité professionnelle depuis cette période ni le lien que cela aurait avec le certificat de travail qui lui a été délivré. Cela étant, compte tenu aussi de son âge, à ce jour de 60 ans, qui aura pour conséquence qu’il devra s’attendre à être défavorisé sur le marché du travail, ainsi que du dernier salaire qu’il percevait (10’277 fr. 40 brut par mois), il appert que la valeur litigieuse relative au certificat de travail sollicité peut en l’occurrence être fixée à l’équivalent d’au moins deux salaires mensuels bruts, si bien qu’elle atteint la limite de 15’000 fr. (cf. art. 85 al. 1 let. b LTF). Dès lors que les circonstances diffèrent notablement de la cause citée par l’intimée, la valeur litigieuse ne saurait en revanche correspondre à seulement un mois de salaire (cf. arrêt 1C_320/2024 précité consid. 2.6, dans lequel l’intéressé était notamment âgé de 49 ans et sollicitait des modifications mineures de son certificat de travail visant à transformer un « bon » certificat de travail en un « très bon » certificat).
Dans la mesure où les autres conditions de recevabilité sont réunies, sous réserve d’une motivation suffisante des griefs, il convient par conséquent d’entrer en matière sur le recours.
(TF 1C_231/2025 du 2 décembre 2025, consid. 1.2-1.4)
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Le commentaire de Francesa Palmiotto (Palmiotto, Francesca, Commentary on Article 5(1)(d) AI Act: The Prohibition of Criminal Risk Assessment (January 21, 2026), preprint : M. Ebers & M. Zou (eds) AI Act Commentary, Beck/Hart/Nomos, forthcoming (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6115546)) commente l’article 5, paragraphe 1, lettre d), du règlement européen sur l’intelligence artificielle (RIA / AI Act), entré en vigueur en février 2025, qui interdit certaines pratiques d’IA en matière d’évaluation du risque pénal individuel. Il s’inscrit dans un contexte de forte controverse autour des outils dits de « criminal risk assessment », largement utilisés ou expérimentés dans plusieurs pays pour prédire le comportement criminel futur de personnes, que ce soit au stade policier, judiciaire ou pénitentiaire. L’objectif central de la disposition commentée est de donner une traduction normative concrète au principe de présomption d’innocence à l’ère de l’IA.
L’interdiction vise les systèmes d’IA mis sur le marché, mis en service ou utilisés pour évaluer ou prédire le risque qu’une personne physique commette une infraction pénale, lorsque cette évaluation repose exclusivement sur le profilage ou sur l’analyse de traits de personnalité ou de caractéristiques personnelles. Sont ainsi prohibées les formes de « prédiction de la criminalité » détachées de faits concrets, qui infèrent une dangerosité future à partir de données personnelles, démographiques, sociales ou comportementales. L’auteur souligne que cette interdiction constitue la catégorie de risque la plus grave du règlement : sa violation expose aux sanctions financières maximales prévues par l’AI Act.
L’article distingue clairement cette interdiction des systèmes simplement qualifiés de « à haut risque » dans l’annexe III du règlement. La ligne de partage repose sur le critère du « solely » : lorsqu’un système prédit un risque pénal uniquement à partir du profil ou de la personnalité, il est interdit ; lorsqu’il s’appuie aussi sur des faits objectifs et vérifiables liés à une activité criminelle déterminée, il peut être autorisé, sous le régime strict des systèmes à haut risque. Cette architecture reflète une volonté politique de tracer une ligne rouge entre prévention fondée sur des soupçons individualisés et prédiction abstraite de comportements futurs.
L’auteur analyse en détail la notion de « criminal risk assessment ». Il s’agit de démarches prospectives visant à estimer la probabilité qu’une personne commette une infraction à l’avenir. Ces outils sont utilisés à différents stades : police prédictive, décisions de détention provisoire, de libération conditionnelle, de probation ou de fixation de la peine. Deux grandes catégories sont identifiées. D’une part, la police prédictive, qui peut être fondée soit sur des lieux (où et quand un crime est susceptible de se produire), soit sur des personnes (qui est susceptible de commettre un crime). D’autre part, les systèmes d’évaluation du risque de récidive, qui attribuent des scores individuels à partir de données massives et de questionnaires.
L’interdiction de l’article 5(1)(d) ne vise que les systèmes centrés sur les personnes. Les outils purement géographiques, limités à la prédiction de zones ou de moments à risque, sont en principe exclus, tant qu’ils ne sont pas réinjectés dans une évaluation individuelle. En revanche, dès lors que des données de localisation sont utilisées pour inférer le risque qu’une personne précise commette une infraction (par exemple en raison de son lieu de résidence), le système redevient personnel et peut tomber sous le coup de l’interdiction.
Une partie centrale de l’article est consacrée au concept de profilage. Celui-ci est repris du droit de la protection des données et couvre tout traitement automatisé visant à évaluer des aspects personnels d’un individu. L’auteur insiste sur l’importance du « profilage de groupe », très fréquent en pratique : l’individu est évalué non pour ce qu’il a fait, mais parce qu’il ressemble statistiquement à un groupe considéré comme à risque. Les analyses de réseaux sociaux, qui déduisent une dangerosité du simple fait d’être lié à des personnes déjà identifiées par la police, en sont un exemple typique. Le commentaire confirme que ce type de profilage est bien visé par l’interdiction lorsqu’il est appliqué à des personnes déterminées.
S’agissant des « traits de personnalité ou caractéristiques », l’AI Act ne fournit pas de définition exhaustive. Le considérant 42 donne des exemples larges : nationalité, lieu de naissance, résidence, situation familiale, niveau d’endettement ou type de véhicule. L’auteur souligne que ces critères, pris isolément ou combinés, ne peuvent fonder une prédiction pénale compatible avec les principes fondamentaux du droit pénal.
L’interprétation du terme « solely » fait l’objet d’une analyse approfondie. L’auteur rejette une lecture réductrice qui consisterait à dire que l’interdiction disparaît dès qu’un humain intervient dans le processus. Une telle approche viderait la règle de sa substance et créerait une insécurité juridique pour les fournisseurs de systèmes. Il propose au contraire une interprétation structurelle : est interdit tout système conçu pour prédire la criminalité en l’absence de faits objectifs constituant un soupçon raisonnable. Cette lecture s’appuie sur la jurisprudence de la Cour européenne des droits de l’homme et de la Cour de justice de l’Union européenne, qui exigent, pour toute ingérence pénale, l’existence d’éléments factuels concrets justifiant un soupçon individualisé.
Dans cette logique, la seconde phrase de l’article 5(1)(d), souvent présentée comme une exception, est analysée comme une simple clarification de périmètre. Les systèmes d’IA utilisés pour assister l’évaluation humaine de l’implication d’une personne dans une activité criminelle déjà établie par des faits objectifs ne sont pas visés par l’interdiction. Par exemple, l’usage d’outils biométriques ou d’analyses de traces dans le cadre d’une enquête portant sur un crime commis reste possible, même si ces systèmes demeurent soumis au régime des IA à haut risque.
L’article recense enfin plusieurs exclusions importantes. L’interdiction ne s’applique pas à l’évaluation du risque pénal de personnes morales, ni aux infractions administratives ou disciplinaires. Elle ne s’applique pas non plus aux usages exclusivement liés à la sécurité nationale, même si l’auteur met en garde contre les systèmes à double usage, qui basculent dans le champ de l’AI Act dès qu’ils sont utilisés, même temporairement, à des fins de maintien de l’ordre.
En conclusion, le commentaire montre que l’AI Act opère un choix de fond : il ne prohibe pas l’usage de l’IA en matière pénale en tant que tel, mais interdit une certaine vision prédictive de la criminalité, fondée sur des profils et des probabilités détachées de faits. Pour les praticiens, y compris hors UE, cette analyse éclaire les standards européens émergents en matière de droits fondamentaux, qui pourraient influencer à terme les débats suisses sur l’usage de l’IA dans la justice pénale
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration
L’auteur part d’une observation : la discussion sur l’applicabilité du Premier Amendement aux réseaux sociaux a été largement structurée, notamment dans Moody v. NetChoice, par une alternative jugée trop binaire. D’un côté, certains les décrivent comme des « common carriers » ou « conduits neutres » comparables à l’infrastructure téléphonique, ce qui soutient l’idée que l’État pourrait leur imposer des obligations d’accès et interdire une « discrimination de point de vue ». De l’autre, la majorité dans Moody les assimile davantage à des éditeurs de presse, protégés dans leurs choix de publication et de hiérarchisation des contenus. Selon l’auteur, les constatations factuelles détaillées dans FTC v. Meta fragilisent les présupposés empiriques de ces analogies et justifient un cadre d’analyse différent, centré sur la régulation d’une conduite commerciale (« commercial conduct ») plutôt que sur une opposition « tuyau neutre » versus « éditeur ».
Dans FTC v. Meta, la FTC soutenait que Meta avait acquis et maintenu un monopole des « réseaux sociaux personnels » via l’achat d’Instagram (2012) et WhatsApp (2014). Le tribunal rejette l’argumentation, principalement parce que le marché défini par l’agence ne correspondrait plus à la réalité actuelle : le jugement documente l’effondrement du « social graph », c’est-à-dire l’idée que ces services seraient d’abord des réseaux de connexions interpersonnelles. À sa place, les plateformes auraient pivoté vers des flux de contenus « non connectés » (« unconnected content »): des recommandations algorithmiques de contenus à fort engagement émanant de comptes inconnus, conçues pour capter l’attention et maximiser les revenus publicitaires. Le jugement est mobilisé comme preuve institutionnelle (fondée sur un dossier de procès) d’une transformation déjà décrite par des chercheurs : l’expérience centrale ne serait plus la communication entre « amis », mais la consommation de contenus en flux, optimisée par des modèles prédictifs.
À partir de là, l’auteur explique pourquoi la thèse du « conduit neutre » perd sa force. Cette thèse suppose une transmission principalement destinée entre un locuteur et un public choisi, l’infrastructure se contentant de relayer. Or le jugement retient que, sur Facebook, les utilisateurs ne passent plus qu’environ 17% de leur temps sur des contenus d’amis et de famille, et environ 7% sur Instagram, avec une baisse rapide en deux ans. La plateforme n’opérerait donc plus comme un simple canal, mais comme un système effectuant en continu une multitude de décisions de classement, de recommandation et d’insertion de contenus (y compris publicitaires et issus de créateurs), orientées vers un objectif économique mesurable.
L’auteur discute ensuite la riposte intuitive : si les plateformes ne sont pas des « common carriers », elles seraient des « éditeurs » au sens fort, et leurs algorithmes des instruments de « mise en page » protégés par le Premier Amendement. Il estime que le dossier Meta rend cette assimilation moins convaincante, en montrant que la logique dominante n’est pas la communication d’un point de vue éditorial, mais l’optimisation d’une métrique commerciale : le temps passé. L’ « opinion » souligne une convergence des offres de Meta, TikTok et YouTube autour de modèles de prédiction de l’engagement conçus pour maximiser le « time-on-platform », présenté comme un proxy direct des recettes publicitaires, l’industrie parlant d’une concurrence sur la « marge de temps » captée. Dans cette perspective, l’algorithme n’« interprète » pas le sens du contenu comme le ferait un éditeur humain ; il calcule des probabilités de réactions comportementales pour optimiser la livraison de publicité, ce que l’auteur qualifie de logique extractive et largement indifférente à la signification des messages.
Cette distinction rejoint une interrogation formulée dans une opinion concordante de la juge Barrett dans Moody: toutes les décisions algorithmiques méritent-elles le même niveau de protection constitutionnelle, ou faut-il distinguer celles qui mettent en œuvre une politique éditoriale (au sens d’une intention expressive) de celles qui servent principalement une stratégie de maximisation des revenus ? Le billet s’appuie sur des éléments cités dans l’opinion Meta, notamment des tests internes suggérant qu’activer certains formats (par ex. Reels) augmente fortement le temps passé, tandis qu’augmenter la part de contenus d’amis aurait un effet faible, ce qui appuierait l’idée que l’architecture actuelle privilégie des mécanismes d’« extraction de l’attention » plutôt qu’une facilitation de relations sociales. L’auteur ajoute que des travaux empiriques récents décriraient des effets causaux des plateformes vidéo courtes sur l’augmentation de l’usage mobile et la réduction du temps hors écran, renforçant l’interprétation d’une compétition sur la captation attentionnelle.
Sur le plan juridique, l’auteur propose de déplacer l’objet de la discussion : plutôt que de traiter l’optimisation de l’engagement comme un « choix éditorial » équivalent à un acte d’expression, il suggère d’y voir une conduite commerciale dont la régulation peut imposer des charges incidentes sur la parole sans viser la suppression d’un message. Cela aurait une conséquence pratique majeure en droit constitutionnel américain : la nature du contrôle du juge.
Les restrictions fondées sur le contenu ou le point de vue déclenchent en principe le niveau le plus exigeant (strict scrutiny), difficile à satisfaire. En revanche, les réglementations neutres quant au contenu ou certaines réglementations touchant des activités commerciales relèvent plus souvent d’un contrôle intermédiaire (intermediate scrutiny), où l’État doit notamment démontrer un intérêt substantiel, une proportionnalité et l’existence d’alternatives de communication. Le billet soutient que concevoir le « feed » comme un choix de conception de produit, et non comme une anthologie expressive, permettrait d’éviter des blocages jurisprudentiels observés lorsque des tribunaux traitent des fonctionnalités (par ex. « like counts ») comme des actes éditoriaux en tant que tels.
Dans cette optique, l’auteur soutient que l’État ne devrait pas chercher à imposer une « équité » des points de vue ni à dicter quels contenus doivent être portés, mais pourrait encadrer des pratiques d’optimisation sous un standard plus accessible, en ciblant la « machine » plutôt que le « message ». Il évoque trois familles de mesures typiques: des obligations de transparence algorithmique sous forme de divulgations factuelles standardisées (analogie avec une « étiquette nutritionnelle ») dès lors qu’il s’agit d’un outil commercial plutôt que d’un secret éditorial; des exigences renforçant l’autonomie de l’utilisateur (par exemple offrir un flux fondé sur les abonnements et préférences explicites plutôt que sur l’optimisation de l’engagement), présentées comme une manière d’honorer l’intention du consommateur plutôt que d’obliger la plateforme à porter une parole qu’elle réprouve; et l’encadrement de certaines fonctionnalités de conception (défilement infini, lecture automatique, « like counts », etc.) décrites comme des mécanismes comportementaux destinés à maximiser l’inventaire publicitaire, opérant de façon similaire quel que soit le contenu, ce qui faciliterait leur qualification comme structure commerciale plutôt que jugement expressif.
La conclusion du billet est que les controverses sur la liberté d’expression et la régulation des plateformes reposent souvent sur une image dépassée des réseaux sociaux. Si le « social graph » et le modèle de transmission entre connexions sont effectivement devenus périphériques, la catégorie de « conduit neutre » perd de sa pertinence, et l’extension automatique de la protection éditoriale maximale à des mécanismes d’optimisation orientés revenu risque, selon l’auteur, de constitutionnaliser une large part de l’ingénierie d’extraction de l’attention. Le dossier factuel de FTC v. Meta fournirait ainsi, pour les contentieux futurs, un socle permettant aux tribunaux d’abandonner l’alternative « censure vs liberté » au profit d’une analyse plus fine : protéger l’expression, tout en admettant que certaines dimensions du design et de l’optimisation relèvent d’une activité commerciale pouvant être réglementée de manière constitutionnellement admissible.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration
L’article de Fortunato Costantino, The Right to Disconnect and the Right to Human Oversight of Algorithms as New Digital Subjective Rights, European Review of Digital Administration & Law – Erdal 2025, Volume 6, Issue 2, pp. 141-153 (https://www.erdalreview.eu/free-download/97912218237769.pdf) part d’un constat organisationnel et social: la numérisation du travail et l’usage croissant de technologies « intelligentes » transforment l’entreprise au point d’en « dématérialiser » une partie, en brouillant des repères classiques comme le lieu de travail, les horaires, la présence physique et la manière d’évaluer la performance.
L’auteur situe cette évolution dans un modèle où l’entreprise cherche davantage d’efficacité et de flexibilité, notamment via le travail « agile » (télétravail au sens large, orienté objectifs), et via des formes de « management algorithmique » dans lesquelles des outils informatiques participent, voire se substituent, à des décisions de gestion des ressources humaines.
Selon lui, ces changements créent des risques nouveaux pour les droits fondamentaux des travailleurs: d’un côté, l’hyper-connexion permanente (« always on ») qui peut conduire à une forme d’empiètement continu du travail sur la vie privée; de l’autre, l’opacité et les biais possibles des systèmes algorithmiques qui influencent des décisions importantes (recrutement, affectation, évaluation, discipline).
À partir de là, il défend l’idée qu’il faut reconnaître deux « droits subjectifs numériques » spécifiques : un droit à la déconnexion et un droit à une supervision humaine des algorithmes. Ces droits ne seraient pas de simples règles techniques d’organisation, mais bien des instruments de protection de la personnalité, de la dignité, de la liberté et de la sécurité des personnes au travail, et devraient, selon l’auteur, être pensés au niveau constitutionnel, plutôt que laissés à des règles dispersées ou à la seule négociation contractuelle.
Dans son analyse du travail agile, l’auteur insiste sur l’ambivalence de ce modèle. En théorie, il promet une autonomie accrue, un rapport de confiance, une organisation par objectifs, et des bénéfices possibles en matière de conciliation vie professionnelle-vie privée. En pratique, il peut aussi dériver vers une intensification et une dilution du temps de travail, en particulier lorsque la technologie rend possible une disponibilité permanente. Il rappelle que l’expérience de la pandémie a souvent réduit le travail agile à un télétravail contraint et continu depuis le domicile, ce qui a parfois accentué les effets négatifs. Il décrit un phénomène de chevauchement progressif entre temps professionnel et temps personnel, que la littérature qualifie de « porosité »: des fragments de travail s’infiltrent dans la sphère privée (messages, demandes urgentes, tâches « à finir »), et inversement des activités privées se glissent dans le temps de travail. L’enjeu n’est pas seulement de respecter des pauses minimales, mais de préserver une séparation réelle entre les sphères de vie. Ce brouillage entraîne, selon lui, un risque d’« surtravail numérique » et de surcharge cognitive et émotionnelle, avec des conséquences possibles sur la santé (insomnie, irritabilité, épuisement, stress, burnout). Il rattache ces préoccupations à l’obligation générale de protection de la santé et de l’intégrité du travailleur, qui impose à l’employeur d’anticiper les risques et de mettre en place des mesures préventives adaptées à l’état de la technique et des connaissances.
Sur le droit à la déconnexion, l’article critique l’approche italienne issue de la loi de 2017 sur le travail agile, qui impose que l’accord individuel définisse des périodes de repos et des mesures techniques ou organisationnelles permettant la déconnexion, mais sans reconnaître clairement un « droit » opposable de manière générale, ni prévoir de modalités concrètes ou de conséquences en cas de non-respect. Pour l’auteur, cette construction est trop faible : elle renvoie l’essentiel à la négociation individuelle, dans un contexte où le pouvoir de négociation est rarement équilibré, et elle cantonne la déconnexion aux travailleurs « agiles » alors que la connexion permanente concerne potentiellement tous les travailleurs équipés d’outils numériques. Il souligne aussi que, faute de cadrage précis, les accords d’entreprise restent souvent au niveau de principes généraux et ne garantissent pas une coupure effective. Il note qu’une intervention ultérieure a qualifié la déconnexion de « droit » pour les travailleurs en mode agile, mais en la reliant toujours à des accords et à des périodes de disponibilité convenues, ce qui laisse subsister des ambiguïtés et une protection inégale. Il discute ensuite les tentatives doctrinales de rattacher la déconnexion uniquement au droit au repos et aux règles sur la durée du travail, en relevant que cette approche est insuffisante: la déconnexion ne vise pas seulement à assurer un minimum d’heures de repos, mais à protéger un espace de vie privée et de liberté personnelle contre la pression diffuse et constante des sollicitations numériques, y compris lorsque la personne n’est pas en train de travailler au sens strict mais demeure « en alerte » parce qu’elle peut être contactée à tout moment. Dans cette perspective, la déconnexion devient un droit plus large, lié à la vie privée, à la santé, et au plein développement de la personne.
L’auteur appuie cette lecture par une comparaison européenne et par des développements au niveau de l’Union. Il évoque des cadres nationaux, comme ceux de la France et de l’Espagne, qui qualifient plus explicitement la déconnexion comme un droit et lui donnent une portée plus générale, notamment via un rôle de la négociation collective, plutôt qu’une dépendance à l’accord individuel. Il met surtout en avant une résolution du Parlement européen de janvier 2021 invitant la Commission à proposer une directive sur la déconnexion, avec un socle minimal harmonisé applicable à tous les secteurs et à toutes les formes de travail, et avec l’idée que la déconnexion est devenue une composante essentielle des nouveaux modes de travail numériques. L’auteur relie ce mouvement à une vision où la transition numérique du travail doit être encadrée pour éviter des usages « déshumanisés » de la technologie, et où l’innovation doit rester orientée vers des objectifs sociaux (bien-être, durabilité, participation), en cohérence avec des orientations européennes plus générales sur une industrie « centrée sur l’humain ».
Le second axe majeur de l’article concerne le « droit à la supervision humaine » des processus et décisions algorithmiques. L’auteur part de la vulnérabilité particulière du travailleur face à des systèmes capables de collecter, croiser et inférer une quantité considérable d’informations. Il décrit un risque d’asymétrie: des individus de plus en plus « transparents » (car fortement observables par les données) face à des pouvoirs de décision de plus en plus « opaques » (car difficiles à comprendre et à contester). Il insiste sur deux problèmes classiques des systèmes algorithmiques appliqués aux ressources humaines: l’opacité (la difficulté de comprendre comment une décision est produite, ce qui renvoie à l’image de la « boîte noire ») et les biais (les erreurs, préjugés ou discriminations qui peuvent être incorporés dès la conception, ou par les données d’entraînement, puis reproduits à grande échelle). Dans le contexte du travail, ces outils peuvent intervenir dans des étapes sensibles: recrutement et sélection, affectation, organisation des tâches, évaluation de performance, voire déclenchement de procédures disciplinaires ou décisions de licenciement fondées sur des indicateurs automatisés. Selon l’auteur, lorsque des décisions importantes sont prises ou préparées par des systèmes algorithmiques, une gouvernance adaptée devient indispensable pour garantir transparence, fiabilité, intelligibilité et contrôle, et pour permettre une vérification réelle de la légitimité et de l’équité des décisions.
Concrètement, l’article défend une approche de conformité et de gouvernance interne en deux temps. D’abord, une analyse de risque ex ante doit identifier quels processus RH sont automatisés, à quel degré, et où la délégation de pouvoir décisionnel à la machine augmente le risque d’atteinte aux droits fondamentaux ou aux droits contractuels. Ensuite, l’entreprise doit mettre en place des politiques, procédures et mécanismes de supervision humaine proportionnés à l’importance de la décision et à l’intensité de l’impact sur la personne, avec une capacité effective de corriger, compléter ou annuler une décision algorithmique et de la remplacer par une décision humaine lorsque c’est nécessaire. L’auteur mentionne les différents modèles généralement évoqués (humain « dans la boucle », humain « supervisant la boucle », humain « aux commandes ») pour illustrer des degrés d’intervention humaine, mais son point central est qu’une supervision humaine doit être réelle et opérante, notamment pour réduire le risque d’« automation bias », c’est-à-dire la tendance à faire trop confiance à une sortie algorithmique même lorsqu’elle est erronée.
Sur le plan juridique, l’auteur rattache cette exigence à plusieurs sources. Il relève d’abord que l’AI Act de l’Union européenne, entré en vigueur en août 2024, contient une disposition spécifique imposant une supervision humaine pour les systèmes d’IA « à haut risque », afin de prévenir ou minimiser les risques pour la santé, la sécurité et les droits fondamentaux. Il estime ensuite que, même si ce texte vise en priorité les systèmes à haut risque, une entreprise prudente devrait prévoir une supervision humaine plus large dès lors que l’analyse de risque révèle des impacts possibles sur la dignité, la liberté, l’égalité, la non-discrimination, la protection des données ou la santé et la sécurité, y compris pour des systèmes classés comme moins risqués. Il intègre également le droit de la protection des données dans la démonstration: les principes généraux du RGPD (finalité, minimisation, transparence, exactitude, responsabilité) limitent la collecte et l’usage des données des travailleurs, et le RGPD prévoit un cadre spécifique pour les décisions fondées exclusivement sur un traitement automatisé, avec des garanties telles que l’intervention humaine, la possibilité d’exprimer son point de vue et de contester la décision. Il ajoute qu’un décret italien récent sur la transparence des conditions de travail impose, lorsqu’il existe des systèmes automatisés de décision ou de surveillance liés à des aspects clés de la relation de travail, des obligations d’information renforcées, ainsi que des évaluations de risques et, dans certains cas, une analyse d’impact et une consultation préalable de l’autorité de protection des données. L’ensemble de ces normes illustre, selon lui, une tendance: la supervision humaine et la transparence deviennent des garanties structurantes face à l’automatisation dans la gestion du travail.
En conclusion, l’auteur considère que, même si plusieurs textes (nationaux et européens) contiennent déjà des éléments de protection, l’ensemble reste insuffisant tant que ces garanties ne sont pas élevées au rang de droits pleinement reconnus et cohérents, capables d’être invoqués et protégés de manière effective. Il plaide pour une reconnaissance plus nette, y compris au niveau des textes constitutionnels et des instruments européens de droits fondamentaux, afin d’empêcher que la « boulimie » technologique et la connexion permanente ne finissent par écraser la dignité et la personnalité des individus. Dans sa logique, le droit à la déconnexion et le droit à une supervision humaine des algorithmes sont les deux réponses les plus directes pour rééquilibrer le rapport entre efficacité numérique et protection de la personne, en évitant à la fois la normalisation d’une disponibilité permanente et l’acceptation passive de décisions opaques produites par des systèmes automatisés.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données
L’auteure part d’une scène devenue banale dans la pratique professionnelle : une réunion à distance entre avocats, à laquelle participe discrètement un assistant de prise de notes fondé sur l’intelligence artificielle. Ce «bot» n’est pas un simple dictaphone amélioré. Il enregistre l’audio, transcrit intégralement les échanges, capte des captures d’écran de la vidéo, extrait des noms et adresses e-mail depuis l’invitation de calendrier et peut même créer une empreinte vocale durable pour identifier chaque participant. Ce qui pouvait sembler anodin comme une simple aide administrative soulève en réalité des questions juridiques importantes
L’article montre que ces outils ne sont plus des exceptions. Depuis la pandémie, la visioconférence est devenue une infrastructure ordinaire du travail, et la transcription automatisée s’est imposée par défaut sur des plateformes comme Zoom, Teams ou Google Meet. Des services spécialisés tels qu’Otter.ai sont massivement utilisés, y compris dans les cabinets d’avocats, et le secteur des centres d’appels traite chaque jour des millions de conversations via des systèmes d’IA capables de transcrire, analyser et stocker les échanges. Beaucoup d’utilisateurs ignorent cependant ce qu’il advient réellement des données collectées.
L’auteure insiste sur le fait qu’une transcription de réunion n’est pas un simple fichier texte local. Selon l’architecture technique et les conditions contractuelles du fournisseur, le système peut conserver l’audio, des images, des métadonnées sur les participants, des identifiants persistants de locuteurs et des droits d’utilisation très larges au profit du prestataire. C’est précisément cet écart entre les attentes intuitives des utilisateurs et les capacités réelles des fournisseurs qui crée un risque juridique.
Le texte analyse ensuite pourquoi les données issues de conversations sont particulièrement précieuses pour l’entraînement des modèles d’IA. Contrairement aux données issues du web, ces échanges sont contextuels, structurés et liés à des situations réelles de travail. Ils contiennent non seulement des mots, mais aussi des problèmes concrets, des stratégies, des décisions et parfois des résultats mesurables. Dans les centres d’appels, ils sont même reliés à des dossiers clients et à des indicateurs de satisfaction. Pour les entreprises d’IA, ces informations constituent un matériau d’entraînement de très haute qualité, bien supérieur à des textes publics aléatoires.
Cette valeur technique s’accompagne toutefois d’un risque juridique accru. Des actions collectives ont déjà été intentées aux États-Unis contre des services comme Otter.ai et contre des systèmes de centres d’appels de grandes entreprises technologiques. Les plaignants soutiennent que ces fournisseurs ne sont pas de simples outils neutres de productivité, mais des tiers qui interceptent des communications privées et les exploitent commercialement.
L’auteure décrit ensuite comment, à partir d’une seule réunion, un assistant de type Otter peut créer un ensemble de données multimodales comprenant le contenu des propos, le contexte (qui parle, quand et avec qui), des images des participants et des données biométriques sous forme d’empreintes vocales. Pour l’entraînement de systèmes conversationnels, ce type de base de données est extrêmement attractif. Du point de vue de la protection de la personnalité, cela ressemble toutefois à une extraction systématique d’informations sensibles sans consentement clair et éclairé.
Le texte examine ensuite la position publique d’Otter.ai, qui reconnaît l’importance stratégique des transcriptions de réunions comme «système de référence» pour les entreprises. Cette valorisation commerciale confirme, selon l’auteure, que les conversations ne sont pas seulement utiles aux clients, mais aussi au fournisseur pour améliorer ses propres produits d’IA.
Une partie importante du post est consacrée à la comparaison entre l’utilisation de données issues du web et celle de conversations privées. Les débats juridiques sur le «web scraping» portent surtout sur le droit d’auteur. Les enregistrements de réunions, eux, relèvent d’un tout autre cadre: ils touchent au droit des écoutes, à la protection des données personnelles, au droit biométrique et à la sphère privée. Les échanges enregistrés n’étaient pas destinés à être publics et peuvent contenir des secrets professionnels, des informations médicales ou des stratégies d’affaires.
L’auteure se penche ensuite sur les arguments de «dé-identification» avancés par certains fournisseurs. Otter affirme par exemple anonymiser les données avant de les utiliser pour entraîner ses modèles. Le texte explique pourquoi cette défense est fragile. Même sans noms, le contexte d’une conversation permet souvent de réidentifier les personnes ou les organisations concernées. Lorsque des enregistrements audio, des images ou des empreintes vocales sont conservés, l’idée même d’anonymisation devient largement illusoire. De plus, Otter admet que les données intégrées dans des modèles déjà entraînés ne peuvent pratiquement plus être retirées, ce qui suggère une appropriation durable de la matière première fournie par les utilisateurs.
Un autre point critique concerne le mécanisme de consentement. Dans la pratique, c’est souvent la personne qui active le bot qui donne l’autorisation au fournisseur, et non l’ensemble des participants à la réunion. Les conditions générales d’Otter transfèrent explicitement la responsabilité d’informer et d’obtenir le consentement des autres participants à l’utilisateur qui a invité le bot. Selon les plaignants, cela transforme le fournisseur en tiers interceptant des communications sans consentement de toutes les parties.
L’article conclut en montrant que l’intérêt économique croissant pour les données conversationnelles renforce les arguments des plaignants. Plus ces données sont précieuses pour entraîner des modèles d’IA, plus il est plausible de soutenir que les fournisseurs ne se contentent pas de fournir un service, mais exploitent commercialement des communications privées. Cela alimente des revendications fondées sur le droit fédéral américain des écoutes (ECPA), sur des lois étatiques comme la CIPA californienne et sur des législations biométriques telles que la loi de l’Illinois (BIPA).
En filigrane, l’auteure invite les praticiens à ne pas banaliser la présence de ces assistants de prise de notes. Ils sont utiles, mais leur fonctionnement réel soulève des enjeux sérieux de transparence, de consentement et de responsabilité juridique, enjeux qui seront développés plus en détail dans la seconde partie de la série.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données
Xavier Rodriguez, juge fédéral (U.S. District Judge) au Texas, explique dans une publication récente (https://judicature.duke.edu/articles/judging-ai-generative-ai-courts/) comment des outils d’IA générative peuvent aider un juge dans des dossiers volumineux sans affaiblir l’exigence de justice et de rigueur. Il part d’une expérience concrète : un procès “bench trial” (décidé par le juge sans jury) particulièrement lourd, La Union Del Pueblo Entero v. Abbott, portant sur de nombreuses dispositions d’une loi électorale texane de 2021 (S.B. 1). Le dossier comprenait environ 80 témoins, près de 1 000 pièces et plus de 5 000 pages de transcription. Cette masse met en évidence un problème très simple mais décisif : retrouver rapidement, puis synthétiser, les éléments utiles au moment de rédiger des constatations de faits et des conclusions.
Premier apport décrit : la recherche et la localisation de documents. Les systèmes judiciaires de dépôt électronique permettent des recherches textuelles, mais avec des limites pratiques : recherches par mots-clés souvent trop larges ou trop étroites, documents non “lisibles” car non convertis correctement, impossibilité de restreindre finement la recherche à certains sous-ensembles, difficulté à exploiter des documents reçus mais pas encore déposés, et résultats inutilisables quand un terme renvoie à “tout le dossier”. Pour dépasser ces limites, la chambre du juge a utilisé une plateforme d’e-discovery (Merlin) après validation par le service informatique du tribunal sur les aspects de cybersécurité. Un corpus d’environ un millier de documents (transcriptions, pièces admises, écritures, projets de constatations, ordonnances antérieures) a été chargé sur un espace sécurisé créé pour le projet. L’outil a appliqué une reconnaissance de caractères et a offert une recherche combinant mots-clés et recherche “algorithmique”, permettant de retrouver plus vite des passages pertinents sans requêtes complexes. L’auteur souligne toutefois une précaution centrale pour tout usage judiciaire ou avocat : ne pas charger de données confidentielles, protégées par le secret professionnel, ou sensibles (santé, finances, etc.) sans vérifier précisément les garanties du prestataire, notamment l’absence de réutilisation des données non publiques pour entraîner le modèle et la solidité des mesures de sécurité.
Deuxième apport : la synthèse de textes, en particulier la synthèse de dépositions et de transcriptions. L’auteur rappelle que les résumés de témoignages sont une pratique courante, mais coûteuse en temps et en budget, et parfois peu flexibles : selon qu’ils sont structurés par témoin, par date ou par thème, ils peuvent être difficiles à exploiter pour une question précise, et ils obligent souvent à un va-et-vient répétitif entre résumé et transcription. Il décrit l’intérêt d’approches où le système ne “devine” pas librement mais répond à partir d’un ensemble fermé de documents, via une méthode souvent appelée “recherche puis rédaction” (retrieval-augmented generation) : le système commence par retrouver les passages les plus pertinents dans le corpus défini, puis génère une réponse en s’appuyant sur ces passages. L’idée est de réduire le risque d’erreur en forçant l’outil à se fonder sur le dossier. Dans son test, l’auteur compare un résumé produit par un stagiaire à une réponse générée par Merlin à partir d’une question simple sur la procédure de vote “curbside” au Texas. L’outil fournit en quelques secondes une synthèse transversale qui combine plusieurs sources (dépositions et témoignages de divers témoins) et ajoute des références vers les passages correspondants. Le résumé humain est plus resserré et directement orienté vers l’usage rédactionnel, tandis que l’IA donne une vue plus large et contextualisée. La conclusion est nuancée : l’IA peut accélérer et faciliter la première exploration et l’identification des éléments du dossier, mais l’humain doit contrôler l’exactitude et décider du niveau de détail utile, notamment si le texte doit être repris tel quel dans une décision.
Troisième axe : la capacité de l’IA à produire un “premier jet” de constatations de faits (et, en creux, ses limites pour une décision complète). L’auteur affirme qu’il n’utilise pas, à ce stade, un outil d’IA générative pour rédiger des ordonnances ou des constatations déposées au dossier ; ses essais ont été réalisés après publication, afin d’éviter une influence sur la décision. Il insiste aussi sur des risques cognitifs spécifiques : l’“ancrage” (tendance à se laisser guider par une première proposition), la confiance excessive dans une réponse d’outil (“automation bias”) et le biais de confirmation (accepter plus facilement ce qui conforte une intuition). L’IA peut être partiellement ou totalement erronée, et même une réponse plausible peut orienter la réflexion de manière indue. Dans une première expérience, il demande à l’outil un texte mêlant faits et droit sur une théorie précise (atteinte à la liberté d’expression par une restriction de certaines activités de démarchage autour du vote par correspondance). Le résultat est décevant : réponse trop large (elle traite d’autres dispositions et d’autres parties), et analyse souvent superficielle, notamment sur la qualité pour agir (standing) où l’outil produit des formules générales plutôt que d’identifier précisément quels demandeurs sont concernés par cette restriction. L’auteur en tire une leçon méthodologique : les sorties dépendent fortement de la qualité des entrées et des consignes, et un juge doit déjà comprendre les enjeux factuels et juridiques pour formuler des requêtes pertinentes, évaluer les limites de l’outil et contrôler la pertinence et l’exactitude du résultat.
Il modifie alors son approche : plutôt que de demander une analyse juridique, il cible des constatations de faits détaillées, en donnant des instructions structurées très précises (définition de la disposition contestée, historique procédural, description des parties et de leurs compétences d’exécution, exemples de difficultés d’interprétation de termes vagues comme “présence physique” ou “compensation”, et effets concrets sur les activités de terrain et la liberté d’expression), avec exigence de références à la preuve. Cette fois, l’outil produit un document d’une dizaine de pages nettement plus utile, avec des exemples concrets d’activités réduites ou abandonnées par des organisations (annulation d’événements, bascule vers des formats virtuels, difficultés de recrutement de bénévoles, réduction de programmes d’assistance aux électeurs), et des citations de témoignages illustrant l’incertitude sur la portée de la règle (p. ex. la question de savoir si de petites aides matérielles pourraient être qualifiées de “compensation”). L’auteur souligne que cette amélioration provient d’une “itération” : affiner progressivement la demande pour l’aligner sur ce que le dossier contient réellement. Il explique aussi pourquoi l’outil peine lorsque la question suppose des inférences juridiques non explicitement formulées dans la preuve : au procès, les questions aux témoins ne reprennent pas sans cesse la “théorie de responsabilité” en termes juridiques, et les témoins ne doivent pas donner de conclusions de droit ; il faut donc guider l’outil vers les faits pertinents.
Quatrième axe : l’usage de l’IA pour relire et contrôler les écritures et brouillons. L’auteur présente un autre outil, Clearbrief, également basé sur le chargement de sources dans un espace sécurisé, mais intégré à Microsoft Word. Cette intégration facilite l’extraction de passages du dossier vers un projet de texte, avec insertion de références, et permet aussi de générer des chronologies, des tableaux thématiques et des résumés de dépositions (sans fonctionner comme un “chat” fondé sur des invites). Clearbrief dispose en outre d’un accès à des ressources juridiques (via LexisNexis et le domaine public) et peut évaluer dans quelle mesure une phrase d’un mémoire ou d’un projet d’opinion est effectivement soutenue par l’autorité citée, ce qui aide au contrôle des citations et à la détection d’affirmations insuffisamment étayées. Dans la pratique décrite, ces fonctions servent à préparer des conférences de procédure, à vérifier la précision des mémoires et des références au dossier, et à relire/corriger les projets avant publication.
En conclusion, l’auteur défend une position pragmatique : les outils d’IA générative ne remplacent pas le juge et ne doivent pas servir de substitut à la décision judiciaire, mais ils peuvent réduire une part importante du travail mécanique et chronophage (retrouver, regrouper et résumer des éléments du dossier, produire des chronologies, faciliter le contrôle de cohérence et de citations). Il estime que la peur suscitée par des cas médiatisés de mauvais usages ne doit pas conduire à un refus global : des professionnels ont toujours pu produire des références erronées ou des résumés infidèles, avec ou sans IA, et refuser ces outils ne fait que rendre plus difficile la détection de ces erreurs. Il ajoute que le risque d’un usage non critique existe aussi sans IA (copier-coller d’écritures partisanes, recherche juridique insuffisante) et que la bonne réponse réside dans la responsabilité et le contrôle, pas dans l’interdiction générale. Il propose enfin une logique “à la carte” : certains outils conviennent mieux aux grands dossiers factuels (recherche et synthèse à grande échelle), d’autres au travail quotidien (préparation d’audiences, vérification de citations). L’état de l’art, au moment de ses tests, ne permet pas de produire de façon fiable des décisions finales, mais l’évolution est rapide et des solutions apparaissent, y compris des outils dédiés au travail des juges. Dans tous les cas, il n’y a pas de substitut au jugement humain, en particulier pour formuler les bonnes questions, vérifier les réponses et assumer la responsabilité de la décision.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données
La Cour administrative d’appel de Paris (3e chambre), par un arrêt du 14 novembre 2025 (n° 24PA04840), confirme le rejet par le tribunal administratif de Paris de la demande de Mme B., inspectrice du travail titularisée depuis 1991 et affectée en Île-de-France, qui sollicitait l’annulation d’un blâme prononcé par le ministre du travail le 16 janvier 2023.
Parmi divers arguments, ce qui suit (résumé) :
Un point central du dossier concerne le refus répété par la fonctionnaire d’utiliser l’application “Wikit”, outil informatique interne permettant de préparer et saisir les contrôles, suivre des procédures, mutualiser les pratiques et gérer des agendas partagés.
La cour constate que ce refus a entraîné un surcroît de travail pour le secrétariat (saisie des convocations et décisions). Mme B. invoquait l’inadaptation de l’outil, en se référant notamment à un rapport sénatorial du 25 septembre 2019. La cour juge toutefois que, malgré ces critiques, le refus persistant constitue un manquement à l’obéissance hiérarchique, d’autant que le code du travail (article R. 8124-9) impose à l’agent de rendre compte de ses actions selon les modalités définies par l’administration, notamment via le système d’information prévu pour partager les informations sur les actions et entreprises contrôlées.
Par ailleurs, la Cour conclut que le dossier établit une attitude de dénigrement et d’hostilité envers la hiérarchie directe à partir de novembre 2020 et un refus de se plier aux consignes de service sur Wikit, caractérisant un manquement à l’obéissance hiérarchique et à l’exigence de mesure dans l’expression. Le moyen tiré de l’inexactitude matérielle des faits est donc rejeté.
En d’autres termes, le refus d’utiliser une application, une suite informatique, un outil numérique etc. est un manquement à l’obéissance hiérarchique qui peut faire l’objet d’une sanction disciplinaire.
Me Philippe Ehrenström, avocat, LLM. CAS en Droit et Intelligence Artificielle, CAS en Protection des données