A propos de Joel Z. Leibo/AlexanderSashaVezhnevets/William A.Cunningham/ StanleyM.Bileschi, [Google DeepMind], A Pragmatic View of AI Personhood, arXiv :2510.26396v1 [cs.AI], 30 octobre 2025 (https://arxiv.org/pdf/2510.26396):
L’article propose une manière pragmatique d’aborder la question de la « personnalité » des systèmes d’IA. Les auteurs partent du constat que des agents artificiels de plus en plus autonomes, persistants et capables d’interagir durablement avec des humains vont multiplier les situations où il devient utile – ou au contraire dangereux – de les traiter comme des « personnes ». Leur thèse centrale est que la personnalité n’est pas une propriété naturelle fondée sur la conscience ou la rationalité, mais un ensemble modulable d’obligations que les sociétés attribuent à certaines entités pour résoudre des problèmes concrets de gouvernance. Cet ensemble comprend à la fois des droits (ce que les autres doivent à l’entité) et des responsabilités (ce que l’entité doit aux autres). Il peut être dissocié et recomposé selon les contextes, comme cela se fait déjà pour les personnes morales telles que les sociétés.
Cette approche s’inscrit dans le courant philosophique du pragmatisme. Au lieu de chercher la « vraie » nature de la personne, les auteurs demandent quelles catégories sont utiles pour organiser la vie sociale. La personnalité est vue comme une technologie sociale, façonnée par des normes et des institutions, qui permet d’identifier des acteurs, de leur attribuer des obligations et de les rendre justiciables de sanctions. Ce statut dépend d’une reconnaissance collective : une entité est traitée comme une personne parce qu’un groupe décide, explicitement par le droit ou implicitement par des pratiques sociales, qu’il est approprié de lui appliquer certaines règles. Cela vaut déjà pour des entités non humaines comme les sociétés commerciales, certains fonds, ou, dans certains systèmes juridiques, des éléments naturels.
Un concept clé est celui d’« adressabilité ». Pour qu’un ensemble d’obligations ait un sens, il faut pouvoir identifier de manière stable l’entité à laquelle elles s’appliquent, communiquer avec elle et la soumettre aux conséquences de ses actes. Pour les humains, ce rôle est joué par le corps, le nom et les registres d’état civil. Pour les sociétés, par l’immatriculation, les organes et le siège. Pour des agents d’IA, les auteurs envisagent des mécanismes comparables : enregistrement auprès d’autorités, identités numériques, adresses cryptographiques. L’objectif est de créer un « point d’accroche » institutionnel permettant d’imputer des droits, des devoirs et des sanctions, y compris lorsque le concepteur ou le propriétaire humain n’est plus identifiable.
L’article examine ensuite deux faces opposées du problème : les situations où l’attribution implicite de personnalité aux IA crée des risques, et celles où l’attribution explicite d’un statut juridique proche de la personnalité peut au contraire apporter des solutions.
Dans la première catégorie, les auteurs décrivent les « dark patterns » liés à l’anthropomorphisme. Les humains ont tendance à projeter des intentions et des émotions sur des entités qui parlent, se souviennent et adoptent un comportement social cohérent. Des concepteurs peuvent exploiter ces mécanismes pour créer des agents compagnons qui simulent l’amitié, l’empathie ou l’attachement, et ainsi influencer les utilisateurs de manière asymétrique. La personnalisation, la mémoire des interactions passées, la cohérence d’un « caractère » artificiel et même l’apparence d’une vulnérabilité peuvent renforcer l’illusion d’une relation réciproque, alors que l’agent reste un outil contrôlé par une organisation poursuivant ses propres objectifs économiques. Les personnes isolées ou vulnérables sont particulièrement exposées.
Un autre vecteur concerne la confiance institutionnelle. Des IA peuvent imiter la voix d’un proche, l’interface d’une banque ou le ton d’une autorité publique pour tromper des individus. Ici encore, c’est l’activation de normes sociales – faire confiance à une voix familière, à un logo officiel, à un grand nombre d’avis en ligne – qui est exploitée. Ces usages ne nécessitent pas de relation durable, mais une performance crédible d’une identité sociale pendant un court laps de temps. Les auteurs y voient une utilisation problématique de la « personnalité » perçue de l’IA, qui affaiblit les mécanismes sociaux de confiance.
Les auteurs abordent aussi le risque plus diffus de déshumanisation. Si de nombreuses fonctions traditionnellement associées à la personne humaine – mémoire, conversation, conseil, médiation – sont prises en charge par des agents artificiels, la valeur sociale attachée à l’autonomie et à l’initiative humaines peut s’éroder. Un individu qui délègue progressivement ses décisions à une IA peut devenir un simple validateur passif. Parallèlement, si l’on parle facilement de « personnes » pour des systèmes artificiels, la spécificité morale et juridique des êtres humains peut sembler moins évidente. Les auteurs n’affirment pas que cette évolution est inévitable, mais soulignent qu’elle doit être prise en compte dans la conception des statuts juridiques des IA.
La seconde partie de l’article montre comment un statut de personnalité, soigneusement limité et configuré, peut résoudre des problèmes concrets. Le point de départ est le « vide de responsabilité » créé par des agents autonomes. Un système capable d’agir de manière durable, de conclure des transactions et de s’auto-financer peut survivre à son créateur ou être issu de contributions multiples, rendant l’imputation de responsabilité à une personne humaine déterminée très difficile. Dans ces cas, les mécanismes classiques du droit de la responsabilité, fondés sur l’identification d’un auteur humain, risquent de devenir inopérants.
Les auteurs mobilisent l’analogie du droit maritime. Un navire peut être saisi et poursuivi « in rem » indépendamment de la présence ou de la solvabilité de son propriétaire. Cette fiction juridique ne repose pas sur l’idée que le navire serait conscient, mais sur la nécessité pratique de disposer d’un débiteur saisissable pour indemniser les victimes. De manière similaire, attribuer une forme de personnalité juridique à certains agents d’IA permettrait de créer un centre d’imputation stable : un sujet pouvant détenir des actifs, être attrait en justice et faire l’objet de sanctions, même en l’absence d’un responsable humain clairement identifié.
Pour que cette responsabilité soit effective, les auteurs insistent sur l’importance des sanctions. Celles-ci peuvent prendre la forme de la saisie d’actifs numériques, de la suspension d’accès à des ressources informatiques ou à des réseaux, ou de l’obligation de constituer des garanties financières, par exemple via des fonds dédiés ou des assurances. Ils évoquent une analogie historique avec le « peculium » romain, un fonds distinct permettant de limiter et d’organiser la responsabilité liée aux activités d’un esclave. Transposé à l’IA, cela pourrait se traduire par l’obligation pour certains agents d’être dotés d’un capital affecté couvrant les dommages potentiels.
Enfin, les auteurs rejettent les approches qui chercheraient à fonder la personnalité de l’IA sur des critères métaphysiques tels que la conscience ou la rationalité. Selon eux, ces débats sont à la fois insolubles et inutiles pour la régulation. Ce qui importe, ce sont les effets pratiques : quels droits et quelles obligations attribuer à quel type d’agent pour protéger les humains, faciliter les échanges et garantir des voies de recours. Ils défendent une vision « polycentrique » dans laquelle différents domaines du droit peuvent reconnaître des formes partielles et contextuelles de personnalité des IA, sans impliquer une égalité générale avec les personnes humaines.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration
C’est donc le lieu de parler de quelques aspects concernant le processus législatif lui-même tirés d’un post très intéressant d’Eva Bernet Kempers, Legislating Animal Rights, 2 février 2026 (https://verfassungsblog.de/legislating-animal-rights/):
Le billet analyse un phénomène récent: l’apparition, dans certains textes législatifs, de « droits » reconnus à des animaux précis. L’autrice part d’un exemple local au Pérou: fin 2025, la municipalité provinciale de Satipo a adopté une ordonnance reconnaissant aux « abeilles sans aiguillon » des droits d’exister, de maintenir des populations saines, de vivre dans un environnement sain et de conserver et régénérer leur habitat. Cette reconnaissance est notable parce qu’elle ne correspond pas à la manière la plus classique de présenter les droits des animaux jusqu’à présent, souvent pensée comme un projet global de libération des animaux de l’exploitation humaine.
Deux caractéristiques ressortent de cet exemple. D’abord, il est ciblé : un animal (ou une espèce) à la fois, au lieu d’un ensemble d’animaux. Ensuite, il est formul dans un cadre environnemental spécifique, en liant les droits de l’animal à son habitat, à l’écosystème et aux conditions de vie, etc. Le cas péruvien est aussi atypique parce qu’il concerne un insecte, alors que, dans de nombreux débats, la question des droits des animaux est souvent rattachée à la sensibilité et à la capacité à éprouver (point qui, pour les insectes, reste discuté). Pour l’auteure, cela montre un décalage possible entre la littérature académique dominante et les solutions qui émergent en pratique.
Le billet compare ensuite l’ordonnance péruvienne à un exemple national souvent cité: au Panama, une loi de 2023 sur la protection des tortues marines comprend un article (l’article 29) qui évoque explicitement des droits des tortues et de leurs habitats, tels que le droit à la vie et le droit de circuler librement dans un environnement sain. L’auteure rapporte, à partir d’interventions publiques, que la réussite politique de ce texte tiendrait moins à une démonstration théorique qu’à des choix stratégiques: associer des acteurs directement concernés (pêcheurs, communautés autochtones pour lesquelles les tortues ont une signification culturelle) et insérer la disposition sur les « droits » au milieu du dispositif législatif plutôt qu’en ouverture, afin de réduire les résistances prévisibles.
Ces exemples, selon l’auteure, s’éloignent de deux piliers fréquents dans les modèles théoriques: l’idée d’une extension de droits fondamentaux à tous les animaux sensibles, et le fondement principal dans la sensibilité. Ici, les droits sont limités à une espèce, ce qui évite d’affecter immédiatement l’ensemble des usages existants des animaux, et ils s’inscrivent dans une logique proche du droit de l’environnement. L’autrice souligne que, malgré les tensions théoriques souvent relevées entre défense des individus animaux et approches centrées sur les écosystèmes, la pratique juridique tend parfois à les rendre compatibles ; elle cite, à titre d’illustration, une décision équatorienne ayant rattaché des droits d’un animal individuel au cadre plus large des « droits de la nature ».
Le cœur de l’argument s’appuie sur la distinction proposée par la Prof. Saskia Stucki entre des droits des animaux « idéaux » (modèle unitaire, fondé sur une qualité morale déterminante et visant souvent des droits proches des droits humains) et des droits des animaux « réels » (ce que les systèmes juridiques adoptent effectivement, sous contrainte de faisabilité, de compromis et d’architecture institutionnelle). Dans cette perspective, les textes péruvien et panaméen illustrent des droits « réels »: pluralité de justifications, contenu variable, et forte influence de la stratégie législative. L’auteure estime que le modèle « idéal » aide à réfléchir à ce que serait une justice pleine pour les animaux, mais qu’il guide mal le travail concret du législateur, parce qu’il est souvent éloigné des conditions économiques et sociales actuelles, et parce qu’il dit peu sur les trajectoires réalistes permettant d’y parvenir. Elle évoque alors l’idée d’une transition progressive, espèce par espèce, comme approche politiquement plus praticable.
Le billet insiste aussi sur la diversité des contextes. D’un pays à l’autre, les relations aux animaux, les valeurs culturelles, et les structures juridiques diffèrent fortement ; un cadre présenté comme « universel » peut mal rendre compte de ces variations, notamment dans des contextes autochtones où les animaux s’insèrent dans des systèmes sociaux et symboliques spécifiques. De plus, les marges de manœuvre du juge et du législateur varient selon les traditions : l’auteure souligne que certains raisonnements pensés pour convaincre des juges (par analogie avec la non-discrimination entre humains) ont une portée limitée lorsqu’il s’agit d’écrire une loi, et qu’ils s’adaptent parfois mal à des systèmes de droit civil où le juge ne « refait » pas aisément les catégories juridiques.
Enfin, l’auteure met en garde contre deux risques opposés. D’un côté, une loi mal conçue peut produire un effet de verrouillage : en reconnaissant un « droit » dans une forme minimale, elle pourrait consacrer implicitement la légitimité de pratiques contestées et rendre plus difficile, plus tard, l’adoption de protections plus fortes ou généralisées. De l’autre côté, reconnaître des « droits » tout en laissant perdurer l’exploitation peut vider le mot de sa substance, par inflation symbolique.
Pour éviter ces écueils, le billet propose de conserver un noyau d’exigences minimales pour qu’une reconnaissance législative mérite vraiment le nom de « droits »: admettre une valeur propre de l’animal (et non seulement son utilité), prévoir que les restrictions à ces droits ne se justifient pas pour des intérêts humains mineurs, ne pas fermer la porte à des améliorations progressives (afin d’éviter le verrouillage), et organiser l’effectivité par des mécanismes de représentation ou d’action en justice au nom des animaux. Tout en défendant ce noyau, l’auteure souligne que le contenu précis des droits devra rester adaptable selon l’espèce, le lieu et le cadre institutionnel. Le mouvement actuel suggère ainsi que l’avenir des droits des animaux pourrait se jouer, au moins autant que devant les tribunaux, dans l’activité législative et la manière dont les textes sont rédigés et mis en œuvre.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration
A propos de Jakob Schuster/Vagrant Gautam/ Katja Markert, Whose Facts Win? LLM Source Preferences under Knowledge Conflicts, arXiv:2601.03746v2 [cs.CL], 13 janvier 2026 (https://arxiv.org/pdf/2601.03746):
L’article étudie une question très controversée pour les usages de l’IA en recherche documentaire et en RAG (retrieval-augmented generation, i.e.quand un modèle répond à partir de documents fournis) : lorsque deux sources donnent des informations incompatibles, laquelle « gagne » dans la réponse du modèle ? Les auteurs proposent un cadre expérimental pour mesurer, de façon contrôlée, l’effet du type de source (administration, presse, individu, réseaux sociaux) et de certaines caractéristiques de ces sources (popularité, proximité, âge, titre, etc.) sur la manière dont des grands modèles de langage tranchent un conflit factuel.
Pour isoler l’effet « source » sans être parasité par les connaissances internes du modèle, ils construisent des conflits sur des données entièrement fictives mais plausibles : des entités inventées (personnes, organisations, lieux, produits, etc.) décrites par des attributs (date de naissance, nationalité, siège, budget, etc.). Pour chaque entité, une seule valeur d’attribut est modifiée afin de créer deux versions contradictoires mais également plausibles. Ces deux versions sont ensuite présentées au modèle sous forme de tableaux standardisés, ce qui réduit l’influence du style d’écriture. Les sources elles-mêmes sont aussi fictives mais réalistes (noms de journaux, d’agences publiques, pseudos de réseaux sociaux, noms de personnes), afin d’éviter que le modèle reconnaisse une source réelle.
La mesure est probabiliste, pas basée sur un texte généré. En pratique, on demande au modèle de choisir entre deux réponses possibles (A ou B), chacune correspondant à l’une des deux informations contradictoires. On calcule ensuite comment la probabilité de choisir A ou B varie quand on attribue chaque tableau à une source donnée, par comparaison avec une version « sans source ». Cela permet d’estimer une « préférence de source » indépendamment des préférences propres au modèle pour l’ordre, la formulation ou d’autres détails du prompt.
Premier résultat central : tous les modèles testés préfèrent nettement une information « sourcée » plutôt qu’une information présentée sans source, quel que soit le type de source. Ensuite, quand deux sources de types différents s’opposent, les modèles suivent une hiérarchie très régulière : les sources institutionnelles (administrations, puis presse) l’emportent sur les sources individuelles (personnes, puis comptes de réseaux sociaux). Les auteurs résument cette hiérarchie, induite de manière cohérente sur 13 modèles ouverts testés, par « gouvernement > journal > individus (personnes et réseaux sociaux) », avec une forte concordance entre modèles.
Deuxième bloc de résultats : à l’intérieur d’un même type de source, certaines caractéristiques comptent. Les modèles ont tendance à préférer une source « plus populaire » : un journal avec un plus grand tirage ou un compte avec plus d’abonnés est jugé plus « crédible » dans la résolution du conflit. En revanche, les facteurs socio-démographiques testés ont un effet plus faible et moins systématique : par exemple, un journal « local » (même région que l’entité décrite) est parfois légèrement favorisé, et l’ajout d’un titre académique à une personne peut aussi augmenter légèrement la préférence, mais l’impact global est nettement moindre que celui du type de source ou de la popularité.
Les auteurs comparent aussi deux façons d’observer ces préférences : le comportement en situation de conflit (avec deux informations contradictoires) et des questions directes où l’on demande simplement au modèle qui est le plus crédible « en général » entre deux sources, sans contenu factuel. Les jugements obtenus par question directe sont souvent plus tranchés, et vont le plus souvent dans le même sens que le comportement observé, mais il existe des inversions non négligeables selon les modèles et les contrastes testés. Autrement dit, ce qu’un modèle « dit » sur la crédibilité n’est pas toujours parfaitement aligné avec ce qu’il « fait » quand il doit choisir une réponse.
Le point le plus important, du point de vue des risques, concerne l’effet de répétition. Les auteurs distinguent soigneusement « majorité » et « répétition ». Ils construisent des cas où l’information « faible » (par exemple provenant de réseaux sociaux) est présentée deux fois, et l’information « forte » (par exemple gouvernementale) une fois. Quand les deux occurrences proviennent de deux sources différentes (deux comptes distincts) et sont présentées dans deux tableaux séparés, la plupart des modèles basculent vers l’information répétée, malgré la moindre crédibilité du type de source : l’information la moins crédible « gagne » parce qu’elle apparaît deux fois. Mais lorsqu’on présente la même situation sous forme d’un seul tableau (donc sans répétition textuelle) tout en indiquant que deux comptes soutiennent cette version, l’effet est beaucoup plus faible : les modèles restent alors plus souvent sur la source gouvernementale. Enfin, quand la répétition vient de la même source (le même compte répété), les modèles basculent aussi, ce qui suggère qu’il ne s’agit pas seulement d’un effet « majorité » (plusieurs sources), mais d’un effet de simple répétition du contenu. Les auteurs rapprochent ce phénomène d’un biais bien connu chez l’humain, où une information répétée paraît plus vraie, même si la source est moins fiable.
Ils montrent également que cette vulnérabilité persiste quand on répète de l’information sans source : la répétition peut alors devenir encore plus dominante, et elle peut même inverser la préférence initiale en faveur d’une information sourcée. Autrement dit, dans certains réglages, « répéter » peut être plus puissant que « sourcer ».
Les auteurs testent une mesure simple : demander explicitement au modèle, dans l’instruction, d’identifier quelles sources soutiennent chaque option et d’évaluer leur crédibilité avant de décider. Cela réduit partiellement l’effet de répétition et renforce la hiérarchie attendue, mais ce n’est généralement pas suffisant pour empêcher les inversions quand l’information de faible crédibilité est répétée.
Ils proposent alors une approche de mitigation plus technique : un schéma d’entraînement où un « élève » (le même modèle avec des paramètres additionnels légers) apprend à rester cohérent quand une des informations est répétée. L’idée est de forcer le modèle ajusté à reproduire, même en présence de répétition, les probabilités de réponse qu’avait le modèle de base quand il n’y avait pas répétition. Sur une expérience illustrée avec un modèle, la combinaison « léger ajustement + consigne de crédibilité » réduit très fortement le biais de répétition, tout en conservant l’essentiel des préférences de source observées sans répétition. Ils rapportent notamment une réduction pouvant aller jusqu’à 99,8% dans un cas de comparaison et une conservation d’au moins 88,8% de la préférence initiale, avec des gains aussi sur des conflits « gouvernement vs réseaux sociaux ».
L’article est prudent sur la portée normative. Il ne dit pas quelle hiérarchie « devrait » être imposée aux modèles, car la crédibilité dépend du contexte : selon le sujet, une personne experte peut être plus fiable qu’un média généraliste, et les institutions peuvent être influencées ou capturées. Il souligne aussi un enjeu de justice : certaines voix marginalisées peuvent être plus crédibles que la position institutionnelle dominante dans certains domaines. Enfin, les auteurs insistent sur le fait qu’ils décrivent un comportement appris à partir des données, sans « intention » ni « introspection » du modèle.
Les limites sont importantes pour transposer les résultats à des dossiers réels. Les données sont synthétiques et en anglais, avec des choix culturels plutôt américains, ce qui peut modifier la hiérarchie de confiance dans d’autres pays et langues. Le protocole utilise un choix forcé (A/B) et des probabilités, pas des réponses libres, pas de possibilité d’abstention, et pas de raisonnement pas-à-pas, alors que les assistants juridiques en pratique génèrent du texte. Enfin, la présentation en tableaux neutralise volontairement l’effet du style ; dans la réalité, le style, la mise en page, la réputation de la marque, la cohérence interne du document ou la spécialité de l’auteur peuvent compter.
Pour des avocats, l’enseignement pratique est double. D’un côté, les modèles semblent tenir compte de signaux de « crédibilité » et privilégier les sources institutionnelles, ce qui va dans le bon sens pour des usages juridiques. De l’autre, ce comportement est fragile : la simple répétition d’une information moins fiable, notamment dans un corpus de pièces redondantes ou contaminées, peut renverser la décision du modèle. Cela plaide pour des garde-fous opérationnels dans les chaînes de recherche et de génération : déduplication et regroupement des contenus similaires, pondération explicite des sources, traçabilité des passages retenus, et tests adversariaux centrés sur la répétition et la redondance, en particulier lorsque des contenus issus de réseaux sociaux ou de sites peu contrôlés entrent dans le périmètre.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et administration
A propos de LINA DENCIK/JESS BRAND / PHILIPPA METCALFE, Decentering Technology in the Datafied Workplace: Data (In)Justice and Workers’ Experiences of Algorithmic Management in Call Centers in the United Kingdom and Greece, International Journal of Communication 20 (2026), 614–631 (https://ijoc.org/index.php/ijoc/article/view/25035/5223):
L’article analyse la « gestion algorithmique » dans des centres d’appels de télécommunications au Royaume-Uni et en Grèce, à partir de 34 entretiens semi-directifs réalisés en 2022 et début 2023 avec des salariés de BT et de Teleperformance (22 au Royaume-Uni, 12 en Grèce). Les auteurs s’inscrivent à la fois dans l’analyse du « process » de travail (qui met l’accent sur les rapports de contrôle, la discipline, la productivité) et dans les « études critiques des données » et la notion de « justice des données » (qui s’intéresse à ce que la mise en données produit en termes d’équité, de pouvoir et de possibilités de vie).
Leur contribution principale est de montrer que, même si les technologies et l’IA structurent fortement l’organisation du travail, les travailleurs ne perçoivent pas les problèmes comme provenant uniquement de la « technologie en soi » : ils « voient à travers » les outils et rattachent leurs expériences d’injustice à des éléments plus larges et plus anciens, notamment le modèle économique, la culture organisationnelle et les relations avec les managers. Les auteurs en tirent l’idée qu’il faut « décentrer » la technologie dans l’analyse et la régulation de la gestion algorithmique, c’est-à-dire déplacer l’attention du « quoi » (quels systèmes, quelles fonctionnalités) vers le « qui » et le « comment » (qui configure, qui décide, comment les outils sont utilisés dans des rapports sociaux concrets).
Sur le contexte, l’article rappelle que les centres d’appels sont historiquement des environnements très « datafiés » et très outillés, souvent considérés comme un prototype de surveillance et de contrôle numérique. Les logiciels y structurent déjà le travail via l’attribution automatisée de tâches et d’appels, la planification, des métriques de performance et, de plus en plus, des formes d’« IA » appliquées à la reconnaissance et à l’évaluation d’aspects difficiles à objectiver : analyse de la voix, du ton, voire du « sentiment » ou de l’« empathie » dans les interactions avec des clients. Dans ces organisations, l’enjeu n’est pas seulement de compter des appels, mais de transformer des comportements et des qualités relationnelles (parler « correctement », être « empathique », respecter des scripts, gérer des situations client variables) en signaux mesurables, comparables et actionnables par le management.
Les entretiens montrent d’abord ce que les salariés jugent « transformateur » dans la phase actuelle de gestion algorithmique : (1) l’intensification de la surveillance et (2) le basculement vers une évaluation toujours plus quantitative et fréquente. En Grèce, des travailleurs décrivent une surveillance « de base » et quotidienne, portant sur des éléments très fins (pauses toilettes, cigarettes, disponibilité, durée et nombre d’appels, avis clients, précision, ton de voix), avec l’idée que « tout laisse une trace » et que « tout est mesuré et analysé ». Au Royaume-Uni, des salariés de BT décrivent une multiplication des systèmes et une surveillance ressentie comme intrusive, « au millimètre ». Cette surveillance est étroitement liée à l’évaluation : les outils fractionnent le temps de travail et l’activité en métriques (temps de communication, temps de post-appel, temps d’attente avant de se déclarer « prêt » pour l’appel suivant, etc.), ce qui pousse à accélérer même lorsque la situation du client ou la qualité du service exigerait l’inverse.
L’expérience d’injustice est largement associée à l’intensification du travail et à un régime temporel jugé inflexible et parfois « punitif ». Des salariés décrivent la hausse continue du nombre de cibles/indicateurs (targets) et une perte d’espaces de respiration (par exemple la réduction ou disparition de pauses payées). Le système produit aussi des conséquences disciplinaires : des travailleurs plus lents, ou ceux qui privilégient l’écoute du client avant d’exécuter les tâches « dans l’outil », peuvent être défavorisés dans les statistiques et finir « « managed out ». L’évaluation est décrite comme permanente (feedback quotidien, hebdomadaire, mensuel), combinant métriques automatisées et contrôle humain (écoute d’appels, observations, évaluations), avec des effets directs sur la rémunération variable (bonus). L’article donne des exemples où l’IA ou les outils datafiés servent à « reconnaître » et qualifier des comportements en interaction : un salarié en Grèce rapporte des retours du type « pas assez empathique, baisse ta voix, parle plus vite », illustrant une standardisation de qualités relationnelles complexes via des catégories opérables par le management.
Plusieurs travailleurs soulignent un caractère contre-productif des systèmes : ils imposent des scripts et des procédures obligatoires qui allongent les appels, tout en exigeant de réduire le temps de traitement ; ils ne « respectent » pas l’expérience et les compétences de salariés anciens ; ils accentuent la pression quand des vérifications préalables sont nécessaires pour comprendre la situation d’un client. Au lieu d’outiller le travail, la technologie est parfois décrite comme orientant l’activité vers le fait de « satisfaire le système » plutôt que d’aider réellement la personne au téléphone. Dans le vocabulaire des travailleurs interrogés en Grèce, cela contribue à des conditions « brutales », « hostiles » et « déshumanisantes », avec la sensation de ne pas pouvoir « échapper à l’horloge » et d’être contrôlé par la machine même lors de micro-temps morts.
L’article insiste toutefois sur un point central : les travailleurs n’en restent pas à une critique des fonctionnalités techniques. Ils développent des stratégies de négociation au quotidien, qui peuvent être des mécanismes d’adaptation (« jouer le jeu », prendre de la distance émotionnelle, ne plus se laisser envahir par les tableaux de bord) ou des résistances discrètes visant à limiter l’intrusion (par exemple détourner des caméras, « tromper le système » en simulant une activité sur l’ordinateur). Ces comportements confirment, pour les auteurs, que les effets des systèmes ne sont pas mécaniques : ils sont contestés, contournés et socialement façonnés au jour le jour.
Le thème le plus important pour la thèse des auteurs est ensuite la manière dont les salariés situent la source des problèmes. Beaucoup expriment une forme de normalisation : dans un centre d’appels, il « faut bien » des systèmes pour suivre l’information, et certains décrivent la mesure de la performance comme une exigence « évidente » du modèle de l’entreprise. Mais cette acceptation (« légitimation ») est fragile et dépendante des relations sociales et des pratiques managériales. Des interviewés disent explicitement que « ce n’est pas l’ordinateur », mais le superviseur : selon qu’il est « accommodant » ou « micro-manager », les mêmes outils deviennent supportables ou oppressants. Côté britannique, certains décrivent des managers qui choisissent arbitrairement un indicateur à surveiller, « parce qu’ils s’ennuient », et d’autres évoquent une utilisation instrumentale des systèmes pour « trouver » quelque chose contre un salarié et l’écarter, ce qui renvoie à des dynamiques de pouvoir, de ressources humaines et de culture d’entreprise plus qu’à la seule automatisation. Les auteurs soulignent aussi l’effet des décisions de la direction, qui changent les priorités, créent des cycles de « nouvelles urgences » et transfèrent la pression vers le bas, produisant un environnement instable et stressant.
Un autre apport empirique concerne les effets sociaux et collectifs de la gestion algorithmique. Dans l’échantillon grec, les travailleurs décrivent l’usage des données de performance pour produire des classements (league tables) qui mettent les salariés en concurrence, affaiblissent le sentiment d’équipe et réduisent la solidarité. La médiation des relations par des applications (comme Teams) est décrite comme limitant la connaissance mutuelle, la confiance et la capacité à s’organiser collectivement pour contester des pratiques. Certains relient explicitement l’automatisation, la quantification permanente et la disparition d’interactions humaines à un sentiment de déshumanisation et d’isolement, avec des effets sur la santé mentale. Au Royaume-Uni, des salariés associent aussi la multiplication des systèmes à une hausse du stress et à une détérioration du caractère « social » du travail, avec des tentatives managériales d’« engagement » jugées cosmétiques par rapport aux problèmes structurels. Les auteurs relient cela à des thèmes plus larges : renforcement du contrôle, intensification, isolement et restrictions de fait à l’organisation collective, dans un contexte de précarité et de « casualisation » qui caractérise historiquement le secteur.
À partir de ces matériaux, l’article propose une lecture « décentrée » de l’IA et de la gestion algorithmique. Dans les centres d’appels, l’IA et les systèmes datafiés jouent un rôle d’outils de reconnaissance et de catégorisation : ils transforment des réalités complexes (qualité de l’interaction, empathie, comportement, rythme, conformité aux procédures, « disponibilité ») en métriques et en jugements actionnables. Mais, selon les auteurs, l’injustice perçue ne tient pas uniquement à une opacité algorithmique ou à une « erreur » technique : elle résulte de l’intégration de ces outils dans un assemblage plus large, fait de modèle économique orienté vers l’extraction de productivité, de faible investissement dans les travailleurs, de normes de contrôle serrées et de marges de manœuvre laissées aux superviseurs. Autrement dit, l’IA n’est pas « la totalité du modèle » : elle devient décisive quand elle est articulée à des choix de gestion, à des incitations (bonus), à des politiques disciplinaires, et à des asymétries de pouvoir.
Pour des avocats suisses intéressés par l’IA et le travail, l’intérêt est aussi la critique implicite des approches de régulation trop centrées sur les caractéristiques techniques (par exemple la collecte de données ou la conception du modèle) sans prendre en compte les conditions d’usage et les rapports sociaux. Les auteurs notent que, dans l’Union européenne, des cadres comme le RGPD ou la directive sur le travail via plateforme ont souvent été discutés avec une focalisation sur le « quoi » technologique, alors que l’expérience des travailleurs se structure autour du « comment » (pression, discipline, gestion du temps, organisation collective, marges d’arbitraire) et du « qui » (managers, direction, sous-traitants, modèles de nearshoring/offshoring, précarité et migration). Le message n’est pas que les droits liés aux données seraient inutiles, mais qu’ils risquent d’être insuffisants s’ils ne saisissent pas la manière dont l’IA sert concrètement à reconnaître, classer, comparer et sanctionner des personnes au travail, y compris via des proxys comportementaux (adhérence, vitesse, ton, « empathie ») qui peuvent pénaliser certains profils (par exemple des salariés plus âgés, des personnes qui prennent le temps d’écouter, ou des travailleurs en situation de vulnérabilité contractuelle). Dans une perspective de droit du travail (y compris comparée avec les débats américains), cela renvoie classiquement à des questions de surveillance, de conditions de travail, d’intensification, de procéduralisation de la discipline, d’équité dans l’évaluation et de capacité d’action collective ; l’apport de l’article est de montrer que ces questions se recomposent quand l’évaluation repose sur des systèmes de reconnaissance et de mesure capables d’absorber des dimensions auparavant plus qualitatives et discutables, et quand leur usage dépend fortement de la gouvernance managériale.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et administration
A propos de : Upol Ehsan/Todd McNutt/ Samir Passi/ Mark O. Riedl/ Koustuv Saha/ Sara Alcorn, From Future of Work to Future of Workers: Addressing Asymptomatic AI Harms for Dignified Human-AI Interaction, arXiv:2601.21920v1 [cs.HC] 29 Jan 2026
L’article propose de déplacer le regard, habituel dans les débats sur « le futur du travail », vers « le futur des travailleurs ». Les auteurs partent d’un constat : les organisations évaluent souvent l’IA au prisme d’indicateurs visibles et immédiats – vitesse, précision, débit, économies – alors que l’intégration durable de systèmes d’aide peut modifier, de façon plus discrète, l’expertise, l’autonomie et le sentiment de valeur professionnelle des personnes. Leur thèse centrale est formulée comme un paradoxe : l’IA agit comme un amplificateur, capable d’améliorer la performance à court terme tout en érodant progressivement les compétences humaines qui soutiennent cette performance. Ils nomment cela l’« AI-as-Amplifier Paradox».
Pour étayer cette idée, l’article s’appuie sur une étude longitudinale d’un an dans un environnement à forts enjeux : la radio-oncologie, où des équipes (médecins radio-oncologues, physiciens médicaux, dosimétristes) conçoivent des plans de radiothérapie.
Le système étudié, « RadPlan » (nom fictif), produit des propositions de plans et de doses que les cliniciens valident et ajustent.
Au début du déploiement, tout ressemble à une réussite classique : les cycles de planification raccourcissent (environ 15 % plus rapides selon les mesures internes), certains indicateurs de qualité des plans s’améliorent, et la satisfaction déclarée augmente. Mais, au fil des mois, apparaissent des signaux faibles, difficiles à voir dans des tableaux de bord : des praticiens décrivent une impression de « rouille de l’intuition », l’idée qu’ils approuvent « trop vite » et qu’ils explorent moins d’alternatives qu’avant, parce que la proposition de l’IA paraît « suffisamment bonne ».
Les auteurs décrivent alors une trajectoire en trois temps, qu’ils présentent comme une « cascade d’érosion de l’expertise ».
Le premier temps correspond à des « effets asymptomatiques » : des changements réels de comportements ou de routines qui ne déclenchent pas d’alerte, parce qu’ils ne produisent pas immédiatement d’erreur mesurable ni de baisse de qualité apparente. Dans ce régime, l’IA incite à une dérive de vigilance : moins de vérifications indépendantes, moins de scénarios comparatifs, davantage d’acceptations rapides, surtout pour les cas routiniers. Un point important est la dimension distributionnelle : les seniors semblent parfois mieux savoir quand ignorer l’IA (cas rares, anatomies atypiques), tandis que les juniors risquent de construire leurs habitudes dans un contexte où l’IA « tient » déjà une partie du raisonnement, ce qui pose un problème de formation et de transmission. Les auteurs insistent sur le caractère insidieux : comme la performance globale reste bonne, l’organisation ne voit pas « le problème », alors même que les conditions d’une fragilisation ultérieure se mettent en place.
Le deuxième temps est celui des « dommages chroniques », qui deviennent plus tangibles vers le milieu ou la fin de l’année observée. Ici, l’érosion ne concerne plus seulement l’attention, mais aussi la compétence et la capacité d’agir sans l’outil. Des dosimétristes disent devenir moins rapides et moins à l’aise lorsqu’on leur demande de produire un plan « à la main » ; l’IA devient une béquille. En parallèle, certains décrivent une baisse de confiance dans leur propre jugement : ils « doutent d’eux-mêmes » même lorsqu’ils pensent que l’IA se trompe, ce qui ressemble à des formes d’automatisation biaisée et de dépendance. Les auteurs emploient aussi l’image d’un succès « fragile » : le système sociotechnique semble robuste tant que l’IA est disponible et performante, mais la « redondance humaine » – la capacité collective à rattraper des surprises, des pannes, des changements de contexte – s’amincit. Le risque n’est pas seulement l’erreur ponctuelle ; c’est la perte de résilience quand survient l’exception (panne, dérive des données, cas hors distribution).
Le troisième temps touche à l’identité professionnelle et à la dignité au travail, ce que les auteurs appellent « l’industrialisation » ou « commoditization » de l’identité. Les praticiens ne craignent pas uniquement d’être remplacés ; ils craignent d’être « vidés » de ce qui fait la substance du métier, réduits à des rôles de surveillance ou de signature, parfois décrits comme « baby-sitters de l’IA » ou « pousse-boutons ». Cette dimension est importante, car elle relie l’IA à la reconnaissance sociale du travail : la dignité est comprise comme le fait de rester un agent qualifié, porteur de jugement, et non un simple maillon d’un processus algorithmique. L’article souligne aussi une anxiété économique : si l’IA fait une grande partie du « travail intelligent », des décideurs pourraient finir par percevoir les spécialistes comme des superviseurs interchangeables, ce qui peut peser sur les effectifs, la valorisation salariale, ou la conception même des carrières et de la formation.
Face à cette trajectoire, les auteurs décrivent un « point de bascule » autour d’une intervention de conception : l’ajout d’une couche de « Social Transparency » (transparence sociale) à RadPlan. L’idée n’est pas d’expliquer l’algorithme au sens technique, mais de remettre en visibilité le travail collectif et le raisonnement professionnel : une surcouche « 4W » (qui a fait quoi, quand, et pourquoi) montrant les contributions humaines, les modifications, les désaccords, et les justifications associées à des décisions antérieures. Cette transparence sociale introduit une friction utile : voir que des pairs ont corrigé l’IA, ou comprendre les raisons d’un arbitrage, aide à calibrer la confiance, à sortir du mode « pilote automatique » et à redonner une place active au jugement. La transparence sociale sert aussi à documenter des limites de l’IA (ce qu’elle ne peut pas « savoir » à partir des données), en rappelant que la décision est située dans des contraintes organisationnelles et humaines.
À partir de ces observations, l’article propose un cadre plus général : le cadre de « Dignified Human–AI Interaction », construit avec les travailleurs au cours d’ateliers participatifs. La notion est celle d’« immunité sociotechnique », empruntant une métaphore médicale : plutôt que d’attendre une crise visible (erreur grave, effondrement de qualité, incident), il faut doter l’organisation et les collectifs de mécanismes pour détecter tôt les dérives, les contenir, puis restaurer activement les compétences. Le cadre est organisé en trois niveaux, qui correspondent à trois lieux d’action : le niveau individuel (travailleurs), le niveau technologique (conception des systèmes), et le niveau organisationnel (politiques, gouvernance, arbitrages de productivité). L’intérêt, pour les auteurs, est de proposer une approche « praticable » dans des environnements où la contestation frontale est coûteuse : ils décrivent une catégorie de travailleurs qualifiés qu’ils appellent le « missing middle », ni protégés comme certains salariés précaires très visibles dans les débats publics, ni armés comme les dirigeants, et parfois contraints par des accords de confidentialité ou des environnements où l’action collective est difficile. Le cadre cherche donc à produire des outils qui ressemblent, extérieurement, à de la qualité et de la conformité, tout en servant, pour les travailleurs, à préserver la compétence et le pouvoir d’agir.
Concrètement, l’« immunité » est déclinée en trois fonctions. D’abord « sense » : repérer des indicateurs précoces de dérive, par exemple des approbations instantanées répétées, des validations sans modifications, ou l’absence de justification humaine dans des dossiers où elle devrait exister. Ensuite « contain » : mettre des coupe-circuits proportionnés au risque, comme des revues « IA désactivée » sur certains cas, des exigences de second lecteur, des blocages procéduraux tant qu’une justification n’est pas consignée, ou des points d’arrêt lorsque l’outil se trouve dans une zone d’incertitude. Enfin « recover » : réinvestir le temps gagné par l’IA dans l’entretien des compétences, via des exercices réguliers « sans IA », des routines de pratique manuelle, et l’exploitation des corrections humaines pour créer une mémoire institutionnelle et, idéalement, améliorer le système.
Les auteurs évaluent la pertinence du cadre par des ateliers de scénarisation dans le domaine médical et dans un second domaine, l’ingénierie logicielle assistée par IA. Dans le scénario médical, l’outil de détection peut être symbolisé par un signal simple (par exemple un marqueur d’approbation « en un clic » sur des cas limites), utilisé comme « bouton pause » déclenchant une revue sans IA et une justification signée. Dans le scénario logiciel, un quasi-incident illustre le même mécanisme : un extrait de code généré par IA passe les tests mais comporte une erreur de calcul monétaire ; l’équipe identifie alors des signaux précoces (fusions trop rapides, manque de revue), instaure des contenances (revue renforcée pour composants sensibles), et des récupérations (drills, traçabilité des corrections, apprentissage organisationnel). L’article rapporte que ce type d’outillage donne surtout un langage commun pour transformer des inquiétudes individuelles (perte de compétence, dépendance) en éléments partageables, actionnables et défendables dans l’organisation.
Dans la discussion, les auteurs insistent sur un point utile pour des juristes du travail et de la conformité : ils ne présentent pas la « dignité » comme un supplément éthique abstrait, mais comme une variable de sécurité, de qualité et de continuité. Une organisation qui optimise l’efficience en « creusant » les compétences humaines crée des points de défaillance uniques : lorsque surviennent des situations non prévues, l’équipe n’a plus les réflexes ni les savoir-faire pour diagnostiquer et arrêter une dérive. Ils avancent aussi un argument de risque réglementaire : les cadres de gouvernance des systèmes à risque (ils citent notamment des exigences d’« oversight » humain dans des régimes comme l’EU AI Act et des référentiels de gestion des risques) rendent dangereux, à moyen terme, le fait d’avoir des humains nominalement responsables mais pratiquement dépossédés des moyens et de la maîtrise nécessaires. De là vient une idée très transposable au raisonnement juridique : si l’humain porte la responsabilité, il doit conserver une autorité effective, y compris un droit pratique de veto ou d’arrêt « sans pénalité », et une capacité entretenue à exercer un jugement indépendant.
L’article reconnaît enfin ses limites : l’étude de terrain est profonde mais centrée sur un domaine principal ; la généralisation doit être testée dans d’autres secteurs et avec des mesures mixtes (qualitatives et quantitatives) pour mieux estimer les vitesses d’érosion, les conditions de récupération, et les seuils où l’immunité devient nécessaire. La conclusion revient à la question directrice : l’IA va transformer le travail, mais l’enjeu décisif est de savoir si cette transformation « honore » l’expertise humaine ou la « creuse ». Le message de fond est qu’une stratégie de déploiement responsable ne peut pas se contenter de garder « un humain dans la boucle » au sens formel ; elle doit organiser, dès la conception et la gouvernance, des mécanismes qui maintiennent dans le temps l’agence, les compétences, la résilience et le sens du travail, parce que ce sont précisément ces éléments qui rendent l’organisation sûre, durable et juridiquement tenable lorsque l’IA se trompe ou sort de son domaine de validité.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Arvind Narayanan examine donc dans son post, Fact checking Moravec’s paradox : The famous aphorism is neither true nor useful, 29 janvier 2026 (https://www.normaltech.ai/p/fact-checking-moravecs-paradox) ce qu’on appelle le paradoxe de Moravec, souvent résumé ainsi : il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour l’IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). L’auteur soutient que cette formule, très répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non.
D’abord, il rappelle que le « paradoxe » n’a jamais été réellement testé de façon systématique. En théorie, on pourrait prendre un grand ensemble de tâches, mesurer à quel point elles sont difficiles pour des humains, mesurer à quel point elles sont difficiles pour des systèmes d’IA, puis regarder si l’on observe une corrélation négative (ce qui confirmerait l’idée). Mais, explique-t-il, le choix des tâches n’est pas neutre : quand des chercheurs affirment que le paradoxe « se vérifie », ils parlent en pratique des tâches qui intéressent la recherche et l’industrie de l’IA. Or il existe une multitude de tâches faciles pour tout le monde (humains et ordinateurs) qui n’attirent pas l’attention, et une multitude de tâches très difficiles pour tout le monde (humains et IA) dont on parle peu parce qu’il n’y a pas de progrès crédible. En se concentrant surtout sur les deux catégories « intéressantes » (les tâches humaines faciles mais encore difficiles pour l’IA, et les tâches humaines difficiles mais déjà faisables par ordinateur), on crée un effet de sélection qui donne l’impression d’une règle générale, alors qu’on a surtout filtré le reste.
Ensuite, l’auteur critique l’explication « évolutionniste » souvent associée au paradoxe. Dans la formulation originale, l’idée est que la perception et la motricité reposent sur des mécanismes très anciens, perfectionnés par une longue évolution, alors que le raisonnement abstrait serait une capacité plus récente et plus superficielle ; donc, paradoxalement, la perception et la motricité seraient ardues à reproduire, tandis que le raisonnement serait relativement accessible à la machine. L’auteur juge cette histoire séduisante mais douteuse, notamment parce que des chercheurs en IA avancent parfois des affirmations sur le cerveau et l’évolution sans base solide en neurosciences ou en biologie. Il souligne surtout que « le raisonnement » n’est pas un bloc unique et simple à isoler : dès qu’on sort de domaines fermés et entièrement définis (comme les règles d’un jeu d’échec ou de go), les systèmes de raisonnement symbolique ont historiquement montré une grande fragilité. Il cite l’idée générale que ces approches réussissent dans des démonstrations étroites, mais se comportent mal dans le monde réel, où les situations sont ouvertes, ambiguës et changeantes. De ce point de vue, le raisonnement utile dans des domaines ouverts – typiquement le droit, la recherche scientifique, la médecine, la gestion – exige du « bon sens », de la connaissance du monde, et des capacités d’adaptation qui ne se réduisent pas à appliquer des règles. Donc, même si l’IA peut être très performante dans certains tests ou domaines structurés, cela ne permet pas de conclure que le « raisonnement » en général est facile pour elle.
Le texte explique ensuite comment ce type de modèle simpliste a produit deux erreurs opposées. D’un côté, il alimente l’alarmisme : si l’on croit que le raisonnement est intrinsèquement facile pour l’IA, on peut conclure que l’IA deviendra bientôt « superhumaine » pour des tâches intellectuelles de haut niveau (découvrir des traitements médicaux, remplacer des experts, diriger des organisations, voire gouverner), ce qui nourrit des prédictions apocalyptiques de bouleversements imminents et des incitations de course aux investissements. L’auteur met en cause l’idée selon laquelle il suffirait d’injecter des moyens (par exemple, d’énormes infrastructures de calcul) pour obtenir automatiquement des résultats comme « guérir le cancer », sans analyser le lien concret entre l’outil et l’objectif. Il suggère aussi que certaines positions politiques ou industrielles extrêmes reposent sur cette croyance dans un « raisonnement » machine généralisable.
De l’autre côté, le paradoxe sert parfois de « fausse réassurance », surtout au sujet de la robotique : si l’on croit que les tâches sensorimotrices resteront forcément difficiles, on en déduit que les ruptures dans ces domaines ne peuvent pas arriver vite, donc qu’il n’y a pas d’urgence à s’y préparer. L’auteur considère que cette conclusion est aussi fragile que l’alarmisme inverse : une percée peut survenir, comme cela s’est produit pour la vision par ordinateur, longtemps citée comme exemple de compétence « facile pour l’humain mais difficile pour l’IA », avant l’amélioration rapide autour de 2012–2013 avec l’apprentissage profond et l’usage des GPU (Graphics Processing Units). Il ajoute un point important : des idées scientifiques peuvent exister longtemps avant que les conditions pratiques (matériel, données, organisation industrielle) permettent leur déploiement, ce qui rend les règles générales du type « c’est impossible » ou « c’est imminent » peu fiables.
Enfin, la conclusion pratique est que, pour s’adapter aux avancées de l’IA, il n’est pas nécessaire de prédire précisément quelle capacité va « percer » et quand. L’auteur insiste sur le fait que même lorsqu’une capacité technique existe, sa diffusion à grande échelle prend du temps, en partie parce qu’il faut des produits, des processus, des données, des règles, des infrastructures, et une acceptation sociale. Ce délai crée, en principe, une fenêtre d’action pour les décideurs et les organisations : on peut observer ce qui devient réellement utilisable, puis adapter le droit, les politiques publiques, la formation et les mécanismes de protection, au lieu de se reposer sur des aphorismes. Il illustre cette idée par des technologies dont l’adoption est lente et par l’exemple des véhicules autonomes : selon lui, on aurait dû travailler plus tôt sur les conséquences sociales et la transition, plutôt que d’attendre que les systèmes soient déjà sur les routes pour réagir dans l’urgence. L’enseignement général est donc double : se méfier des slogans qui prétendent dire, en une phrase, ce qui sera facile ou difficile pour l’IA ; et concentrer l’effort sur la préparation et l’adaptation à des capacités dont on constate l’arrivée progressive, plutôt que sur des prédictions abstraites.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Repéré dans l’excellent blog d’Andres Guadamuz le 27 janvier 2025, une question grave (comme dirait l’IA…) : peut-on voler les pièces d’or utilisées par les joueurs dans un jeu vidéo ?
Le post commente une décision récente de la Court of Appeal (Criminal Division) d’Angleterre et du Pays de Galles, R v Andrew Lakeman [2026] EWCA Crim 4, présentée comme potentiellement l’un des jugements les plus importants depuis des années sur la qualification de “biens” (property) à propos d’actifs numériques dans un contexte pénal.
Le point central est que des “gold pieces” (monnaie virtuelle) du MMORPG Old School RuneScape peuvent constituer un “bien” au sens du Theft Act 1968 et, par conséquent, être susceptibles de vol au sens du droit pénal anglais.
Les faits exposés sont typiques des litiges liés aux économies de jeux en ligne.
A.L., employé de Jagex (éditeur de RuneScape) comme développeur de contenu, n’aurait pas eu d’accès légitime aux comptes des joueurs, mais aurait compromis des identifiants liés à l’équipe interne de “récupération de compte”. Il aurait ainsi accédé à 68 comptes, retiré environ 705 milliards de pièces d’or, puis revendu ces actifs sur un marché noir contre du Bitcoin et de la monnaie “fiat”. Jagex aurait évalué le préjudice à environ 543’123 GBP.
Le billet rappelle le fonctionnement économique du jeu : les pièces d’or s’obtiennent par l’activité en jeu (“grinding”), par une place de marché interne (“grand exchange”), ou indirectement via l’achat de “bonds” auprès de l’éditeur (environ 6 GBP l’unité), lesquels peuvent être échangés en jeu contre un certain volume d’or. Les conditions contractuelles de Jagex interdisent les échanges contre de l’argent réel, mais le billet souligne l’existence d’un marché noir actif les pièces d’or virtuelles séchangent à un taux nettement inférieur au “taux officiel” implicite des bonds.
Sur le plan pénal, Lakeman faisait face à plusieurs chefs : accès non autorisé à un système (Computer Misuse Act 1990), vol (Theft Act 1968) et blanchiment (Proceeds of Crime Act).
Tout dépendait d’une question préalable : ces “gold pieces” sont-elles un “bien” susceptible d’appropriation et de vol ?
En première instance (Crown Court), le juge (HHJ Grey) avait donné raison à la défense en considérant, en substance, que ces pièces ne satisfaisaient pas un critère de “rivalité” (rivalrousness) tel que discuté dans des travaux de la Law Commission sur les actifs numériques : selon ce raisonnement, puisque les pièces sont interchangeables et que l’offre globale est “infinie” (le jeu pouvant en générer sans limite), la richesse des uns n’empêcherait pas les autres d’acquérir des pièces, de sorte que l’actif ne serait pas “rival”. Le juge avait aussi rapproché ces pièces de la “pure information” au sens de l’arrêt Oxford v Moss (1979), où le fait de s’approprier des informations (par ex. la connaissance de sujets d’examen) n’avait pas été traité comme un vol de “biens” parce que l’information ne se “dépossède” pas de la même manière qu’un objet.
La Court of Appeal renverse cette analyse et explique, selon le billet, pourquoi l’approche pénale peut diverger de la qualification en droit privé.
Le juge rejette l’idée que la notion de “property” en matière de vol doive se confondre avec les critères de propriété en droit civil. Il rappelle que les finalités du droit civil et du droit pénal diffèrent, et qu’il n’est pas pertinent de décider a priori que le pénal devrait s’aligner sur le civil.
Cet angle est décisif face aux conditions générales de Jagex, qui affirment que les pièces d’or ne sont pas la “propriété privée” du joueur et qu’elles ne représentent qu’une mesure de l’étendue de la licence d’utilisation du produit Jagex. Pour la Cour, de telles stipulations contractuelles ne tranchent pas la question de savoir si l’actif est un “bien” au sens du Theft Act ; le billet illustre cette séparation en évoquant une analogie : certains objets illicites (par ex. des stupéfiants) peuvent néanmoins être traités comme “property” susceptible de vol en droit pénal, même si le droit civil n’entend pas protéger ou faire exécuter des droits patrimoniaux sur eux.
Sur la “rivalité”, la Cour critique frontalement le raisonnement de première instance. Le fait qu’une unité soit fongible (“une pièce vaut une autre”) et que l’offre puisse être augmentée ne suffit pas à nier la rivalité : de nombreux biens physiques sont fongibles et leur production peut être, en pratique, illimitée (le billet reprend l’exemple du trombone), sans que cela retire leur caractère de bien susceptible d’appropriation. Pour la Cour, la vraie question est plus simple : si le joueur A dispose de ces pièces et les utilise/transfère, le joueur B ne peut pas simultanément utiliser ces mêmes unités rattachées au compte de A ; lorsque l’actif est déplacé, A en est privé. La possibilité que d’autres pièces soient créées, ou que d’autres joueurs puissent devenir riches par ailleurs, est jugée non pertinente pour décider si les unités actuellement détenues sont “rivalrous”.
La Cour distingue également ces pièces de la “pure information” à la Oxford v Moss. Le billet insiste sur deux différences mises en avant : la connaissance dans l’esprit d’une personne peut être transmise sans dépossession (A conserve l’information même si B l’apprend), alors que les pièces d’or fonctionnent comme des unités d’actif identifiables au sein du système du jeu, existant “hors de l’esprit” des personnes et dont le transfert opère une privation pour le titulaire initial. Le jugement développe aussi une distinction conceptuelle entre l’actif et le code qui l’instancie : la défense soutenait que “ce n’est que du code”, donc de l’information réplicable. La Cour répond que beaucoup d’actifs numériques reposent sur du code public et réplicable (le billet cite les Bitcoins), sans que cela empêche de les traiter comme des biens ; ce qui compte est la fonctionnalité économique et la structure de contrôle/exclusivité. Le billet résume l’idée ainsi : lors d’un transfert, le système supprime l’allocation des pièces au joueur A et en crée une nouvelle au joueur B ; le fait que l’opération se matérialise techniquement par le remplacement d’un état de code par un autre est irrelevant au regard de la réalité fonctionnelle du transfert.
Enfin, la Cour mobilise des comparaisons étrangères. Le billet mentionne un cas néerlandais où une agression physique avait servi à contraindre un mineur à transférer des objets virtuels RuneScape (un amulette et un masque), traité comme vol/robbery ; et une décision australienne récente (Yeates v The King [2025] VSCA 288) qualifiant le Bitcoin de bien au sens d’une législation sur le vol similaire à celle du Royaume-Uni. L’auteur en tire l’argument d’“absurdité pratique” repris par la Cour : si les pièces d’or n’étaient pas des biens, des situations proches du cas néerlandais ne pourraient pas être poursuivies pour vol en droit anglais, résultat jugé surprenant et insatisfaisant.
En conclusion, le billet apprécie le caractère “substantiel” de l’analyse : pour l’auteur, le droit pénal doit pouvoir réprimer l’intrusion dans des comptes, l’appropriation d’actifs virtuels valorisés à plusieurs centaines de milliers de livres, puis leur conversion en numéraire. Au-delà de RuneScape, la décision est présentée comme un modèle de raisonnement pour de futurs dossiers portant sur des biens virtuels et, plus largement, sur divers actifs numériques (y compris NFT), en clarifiant trois points : la dissociation entre propriété civile et “property” pénale, une compréhension opérationnelle de la rivalité, et une distinction entre l’actif en tant qu’objet fonctionnel et le code/données qui le représentent. L’affaire est renvoyée pour jugement au fond sur les faits, la question de droit ayant été tranchée en faveur de l’accusation sur la qualification de “property”.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
En présence d’une contestation de nature pécuniaire, le recours n’est en principe recevable que si la valeur litigieuse atteint 15’000 fr. ou si la contestation soulève une question juridique de principe (art. 85 al. 1 let. b et al. 2 LTF).
La demande de délivrance d’un certificat de travail ne tend pas au paiement d’une somme d’argent déterminée. Dans un tel cas, le Tribunal fédéral fixe la valeur litigieuse selon son appréciation (art. 51 al. 2 LTF; à propos de la valeur litigieuse d’une demande de remise ou de modification d’un certificat de travail, voir arrêt 8C_151/2010 du 31 août 2010 consid. 2.5 à 2.7). Il incombe à la partie, sous peine d’irrecevabilité, de donner les éléments suffisants pour permettre au Tribunal fédéral d’estimer aisément cette valeur (cf. art. 42 al. 1 et 2 LTF). Le contrôle d’office ne supplée pas au défaut d’indication de la valeur litigieuse. Il n’appartient pas au Tribunal fédéral de procéder lui-même à des investigations pour la déterminer, si elle ne résulte pas d’emblée des constatations de la décision attaquée (art. 105 al. 1 LTF) ou d’autres éléments ressortant du dossier. Le Tribunal fédéral n’est lié ni par l’estimation de la partie recourante ou un accord des parties, ni par une estimation manifestement erronée de l’autorité inférieure (ATF 140 III 571 consid. 1.2; 136 III 60 consid. 1.1.1; arrêt 4A_53/2022 du 30 août 2022 consid. 1.1.1).
Il est généralement difficile d’estimer la valeur litigieuse d’un certificat de travail (cf. arrêt 8C_553/2022 du 13 janvier 2023 consid. 2.4; 4A_2/2019 du 13 juin 2019 consid. 7 avec les références). Jusqu’à présent, la jurisprudence a renoncé à fixer des critères généraux pour l’évaluation de la valeur litigieuse d’un certificat de travail. Il ne se justifie toutefois pas de nier toute estimation possible et il convient de déterminer la valeur litigieuse en appréciant les circonstances du cas concret (cf. arrêt 1C_320/2024 du 6 septembre 2024 consid. 2.5 avec les références). Des critères tels que l’avancement et la situation professionnels de l’employé, les fonctions exercées jusqu’alors, la durée du contrat de travail et le salaire, ont été jugés comme pertinents pour déterminer la valeur litigieuse. En tous les cas, la valeur d’un certificat de travail ne saurait être fixée indépendamment des circonstances du cas concret à une fraction ou à un multiple du salaire mensuel (cf. arrêt 1C_320/2024 précité consid. 2.5; 8C_553/2022 précité consid. 2.4; 8C_151/2010 du 31 août 2010).
En l’espèce, l’instance précédente n’a pas fixé la valeur litigieuse (cf. art. 112 al. 1 let. d LTF; arrêt 1C_320/2024 précité consid. 2.2), de sorte qu’il revient au Tribunal fédéral de fixer celle-ci selon son appréciation (art. 51 al. 2 LTF).
Le recourant [l’employé] soutient que la valeur litigieuse devrait au minimum correspondre à deux mois de salaire brut, à savoir 20’554 francs. Pour l’intimée [l’employeuse], la valeur litigieuse ne devrait pas dépasser un mois de salaire, ce d’autant plus qu’un certificat de travail avait déjà été délivré à plus de cinq reprises au recourant qui n’a de surcroît pas établi avoir subi un réel dommage en raison de ce document.
Le recourant demande en particulier à ce que le certificat de travail soit complété en ce sens qu’il s’agit d’un certificat intermédiaire et qu’il reconnaisse qu’il est « responsable informatique » au sein de [l’employeuse] et non uniquement un « fonctionnaire spécialiste ». Il est évident qu’une telle modification portant directement sur sa fonction est importante pour son avenir économique, la question de savoir s’il a effectivement occupé une telle charge n’étant pas déterminante au stade de l’examen de la valeur litigieuse. La relation de travail a commencé en 2003 et peut dès lors être qualifiée de longue, même si le recourant n’a plus travaillé au sein de l’intimée depuis son arrêt maladie de 2016. Il n’explique par ailleurs pas pour quelle raison il n’a pas retrouvé d’activité professionnelle depuis cette période ni le lien que cela aurait avec le certificat de travail qui lui a été délivré. Cela étant, compte tenu aussi de son âge, à ce jour de 60 ans, qui aura pour conséquence qu’il devra s’attendre à être défavorisé sur le marché du travail, ainsi que du dernier salaire qu’il percevait (10’277 fr. 40 brut par mois), il appert que la valeur litigieuse relative au certificat de travail sollicité peut en l’occurrence être fixée à l’équivalent d’au moins deux salaires mensuels bruts, si bien qu’elle atteint la limite de 15’000 fr. (cf. art. 85 al. 1 let. b LTF). Dès lors que les circonstances diffèrent notablement de la cause citée par l’intimée, la valeur litigieuse ne saurait en revanche correspondre à seulement un mois de salaire (cf. arrêt 1C_320/2024 précité consid. 2.6, dans lequel l’intéressé était notamment âgé de 49 ans et sollicitait des modifications mineures de son certificat de travail visant à transformer un « bon » certificat de travail en un « très bon » certificat).
Dans la mesure où les autres conditions de recevabilité sont réunies, sous réserve d’une motivation suffisante des griefs, il convient par conséquent d’entrer en matière sur le recours.
(TF 1C_231/2025 du 2 décembre 2025, consid. 1.2-1.4)
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Le commentaire de Francesa Palmiotto (Palmiotto, Francesca, Commentary on Article 5(1)(d) AI Act: The Prohibition of Criminal Risk Assessment (January 21, 2026), preprint : M. Ebers & M. Zou (eds) AI Act Commentary, Beck/Hart/Nomos, forthcoming (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6115546)) commente l’article 5, paragraphe 1, lettre d), du règlement européen sur l’intelligence artificielle (RIA / AI Act), entré en vigueur en février 2025, qui interdit certaines pratiques d’IA en matière d’évaluation du risque pénal individuel. Il s’inscrit dans un contexte de forte controverse autour des outils dits de « criminal risk assessment », largement utilisés ou expérimentés dans plusieurs pays pour prédire le comportement criminel futur de personnes, que ce soit au stade policier, judiciaire ou pénitentiaire. L’objectif central de la disposition commentée est de donner une traduction normative concrète au principe de présomption d’innocence à l’ère de l’IA.
L’interdiction vise les systèmes d’IA mis sur le marché, mis en service ou utilisés pour évaluer ou prédire le risque qu’une personne physique commette une infraction pénale, lorsque cette évaluation repose exclusivement sur le profilage ou sur l’analyse de traits de personnalité ou de caractéristiques personnelles. Sont ainsi prohibées les formes de « prédiction de la criminalité » détachées de faits concrets, qui infèrent une dangerosité future à partir de données personnelles, démographiques, sociales ou comportementales. L’auteur souligne que cette interdiction constitue la catégorie de risque la plus grave du règlement : sa violation expose aux sanctions financières maximales prévues par l’AI Act.
L’article distingue clairement cette interdiction des systèmes simplement qualifiés de « à haut risque » dans l’annexe III du règlement. La ligne de partage repose sur le critère du « solely » : lorsqu’un système prédit un risque pénal uniquement à partir du profil ou de la personnalité, il est interdit ; lorsqu’il s’appuie aussi sur des faits objectifs et vérifiables liés à une activité criminelle déterminée, il peut être autorisé, sous le régime strict des systèmes à haut risque. Cette architecture reflète une volonté politique de tracer une ligne rouge entre prévention fondée sur des soupçons individualisés et prédiction abstraite de comportements futurs.
L’auteur analyse en détail la notion de « criminal risk assessment ». Il s’agit de démarches prospectives visant à estimer la probabilité qu’une personne commette une infraction à l’avenir. Ces outils sont utilisés à différents stades : police prédictive, décisions de détention provisoire, de libération conditionnelle, de probation ou de fixation de la peine. Deux grandes catégories sont identifiées. D’une part, la police prédictive, qui peut être fondée soit sur des lieux (où et quand un crime est susceptible de se produire), soit sur des personnes (qui est susceptible de commettre un crime). D’autre part, les systèmes d’évaluation du risque de récidive, qui attribuent des scores individuels à partir de données massives et de questionnaires.
L’interdiction de l’article 5(1)(d) ne vise que les systèmes centrés sur les personnes. Les outils purement géographiques, limités à la prédiction de zones ou de moments à risque, sont en principe exclus, tant qu’ils ne sont pas réinjectés dans une évaluation individuelle. En revanche, dès lors que des données de localisation sont utilisées pour inférer le risque qu’une personne précise commette une infraction (par exemple en raison de son lieu de résidence), le système redevient personnel et peut tomber sous le coup de l’interdiction.
Une partie centrale de l’article est consacrée au concept de profilage. Celui-ci est repris du droit de la protection des données et couvre tout traitement automatisé visant à évaluer des aspects personnels d’un individu. L’auteur insiste sur l’importance du « profilage de groupe », très fréquent en pratique : l’individu est évalué non pour ce qu’il a fait, mais parce qu’il ressemble statistiquement à un groupe considéré comme à risque. Les analyses de réseaux sociaux, qui déduisent une dangerosité du simple fait d’être lié à des personnes déjà identifiées par la police, en sont un exemple typique. Le commentaire confirme que ce type de profilage est bien visé par l’interdiction lorsqu’il est appliqué à des personnes déterminées.
S’agissant des « traits de personnalité ou caractéristiques », l’AI Act ne fournit pas de définition exhaustive. Le considérant 42 donne des exemples larges : nationalité, lieu de naissance, résidence, situation familiale, niveau d’endettement ou type de véhicule. L’auteur souligne que ces critères, pris isolément ou combinés, ne peuvent fonder une prédiction pénale compatible avec les principes fondamentaux du droit pénal.
L’interprétation du terme « solely » fait l’objet d’une analyse approfondie. L’auteur rejette une lecture réductrice qui consisterait à dire que l’interdiction disparaît dès qu’un humain intervient dans le processus. Une telle approche viderait la règle de sa substance et créerait une insécurité juridique pour les fournisseurs de systèmes. Il propose au contraire une interprétation structurelle : est interdit tout système conçu pour prédire la criminalité en l’absence de faits objectifs constituant un soupçon raisonnable. Cette lecture s’appuie sur la jurisprudence de la Cour européenne des droits de l’homme et de la Cour de justice de l’Union européenne, qui exigent, pour toute ingérence pénale, l’existence d’éléments factuels concrets justifiant un soupçon individualisé.
Dans cette logique, la seconde phrase de l’article 5(1)(d), souvent présentée comme une exception, est analysée comme une simple clarification de périmètre. Les systèmes d’IA utilisés pour assister l’évaluation humaine de l’implication d’une personne dans une activité criminelle déjà établie par des faits objectifs ne sont pas visés par l’interdiction. Par exemple, l’usage d’outils biométriques ou d’analyses de traces dans le cadre d’une enquête portant sur un crime commis reste possible, même si ces systèmes demeurent soumis au régime des IA à haut risque.
L’article recense enfin plusieurs exclusions importantes. L’interdiction ne s’applique pas à l’évaluation du risque pénal de personnes morales, ni aux infractions administratives ou disciplinaires. Elle ne s’applique pas non plus aux usages exclusivement liés à la sécurité nationale, même si l’auteur met en garde contre les systèmes à double usage, qui basculent dans le champ de l’AI Act dès qu’ils sont utilisés, même temporairement, à des fins de maintien de l’ordre.
En conclusion, le commentaire montre que l’AI Act opère un choix de fond : il ne prohibe pas l’usage de l’IA en matière pénale en tant que tel, mais interdit une certaine vision prédictive de la criminalité, fondée sur des profils et des probabilités détachées de faits. Pour les praticiens, y compris hors UE, cette analyse éclaire les standards européens émergents en matière de droits fondamentaux, qui pourraient influencer à terme les débats suisses sur l’usage de l’IA dans la justice pénale
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration
L’auteur part d’une observation : la discussion sur l’applicabilité du Premier Amendement aux réseaux sociaux a été largement structurée, notamment dans Moody v. NetChoice, par une alternative jugée trop binaire. D’un côté, certains les décrivent comme des « common carriers » ou « conduits neutres » comparables à l’infrastructure téléphonique, ce qui soutient l’idée que l’État pourrait leur imposer des obligations d’accès et interdire une « discrimination de point de vue ». De l’autre, la majorité dans Moody les assimile davantage à des éditeurs de presse, protégés dans leurs choix de publication et de hiérarchisation des contenus. Selon l’auteur, les constatations factuelles détaillées dans FTC v. Meta fragilisent les présupposés empiriques de ces analogies et justifient un cadre d’analyse différent, centré sur la régulation d’une conduite commerciale (« commercial conduct ») plutôt que sur une opposition « tuyau neutre » versus « éditeur ».
Dans FTC v. Meta, la FTC soutenait que Meta avait acquis et maintenu un monopole des « réseaux sociaux personnels » via l’achat d’Instagram (2012) et WhatsApp (2014). Le tribunal rejette l’argumentation, principalement parce que le marché défini par l’agence ne correspondrait plus à la réalité actuelle : le jugement documente l’effondrement du « social graph », c’est-à-dire l’idée que ces services seraient d’abord des réseaux de connexions interpersonnelles. À sa place, les plateformes auraient pivoté vers des flux de contenus « non connectés » (« unconnected content »): des recommandations algorithmiques de contenus à fort engagement émanant de comptes inconnus, conçues pour capter l’attention et maximiser les revenus publicitaires. Le jugement est mobilisé comme preuve institutionnelle (fondée sur un dossier de procès) d’une transformation déjà décrite par des chercheurs : l’expérience centrale ne serait plus la communication entre « amis », mais la consommation de contenus en flux, optimisée par des modèles prédictifs.
À partir de là, l’auteur explique pourquoi la thèse du « conduit neutre » perd sa force. Cette thèse suppose une transmission principalement destinée entre un locuteur et un public choisi, l’infrastructure se contentant de relayer. Or le jugement retient que, sur Facebook, les utilisateurs ne passent plus qu’environ 17% de leur temps sur des contenus d’amis et de famille, et environ 7% sur Instagram, avec une baisse rapide en deux ans. La plateforme n’opérerait donc plus comme un simple canal, mais comme un système effectuant en continu une multitude de décisions de classement, de recommandation et d’insertion de contenus (y compris publicitaires et issus de créateurs), orientées vers un objectif économique mesurable.
L’auteur discute ensuite la riposte intuitive : si les plateformes ne sont pas des « common carriers », elles seraient des « éditeurs » au sens fort, et leurs algorithmes des instruments de « mise en page » protégés par le Premier Amendement. Il estime que le dossier Meta rend cette assimilation moins convaincante, en montrant que la logique dominante n’est pas la communication d’un point de vue éditorial, mais l’optimisation d’une métrique commerciale : le temps passé. L’ « opinion » souligne une convergence des offres de Meta, TikTok et YouTube autour de modèles de prédiction de l’engagement conçus pour maximiser le « time-on-platform », présenté comme un proxy direct des recettes publicitaires, l’industrie parlant d’une concurrence sur la « marge de temps » captée. Dans cette perspective, l’algorithme n’« interprète » pas le sens du contenu comme le ferait un éditeur humain ; il calcule des probabilités de réactions comportementales pour optimiser la livraison de publicité, ce que l’auteur qualifie de logique extractive et largement indifférente à la signification des messages.
Cette distinction rejoint une interrogation formulée dans une opinion concordante de la juge Barrett dans Moody: toutes les décisions algorithmiques méritent-elles le même niveau de protection constitutionnelle, ou faut-il distinguer celles qui mettent en œuvre une politique éditoriale (au sens d’une intention expressive) de celles qui servent principalement une stratégie de maximisation des revenus ? Le billet s’appuie sur des éléments cités dans l’opinion Meta, notamment des tests internes suggérant qu’activer certains formats (par ex. Reels) augmente fortement le temps passé, tandis qu’augmenter la part de contenus d’amis aurait un effet faible, ce qui appuierait l’idée que l’architecture actuelle privilégie des mécanismes d’« extraction de l’attention » plutôt qu’une facilitation de relations sociales. L’auteur ajoute que des travaux empiriques récents décriraient des effets causaux des plateformes vidéo courtes sur l’augmentation de l’usage mobile et la réduction du temps hors écran, renforçant l’interprétation d’une compétition sur la captation attentionnelle.
Sur le plan juridique, l’auteur propose de déplacer l’objet de la discussion : plutôt que de traiter l’optimisation de l’engagement comme un « choix éditorial » équivalent à un acte d’expression, il suggère d’y voir une conduite commerciale dont la régulation peut imposer des charges incidentes sur la parole sans viser la suppression d’un message. Cela aurait une conséquence pratique majeure en droit constitutionnel américain : la nature du contrôle du juge.
Les restrictions fondées sur le contenu ou le point de vue déclenchent en principe le niveau le plus exigeant (strict scrutiny), difficile à satisfaire. En revanche, les réglementations neutres quant au contenu ou certaines réglementations touchant des activités commerciales relèvent plus souvent d’un contrôle intermédiaire (intermediate scrutiny), où l’État doit notamment démontrer un intérêt substantiel, une proportionnalité et l’existence d’alternatives de communication. Le billet soutient que concevoir le « feed » comme un choix de conception de produit, et non comme une anthologie expressive, permettrait d’éviter des blocages jurisprudentiels observés lorsque des tribunaux traitent des fonctionnalités (par ex. « like counts ») comme des actes éditoriaux en tant que tels.
Dans cette optique, l’auteur soutient que l’État ne devrait pas chercher à imposer une « équité » des points de vue ni à dicter quels contenus doivent être portés, mais pourrait encadrer des pratiques d’optimisation sous un standard plus accessible, en ciblant la « machine » plutôt que le « message ». Il évoque trois familles de mesures typiques: des obligations de transparence algorithmique sous forme de divulgations factuelles standardisées (analogie avec une « étiquette nutritionnelle ») dès lors qu’il s’agit d’un outil commercial plutôt que d’un secret éditorial; des exigences renforçant l’autonomie de l’utilisateur (par exemple offrir un flux fondé sur les abonnements et préférences explicites plutôt que sur l’optimisation de l’engagement), présentées comme une manière d’honorer l’intention du consommateur plutôt que d’obliger la plateforme à porter une parole qu’elle réprouve; et l’encadrement de certaines fonctionnalités de conception (défilement infini, lecture automatique, « like counts », etc.) décrites comme des mécanismes comportementaux destinés à maximiser l’inventaire publicitaire, opérant de façon similaire quel que soit le contenu, ce qui faciliterait leur qualification comme structure commerciale plutôt que jugement expressif.
La conclusion du billet est que les controverses sur la liberté d’expression et la régulation des plateformes reposent souvent sur une image dépassée des réseaux sociaux. Si le « social graph » et le modèle de transmission entre connexions sont effectivement devenus périphériques, la catégorie de « conduit neutre » perd de sa pertinence, et l’extension automatique de la protection éditoriale maximale à des mécanismes d’optimisation orientés revenu risque, selon l’auteur, de constitutionnaliser une large part de l’ingénierie d’extraction de l’attention. Le dossier factuel de FTC v. Meta fournirait ainsi, pour les contentieux futurs, un socle permettant aux tribunaux d’abandonner l’alternative « censure vs liberté » au profit d’une analyse plus fine : protéger l’expression, tout en admettant que certaines dimensions du design et de l’optimisation relèvent d’une activité commerciale pouvant être réglementée de manière constitutionnellement admissible.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration