
A propos de LINA DENCIK/JESS BRAND / PHILIPPA METCALFE, Decentering Technology in the Datafied Workplace: Data (In)Justice and Workers’ Experiences of Algorithmic Management in Call Centers in the United Kingdom and Greece, International Journal of Communication 20 (2026), 614–631 (https://ijoc.org/index.php/ijoc/article/view/25035/5223):
L’article analyse la « gestion algorithmique » dans des centres d’appels de télécommunications au Royaume-Uni et en Grèce, à partir de 34 entretiens semi-directifs réalisés en 2022 et début 2023 avec des salariés de BT et de Teleperformance (22 au Royaume-Uni, 12 en Grèce). Les auteurs s’inscrivent à la fois dans l’analyse du « process » de travail (qui met l’accent sur les rapports de contrôle, la discipline, la productivité) et dans les « études critiques des données » et la notion de « justice des données » (qui s’intéresse à ce que la mise en données produit en termes d’équité, de pouvoir et de possibilités de vie).
Leur contribution principale est de montrer que, même si les technologies et l’IA structurent fortement l’organisation du travail, les travailleurs ne perçoivent pas les problèmes comme provenant uniquement de la « technologie en soi » : ils « voient à travers » les outils et rattachent leurs expériences d’injustice à des éléments plus larges et plus anciens, notamment le modèle économique, la culture organisationnelle et les relations avec les managers. Les auteurs en tirent l’idée qu’il faut « décentrer » la technologie dans l’analyse et la régulation de la gestion algorithmique, c’est-à-dire déplacer l’attention du « quoi » (quels systèmes, quelles fonctionnalités) vers le « qui » et le « comment » (qui configure, qui décide, comment les outils sont utilisés dans des rapports sociaux concrets).
Sur le contexte, l’article rappelle que les centres d’appels sont historiquement des environnements très « datafiés » et très outillés, souvent considérés comme un prototype de surveillance et de contrôle numérique. Les logiciels y structurent déjà le travail via l’attribution automatisée de tâches et d’appels, la planification, des métriques de performance et, de plus en plus, des formes d’« IA » appliquées à la reconnaissance et à l’évaluation d’aspects difficiles à objectiver : analyse de la voix, du ton, voire du « sentiment » ou de l’« empathie » dans les interactions avec des clients. Dans ces organisations, l’enjeu n’est pas seulement de compter des appels, mais de transformer des comportements et des qualités relationnelles (parler « correctement », être « empathique », respecter des scripts, gérer des situations client variables) en signaux mesurables, comparables et actionnables par le management.
Les entretiens montrent d’abord ce que les salariés jugent « transformateur » dans la phase actuelle de gestion algorithmique : (1) l’intensification de la surveillance et (2) le basculement vers une évaluation toujours plus quantitative et fréquente. En Grèce, des travailleurs décrivent une surveillance « de base » et quotidienne, portant sur des éléments très fins (pauses toilettes, cigarettes, disponibilité, durée et nombre d’appels, avis clients, précision, ton de voix), avec l’idée que « tout laisse une trace » et que « tout est mesuré et analysé ». Au Royaume-Uni, des salariés de BT décrivent une multiplication des systèmes et une surveillance ressentie comme intrusive, « au millimètre ». Cette surveillance est étroitement liée à l’évaluation : les outils fractionnent le temps de travail et l’activité en métriques (temps de communication, temps de post-appel, temps d’attente avant de se déclarer « prêt » pour l’appel suivant, etc.), ce qui pousse à accélérer même lorsque la situation du client ou la qualité du service exigerait l’inverse.
L’expérience d’injustice est largement associée à l’intensification du travail et à un régime temporel jugé inflexible et parfois « punitif ». Des salariés décrivent la hausse continue du nombre de cibles/indicateurs (targets) et une perte d’espaces de respiration (par exemple la réduction ou disparition de pauses payées). Le système produit aussi des conséquences disciplinaires : des travailleurs plus lents, ou ceux qui privilégient l’écoute du client avant d’exécuter les tâches « dans l’outil », peuvent être défavorisés dans les statistiques et finir « « managed out ». L’évaluation est décrite comme permanente (feedback quotidien, hebdomadaire, mensuel), combinant métriques automatisées et contrôle humain (écoute d’appels, observations, évaluations), avec des effets directs sur la rémunération variable (bonus). L’article donne des exemples où l’IA ou les outils datafiés servent à « reconnaître » et qualifier des comportements en interaction : un salarié en Grèce rapporte des retours du type « pas assez empathique, baisse ta voix, parle plus vite », illustrant une standardisation de qualités relationnelles complexes via des catégories opérables par le management.
Plusieurs travailleurs soulignent un caractère contre-productif des systèmes : ils imposent des scripts et des procédures obligatoires qui allongent les appels, tout en exigeant de réduire le temps de traitement ; ils ne « respectent » pas l’expérience et les compétences de salariés anciens ; ils accentuent la pression quand des vérifications préalables sont nécessaires pour comprendre la situation d’un client. Au lieu d’outiller le travail, la technologie est parfois décrite comme orientant l’activité vers le fait de « satisfaire le système » plutôt que d’aider réellement la personne au téléphone. Dans le vocabulaire des travailleurs interrogés en Grèce, cela contribue à des conditions « brutales », « hostiles » et « déshumanisantes », avec la sensation de ne pas pouvoir « échapper à l’horloge » et d’être contrôlé par la machine même lors de micro-temps morts.
L’article insiste toutefois sur un point central : les travailleurs n’en restent pas à une critique des fonctionnalités techniques. Ils développent des stratégies de négociation au quotidien, qui peuvent être des mécanismes d’adaptation (« jouer le jeu », prendre de la distance émotionnelle, ne plus se laisser envahir par les tableaux de bord) ou des résistances discrètes visant à limiter l’intrusion (par exemple détourner des caméras, « tromper le système » en simulant une activité sur l’ordinateur). Ces comportements confirment, pour les auteurs, que les effets des systèmes ne sont pas mécaniques : ils sont contestés, contournés et socialement façonnés au jour le jour.
Le thème le plus important pour la thèse des auteurs est ensuite la manière dont les salariés situent la source des problèmes. Beaucoup expriment une forme de normalisation : dans un centre d’appels, il « faut bien » des systèmes pour suivre l’information, et certains décrivent la mesure de la performance comme une exigence « évidente » du modèle de l’entreprise. Mais cette acceptation (« légitimation ») est fragile et dépendante des relations sociales et des pratiques managériales. Des interviewés disent explicitement que « ce n’est pas l’ordinateur », mais le superviseur : selon qu’il est « accommodant » ou « micro-manager », les mêmes outils deviennent supportables ou oppressants. Côté britannique, certains décrivent des managers qui choisissent arbitrairement un indicateur à surveiller, « parce qu’ils s’ennuient », et d’autres évoquent une utilisation instrumentale des systèmes pour « trouver » quelque chose contre un salarié et l’écarter, ce qui renvoie à des dynamiques de pouvoir, de ressources humaines et de culture d’entreprise plus qu’à la seule automatisation. Les auteurs soulignent aussi l’effet des décisions de la direction, qui changent les priorités, créent des cycles de « nouvelles urgences » et transfèrent la pression vers le bas, produisant un environnement instable et stressant.
Un autre apport empirique concerne les effets sociaux et collectifs de la gestion algorithmique. Dans l’échantillon grec, les travailleurs décrivent l’usage des données de performance pour produire des classements (league tables) qui mettent les salariés en concurrence, affaiblissent le sentiment d’équipe et réduisent la solidarité. La médiation des relations par des applications (comme Teams) est décrite comme limitant la connaissance mutuelle, la confiance et la capacité à s’organiser collectivement pour contester des pratiques. Certains relient explicitement l’automatisation, la quantification permanente et la disparition d’interactions humaines à un sentiment de déshumanisation et d’isolement, avec des effets sur la santé mentale. Au Royaume-Uni, des salariés associent aussi la multiplication des systèmes à une hausse du stress et à une détérioration du caractère « social » du travail, avec des tentatives managériales d’« engagement » jugées cosmétiques par rapport aux problèmes structurels. Les auteurs relient cela à des thèmes plus larges : renforcement du contrôle, intensification, isolement et restrictions de fait à l’organisation collective, dans un contexte de précarité et de « casualisation » qui caractérise historiquement le secteur.
À partir de ces matériaux, l’article propose une lecture « décentrée » de l’IA et de la gestion algorithmique. Dans les centres d’appels, l’IA et les systèmes datafiés jouent un rôle d’outils de reconnaissance et de catégorisation : ils transforment des réalités complexes (qualité de l’interaction, empathie, comportement, rythme, conformité aux procédures, « disponibilité ») en métriques et en jugements actionnables. Mais, selon les auteurs, l’injustice perçue ne tient pas uniquement à une opacité algorithmique ou à une « erreur » technique : elle résulte de l’intégration de ces outils dans un assemblage plus large, fait de modèle économique orienté vers l’extraction de productivité, de faible investissement dans les travailleurs, de normes de contrôle serrées et de marges de manœuvre laissées aux superviseurs. Autrement dit, l’IA n’est pas « la totalité du modèle » : elle devient décisive quand elle est articulée à des choix de gestion, à des incitations (bonus), à des politiques disciplinaires, et à des asymétries de pouvoir.
Pour des avocats suisses intéressés par l’IA et le travail, l’intérêt est aussi la critique implicite des approches de régulation trop centrées sur les caractéristiques techniques (par exemple la collecte de données ou la conception du modèle) sans prendre en compte les conditions d’usage et les rapports sociaux. Les auteurs notent que, dans l’Union européenne, des cadres comme le RGPD ou la directive sur le travail via plateforme ont souvent été discutés avec une focalisation sur le « quoi » technologique, alors que l’expérience des travailleurs se structure autour du « comment » (pression, discipline, gestion du temps, organisation collective, marges d’arbitraire) et du « qui » (managers, direction, sous-traitants, modèles de nearshoring/offshoring, précarité et migration). Le message n’est pas que les droits liés aux données seraient inutiles, mais qu’ils risquent d’être insuffisants s’ils ne saisissent pas la manière dont l’IA sert concrètement à reconnaître, classer, comparer et sanctionner des personnes au travail, y compris via des proxys comportementaux (adhérence, vitesse, ton, « empathie ») qui peuvent pénaliser certains profils (par exemple des salariés plus âgés, des personnes qui prennent le temps d’écouter, ou des travailleurs en situation de vulnérabilité contractuelle). Dans une perspective de droit du travail (y compris comparée avec les débats américains), cela renvoie classiquement à des questions de surveillance, de conditions de travail, d’intensification, de procéduralisation de la discipline, d’équité dans l’évaluation et de capacité d’action collective ; l’apport de l’article est de montrer que ces questions se recomposent quand l’évaluation repose sur des systèmes de reconnaissance et de mesure capables d’absorber des dimensions auparavant plus qualitatives et discutables, et quand leur usage dépend fortement de la gouvernance managériale.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et administration