
Quelques réflexions tirées de Veena Dubal, Data Laws at Work, Yale Law Journal (2025), pp. 405-447 (https://www.yalelawjournal.org/collection/reimagining-and-empowering-the-contemporary-workforce):
Introduction générale et thèse d’ensemble
L’essai part d’un constat : les technologies numériques les plus intrusives ne s’attaquent pas d’abord aux consommateurs mais aux travailleurs. Dans un nombre croissant de secteurs — transport, livraison, entrepôts, hôtellerie, propreté, santé, informatique, enseignement —, la gestion du personnel est numérisée, automatisée et, souvent, déléguée à des systèmes d’observation (automated monitoring systems, AMS) et de décision (automated decision-making systems, ADS). Ces outils remplacent parfois les managers humains dans des fonctions centrales : recrutement, allocation du travail, fixation (ou modulation) de la rémunération, évaluation, discipline et licenciement. Cette dynamique, d’abord expérimentée dans la « plateforme » (gig economy), s’est diffusée vers l’emploi plus traditionnel. L’Union européenne a réagi par un premier corpus normatif articulé autour du RGPD (2016), de l’AI Act (2024) et de la Platform Work Directive (PWD, 2024).
L’ambition de l’article est double : mesurer la pertinence de cette « première vague » et, à partir d’un contentieux stratégique conduit par des chauffeurs VTC, tirer des leçons pour une régulation future plus efficace. L’auteur soutient que, malgré des apports notables, le cadre européen demeure insuffisant pour deux raisons structurelles : d’une part, il traite les travailleurs comme des sujets « libéraux » autonomes alors qu’ils sont juridiquement subordonnés à l’employeur ; d’autre part, il mise prioritairement sur la transparence, sans répondre aux nouveaux dommages produits par la logique relationnelle des systèmes algorithmiques (rémunération, évaluation, rupture), dommages que le droit du travail positif ne saisit pas encore. D’où cette recommandation : passer d’un paradigme d’élucidation et d’évaluation à un paradigme de proscription ciblée des pratiques numériques génératrices de préjudice.
Cadre conceptuel : AMS, ADS et diffusion de « l’algorithmic management »
Le texte distingue les AMS, qui captent et agrègent des données comportementales et de performance (sur et parfois hors temps de travail), et les ADS, qui utilisent ces données pour prendre ou soutenir des décisions de gestion. Ces outils permettent la granularité fine, l’évaluation en continu et la modélisation probabiliste de comportements attendus. La situation emblématique est la « gestion par application » des plateformes, mais la méthode s’étend désormais à des emplois salariés classiques. L’auteur met en avant deux usages importants : la modulation algorithmique des salaires, qui personnalise prix et incitations (« wage manipulators », « upfront pricing », bonus différenciés), et l’évaluation/rupture automatisées (« deactivation ») qui peuvent évincer un salarié pour des scores ou seuils dynamiques difficiles à contester. Ces mécanismes, tout en respectant parfois la lettre des normes usuelles (planchers de salaire, anti-discrimination, cause du licenciement), en subvertissent l’esprit en installant l’incertitude et l’opacité au cœur du rapport salarial.
Première partie : la « première vague » européenne — promesses et angles morts
Le RGPD, droit pivot mais conçu pour des « personnes » plus que pour des « salariés »
(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679)
Le RGPD, règlement à portée générale, s’applique aussi à l’emploi (art. 88) et confère des droits clés mobilisés par les travailleurs : droit d’accès et d’explication concernant l’existence et la logique des traitements et décisions automatisées (art. 15, 22), portabilité (art. 20) et obligation d’analyse d’impact pour les traitements à risques (art. 35). En pratique, ces droits devraient permettre de « connaître les règles » d’un atelier numérique : quelles données sont collectées, comment elles sont traitées, selon quelle logique s’opèrent l’allocation des tâches, l’évaluation, la fixation de la rémunération et les mesures disciplinaires. L’article rappelle toutefois que ces prérogatives, pensées pour des individus libres de consentir ou non, se heurtent dans l’emploi à une « illusion du consentement » et, plus concrètement, à des tactiques d’évitement : délivrance de données non exploitable en machine, rétention de catégories essentielles, invocations extensives du secret des affaires, « human in the loop » purement formel. L’auteur souligne la difficulté pratique pour un travailleur isolé de savoir si l’employeur a vraiment livré l’ensemble des données pertinentes, tant la chaîne de traitement est opaque ; elle relève aussi que la donnée brute est souvent inutile sans retraitement ou mise en forme statistique.
Au-delà de ces obstacles d’exécution, l’analyse pointe plusieurs ambiguïtés juridiques. D’abord, certaines entreprises soutiennent que la divulgation de la « logique » algorithmique porterait atteinte à des intérêts essentiels (concurrence, sécurité), ce qui conduit à des contentieux répétés autour de la portée concrète des articles 15 et 22. Ensuite, l’article montre que des interprétations restrictives de la notion de « données personnelles » excluent parfois des « données agrégées », alors même que ce sont précisément ces variables dérivées qui gouvernent l’allocation du travail et la rémunération dans une logique de comparaison dynamique entre pairs. Enfin, les analyses d’impact prévues par l’article 35 restent rares, rarement publiques et difficiles à auditer, faute de standards opérationnels clairs pour qualifier les atteintes à la santé, à la sécurité ou aux droits fondamentaux dans le contexte du travail.
L’AI Act : classification « high-risk », obligations à dominante fournisseur et interdit ciblé des IA manipulatrices
(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689)
L’AI Act classe la plupart des usages de l’IA en milieu de travail comme « à haut risque ». Le texte impose aux « fournisseurs » d’IA de mettre en place des systèmes de gestion des risques couvrant tout le cycle de vie, des obligations de test, d’enregistrement et de surveillance post-commercialisation, et enjoint les « déployeurs » (employeurs utilisateurs) à suivre les instructions du fournisseur, assurer une supervision humaine, valider les données d’entrée et journaliser le fonctionnement. Sur le papier, cet édifice est substantiel ; en pratique, l’effort pèse surtout sur les fournisseurs, alors que ce sont les pratiques déployées in situ — c’est-à-dire par les employeurs — qui impactent directement les travailleurs. L’auteur insiste sur l’absence de balises opérationnelles pour mesurer des préjudices typiques du travail sous algorithme : baisse et imprévisibilité de la rémunération, intensification, stress, effets distributifs indirects. Elle attire aussi l’attention sur un interdit potentiellement décisif mais d’application incertaine : l’interdiction des systèmes visant à manipuler émotionnellement les personnes pour les pousser à des comportements indésirés ou à des décisions contraires à leur autonomie — un libellé qui, s’il était étendu au travail sous statut indépendant de plateforme, pourrait remettre en cause des dispositifs de « nudging » (surge, incitations « on the fly »), mais qui, dans l’emploi salarié, risquerait de se heurter au « pouvoir de direction » de l’employeur.
La Platform Work Directive : protections supplémentaires, interdictions ciblées et limites structurelles
(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024L2831)
La directive « plateforme » (PWD) concentre, pour les personnes exécutant un travail via plateforme, des garanties renforcées — notamment des obligations d’information proactives sur les AMS/ADS et, surtout, des interdictions de certains traitements (données émotionnelles ou psychologiques, conversations privées, collecte hors temps de travail, inférence de croyances, opinions, orientation sexuelle, etc.). Elle prévoit aussi des analyses d’impact périodiques, à communiquer aux représentants des travailleurs. Ces avancées vont plus loin que le RGPD en basculant d’un droit « à actionner » par le travailleur vers des obligations positives de la plateforme. Mais l’autrice en montre les failles : ouverture possible pour des traitements « dépersonnalisés » par regroupement, tolérance de vérifications biométriques d’identité malgré des faux positifs différenciés, absence de prohibition des décisions automatisées dans les moments clés (embauche, rémunération, allocation, discipline, rupture), et risques d’« arbitrage définitionnel » tant sur le statut du travailleur que sur la qualification d’« entreprise de plateforme ». En d’autres termes, le meilleur de la PWD réside dans ses interdictions franches ; son pari central — transparence et évaluation — demeure fragile dès lors que les systèmes sont mouvants et que l’asymétrie d’information reste institutionnalisée.
Deuxième partie : replacer les « lois de la donnée » dans l’économie politique du travail
Le cœur de l’argument tient en une critique de perspective. Les régimes de données envisagent les « personnes » comme des sujets autonomes susceptibles de consentir à des traitements moyennant information et possibilité de retrait. Or, au travail, les individus ne sont pas des consommateurs : ils sont économiquement dépendants, légalement subordonnés et exposés au pouvoir disciplinaire — en Europe comme aux États-Unis, la doctrine du « pouvoir de direction » (ou « managerial prerogative ») et les critères de contrôle propres à la qualification d’emploi consacrent cette asymétrie. Dans ce contexte, déplacer la charge de l’initiative vers le salarié — demander ses données, les interpréter, contester les biais, provoquer la consultation — est, selon l’auteur, un pari peu réaliste, surtout pour les travailleurs à bas salaire qui n’ont ni les ressources ni l’expertise pour s’y engager seuls.
L’essai avance ensuite une thèse plus technique : les AMS/ADS ne reproduisent pas simplement la rationalité du taylorisme en la rendant opaque ; ils substituent à des règles objectives et stables une logique de « comparaison relationnelle » permanente. L’évaluation n’est plus la conformité d’un individu à une norme fixe mais sa position dynamique par rapport aux autres, avec des seuils mouvants et des objectifs itératifs. Cette architecture modifie le sens du « bon comportement » et pousse, une fois connue, à des comportements d’auto-exploitation qui alimentent une course vers le bas. L’autrice donne des exemples concrets : rémunérations horaires qui diminuent avec la durée travaillée, quotas et seuils de productivité ajustés au dernier quartile, bonus distribués de manière asynchrone entre les travailleurs, « updates » algorithmiques pour reconfigurer incitations et répartition des tâches. Le résultat est une incertitude systémique qui érode les liens classiques entre conformité aux règles, fidélité, effort et sécurité économique.
Troisième partie : le « test naturel » — contentieux WIE/ADCU contre Ola et Uber sous le RGPD
Contexte et stratégie procédurale
L’auteur retrace la genèse d’une stratégie de conquête des droits par la donnée : un contentieux de qualification au Royaume-Uni (Aslam/Farrar c. Uber) qui révèle l’ampleur du contrôle exercé par l’application et convainc les militants de la nécessité de « reprendre la main » sur la donnée. James Farrar fonde Worker Info Exchange (WIE), ONG qui dépose des demandes d’accès, de portabilité et d’explication/d’intervention humaine pour des chauffeurs au Royaume-Uni, aux Pays-Bas et au Portugal, souvent avec l’appui du syndicat App Drivers and Couriers Union (ADCU). L’objectif : comprendre les fondements des suspensions/« deactivations », recomposer l’historique de rémunération et débusquer la logique d’allocation et d’évaluation.
Affaire Ola : faire la lumière sur la « fraude » et la rupture
En 2020, WIE et l’ADCU agissent pour trois chauffeurs licenciés par Ola. Ils réclament, entre autres, les « fraud probability scores », les « earning profiles » et les règles d’allocation des courses. En appel, la cour d’Amsterdam leur donne largement raison : ces systèmes « affectent de manière significative » les travailleurs, relèvent de l’article 22 et appellent une véritable intervention humaine, non symbolique. La cour insiste sur l’authenticité du « human in the loop » et refuse l’argument consistant à requalifier les décisions comme « assistées » pour échapper au régime de l’article 22. Néanmoins, même après cette victoire, l’utilité concrète reste limitée : les documents produits (y compris la politique de confidentialité d’Ola, qui liste une kyrielle de facteurs — historiques d’acceptation/annulation, distance, préférences, type de véhicule, « fraude », etc.) ne permettent pas aux chauffeurs de reconstruire la pondération effective ni la dynamique des modèles ; ils ne fournissent pas, non plus, les moyens de distinguer la cause précise du préjudice vécu.
Affaire Uber : comprendre l’allocation et la rémunération
Toujours avec WIE, huit chauffeurs réclament des explications sur le « batched matching system » (appariement conducteur-passager) et l’« upfront pricing system » (détermination différenciée du prix de base), afin de comprendre la fixation de la rémunération et la distribution des courses. Uber oppose le secret des affaires et le risque de contournement. La cour d’Amsterdam rejette cette ligne de défense : l’ampleur des effets sur les chauffeurs justifie la divulgation. Pourtant, malgré la décision d’avril 2023, Uber ne fournit pas l’information attendue et préfère payer des astreintes substantielles, ce qui illustre, selon l’auteur, les limites d’une réponse fondée sur la seule transparence lorsqu’elle se heurte à des avantages concurrentiels massifs et à des systèmes hautement évolutifs.
Enseignements tirés du contentieux : puissance probatoire, faiblesse réparatrice
L’auteur tire un double enseignement de ce qui précède. Sur le plan probatoire, ces affaires ont une grande valeur : elles rendent visible un degré de contrôle algorithmique difficilement contestable et nourrissent, en retour, les débats sur le statut d’emploi. Sur le plan réparateur, elles déçoivent : l’accès aux données et à certaines explications n’a ni stoppé les suspensions jugées arbitraires, ni atténué l’instabilité et l’iniquité des rémunérations individualisées. L’argument d’Uber — connaître les règles permettrait aux chauffeurs de « jouer » le système — révèle la nature relationnelle du contrôle : même si un travailleur retire un avantage individuel de l’information, la règle se reconfigure au niveau collectif et l’avantage s’évanouit. Ce constat milite pour une régulation substantielle des effets et non une simple « lumière » sur les processus.
Propositions normatives : de la transparence à la proscription
Au terme de l’analyse, l’auteur formule des orientations pratiques pour une « deuxième vague » de lois sur la donnée au travail, en restant dans le périmètre de l’essai.
Première orientation : recentrer les obligations sur l’employeur-déployeur. La transparence doit devenir une obligation positive et permanente du « déployeur » (employeur), et non un droit procédural que le salarié doit activer au risque de s’exposer à des représailles. Les DPIA devraient être régulières et publiques (ou au minimum auditables par un tiers indépendant), portées par l’entité qui utilise le système sur le lieu de travail. Les manquements devraient ouvrir non seulement à des actions publiques mais aussi à des voies d’action privées.
Deuxième orientation : étendre la surface des données et leur utilisabilité. Les définitions légales devraient englober explicitement les « données sociales » dérivées des données personnelles (banding/grouping) dès lors qu’elles gouvernent les décisions individuelles ; les livraisons devraient être en formats lisibles par machine ; les exceptions type « secret des affaires » devraient être encadrées pour ne pas vider les droits de leur substance.
Troisième orientation — la plus décisive : proscrire certaines pratiques et viser les résultats. L’auteur plaide pour renouer avec la grammaire matérielle du droit du travail : plutôt que d’exiger qu’une machine dangereuse soit expliquée, on fixe des standards de sécurité et on interdit certaines configurations ; plutôt que de « rendre transparentes » des rémunérations variables, on borne juridiquement l’amplitude et l’imprévisibilité ; plutôt que de requérir un « humain dans la boucle » sans critère de qualité, on prohibe l’usage exclusif d’ADS pour des décisions de rupture ou d’accès au travail et on densifie les garanties de procédure contradictoire. L’idée, clairement assumée, est de déplacer le centre de gravité vers l’interdiction des « wage manipulators » et des dispositifs d’allocation/évaluation dont les effets sont systématiquement incompatibles avec la sécurité d’emploi, la prévisibilité salariale et la dignité.
Portée et intérêt pour la pratique suisse
Même si la Suisse n’est pas membre de l’UE, l’alignement de la pratique des grandes plateformes, la circulation des technologies de gestion et l’influence normative européenne sur les chaînes transnationales rendent ces analyses directement pertinentes pour la pratique helvétique. Pour des employeurs actifs en Suisse qui déploient des AMS/ADS conçus dans l’UE, pour des travailleurs mobiles ou exposés à des systèmes transfrontières, et pour les autorités qui réfléchissent à l’adaptation des garanties de la LPD et des normes de droit du travail, la grille de lecture proposée aide à orienter le diagnostic : la transparence est nécessaire mais non suffisante ; les obligations doivent être placées sur le déployeur ; les analyses d’impact doivent être opérationnalisées par des référentiels de risques propres au travail ; et certaines pratiques doivent être encadrées, voire interdites, au nom d’objectifs matériels classiques en droit du travail.
Conclusion
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle