Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés

L’article de Michele Molè, «Commodified, Outsourced Authority: A Research Agenda for Algorithmic Management at Work », Italian Labour Law e-Journal, Issue 2, Vol. 17 (2024), p. 169-188 (https://doi.org/10.6092/issn.1561-8048/20836) soutient que la gestion algorithmique du personnel doit être comprise comme une forme nouvelle d’autorité patronale à la fois marchandisée et externalisée. L’auteur parle de « boss-as-a-service » pour désigner ces systèmes fournis par des sociétés informatiques, achetés sur des places de marché comme AWS, puis intégrés dans l’organisation du travail. L’idée centrale est que, lorsque ces outils sont utilisés dans le cadre d’un contrat de travail classique, une partie de l’autorité de l’employeur est en réalité exercée, en pratique, par le fournisseur de la solution, avec lequel l’employeur partage ses prérogatives de direction.

Le point de départ est empirique. Sur AWS Marketplace et d’autres plateformes similaires, on trouve des centaines de produits de « workforce management » et de surveillance, vendus sous forme d’abonnements et destinés à organiser, évaluer et surveiller les salariés. La doctrine s’est surtout concentrée sur le renforcement du pouvoir de l’employeur qui en résulte (surveillance accrue, évaluation automatisée, asymétries d’information renforcées) et sur les moyens de limiter cet excès de pouvoir au bénéfice des travailleurs, en insistant sur la transparence, la responsabilité de l’employeur et la participation des salariés. L’article souligne que cette approche laisse dans l’ombre un aspect essentiel : le fait que cette autorité renforcée est, très souvent, médiée par des prestataires extérieurs qui conçoivent, opèrent et « louent » des capacités de commandement et de contrôle sur les salariés.

L’auteur commence par rappeler, à partir du droit italien mais avec des parallèles en droit néerlandais, français, allemand et européen, ce qu’est classiquement l’autorité de l’employeur. Le contrat de travail place l’employeur « à la tête de l’entreprise » et lui confère le pouvoir de donner des instructions, d’organiser le travail, de contrôler l’exécution et de sanctionner, dans les limites de la loi. Cette autorité naît du contrat mais le dépasse, car l’organisation et le contrôle évoluent avec la dynamique de l’entreprise. L’usage d’outils informatiques – au sens large, y compris l’IA – pour coordonner, surveiller ou évaluer le travail est classiquement regardé comme un simple mode d’exercice de ce pouvoir de direction. Les outils de gestion algorithmique sont ainsi considérés comme des « procédures informatisées de coordination de la main-d’œuvre », dont l’employeur valide les résultats et se sert pour gérer, superviser et discipliner les salariés.

L’article décrit ensuite la mutation introduite par le marché des outils de surveillance et de gestion. Des produits comme Cogito Dialog (analyse de la voix des téléconseillers), DriverI (caméras intelligentes pour conducteurs) ou Syrg (prédiction des départs de salariés) permettent, pour un coût relativement modéré, de mettre en place des formes de micro-surveillance et de gestion fine qui seraient matériellement impossibles avec du personnel humain. Le point n’est pas de savoir si ces outils tiennent leurs promesses techniques, mais d’observer qu’ils sont fournis par des entreprises spécialisées, via des contrats de services, à des employeurs qui les intègrent dans leurs hiérarchies internes. Concrètement, l’employeur acquiert un service qui évalue la « bonne » façon de parler à un client ou de conduire un véhicule, et se repose ensuite sur ces évaluations pour gérer les salariés. Cela crée un schéma triangulaire employeur–prestataire–salarié, dans lequel le prestataire participe à la définition et à l’exercice de l’autorité.

Pour rendre cette idée plus tangible, l’auteur analyse deux exemples vendus sur AWS. Cogito Dialog est proposé en mode « Software as a Service » avec un abonnement annuel d’environ 200 000 dollars. L’employeur ne devient pas propriétaire du logiciel ni de son infrastructure, il paie pour accéder à un service hébergé, via une interface de type tableau de bord, qui écoute les conversations, les évalue et fournit des alertes ou des scores. De même, Calabrio ONE, autre solution de centre d’appel, est vendu sous forme de modules tarifés séparément (qualité, gestion des effectifs, analytique multicanal, etc.). Le visuel de la page 8 montre une grille de prix où chaque « capacité managériale » a son abonnement annuel. L’employeur peut ainsi composer un « boss » algorithmique à la carte : un module enregistre et évalue les interactions, un autre planifie les horaires, un autre encore prédit les performances. Une fois ces services activés, ce ne sont plus les managers internes qui, sur la base de règles maison, évaluent les salariés et font les plannings, mais l’architecture décidée par la société qui opère Calabrio ONE. L’employeur reste formellement responsable des décisions, mais, dans les faits, il se contente souvent d’avaliser les résultats fournis par ces systèmes.

Pour analyser ce phénomène, l’article s’appuie sur les travaux de Philip Agre en « social computing ». Agre montre que le travail géré par des systèmes informatiques est « mis en scène » au moyen de schémas de représentation qui décomposent les activités en unités formalisables. Là où le taylorisme fragmentait les gestes physiques pour définir « la meilleure façon » de travailler, la gestion algorithmique fragmente les activités en données et en catégories interprétables par la machine. Agre parle de « grammaires de l’action » : des ensembles de règles qui traduisent les comportements possibles dans un langage que le système peut lire et traiter. Pour fabriquer un « boss-as-a-service », le prestataire traverse, selon l’auteur, cinq étapes : analyser le travail existant et en extraire des unités pertinentes (par exemple, des indices de cordialité ou d’agacement dans la voix), articuler une grammaire qui décrit toutes les combinaisons admissibles de ces unités, imposer cette grammaire en la rendant normative pour le client, l’« instrumenter » en connectant le système à l’organisation de l’employeur, puis laisser le système « élaborer » en interprétant continuellement les activités des salariés et en produisant des signaux et décisions. L’employeur qui adopte Cogito ou Calabrio n’écrit pas lui-même cette grammaire : il achète un ensemble de catégories, métriques et normes pré-programmées. Il laisse donc le prestataire définir, dans ce champ fonctionnel, ce qu’est un bon ou un mauvais comportement au travail.

Sur cette base, l’auteur soutient que l’autorité de l’employeur est en partie déléguée et partagée. Le salarié, en concluant un contrat de travail, s’engage à suivre les instructions de l’employeur. Mais si ces instructions sont produites ou cadrées par la grammaire d’un prestataire informatique, le salarié se trouve, de facto, soumis à des règles qu’il n’a pas négociées avec son employeur mais qui lui parviennent par le filtre d’un service externe. L’employeur, lui, ne maîtrise pas les logiques internes du système et se limite souvent à constater les scores et recommandations fournis par le tableau de bord. L’autorité n’est donc plus un « fait de direction » exercé de manière souveraine à l’intérieur de l’entreprise, mais un pouvoir partagé où le prestataire conçoit et opère une partie des fonctions de direction et de contrôle.

L’article examine ensuite les raisons économiques et organisationnelles qui poussent les employeurs à accepter ce partage. En mobilisant Coase et Ciborra, l’auteur rappelle que l’entreprise existe, en théorie, pour économiser des coûts de transaction par rapport au marché. Or, avec les « bosses-as-a-service », une partie de la coordination et du contrôle peut à nouveau être achetée sur le marché, à un coût potentiellement plus faible que celui d’équipes internes, tout en offrant davantage d’information et de prédictibilité. Le tableau de la page 13 met en contraste deux scénarios théoriques. Dans le premier, un « boss humain » dispose d’une information limitée, supporte des coûts élevés de coordination et agit dans un cadre contractuel relativement ouvert et imprévisible. Dans le second, un « boss algorithmique » dispose d’analyses de données abondantes, de règles standardisées, de coûts de coordination plus faibles et encadre des salariés qui doivent suivre la grammaire d’actions imposée par le système. En pratique, les entreprises se situent entre ces deux extrêmes et opèrent des choix fins : elles peuvent externaliser la surveillance en temps réel et la planification des horaires, tout en gardant, par exemple, la fixation des objectifs stratégiques ou des promotions à la main de managers humains. Cette flexibilité ne change pas le constat de fond : l’autorité [de l’employeur] devient un bien partiellement marchand, modulable et achetable, que l’employeur consomme comme un service externe.

Dans une dernière étape, l’article met ces constats en relation avec le Règlement européen sur l’IA (règlement 2024/1689). Ce texte distingue clairement les « fournisseurs » de systèmes d’IA et leurs « utilisateurs professionnels », appelés « déployeurs ». Les systèmes d’IA utilisés pour la gestion des travailleurs sont qualifiés de « haut risque », ce qui déclenche un ensemble d’obligations lourdes pour les fournisseurs : gestion des risques, qualité des données, documentation, transparence, robustesse, cybersécurité. Les employeurs-déployeurs ont, pour leur part, des devoirs de surveillance et d’information, mais le schéma global reste celui d’une protection « à la consommateur » pour un utilisateur qui ne maîtrise pas la technologie. Le règlement impose par exemple que le fournisseur donne aux employeurs des informations claires sur le fonctionnement du système, exige que des dispositifs de contrôle humain soient possibles et que l’employeur puisse interrompre ou corriger les décisions de l’IA. Mais, souligne l’article, ces garde-fous ne suppriment pas la marchandisation et l’externalisation de l’autorité : ils encadrent simplement l’usage, en laissant intacte la position du fournisseur comme concepteur exclusif de la grammaire d’action et des outils de supervision.

L’auteur conclut en appelant à un agenda de recherche juridique spécifique sur cette autorité marchandisée et externalisée. Il propose que la doctrine examine si les mécanismes de l’AI Act suffisent à compenser la perte de contrôle de l’employeur sur des pans entiers de la gestion du personnel, et s’interroge sur la nécessité éventuelle de règles de droit du travail plus ciblées. Une piste serait de définir, par la loi, quels aspects du pouvoir de direction peuvent être confiés à des prestataires externes et lesquels doivent rester entre les mains de l’employeur, compte tenu de la protection des travailleurs. Plus largement, l’article invite à analyser comment le marché des « bosses-as-a-service » reconfigure les « îlots de pouvoir conscient » que sont les entreprises, en déplaçant une partie de l’autorité managériale vers des acteurs technologiques extérieurs, et à réfléchir à la manière dont le droit du travail doit réagir à cette recomposition.

NB : dans cet article, très intéressant, je retiens notamment l’idée de la définition des attributions inaliénables de l’employeur. Après tout, c’est un système que l’on connait ailleurs : ce que le CA peut déléguer ou non dans la SA etc.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Notions de base, Qualification du contrat, Techno-labrador, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire