Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

L’article de Fortunato Costantino, The Right to Disconnect and the Right to Human Oversight of Algorithms as New Digital Subjective Rights, European Review of Digital Administration & Law – Erdal 2025, Volume 6, Issue 2, pp. 141-153 (https://www.erdalreview.eu/free-download/97912218237769.pdf) part d’un constat organisationnel et social: la numérisation du travail et l’usage croissant de technologies « intelligentes » transforment l’entreprise au point d’en « dématérialiser » une partie, en brouillant des repères classiques comme le lieu de travail, les horaires, la présence physique et la manière d’évaluer la performance.

L’auteur situe cette évolution dans un modèle où l’entreprise cherche davantage d’efficacité et de flexibilité, notamment via le travail « agile » (télétravail au sens large, orienté objectifs), et via des formes de « management algorithmique » dans lesquelles des outils informatiques participent, voire se substituent, à des décisions de gestion des ressources humaines.

Selon lui, ces changements créent des risques nouveaux pour les droits fondamentaux des travailleurs: d’un côté, l’hyper-connexion permanente (« always on ») qui peut conduire à une forme d’empiètement continu du travail sur la vie privée; de l’autre, l’opacité et les biais possibles des systèmes algorithmiques qui influencent des décisions importantes (recrutement, affectation, évaluation, discipline).

À partir de là, il défend l’idée qu’il faut reconnaître deux « droits subjectifs numériques » spécifiques : un droit à la déconnexion et un droit à une supervision humaine des algorithmes. Ces droits ne seraient pas de simples règles techniques d’organisation, mais bien des instruments de protection de la personnalité, de la dignité, de la liberté et de la sécurité des personnes au travail, et devraient, selon l’auteur, être pensés au niveau constitutionnel, plutôt que laissés à des règles dispersées ou à la seule négociation contractuelle.

Dans son analyse du travail agile, l’auteur insiste sur l’ambivalence de ce modèle. En théorie, il promet une autonomie accrue, un rapport de confiance, une organisation par objectifs, et des bénéfices possibles en matière de conciliation vie professionnelle-vie privée. En pratique, il peut aussi dériver vers une intensification et une dilution du temps de travail, en particulier lorsque la technologie rend possible une disponibilité permanente. Il rappelle que l’expérience de la pandémie a souvent réduit le travail agile à un télétravail contraint et continu depuis le domicile, ce qui a parfois accentué les effets négatifs. Il décrit un phénomène de chevauchement progressif entre temps professionnel et temps personnel, que la littérature qualifie de « porosité »: des fragments de travail s’infiltrent dans la sphère privée (messages, demandes urgentes, tâches « à finir »), et inversement des activités privées se glissent dans le temps de travail. L’enjeu n’est pas seulement de respecter des pauses minimales, mais de préserver une séparation réelle entre les sphères de vie. Ce brouillage entraîne, selon lui, un risque d’« surtravail numérique » et de surcharge cognitive et émotionnelle, avec des conséquences possibles sur la santé (insomnie, irritabilité, épuisement, stress, burnout). Il rattache ces préoccupations à l’obligation générale de protection de la santé et de l’intégrité du travailleur, qui impose à l’employeur d’anticiper les risques et de mettre en place des mesures préventives adaptées à l’état de la technique et des connaissances.

Sur le droit à la déconnexion, l’article critique l’approche italienne issue de la loi de 2017 sur le travail agile, qui impose que l’accord individuel définisse des périodes de repos et des mesures techniques ou organisationnelles permettant la déconnexion, mais sans reconnaître clairement un « droit » opposable de manière générale, ni prévoir de modalités concrètes ou de conséquences en cas de non-respect. Pour l’auteur, cette construction est trop faible : elle renvoie l’essentiel à la négociation individuelle, dans un contexte où le pouvoir de négociation est rarement équilibré, et elle cantonne la déconnexion aux travailleurs « agiles » alors que la connexion permanente concerne potentiellement tous les travailleurs équipés d’outils numériques. Il souligne aussi que, faute de cadrage précis, les accords d’entreprise restent souvent au niveau de principes généraux et ne garantissent pas une coupure effective. Il note qu’une intervention ultérieure a qualifié la déconnexion de « droit » pour les travailleurs en mode agile, mais en la reliant toujours à des accords et à des périodes de disponibilité convenues, ce qui laisse subsister des ambiguïtés et une protection inégale. Il discute ensuite les tentatives doctrinales de rattacher la déconnexion uniquement au droit au repos et aux règles sur la durée du travail, en relevant que cette approche est insuffisante: la déconnexion ne vise pas seulement à assurer un minimum d’heures de repos, mais à protéger un espace de vie privée et de liberté personnelle contre la pression diffuse et constante des sollicitations numériques, y compris lorsque la personne n’est pas en train de travailler au sens strict mais demeure « en alerte » parce qu’elle peut être contactée à tout moment. Dans cette perspective, la déconnexion devient un droit plus large, lié à la vie privée, à la santé, et au plein développement de la personne.

L’auteur appuie cette lecture par une comparaison européenne et par des développements au niveau de l’Union. Il évoque des cadres nationaux, comme ceux de la France et de l’Espagne, qui qualifient plus explicitement la déconnexion comme un droit et lui donnent une portée plus générale, notamment via un rôle de la négociation collective, plutôt qu’une dépendance à l’accord individuel. Il met surtout en avant une résolution du Parlement européen de janvier 2021 invitant la Commission à proposer une directive sur la déconnexion, avec un socle minimal harmonisé applicable à tous les secteurs et à toutes les formes de travail, et avec l’idée que la déconnexion est devenue une composante essentielle des nouveaux modes de travail numériques. L’auteur relie ce mouvement à une vision où la transition numérique du travail doit être encadrée pour éviter des usages « déshumanisés » de la technologie, et où l’innovation doit rester orientée vers des objectifs sociaux (bien-être, durabilité, participation), en cohérence avec des orientations européennes plus générales sur une industrie « centrée sur l’humain ».

Le second axe majeur de l’article concerne le « droit à la supervision humaine » des processus et décisions algorithmiques. L’auteur part de la vulnérabilité particulière du travailleur face à des systèmes capables de collecter, croiser et inférer une quantité considérable d’informations. Il décrit un risque d’asymétrie: des individus de plus en plus « transparents » (car fortement observables par les données) face à des pouvoirs de décision de plus en plus « opaques » (car difficiles à comprendre et à contester). Il insiste sur deux problèmes classiques des systèmes algorithmiques appliqués aux ressources humaines: l’opacité (la difficulté de comprendre comment une décision est produite, ce qui renvoie à l’image de la « boîte noire ») et les biais (les erreurs, préjugés ou discriminations qui peuvent être incorporés dès la conception, ou par les données d’entraînement, puis reproduits à grande échelle). Dans le contexte du travail, ces outils peuvent intervenir dans des étapes sensibles: recrutement et sélection, affectation, organisation des tâches, évaluation de performance, voire déclenchement de procédures disciplinaires ou décisions de licenciement fondées sur des indicateurs automatisés. Selon l’auteur, lorsque des décisions importantes sont prises ou préparées par des systèmes algorithmiques, une gouvernance adaptée devient indispensable pour garantir transparence, fiabilité, intelligibilité et contrôle, et pour permettre une vérification réelle de la légitimité et de l’équité des décisions.

Concrètement, l’article défend une approche de conformité et de gouvernance interne en deux temps. D’abord, une analyse de risque ex ante doit identifier quels processus RH sont automatisés, à quel degré, et où la délégation de pouvoir décisionnel à la machine augmente le risque d’atteinte aux droits fondamentaux ou aux droits contractuels. Ensuite, l’entreprise doit mettre en place des politiques, procédures et mécanismes de supervision humaine proportionnés à l’importance de la décision et à l’intensité de l’impact sur la personne, avec une capacité effective de corriger, compléter ou annuler une décision algorithmique et de la remplacer par une décision humaine lorsque c’est nécessaire. L’auteur mentionne les différents modèles généralement évoqués (humain « dans la boucle », humain « supervisant la boucle », humain « aux commandes ») pour illustrer des degrés d’intervention humaine, mais son point central est qu’une supervision humaine doit être réelle et opérante, notamment pour réduire le risque d’« automation bias », c’est-à-dire la tendance à faire trop confiance à une sortie algorithmique même lorsqu’elle est erronée.

Sur le plan juridique, l’auteur rattache cette exigence à plusieurs sources. Il relève d’abord que l’AI Act de l’Union européenne, entré en vigueur en août 2024, contient une disposition spécifique imposant une supervision humaine pour les systèmes d’IA « à haut risque », afin de prévenir ou minimiser les risques pour la santé, la sécurité et les droits fondamentaux. Il estime ensuite que, même si ce texte vise en priorité les systèmes à haut risque, une entreprise prudente devrait prévoir une supervision humaine plus large dès lors que l’analyse de risque révèle des impacts possibles sur la dignité, la liberté, l’égalité, la non-discrimination, la protection des données ou la santé et la sécurité, y compris pour des systèmes classés comme moins risqués. Il intègre également le droit de la protection des données dans la démonstration: les principes généraux du RGPD (finalité, minimisation, transparence, exactitude, responsabilité) limitent la collecte et l’usage des données des travailleurs, et le RGPD prévoit un cadre spécifique pour les décisions fondées exclusivement sur un traitement automatisé, avec des garanties telles que l’intervention humaine, la possibilité d’exprimer son point de vue et de contester la décision. Il ajoute qu’un décret italien récent sur la transparence des conditions de travail impose, lorsqu’il existe des systèmes automatisés de décision ou de surveillance liés à des aspects clés de la relation de travail, des obligations d’information renforcées, ainsi que des évaluations de risques et, dans certains cas, une analyse d’impact et une consultation préalable de l’autorité de protection des données. L’ensemble de ces normes illustre, selon lui, une tendance: la supervision humaine et la transparence deviennent des garanties structurantes face à l’automatisation dans la gestion du travail.

En conclusion, l’auteur considère que, même si plusieurs textes (nationaux et européens) contiennent déjà des éléments de protection, l’ensemble reste insuffisant tant que ces garanties ne sont pas élevées au rang de droits pleinement reconnus et cohérents, capables d’être invoqués et protégés de manière effective. Il plaide pour une reconnaissance plus nette, y compris au niveau des textes constitutionnels et des instruments européens de droits fondamentaux, afin d’empêcher que la « boulimie » technologique et la connexion permanente ne finissent par écraser la dignité et la personnalité des individus. Dans sa logique, le droit à la déconnexion et le droit à une supervision humaine des algorithmes sont les deux réponses les plus directes pour rééquilibrer le rapport entre efficacité numérique et protection de la personne, en évitant à la fois la normalisation d’une disponibilité permanente et l’acceptation passive de décisions opaques produites par des systèmes automatisés.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD, est tagué , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire