Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

A propos de : Upol Ehsan/Todd McNutt/ Samir Passi/ Mark O. Riedl/ Koustuv Saha/ Sara Alcorn, From Future of Work to Future of Workers: Addressing Asymptomatic AI Harms for Dignified Human-AI Interaction, arXiv:2601.21920v1  [cs.HC]  29 Jan 2026

L’article propose de déplacer le regard, habituel dans les débats sur « le futur du travail », vers « le futur des travailleurs ». Les auteurs partent d’un constat : les organisations évaluent souvent l’IA au prisme d’indicateurs visibles et immédiats – vitesse, précision, débit, économies – alors que l’intégration durable de systèmes d’aide peut modifier, de façon plus discrète, l’expertise, l’autonomie et le sentiment de valeur professionnelle des personnes. Leur thèse centrale est formulée comme un paradoxe : l’IA agit comme un amplificateur, capable d’améliorer la performance à court terme tout en érodant progressivement les compétences humaines qui soutiennent cette performance. Ils nomment cela l’« AI-as-Amplifier Paradox».

Pour étayer cette idée, l’article s’appuie sur une étude longitudinale d’un an dans un environnement à forts enjeux : la radio-oncologie, où des équipes (médecins radio-oncologues, physiciens médicaux, dosimétristes) conçoivent des plans de radiothérapie.

Le système étudié, « RadPlan » (nom fictif), produit des propositions de plans et de doses que les cliniciens valident et ajustent.

Au début du déploiement, tout ressemble à une réussite classique : les cycles de planification raccourcissent (environ 15 % plus rapides selon les mesures internes), certains indicateurs de qualité des plans s’améliorent, et la satisfaction déclarée augmente. Mais, au fil des mois, apparaissent des signaux faibles, difficiles à voir dans des tableaux de bord : des praticiens décrivent une impression de « rouille de l’intuition », l’idée qu’ils approuvent « trop vite » et qu’ils explorent moins d’alternatives qu’avant, parce que la proposition de l’IA paraît « suffisamment bonne ».

Les auteurs décrivent alors une trajectoire en trois temps, qu’ils présentent comme une « cascade d’érosion de l’expertise ».

Le premier temps correspond à des « effets asymptomatiques » : des changements réels de comportements ou de routines qui ne déclenchent pas d’alerte, parce qu’ils ne produisent pas immédiatement d’erreur mesurable ni de baisse de qualité apparente. Dans ce régime, l’IA incite à une dérive de vigilance : moins de vérifications indépendantes, moins de scénarios comparatifs, davantage d’acceptations rapides, surtout pour les cas routiniers. Un point important est la dimension distributionnelle : les seniors semblent parfois mieux savoir quand ignorer l’IA (cas rares, anatomies atypiques), tandis que les juniors risquent de construire leurs habitudes dans un contexte où l’IA « tient » déjà une partie du raisonnement, ce qui pose un problème de formation et de transmission. Les auteurs insistent sur le caractère insidieux : comme la performance globale reste bonne, l’organisation ne voit pas « le problème », alors même que les conditions d’une fragilisation ultérieure se mettent en place.

Le deuxième temps est celui des « dommages chroniques », qui deviennent plus tangibles vers le milieu ou la fin de l’année observée. Ici, l’érosion ne concerne plus seulement l’attention, mais aussi la compétence et la capacité d’agir sans l’outil. Des dosimétristes disent devenir moins rapides et moins à l’aise lorsqu’on leur demande de produire un plan « à la main » ; l’IA devient une béquille. En parallèle, certains décrivent une baisse de confiance dans leur propre jugement : ils « doutent d’eux-mêmes » même lorsqu’ils pensent que l’IA se trompe, ce qui ressemble à des formes d’automatisation biaisée et de dépendance. Les auteurs emploient aussi l’image d’un succès « fragile » : le système sociotechnique semble robuste tant que l’IA est disponible et performante, mais la « redondance humaine » – la capacité collective à rattraper des surprises, des pannes, des changements de contexte – s’amincit. Le risque n’est pas seulement l’erreur ponctuelle ; c’est la perte de résilience quand survient l’exception (panne, dérive des données, cas hors distribution).

Le troisième temps touche à l’identité professionnelle et à la dignité au travail, ce que les auteurs appellent « l’industrialisation » ou « commoditization » de l’identité. Les praticiens ne craignent pas uniquement d’être remplacés ; ils craignent d’être « vidés » de ce qui fait la substance du métier, réduits à des rôles de surveillance ou de signature, parfois décrits comme « baby-sitters de l’IA » ou « pousse-boutons ». Cette dimension est importante, car elle relie l’IA à la reconnaissance sociale du travail : la dignité est comprise comme le fait de rester un agent qualifié, porteur de jugement, et non un simple maillon d’un processus algorithmique. L’article souligne aussi une anxiété économique : si l’IA fait une grande partie du « travail intelligent », des décideurs pourraient finir par percevoir les spécialistes comme des superviseurs interchangeables, ce qui peut peser sur les effectifs, la valorisation salariale, ou la conception même des carrières et de la formation.

Face à cette trajectoire, les auteurs décrivent un « point de bascule » autour d’une intervention de conception : l’ajout d’une couche de « Social Transparency » (transparence sociale) à RadPlan. L’idée n’est pas d’expliquer l’algorithme au sens technique, mais de remettre en visibilité le travail collectif et le raisonnement professionnel : une surcouche « 4W » (qui a fait quoi, quand, et pourquoi) montrant les contributions humaines, les modifications, les désaccords, et les justifications associées à des décisions antérieures. Cette transparence sociale introduit une friction utile : voir que des pairs ont corrigé l’IA, ou comprendre les raisons d’un arbitrage, aide à calibrer la confiance, à sortir du mode « pilote automatique » et à redonner une place active au jugement. La transparence sociale sert aussi à documenter des limites de l’IA (ce qu’elle ne peut pas « savoir » à partir des données), en rappelant que la décision est située dans des contraintes organisationnelles et humaines.

À partir de ces observations, l’article propose un cadre plus général : le cadre de « Dignified Human–AI Interaction », construit avec les travailleurs au cours d’ateliers participatifs. La notion est celle d’« immunité sociotechnique », empruntant une métaphore médicale : plutôt que d’attendre une crise visible (erreur grave, effondrement de qualité, incident), il faut doter l’organisation et les collectifs de mécanismes pour détecter tôt les dérives, les contenir, puis restaurer activement les compétences. Le cadre est organisé en trois niveaux, qui correspondent à trois lieux d’action : le niveau individuel (travailleurs), le niveau technologique (conception des systèmes), et le niveau organisationnel (politiques, gouvernance, arbitrages de productivité). L’intérêt, pour les auteurs, est de proposer une approche « praticable » dans des environnements où la contestation frontale est coûteuse : ils décrivent une catégorie de travailleurs qualifiés qu’ils appellent le « missing middle », ni protégés comme certains salariés précaires très visibles dans les débats publics, ni armés comme les dirigeants, et parfois contraints par des accords de confidentialité ou des environnements où l’action collective est difficile. Le cadre cherche donc à produire des outils qui ressemblent, extérieurement, à de la qualité et de la conformité, tout en servant, pour les travailleurs, à préserver la compétence et le pouvoir d’agir.

Concrètement, l’« immunité » est déclinée en trois fonctions. D’abord « sense » : repérer des indicateurs précoces de dérive, par exemple des approbations instantanées répétées, des validations sans modifications, ou l’absence de justification humaine dans des dossiers où elle devrait exister. Ensuite « contain » : mettre des coupe-circuits proportionnés au risque, comme des revues « IA désactivée » sur certains cas, des exigences de second lecteur, des blocages procéduraux tant qu’une justification n’est pas consignée, ou des points d’arrêt lorsque l’outil se trouve dans une zone d’incertitude. Enfin « recover » : réinvestir le temps gagné par l’IA dans l’entretien des compétences, via des exercices réguliers « sans IA », des routines de pratique manuelle, et l’exploitation des corrections humaines pour créer une mémoire institutionnelle et, idéalement, améliorer le système.

Les auteurs évaluent la pertinence du cadre par des ateliers de scénarisation dans le domaine médical et dans un second domaine, l’ingénierie logicielle assistée par IA. Dans le scénario médical, l’outil de détection peut être symbolisé par un signal simple (par exemple un marqueur d’approbation « en un clic » sur des cas limites), utilisé comme « bouton pause » déclenchant une revue sans IA et une justification signée. Dans le scénario logiciel, un quasi-incident illustre le même mécanisme : un extrait de code généré par IA passe les tests mais comporte une erreur de calcul monétaire ; l’équipe identifie alors des signaux précoces (fusions trop rapides, manque de revue), instaure des contenances (revue renforcée pour composants sensibles), et des récupérations (drills, traçabilité des corrections, apprentissage organisationnel). L’article rapporte que ce type d’outillage donne surtout un langage commun pour transformer des inquiétudes individuelles (perte de compétence, dépendance) en éléments partageables, actionnables et défendables dans l’organisation.

Dans la discussion, les auteurs insistent sur un point utile pour des juristes du travail et de la conformité : ils ne présentent pas la « dignité » comme un supplément éthique abstrait, mais comme une variable de sécurité, de qualité et de continuité. Une organisation qui optimise l’efficience en « creusant » les compétences humaines crée des points de défaillance uniques : lorsque surviennent des situations non prévues, l’équipe n’a plus les réflexes ni les savoir-faire pour diagnostiquer et arrêter une dérive. Ils avancent aussi un argument de risque réglementaire : les cadres de gouvernance des systèmes à risque (ils citent notamment des exigences d’« oversight » humain dans des régimes comme l’EU AI Act et des référentiels de gestion des risques) rendent dangereux, à moyen terme, le fait d’avoir des humains nominalement responsables mais pratiquement dépossédés des moyens et de la maîtrise nécessaires. De là vient une idée très transposable au raisonnement juridique : si l’humain porte la responsabilité, il doit conserver une autorité effective, y compris un droit pratique de veto ou d’arrêt « sans pénalité », et une capacité entretenue à exercer un jugement indépendant.

L’article reconnaît enfin ses limites : l’étude de terrain est profonde mais centrée sur un domaine principal ; la généralisation doit être testée dans d’autres secteurs et avec des mesures mixtes (qualitatives et quantitatives) pour mieux estimer les vitesses d’érosion, les conditions de récupération, et les seuils où l’immunité devient nécessaire. La conclusion revient à la question directrice : l’IA va transformer le travail, mais l’enjeu décisif est de savoir si cette transformation « honore » l’expertise humaine ou la « creuse ». Le message de fond est qu’une stratégie de déploiement responsable ne peut pas se contenter de garder « un humain dans la boucle » au sens formel ; elle doit organiser, dès la conception et la gouvernance, des mécanismes qui maintiennent dans le temps l’agence, les compétences, la résilience et le sens du travail, parce que ce sont précisément ces éléments qui rendent l’organisation sûre, durable et juridiquement tenable lorsque l’IA se trompe ou sort de son domaine de validité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire