L’IA est un perroquet stochastique qui a réussi

A propos de Henrik Skaug Sætra, The Tyranny of the Stochastic Parrot: How AI Critique Became a Way to Not See What’s Happening, preprint, 2026 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6249318):

L’article de Henrik Skaug Sætra critique une posture devenue fréquente dans certains milieux : répondre à l’enthousiasme autour de l’IA en répétant que ces systèmes ne sont que des « perroquets stochastiques », c’est-à-dire des modèles statistiques qui imitent du langage sans « comprendre ».

L’auteur reconnaît que cette expression, popularisée par Emily Bender et ses co-auteurs, a été utile pour casser le discours magique et attirer l’attention sur les dommages et les rapports de force. Mais il soutient qu’employée comme réflexe, elle sert désormais de paravent intellectuel : elle permet d’éviter de regarder en face ce qui se passe déjà dans l’éducation, la politique et surtout le travail, sans attendre une hypothétique « IA générale ».

L’idée centrale : on n’a pas besoin d’une IA « consciente » ni même très générale pour provoquer une automatisation massive et une réorganisation profonde des professions. Cette transformation est déjà en cours, et la question pertinente n’est pas « est-ce que la machine comprend ? », mais « quelles tâches sont automatisées, pour qui, à quelle vitesse, et sous le contrôle de qui ? ». Selon lui, continuer à minimiser les effets concrets au motif que l’IA n’est pas une forme d’intelligence humaine revient, paradoxalement, à aider les acteurs les plus puissants à éviter les débats difficiles sur la répartition des gains, les protections et la responsabilité.

Pour rendre cette thèse tangible, l’article prend l’exemple du développement logiciel. Il décrit le passage des assistants de code (proches de l’auto-complétion) à des outils « agentiques », intégrés au travail quotidien, capables de lire une base de code, modifier des fichiers et exécuter des commandes dans un environnement réel. L’auteur cite des outils récents et la manière dont certaines entreprises présentent leur usage, ainsi que des indicateurs d’adoption dans la profession. Son point n’est pas de trancher si ces déclarations d’entreprises sont exactes au pourcentage près, mais de souligner une tendance robuste : l’IA devient une composante ordinaire de la production, et la pratique du métier change en conséquence.

Une conséquence particulièrement importante, selon lui, touche le début de carrière.

L’argument rassurant « les gens vont se requalifier » lui paraît insuffisant si les tâches d’entrée de métier disparaissent ou se réduisent fortement. Il cite un rapport du Stanford Digital Economy Lab indiquant des baisses d’emploi concentrées chez les travailleurs en début de carrière dans des métiers plus exposés à l’automatisation des tâches, dont le développement logiciel. L’image qu’il propose est celle d’un apprentissage qui passe d’« apprendre en faisant » à « regarder l’agent faire puis vérifier », ce qui n’offre pas les mêmes occasions d’acquérir le savoir-faire, le jugement et l’autonomie. Il en déduit un risque structurel : si l’échelon inférieur se contracte, la « filière » de formation interne au marché du travail se casse, avec des effets durables sur les professions.

Pour analyser ce basculement, l’auteur s’appuie sur une distinction du sociologue Stephen R. Barley entre changement « de substitution » et changement « d’infrastructure ». Une substitution remplace un outil par un autre, sans bouleverser l’organisation générale du travail. Un changement d’infrastructure, au contraire, devient une couche de base qui médiatise de nombreuses activités et modifie les rôles, les dépendances et les structures de production. L’auteur reproche à beaucoup de commentaires sur les grands modèles de langage de les classer encore comme une simple substitution (« meilleur moteur de recherche », « meilleur correcteur », « chatbot »), alors que leur intégration dans les processus (production, support, analyse, conformité, achats, etc.) en fait progressivement une infrastructure. Le danger, pour lui, est une « erreur de diagnostic » : si l’on traite une transformation d’infrastructure comme un simple remplacement d’outil, on sous-estime ses effets économiques et sociaux et on réagit trop tard.

Il propose ensuite un parallèle historique destiné à montrer que le travail ne « disparaît » pas toujours, mais que les goulots d’étranglement et le pouvoir se déplacent. Il évoque la composition typographique, transformée d’abord par des machines comme la Linotype, puis par la publication assistée par ordinateur. La leçon n’est pas un fatalisme technologique, mais l’observation que lorsque la compétence rare qui ralentissait la production est capturée par une machine ou un logiciel, l’avantage de négociation attaché à cette compétence s’érode. L’auteur transpose ce schéma au logiciel : pendant longtemps, l’ingénieur a été un goulot d’étranglement à forte valeur, avec une capacité individuelle à peser sur l’organisation. Si la création se déplace vers des systèmes automatisés et que le rôle humain devient surtout supervision et validation, la personne devient plus remplaçable, davantage contrôlable, et son pouvoir de négociation diminue. Il nomme ce mouvement une « prolétarisation » du travail qualifié : moins de créateur autonome, plus d’opérateur-superviseur d’une machine qui absorbe le cœur du métier.

À partir de là, l’auteur invite à sortir des débats abstraits sur l’« intelligence réelle » et à revenir aux choix institutionnels. Il oppose deux attitudes : un fatalisme qui recommande simplement de s’adapter individuellement, et une approche qui reconnaît le changement de capacité mais cherche à en orienter la forme par des règles, des organisations et des protections. Pour lui, la première étape est l’honnêteté descriptive : reconnaître ce que les outils font déjà, où ils sont déployés, quelles tâches ils réorganisent. Sans cette lucidité, il devient impossible de concevoir des politiques publiques, des règles de responsabilité, des mécanismes de protection des travailleurs ou des adaptations de la formation.

L’article propose enfin des pistes de débat qui intéressent directement des juristes, y compris sous l’angle de la protection des données. Il suggère l’importance d’une transparence sur l’usage de l’IA dans les processus de production, afin que les personnes concernées (travailleurs, partenaires, parfois usagers) puissent comprendre comment les décisions et les résultats sont obtenus et sous quel contrôle. Il insiste aussi sur la nécessité de régimes de responsabilité qui ne s’évaporent pas au motif que « le modèle l’a fait », ce qui renvoie, en pratique, à la question de l’imputabilité dans les chaînes de décision et de validation. Il mentionne l’idée de capter une partie des gains de productivité (par exemple via l’impôt) et de renforcer des protections liées à la « marche d’entrée » des métiers, ce qui vise à préserver l’accès à la profession et la formation en situation de travail. Enfin, il met en garde contre une dépendance accrue des institutions publiques à des infrastructures privées opaques, problématique à la fois pour la souveraineté organisationnelle et, indirectement, pour la maîtrise des flux d’information et de données.

En résumé, le texte n’est pas un article technique sur la qualité des modèles, mais un appel à déplacer le centre de gravité de la critique : continuer à rappeler les limites des systèmes est utile, mais cela ne doit pas servir d’excuse pour ignorer leur effet d’infrastructure sur le travail. Même si ces outils ne « comprennent » pas comme des humains, ils peuvent déjà réorganiser les professions, déplacer le pouvoir et créer des dépendances. L’auteur appelle donc à regarder ces effets directement et à se battre sur leur cadrage institutionnel : transparence, responsabilité, protections et capacité des organisations à ne pas subir une transformation qu’elles n’ont pas réellement comprise.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire