
On a beaucoup parlé récemment de l’article de James Evans /Benjamin Bratton /Blaise Agüera y Arcas, Agentic AI and the next intelligence explosion, arXiv:2603.20639 [cs.AI], 21 mars 2026 (https://arxiv.org/abs/2603.20639). Une courte présentation des thèses qui y sont présentées :
Le texte défend l’idée que la prochaine grande étape de l’intelligence artificielle ne ressemblera probablement pas à l’apparition d’un « super-esprit » unique, autonome et supérieur à tous les humains. Selon les auteurs, cette image classique de la « singularité » est trompeuse. L’évolution la plus plausible serait au contraire collective, distribuée et mêlée aux activités humaines. L’intelligence, disent-ils, n’est pas une grandeur unique que l’on pourrait mesurer sur une seule échelle. Elle naît surtout de relations, d’échanges, de coordination et de conflits organisés entre plusieurs points de vue.
Leur premier argument porte sur le fonctionnement interne des modèles récents dits « raisonnants ». D’après les auteurs, lorsqu’un modèle traite un problème difficile, il ne se contente pas d’« y penser plus longtemps ». Il produit plutôt, dans son raisonnement interne, une forme de dialogue entre plusieurs perspectives qui se questionnent, se corrigent, vérifient des hypothèses et rapprochent leurs conclusions. Les auteurs appellent cela une « société de pensée ». Ils soutiennent que cette structure explique en partie les meilleurs résultats obtenus sur des tâches complexes. L’idée importante est que ce comportement n’aurait pas été programmé explicitement : il apparaîtrait parce que l’optimisation du modèle récompense les raisonnements plus justes. Autrement dit, même à l’intérieur d’un modèle présenté comme un système unique, la qualité du raisonnement viendrait déjà d’une forme de pluralité organisée.
À partir de là, le texte élargit la perspective. Si de meilleures performances viennent d’interactions entre points de vue, alors la conception de l’IA ne devrait pas seulement mobiliser l’informatique, mais aussi les connaissances accumulées sur le travail en groupe. Les auteurs estiment que la recherche sur les équipes humaines a beaucoup à apporter : taille des groupes, répartition des rôles, hiérarchie, spécialisation, modes de désaccord, institutions, réseaux de coopération. Aujourd’hui, selon eux, les modèles produisent souvent un seul fil de raisonnement, comme une grande discussion unique. Or les groupes efficaces fonctionnent rarement ainsi : ils séparent les tâches, organisent la contradiction, font émerger plusieurs pistes en parallèle puis les confrontent. Les systèmes d’IA du futur devraient donc être conçus pour permettre des délibérations multiples, convergentes ou divergentes, et non pour produire une seule réponse d’un seul bloc.
Le texte relie ensuite cette thèse à une lecture générale de l’histoire de l’intelligence. Les grandes avancées passées n’auraient pas reposé sur un cerveau individuel devenu soudain bien meilleur, mais sur l’apparition de nouvelles formes de cognition collective. Chez les primates, l’intelligence aurait progressé avec la vie sociale. Chez les humains, le langage aurait permis l’accumulation du savoir d’une génération à l’autre. Puis l’écriture, le droit et l’administration auraient externalisé certaines fonctions mentales dans des dispositifs durables, capables de coordonner l’action bien au-delà de ce qu’un individu peut faire seul. Dans cette perspective, l’IA ne serait pas une rupture totale, mais une étape supplémentaire : elle compresse et réactive sous forme informatique une grande partie des productions de l’intelligence sociale humaine.
Les auteurs en tirent la conclusion que l’avenir de l’IA ne se joue pas dans la fabrication d’un oracle unique, mais dans la composition de systèmes sociaux hybrides associant humains et agents artificiels. Ils utilisent l’image du « centaure » pour désigner ces assemblages mixtes. Un humain peut piloter plusieurs agents, un agent peut assister plusieurs humains, et des groupes d’humains et d’agents peuvent coopérer selon des configurations variables. Pour eux, ce modèle mixte devient déjà la forme normale de l’activité intellectuelle dans de nombreux métiers. L’enjeu n’est donc pas seulement la puissance de calcul ou la qualité d’un modèle isolé, mais la manière dont plusieurs acteurs, humains et non humains, interagissent pour accomplir une tâche.
Le texte insiste aussi sur l’idée d’agents capables de se dupliquer, de se répartir des sous-tâches puis de combiner et de recombiner les résultats. Un agent confronté à un problème complexe pourrait créer temporairement plusieurs versions de lui-même ou plusieurs sous-agents spécialisés, chacun chargé d’un aspect particulier, avant de rassembler leurs apports. Les auteurs décrivent ainsi une intelligence qui se déploie et se replie selon la difficulté rencontrée. Dans cette logique, le désaccord n’est pas un défaut à éliminer, mais une ressource utile pour tester des hypothèses, détecter des erreurs et améliorer les décisions.
Cela les conduit à ce qu’il ne suffise pas de construire de bons agents ; il faut aussi construire des institutions pour les encadrer. Ils jugent insuffisante l’approche dominante consistant à aligner les systèmes par correction humaine individuelle, par exemple au moyen d’évaluations ou de préférences fournies par des personnes. Cette relation de type binaire, entre un humain correcteur et un agent corrigé, ne serait pas adaptée à un monde où interagissent potentiellement des milliards d’agents. Les auteurs proposent donc de penser l’alignement à l’échelle institutionnelle : comme les sociétés humaines reposent sur des rôles, des procédures, des normes et des contre-pouvoirs, les écosystèmes d’IA devraient reposer sur des équivalents numériques. Ce qui compte ne serait pas tant l’identité particulière de chaque agent que sa capacité à occuper correctement un rôle défini dans un cadre stable.
La question devient particulièrement importante pour la gouvernance. Les auteurs visent les cas où l’IA intervient dans des décisions à fort enjeu, par exemple le recrutement, la justice, l’attribution de prestations ou la régulation économique. Dans de tels contextes, il faut non seulement contrôler un système, mais aussi contrôler ceux qui le contrôlent. Ils avancent alors une idée proche d’une architecture constitutionnelle : certains systèmes d’IA devraient être explicitement chargés de vérifier l’action d’autres systèmes, au nom de valeurs comme la transparence, l’égalité de traitement ou le respect des procédures. Une administration pourrait ainsi auditer les outils privés qu’utilisent les entreprises, et d’autres organes publics pourraient à leur tour contrôler les systèmes administratifs eux-mêmes. La logique générale est celle des freins et contrepoids : aucune concentration de pouvoir intellectuel, humaine ou artificielle, ne devrait se surveiller seule.
Les auteurs précisent que la gouvernance ne se réduit pas à l’action de l’État. Elle doit aussi être intégrée dans les relations entre agents et entre humains et agents : mécanismes de vérification des résultats, procédures de délégation, règles d’interaction fiables, garanties sur la manière dont plusieurs acteurs délibèrent ensemble. Ces protocoles pourraient avoir un effet aussi important que les règles juridiques classiques dans l’organisation pratique des systèmes d’IA.
Le texte ne présente donc ni une vision idyllique, ni une vision catastrophiste. Il propose une lecture évolutionniste : la « prochaine explosion de l’intelligence » viendrait d’une société de plus en plus dense d’esprits humains et artificiels coordonnées, subordonnés et encadrés, non de l’ascension d’une entité unique. Les auteurs estiment que raisonner en termes de singularité monolithique risque de conduire à de mauvaises politiques, conçues pour empêcher un phénomène peut-être imaginaire, au lieu d’organiser le phénomène déjà en cours. Leur conclusion est que l’intelligence devient plus puissante en se socialisant davantage. Le vrai enjeu n’est pas de savoir si cette puissance va croître, mais si nous saurons construire les règles, les institutions et les infrastructures sociales capables de l’encadrer.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration