E pluribus unum : l’avenir de l’IA ?

L’article de Daniel J. Singer and Luca Garzino, The Future of AI is Many, Not One, 18 février 2026 (https://arxiv.org/pdf/2603.29075) défend la thèse suivante : l’avenir de l’IA avancée ne doit pas être pensé comme l’avènement d’un modèle unique, toujours plus puissant, mais comme la constitution de communautés d’agents d’IA différents, capables de travailler ensemble. Autrement dit, la question centrale ne serait pas de savoir quel sera « le » meilleur modèle, mais comment organiser plusieurs modèles, dotés de compétences, de méthodes et de biais différents, afin qu’ils produisent collectivement de meilleurs résultats qu’un système isolé.

Les auteurs partent d’un constat : aujourd’hui, l’industrie et la recherche pensent l’IA de manière essentiellement individuelle. Les grands acteurs développent des modèles fondationnels singuliers, évalués comme tels, commercialisés comme tels et présentés comme les étapes successives vers l’AGI, c’est-à-dire une intelligence artificielle générale, ou vers l’ASI, une intelligence artificielle supérieure à l’intelligence humaine. Cette logique est renforcée par les « scaling laws », selon lesquelles l’augmentation des données, des paramètres et de la puissance de calcul améliore les performances. Elle est aussi consolidée par les classements publics et les benchmarks, qui comparent les modèles entre eux comme on comparerait des candidats à un examen. Le résultat est un marché, une recherche et une gouvernance centrés sur la course au meilleur modèle individuel.

Les auteurs estiment que ce cadre est trop étroit. Il conduit à imaginer le progrès intellectuel comme le produit d’un esprit unique, alors que l’histoire des sciences montre plutôt l’inverse. Les grandes découvertes ne proviennent généralement pas d’un individu isolé, mais d’un écosystème de chercheurs, de méthodes, d’hypothèses concurrentes et d’institutions permettant la critique, la persistance et la correction. La découverte de la structure de l’ADN, le développement des vaccins contre le COVID-19, les recherches autour de CRISPR ou encore les progrès de l’IA elle-même sont présentés comme des exemples de recherche distribuée, où plusieurs voies sont explorées en parallèle avant que certaines ne s’imposent.

L’article examine ensuite trois objections classiques formulées contre l’ambition d’une IA véritablement transformatrice.

La première est l’objection de créativité. Les grands modèles de langage étant entraînés sur des données passées, ils seraient condamnés à reproduire les régularités de ces données et donc incapables de produire des ruptures conceptuelles. Les auteurs prennent l’exemple des frères Wright : un modèle entraîné à la fin du XIXe siècle, confronté aux échecs répétés du vol motorisé, aurait probablement conclu que l’entreprise était vouée à l’échec.

La seconde objection est celle de la monoculture intellectuelle. Si les systèmes d’IA deviennent des autorités épistémiques, les chercheurs et le public risquent de privilégier les questions et les méthodes que ces systèmes traitent bien, au détriment d’approches moins lisibles pour eux.

La troisième objection porte sur l’opacité : les modèles produisent des réponses sans être capables d’exposer fidèlement le chemin interne qui les a conduits à ces réponses. Ils peuvent fournir des justifications plausibles, mais celles-ci peuvent être reconstruites après coup et ne pas correspondre au véritable processus de production du résultat.

La réponse des auteurs consiste à déplacer le problème. Ces critiques sont sérieuses si l’on raisonne à propos d’un modèle unique. Elles perdent une grande partie de leur force si l’on raisonne à propos d’une communauté organisée de modèles. Une communauté diversifiée peut explorer davantage d’hypothèses, éviter de converger trop tôt vers une solution séduisante mais fausse, et répartir les rôles entre des agents prudents, orientés vers l’exactitude, et des agents plus spéculatifs, orientés vers l’innovation. La créativité n’est donc pas nécessairement une propriété individuelle ; elle peut être une propriété institutionnelle. Une communauté bien conçue peut produire de l’innovation en laissant coexister des approches conservatrices et des approches minoritaires à haut risque.

Le premier avantage des groupes diversifiés est l’élargissement du champ de recherche. Face à un problème complexe, un agent isolé explore le problème avec ses propres outils, ses propres données et ses propres biais. Plusieurs agents hétérogènes peuvent parcourir des régions différentes de l’espace des solutions. L’idée n’est pas seulement d’additionner des réponses, mais de permettre à un agent de faire apparaître une piste qu’un autre pourra ensuite développer. Les auteurs rapprochent ce mécanisme de la division du travail intellectuel dans les sciences : tous les chercheurs ne poursuivent pas la même hypothèse, et c’est précisément cette dispersion qui permet parfois de découvrir une solution inattendue.

Le deuxième avantage est la résistance à la convergence prématurée. Dans une communauté trop homogène, les premiers résultats encourageants peuvent figer la recherche autour d’une hypothèse dominante, même si elle est fausse. L’article illustre ce point par l’histoire des ulcères gastriques : pendant longtemps, l’explication dominante reposait sur l’excès d’acide, tandis que l’hypothèse bactérienne restait marginale. Si cette hypothèse dissidente avait disparu trop tôt, la véritable cause aurait été identifiée plus tardivement. Transposé à l’IA, l’argument est clair : une communauté de modèles diversifiés permet de maintenir des hypothèses concurrentes assez longtemps pour qu’elles soient réellement testées.

Le troisième avantage tient à la possibilité de séparer deux exigences souvent contradictoires : la fiabilité et l’audace. Un système conçu pour maximiser l’exactitude aura tendance à rester près des régularités établies. Un système conçu pour produire des hypothèses nouvelles aura plus de chances de se tromper. Il est difficile d’exiger d’un même agent qu’il soit simultanément très prudent et très inventif. En revanche, une communauté peut organiser cette tension : certains agents jouent le rôle de vérificateurs conservateurs, d’autres celui d’explorateurs spéculatifs. La valeur résulte alors de la structure collective, non de la perfection de chaque membre.

Cette approche permet aussi de répondre à l’objection de monoculture. Le risque n’est pas que l’IA soit par nature homogénéisante, mais que l’on construise et déploie des systèmes trop homogènes. Les auteurs proposent au contraire de créer des écosystèmes où la divergence est encouragée. Des modèles pourraient être entraînés sur des corpus différents, avec des architectures différentes, des objectifs différents et des priorités de raisonnement différentes. Il ne s’agirait pas seulement de faire varier les réponses, mais de faire varier les manières de raisonner. Une telle organisation pourrait réduire les angles morts communs et rendre l’ensemble moins vulnérable aux erreurs collectives.

L’objection d’opacité est également reformulée. Les auteurs contestent l’idée selon laquelle une bonne explication devrait nécessairement restituer le processus mental ou computationnel réel qui a produit une conclusion. Dans la science et dans le droit, une justification sert surtout une fonction sociale : elle permet aux autres d’examiner une thèse, de la critiquer, d’en identifier les présupposés, de demander des preuves et de proposer des alternatives. Une communauté d’agents d’IA pourrait produire ce type de justification non pas en révélant les poids internes d’un réseau neuronal, mais en rendant visibles les désaccords, les critiques croisées, les objections et les révisions entre modèles. L’explication pertinente serait alors le procès-verbal raisonné de la confrontation, plutôt qu’une impossible introspection technique.

Les auteurs distinguent cette vision de certains dispositifs existants. Les architectures dites « Mixture of Experts » ne suffisent pas, selon eux, car les « experts » qu’elles mobilisent restent généralement entraînés ensemble, dans un même cadre, avec une même fonction d’optimisation. Ils ne constituent donc pas une véritable communauté de raisonneurs indépendants. De même, demander à un modèle unique de jouer l’avocat du diable ne suffit pas : le modèle reste prisonnier de ses propres données, de ses propres régularités et de ses propres lacunes. La contradiction simulée par un seul modèle n’équivaut pas à une contradiction produite par des agents réellement différents.

L’article propose alors trois dimensions de diversité. La première est la stochasticité : un même modèle peut produire des sorties différentes selon les paramètres de génération, ce qui permet une première forme d’exploration. La deuxième est la perspective : par le prompt ou le rôle assigné, on peut amener un modèle à raisonner comme économiste, juriste, biologiste ou théoricien politique, et donc à privilégier des aspects différents du même problème. La troisième, plus profonde, est la constitution même des agents : données d’entraînement différentes, architectures différentes, méthodes différentes. C’est cette dernière forme qui produit la diversité la plus robuste, car elle réduit la probabilité que tous les agents commettent la même erreur pour les mêmes raisons.

Enfin, les auteurs insistent sur le fait que la diversité des agents ne suffit pas ; il faut aussi organiser leurs interactions. Ils envisagent plusieurs formes institutionnelles. À un premier niveau, des équipes plates peuvent fonctionner comme un jury ou un comité, où les agents discutent, votent, critiquent et corrigent les hallucinations. À un deuxième niveau, des hiérarchies peuvent répartir le travail : un agent directeur décompose un problème, assigne des tâches spécialisées, puis intègre les résultats. À un troisième niveau, de véritables écosystèmes scientifiques artificiels pourraient exister, avec des groupes concurrents, des mécanismes de publication, de révision, de réplication et de financement simulés. Dans cette perspective, l’ingénierie de l’IA ne viserait plus seulement à optimiser un modèle, mais à concevoir des institutions artificielles de production de connaissance.

Pour des avocats suisses généralistes, l’intérêt de l’article est double. D’une part, il invite à ne pas réduire l’IA à un outil individuel de réponse ou de prédiction. Les usages professionnels les plus solides pourraient venir de configurations multi-agents, où un modèle rédige, un autre critique, un troisième vérifie les sources, un quatrième adopte le point de vue adverse, et un cinquième contrôle la cohérence juridique. D’autre part, l’article rappelle une idée familière au droit : la qualité d’une décision dépend souvent moins de l’intelligence isolée d’un décideur que de la procédure contradictoire, de la pluralité des points de vue et des garanties institutionnelles entourant la décision. La thèse centrale est donc que l’IA transformatrice ne sera pas seulement une question de puissance de calcul, mais aussi une question d’architecture institutionnelle. L’avenir de l’IA, selon les auteurs, ne sera pas « un » modèle omniscient, mais une pluralité organisée de modèles imparfaits, spécialisés, contradictoires et complémentaires.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Philosophie, Techno-labrador, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire