L’IA et le paradoxe de Moravec

Repéré sur le site « AI as Normal technology », un billet d’Arvind Narayanan sur le paradoxe de Moravec.

J’ai déjà eu l’occasion ici de me faire l’écho d’autres de ses travaux  (https://droitdutravailensuisse.com/2025/04/22/lintelligence-artificielle-comme-technologie-normale/; https://droitdutravailensuisse.com/2025/12/15/depasser-lequite-algorithmique/; https://droitdutravailensuisse.com/2025/10/05/retour-sur-lintelligence-artificielle-comme-technologie-normale/), que je considère comme les plus intéressants et les plus créatifs qui soient pour ce qui est de l’approche générale de l’IA, bien loin du techno-solutionnisme ou du techno-luddisme de beaucoup d’auteurs.

Arvind Narayanan examine donc dans son post, Fact checking Moravec’s paradox : The famous aphorism is neither true nor useful, 29 janvier 2026 (https://www.normaltech.ai/p/fact-checking-moravecs-paradox) ce qu’on appelle le paradoxe de Moravec, souvent résumé ainsi : il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour l’IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). L’auteur soutient que cette formule, très répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non.

D’abord, il rappelle que le « paradoxe » n’a jamais été réellement testé de façon systématique. En théorie, on pourrait prendre un grand ensemble de tâches, mesurer à quel point elles sont difficiles pour des humains, mesurer à quel point elles sont difficiles pour des systèmes d’IA, puis regarder si l’on observe une corrélation négative (ce qui confirmerait l’idée). Mais, explique-t-il, le choix des tâches n’est pas neutre : quand des chercheurs affirment que le paradoxe « se vérifie », ils parlent en pratique des tâches qui intéressent la recherche et l’industrie de l’IA. Or il existe une multitude de tâches faciles pour tout le monde (humains et ordinateurs) qui n’attirent pas l’attention, et une multitude de tâches très difficiles pour tout le monde (humains et IA) dont on parle peu parce qu’il n’y a pas de progrès crédible. En se concentrant surtout sur les deux catégories « intéressantes » (les tâches humaines faciles mais encore difficiles pour l’IA, et les tâches humaines difficiles mais déjà faisables par ordinateur), on crée un effet de sélection qui donne l’impression d’une règle générale, alors qu’on a surtout filtré le reste.

Ensuite, l’auteur critique l’explication « évolutionniste » souvent associée au paradoxe. Dans la formulation originale, l’idée est que la perception et la motricité reposent sur des mécanismes très anciens, perfectionnés par une longue évolution, alors que le raisonnement abstrait serait une capacité plus récente et plus superficielle ; donc, paradoxalement, la perception et la motricité seraient ardues à reproduire, tandis que le raisonnement serait relativement accessible à la machine. L’auteur juge cette histoire séduisante mais douteuse, notamment parce que des chercheurs en IA avancent parfois des affirmations sur le cerveau et l’évolution sans base solide en neurosciences ou en biologie. Il souligne surtout que « le raisonnement » n’est pas un bloc unique et simple à isoler : dès qu’on sort de domaines fermés et entièrement définis (comme les règles d’un jeu d’échec ou de go), les systèmes de raisonnement symbolique ont historiquement montré une grande fragilité. Il cite l’idée générale que ces approches réussissent dans des démonstrations étroites, mais se comportent mal dans le monde réel, où les situations sont ouvertes, ambiguës et changeantes. De ce point de vue, le raisonnement utile dans des domaines ouverts – typiquement le droit, la recherche scientifique, la médecine, la gestion – exige du « bon sens », de la connaissance du monde, et des capacités d’adaptation qui ne se réduisent pas à appliquer des règles. Donc, même si l’IA peut être très performante dans certains tests ou domaines structurés, cela ne permet pas de conclure que le « raisonnement » en général est facile pour elle.

Le texte explique ensuite comment ce type de modèle simpliste a produit deux erreurs opposées. D’un côté, il alimente l’alarmisme : si l’on croit que le raisonnement est intrinsèquement facile pour l’IA, on peut conclure que l’IA deviendra bientôt « superhumaine » pour des tâches intellectuelles de haut niveau (découvrir des traitements médicaux, remplacer des experts, diriger des organisations, voire gouverner), ce qui nourrit des prédictions apocalyptiques de bouleversements imminents et des incitations de course aux investissements. L’auteur met en cause l’idée selon laquelle il suffirait d’injecter des moyens (par exemple, d’énormes infrastructures de calcul) pour obtenir automatiquement des résultats comme « guérir le cancer », sans analyser le lien concret entre l’outil et l’objectif. Il suggère aussi que certaines positions politiques ou industrielles extrêmes reposent sur cette croyance dans un « raisonnement » machine généralisable.

De l’autre côté, le paradoxe sert parfois de « fausse réassurance », surtout au sujet de la robotique : si l’on croit que les tâches sensorimotrices resteront forcément difficiles, on en déduit que les ruptures dans ces domaines ne peuvent pas arriver vite, donc qu’il n’y a pas d’urgence à s’y préparer. L’auteur considère que cette conclusion est aussi fragile que l’alarmisme inverse : une percée peut survenir, comme cela s’est produit pour la vision par ordinateur, longtemps citée comme exemple de compétence « facile pour l’humain mais difficile pour l’IA », avant l’amélioration rapide autour de 2012–2013 avec l’apprentissage profond et l’usage des GPU (Graphics Processing Units). Il ajoute un point important : des idées scientifiques peuvent exister longtemps avant que les conditions pratiques (matériel, données, organisation industrielle) permettent leur déploiement, ce qui rend les règles générales du type « c’est impossible » ou « c’est imminent » peu fiables.

Enfin, la conclusion pratique est que, pour s’adapter aux avancées de l’IA, il n’est pas nécessaire de prédire précisément quelle capacité va « percer » et quand. L’auteur insiste sur le fait que même lorsqu’une capacité technique existe, sa diffusion à grande échelle prend du temps, en partie parce qu’il faut des produits, des processus, des données, des règles, des infrastructures, et une acceptation sociale. Ce délai crée, en principe, une fenêtre d’action pour les décideurs et les organisations : on peut observer ce qui devient réellement utilisable, puis adapter le droit, les politiques publiques, la formation et les mécanismes de protection, au lieu de se reposer sur des aphorismes. Il illustre cette idée par des technologies dont l’adoption est lente et par l’exemple des véhicules autonomes : selon lui, on aurait dû travailler plus tôt sur les conséquences sociales et la transition, plutôt que d’attendre que les systèmes soient déjà sur les routes pour réagir dans l’urgence. L’enseignement général est donc double : se méfier des slogans qui prétendent dire, en une phrase, ce qui sera facile ou difficile pour l’IA ; et concentrer l’effort sur la préparation et l’adaptation à des capacités dont on constate l’arrivée progressive, plutôt que sur des prédictions abstraites.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire