Retour sur l’intelligence artificielle comme technologie normale

A propos de A.NARAYANAN/S.KAPOOR, A Guide to understanding AI as normal technology, 9 septembre 2025 (https://www.normaltech.ai/p/a-guide-to-understanding-ai-as-normal):

Le texte d’Arvind Narayanan et Sayash Kapoor propose un « guide » pour clarifier leur thèse de l’« IA comme technologie normale », thèse qui avait fait grand bruit à sa publication (https://knightcolumbia.org/content/ai-as-normal-technology et que j’ai résumée sur ce blog ici : https://droitdutravailensuisse.com/2025/04/22/lintelligence-artificielle-comme-technologie-normale/), préciser ce qu’elle n’implique pas, et la situer face au courant « AI 2027 ». Les auteurs annoncent aussi un recentrage de leur newsletter, rebaptisée pour refléter ce cadre, et un projet d’ouvrage prévu pour 2027.

Leur objectif est de répondre aux points de confusion suscités par l’essai initial, d’en reformuler l’argument en langage accessible, et d’examiner les conséquences pratiques pour l’économie, le travail, la sécurité et les politiques publiques. Pour des praticiens du droit en Suisse, ce texte offre un fil conducteur pour distinguer les progrès techniques d’IA de leurs effets sociaux et juridiques, et pour penser la régulation dans une perspective d’adaptation plutôt que d’exceptionnalisme catastrophiste.

Les auteurs insistent d’emblée sur ce que « normal » ne veut pas dire. Il ne s’agit ni de banaliser l’IA, ni de prétendre que ses impacts seraient prévisibles ou mineurs. Comme pour l’automobile ou les réseaux sociaux, les effets sociaux émergent d’interactions complexes entre technologies et usages, et ne se déduisent pas du « plan » technique. L’essor des compagnons conversationnels et certains effets indésirables, comme des phénomènes de « flagornerie conduisant à des dérives psychologiques, ont surpris, tandis que d’autres risques fréquemment annoncés — par exemple une manipulation électorale massive — ne se sont pas matérialisés à court terme. Dans un tel contexte, la bonne approche de politique publique n’est pas la prédiction exhaustive, mais la résilience institutionnelle : se préparer à réagir vite à des effets imprévus, y compris diffus, sans présumer qu’ils puissent être éliminés par une maîtrise technique en amont.

La thèse est ensuite reformulée en termes causaux. Entre la hausse des capacités techniques et l’impact social s’étire une longue chaîne : ce n’est pas la mise au point d’un modèle qui produit les bénéfices et risques, mais sa mise en usage dans des organisations, des marchés et des cadres réglementaires. Cela multiplie les leviers d’action pour orienter les effets : normes, dispositifs de contrôle, conception des produits, formation des usagers, gouvernance interne, responsabilité juridique, etc. Même dans des hypothèses de « self-improvement », beaucoup de limites pertinentes sont externes aux systèmes (ressources, intégration, contraintes légales et économiques) et ne disparaissent pas parce que l’algorithme s’améliore. Les auteurs revendiquent une « ligne d’horizon » : au-delà d’un futur moyen terme qu’ils décrivent, il serait vain de projeter des scénarios trop spéculatifs, comme si l’on avait voulu prédire l’électricité dès les débuts de l’industrialisation.

Ils soulignent aussi le caractère presque « tautologique » de ce cadre pour qui raisonne déjà ainsi : il ne classe pas des technologies en « normales » et « anormales », il propose de traiter l’IA comme une technologie générale parmi d’autres, avec des effets puissants mais médiés par la mise en œuvre. Cette explicitation se justifie parce qu’elle s’oppose à une vision de « superintelligence imminente ». À cet égard, le regain d’intérêt pour leur essai après le lancement de GPT-5 est jugé révélateur : faire varier sa croyance sur la base d’une sortie de produit est une mauvaise boussole. GPT-5 illustre surtout un basculement des laboratoires vers l’usage et le produit (par exemple un « commutateur » automatique vers le meilleur mode pour l’utilisateur), plutôt qu’un saut d’aptitude brute ; et cette focalisation sur l’adoption s’accompagne d’efforts d’intégration chez les clients (p. ex. ingénieurs déployés auprès d’industriels).

Ils expliquent ensuite pourquoi il est difficile de « couper la poire en deux » entre leur cadre et celui d’« AI 2027 ». Les deux approches forment des visions cohérentes, mais incompatibles, de la causalité technologique et sociale ; bricoler un « entre-deux » produit souvent des contradictions. Et qualifier leur thèse de « sceptique » est un contresens : dès l’incipit, l’IA est comparée à l’électricité, avec des effets profonds, notamment sur le travail. Le « milieu raisonnable » recherché par beaucoup se trouve, selon eux, en lisant l’essai complet : c’est précisément une position ambitieuse sur les impacts, mais non exceptionnaliste quant à la dynamique d’adoption.

Conscients de l’écart entre visions, les auteurs notent des terrains d’accord possibles, y compris avec des signataires d’AI 2027, et plaident pour des coopérations sur des mesures concrètes. Plutôt que de se perdre dans des prophéties non falsifiables, ils promeuvent la mesure rigoureuse du présent et des « seuils de capacité » réellement atteints. Leur projet HAL (Holistic Agent Leaderboard) vise moins la prédiction que la veille sur les capacités d’agents dans des domaines précis, pour détecter les franchissements qui pourraient conditionner des effets réels. Ils avertissent que ces seuils sont nécessaires mais pas toujours suffisants : même atteints, ils doivent se confronter aux verrous organisationnels, économiques et juridiques pour produire des transformations.

Cette difficulté de dialogue se voit aussi dans leur réponse à Scott Alexander. Là où ce dernier fait de l’« amélioration récursive » un pivot, Narayanan et Kapoor la mentionnent à peine, non par oubli, mais parce qu’à leurs yeux les goulets d’étranglement externes — ressources, intégration, contraintes sectorielles, responsabilité — ne disparaissent pas avec une simple optimisation interne du système. En l’état, la communauté serait loin d’un tel scénario ; et, plus largement, la recherche en IA n’a rien d’évident dans la découverte de « nouveaux paradigmes ». Ici encore, ils préfèrent accumuler des observations solides plutôt que d’enchaîner des anticipations spéculatives.

Ils formulent toutefois des hypothèses testables sur les domaines où l’IA dépasserait radicalement l’humain. Contrairement aux jeux combinatoires comme les échecs, ils estiment que peu de tâches cognitives du monde réel se prêtent à un dépassement écrasant. Deux cas sont mis en avant : la prévision d’événements géopolitiques et la persuasion pour amener des personnes à agir contre leurs intérêts. Leur pronostic est que des humains entraînés — notamment en équipe et outillés de méthodes simples — resteront, en moyenne, difficiles à « distancer » de façon décisive. Ils rejettent l’argument des « limites biologiques » : les performances humaines ne sont pas fixées par la biologie, mais par la capacité à maîtriser des outils, y compris l’IA. L’« erreur irréductible » en prévision varie avec la qualité des données (p. ex. sondages) et de la formation ; des progrès d’IA peuvent améliorer simultanément les côtés humain et machine de la comparaison.

Sur les implications, ils distinguent nettement économie/travail et sécurité. Côté économique, l’idée centrale est que l’amélioration des capacités ne dissipe pas magiquement les obstacles de diffusion. Côté sécurité, ils soutiennent qu’un « contrôle sans alignement » est souvent atteignable par des moyens prosaïques de gouvernance, d’ingénierie de systèmes et d’encadrement, sans percées scientifiques inédites. Ces deux fils d’argumentation sont indépendants : on peut être convaincu par l’un et non par l’autre. Les retours de terrain de responsables « IA » dans divers secteurs valident surtout l’intuition diffusionniste : leurs difficultés et arbitrages concernent moins le modèle que le produit, l’usage, la conformité et l’intégration.

Pour structurer ces enjeux, les auteurs déplient le continuum en quatre étapes : du modèle au produit, puis de l’acculturation des utilisateurs à l’adaptation organisationnelle, réglementaire et juridique. Chacune impose des limites de vitesse. Les courbes d’apprentissage des individus sont lentes mais prévisibles ; les changements de structure, de processus, de responsabilité ou de statut légal sont plus incertains, plus politisés et souvent plus lents. L’exemple de la modernisation du contrôle aérien, enfermée dans des technologies vieillissantes malgré des coûts manifestes, illustre ces inerties. Appliqué à l’IA — y compris dans des professions régulées comme le droit ou la santé —, cela signifie que les tâches qu’automatise bien un modèle ne sont pas nécessairement le « goulot » du service, et que les gains de productivité peuvent s’éroder dans des dynamiques concurrentielles sans bénéfice social net.

Vient ensuite la controverse sur la vitesse de diffusion. Les « boosters » affirment une adoption fulgurante ; les auteurs contestent et dénoncent des confusions. Déployer une capacité dans une interface populaire n’est pas la diffuser. Mesurer l’accès ne suffit pas ; il faut mesurer l’usage effectif, sa durée, sa variété et son intégration dans le travail. Un an après l’introduction des « modèles pensants » dans un chatbot grand public, moins d’un pour cent des utilisateurs quotidiens les utilisaient : l’écart entre bruit médiatique et adoption profonde est ici manifeste. Les statistiques d’« usage dans des domaines à risque » sont souvent trompeuses : quand une majorité de médecins déclarent utiliser l’IA, cela inclut la simple transcription de dictées, et, pour les demandes d’« avis secondaire », la progression reste marginale. Des garde-fous redondants — responsabilité professionnelle, codes de déontologie, cadres réglementaires — limitent de toute façon les délégations imprudentes.

Le « mème » le plus répandu sur l’adoption serait la courbe des « 100 millions d’utilisateurs » atteints en deux mois par un service grand public d’IA. La comparaison avec des réseaux sociaux (qui dépendent d’effets de réseau), avec un service musical initialement sur invitation, ou avec une plateforme d’abonnement à catalogue réduit, est jugée non probante. Elle capte surtout un pic d’essai par des curieux attirés par un buzz sans précédent ; un an plus tard, le plateau à environ « 200 millions d’utilisateurs hebdomadaires » signale une inflexion. Surtout, deux mois ne suffisent pas pour observer les « parties dures » de la diffusion : réécriture des processus, formation, re-partition des responsabilités, mise en conformité, achat, maintenance, assurance, etc. Qu’un graphique soit spectaculaire n’en fait pas un indicateur pertinent pour le juriste, le dirigeant ou le régulateur qui s’interroge sur l’intégration réelle.

Pourquoi, alors, cette adoption « semble-t-elle » fulgurante ? Les auteurs admettent leur propre révision : ce n’est pas qu’un biais cognitif du présent. Une raison structurelle existe : le déploiement est désormais instantané. Autrefois, l’accès progressif à l’internet, au matériel et aux contenus « amortissait » les décisions d’adoption ; aujourd’hui, chaque nouveauté logicielle se présente immédiatement à des millions d’usagers qui doivent trancher sans délai, sous la pression sociale ou managériale de « ne pas rater le train ». Cela accélère le ressenti, même si la véritable diffusion — appropriation stable, reconfiguration des organisations, sécurité juridique — reste beaucoup plus lente et accidentée. En d’autres termes, la suppression d’un goulot (le déploiement) a peut-être un peu accéléré la diffusion, mais a surtout supprimé le « tampon » psychologique qui la rendait moins heurtée.

En conclusion, l’IA ne va pas « s’éclipser » ni devenir un sujet de niche. Passé le choc initial de la génération 2022-2024, il faut des cadres robustes pour penser l’atterrissage social et juridique. La « technologie normale » en est un : un point de départ historiquement informé pour comparer, cas par cas, des scénarios plus exceptionnalistes. Il fournit une boussole d’action aux dirigeants, aux travailleurs, aux étudiants, aux spécialistes d’éthique et de sécurité, et aux pouvoirs publics. Pour des avocats suisses, ce cadre invite à déplacer le regard : des promesses de capacités vers les conditions d’usage, de gouvernance et de responsabilité ; des prophéties vers la mesure et l’expérimentation prudente ; du fantasme d’une « rupture » totale vers l’articulation entre innovation et institutions. C’est là que se joueront les arbitrages concrets de conformité, de responsabilité civile et pénale, de preuve, de protection des données, de concurrence et de droit du travail.

Enfin, les auteurs signalent des prolongements : conférences, débats publics, échos médiatiques et travaux à venir, tout en réaffirmant leur préférence pour des échanges moderés et outillés plutôt que des polémiques. Le message général reste constant : cesser d’indexer l’action sur l’annonce du « prochain modèle », concentrer l’effort sur la transformation des usages, les réformes organisationnelles et réglementaires réellement nécessaires, et doter la communauté — y compris juridique — d’instruments de mesure et de surveillance des capacités utiles. Autrement dit, faire de l’IA un objet de droit et de politique publique « normal » : sérieux, exigeant, et traité avec la lucidité qu’on réserve aux technologies puissantes mais gouvernables.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire