L’intelligence artificielle comme technologie normale

Introduction générale

Dans leur essai « AI as Normal Technology » (https://knightcolumbia.org/content/ai-as-normal-technology), Arvind Narayanan et Sayash Kapoor proposent une reconfiguration du débat public et politique sur l’intelligence artificielle (IA). Ils proposent de considérer l’IA non pas comme une entité émergente potentiellement autonome et superintelligente, potentiellement menaçante, mais simplement comme une technologie normale, comparable aux grandes technologies de transformation sociétale du passé telles que l’électricité ou Internet. Cette conception entend se départir des scénarios extrêmes – utopiques ou dystopiques – qui dominent actuellement la discussion, en particulier dans les milieux influencés par les visions transhumanistes ou par le mouvement de l’ »AI safety ».

Cette perspective est triplement normative, descriptive et prospective : elle décrit l’IA actuelle, propose une vision probable de son avenir et prescrit une approche politique et sociale prudente, sans verser dans l’alarmisme.

I. Une trajectoire technologique comparable aux révolutions passées

Les auteurs commencent par distinguer trois étapes cruciales de l’innovation technologique : les méthodes (développement fondamental), les applications (produits concrets) et l’adoption (diffusion sociale). Dans le cas de l’IA, si les progrès méthodologiques sont rapides – notamment avec l’essor des modèles de langage comme GPT-4 – la diffusion, surtout dans les domaines critiques comme la médecine, le droit ou l’éducation, reste lente. Cela est dû à un certain nombres de freins et de « bottlenecks » tels que les contraintes réglementaires, institutionnelles et organisationnelles, mais aussi l’organisation du travail, le gouffre entre progrès et mise en œuvre, d’autres facteurs encore, qui rendent peu probables, sauf dans certains secteurs très particuliers, une transformation radicale et rapide du monde.

Cette lenteur de diffusion est structurante : elle limite les effets disruptifs de l’IA dans l’immédiat, contrairement à ce que certains scénarios « d’explosion de l’intelligence » suggèrent. En prenant l’exemple de la prédiction de la septicémie par un algorithme hospitalier, les auteurs montrent que des erreurs conceptuelles dans la modélisation peuvent conduire à des résultats contre-productifs, voire dangereux, soulignant les limites de l’automatisation dans des contextes à haut risque.

Le parallèle avec l’électrification industrielle est éclairant : comme au XIXe siècle, les gains de productivité dus à l’électrification ont mis des décennies à se concrétiser, car ils ont nécessité des transformations profondes des structures d’organisation du travail.

II. Repenser le rôle humain dans un monde avec IA avancée

Narayanan et Kapoor contestent les notions d’ »intelligence » ou de « superintelligence » comme cadre explicatif pertinent pour comprendre l’évolution de l’IA. Ils leur préfèrent les concepts de « capacité » et de « pouvoir » (power), au sens de la faculté d’agir sur le monde. Ainsi, l’IA ne devient problématique que si elle concentre un pouvoir hors de contrôle humain, et non en raison d’un quelconque statut cognitif supérieur.

Ils rejettent l’hypothèse d’une rupture nette dans la distribution des capacités entre humains et IA. L’humain, appuyé par des outils intelligents, reste le centre de la décision et du contrôle. Il s’ensuit que la majorité des emplois humains évolueront vers des tâches de spécification et de supervision de l’IA. C’est l’humain qui définit les objectifs, vérifie les sorties, corrige les dérives et garantit la conformité aux normes légales, éthiques et pratiques.

Des exemples comme la conduite de camions montrent que les tâches réellement difficiles à automatiser sont celles qui exigent de la coordination humaine, des ajustements en temps réel, de la maintenance, des interactions sociales ou encore une adaptation aux imprévus.

III. Les risques de l’IA reconsidérés à la lumière de sa normalité

Les auteurs consacrent un pan entier de leur démonstration à la critique de la hiérarchisation des risques dans les discours dominants sur l’IA. Ils identifient cinq grandes catégories de risques :

Accidents : erreurs de fonctionnement dues à une mauvaise conception ou un déploiement prématuré. Ces risques sont comparables à ceux d’autres technologies complexes (nucléaire civil, transport aérien) et peuvent être maîtrisés par des approches classiques de régulation, d’audit et de normes, comme ils le furent dans le passé.

Courses aux armements entre acteurs privés ou nation : il ne s’agit pas ici du domaine militaire (qui est hors champ de leur étude) que des dynamiques commerciales où des entreprises et/ou des pays négligeraient la sécurité au profit de la rapidité de mise sur le marché. Ces dynamiques sont déjà observées dans les secteurs de la voiture autonome ou des réseaux sociaux, et peuvent faire l’objet de réponses distinctes qui ne sont pas propres à l’IA.

Mauvais usage : les risques viennent moins de la technologie que de ses usagers. L’IA utilisée dans le phishing ou la désinformation n’est pas en elle-même malveillante : c’est le contexte de son déploiement qui détermine sa dangerosité. Le renforcement des défenses « en aval » (surveillance, sécurité informatique, éducation) est donc plus pertinent que l’alignement des modèles. Par ailleurs restreindre les outils issus de l’IA par peur de ses mauvais usages revient à de priver de leur utilisation pour les bons : l’utilisation de l’IA de manière défensive dans le domaine de la cybersécurité est ici tout à gait convaincant.

Désalignement : les scénarios de type « paperclip maximizer » (IA transformant tout en trombones pour optimiser une fonction mal spécifiée) sont jugés spéculatifs. Les auteurs soulignent que toute technologie passe par des phases sectorielles d’évaluation progressive avant d’être déployée à grande échelle.

Risques systémiques non catastrophiques : ce sont les plus probables selon les auteurs. Inégalités accrues, précarisation du travail, surveillance de masse, concentration du pouvoir technologique, déstabilisation démocratique : ces dérives ne relèvent pas d’une IA malveillante, mais d’une IA normalement utilisée dans un cadre capitaliste peu régulé. Un parallèle avec l’histoire et les effets de l’industrialisation est ici tout à fait éclairant. Cela étant dit, d’autres parallèles historiques peuvent aussi être dressés pour établir qu’une intervention mesurée, sectorielle, est à même de limiter ces risques systémiques, pour autant qu’il s’agisse de favoriser la résilience plutôt que la non prolifératiom.

IV. Politiques publiques : de la précaution à la résilience

En matière de régulation, Narayanan et Kapoor recommandent de privilégier une politique de résilience plutôt que de non-prolifération. La première consiste à renforcer les capacités institutionnelles, à favoriser la transparence, à développer l’accès aux outils IA et à prévenir la concentration excessive du pouvoir technologique.

À l’inverse, les politiques de type « interdiction des modèles au-delà d’un certain seuil de capacité », prônées par certains partisans de la régulation forte, sont vues comme contre-productives : elles risquent de renforcer les monopoles, de freiner les innovations utiles, et paradoxalement d’augmenter les risques en rendant la société moins adaptable, y compris pour les usages bénéfiques ou défensifs de l’IA.

Les auteurs plaident pour une gouvernance distribuée, sectorielle, inspirée des régulations existantes dans l’aviation, la santé ou la finance, adaptées aux spécificités de chaque domaine.

Ils insistent également sur les limites d’une approche probabiliste ou utilitariste fondée sur l’évaluation des « risques existentiels » : les incertitudes sont trop nombreuses, les valeurs morales trop divergentes, et les effets systémiques trop complexes pour être capturés dans un modèle de calcul de l’utilité attendue.

Conclusion : un appel à la lucidité sans catastrophisme

Le cadre proposé par Narayanan et Kapoor est stimulant: il déconstruit les analogies abusives entre IA et intelligence humaine, relativise les scénarios de rupture radicale et propose une vision plus enracinée dans les réalités socio-économiques. À l’image des révolutions industrielles passées, l’IA est appelée à transformer profondément les sociétés, mais lentement, et selon des dynamiques complexes. Pour les juristes suisses, ce cadre incite moins d’inventer un droit de l’IA que d’adapter les dispositifs existants, d’anticiper les usages réels, de modifier le droit là où c’est souhaitable de manière décentralisée, et de promouvoir un équilibre entre innovation, équité et sécurité.

L’article est par ailleurs rempli d’observations intéressantes au fil de son développement, qu’il serait vain de restituer ici. Une mention toutefois pour la catégorie à haut risque de certains systèmes d’IA, mise en avant la par le Règlement européen – les auteurs montrent bien (mais en passant…) que le risque peut être inégalement partagé au sein de chque catégorie!

[Arvind Narayanan et Sayash Kapoor sont aussi les auteurs – parmi de nombreuses autres publications –  de AI as Snake Oil, Princeton, 2024, qui est pour moi la meilleure introduction que je connaisse à l’intelligence artificielle, ses usages, son histoire, ses succès… et ses échecs, dans une approche pragmatique, argumentée et factuelle.]

Me Philippe Ehrenström, avocat, LLM

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire