IA et droit: pour une spécialisation des entités non humaines

Dans la marée toujours montante des publications sur l’IA, quelques réflexions tirées de E.-M.MAHMDI/L.-N.HOANG/M.TIGHANIMINE, A Case for Specialisation in Non-Human Entities, arXiv :2503.04742v2 [cs.CY] 21 août 2025 (https://arxiv.org/abs/2503.04742), qui est une des contributions les plus intéressantes de 2025 :

L’article est un plaidoyer pour la spécialisation des entités non humaines, qu’il s’agisse d’algorithmes ou d’organisations, et pour une forme de «spécification» juridique et technique plus fine des tâches qui leur sont confiées.

Les auteurs rappellent d’abord que, sur le plan théorique, toute capacité générale n’est qu’une composition d’un grand nombre d’opérations spécialisées, comme l’avaient déjà formalisé Church et Turing. Mais, dans la pratique, cette granularité est masquée: l’utilisateur final interagit avec un système présenté comme «général» – un grand modèle de langage, une suite intégrée – sans voir la multitude de « briques spécialisées » qui le composent. Les développeurs eux-mêmes souffrent de cette «cécité de la spécialisation» lorsqu’ils s’appuient sur des bibliothèques très générales, par exemple un LLM, plutôt que sur des modules plus ciblés (un solveur d’optimisation, une bibliothèque de chiffrement). Ils gagnent en puissance apparente, mais perdent en compréhension réelle de ce que fait le système, de ses limites d’usage et de ses risques. Le texte insiste sur cette idée: la collaboration et la complexité imposent une forme de cécité, mais l’enjeu est d’organiser cette collaboration de manière à ce qu’elle devienne un atout plutôt qu’un risque, ce qui suppose de bien définir les spécialisations.

Vient ensuite un travail de clarification conceptuelle autour de la «généralité». Du point de vue de l’AI Act, un système est général s’il est conçu pour de nombreux cas d’usage. Mais cette notion est trompeuse: un même modèle de langue utilisé pour traduire des messages sur un réseau social peut être présenté comme outil de «traduction», comme élément d’une plateforme de «réseaux sociaux» ou comme simple moteur de prédiction du prochain token. Plus on définit finement la tâche, moins le système paraît «général». D’autres acteurs adoptent une définition financière: est «AGI» ce qui peut générer des centaines de milliards de revenus, ce qui met alors sur le même plan, voire au-dessus, des systèmes comme des algorithmes de trading  ou de publicité ciblée.

Les auteurs proposent donc une définition plus opérationnelle: regarder le nombre de tâches distinctes qu’un système met à disposition de l’extérieur, par exemple à travers ses API. Un système est «général» si le catalogue de tâches accessibles à des utilisateurs ou à des agents est large et varié; un système est «spécialisé» s’il offre peu de services, bien définis, même si, à l’intérieur, il peut être extrêmement complexe. Dans ce cadre, la montée des «AI agents» et du Model Context Protocol, qui autorisent un modèle à appeler toute une série d’outils via API, représente précisément une tendance à donner à un seul agent une très grande latitude d’action, que les auteurs jugent préoccupante.

Avant de défendre la spécialisation, l’article passe en revue les arguments classiques contre la division du travail et la spécialisation, pour montrer qu’ils sont peu pertinents pour les entités non humaines.

Sur le terrain des sciences sociales du travail, la critique de Taylor et de l’ultra-spécialisation porte sur les effets humains: travail en «miettes», perte de sens, atteintes à la santé physique et psychique, ennui, démotivation. Ces critiques sont décisives pour protéger les travailleurs, mais elles ne s’appliquent pas aux algorithmes. Même si l’on peut débattre de leur statut d’«agents moraux», les auteurs rappellent qu’ils ne sont pas des «patients moraux» que le droit devrait protéger pour leur propre bien-être.

En économie, on invoque souvent les vertus de l’intégration verticale et des effets de réseau pour justifier des plateformes très intégrées: internaliser toute la chaîne de valeur peut réduire certains coûts de transaction, permettre une meilleure coordination des investissements et profiter, comme chez les géants du numérique, de puissants effets de réseau. Mais ces arguments raisonnent du point de vue de l’entreprise intégrée, non de celui de tous les acteurs dépendants de cette infrastructure. Ainsi et par exemple une infrastructure cloud très intégrée peut créer un risque systémique: une intrusion réussie affecte potentiellement toute la base de clients et pas seulement un maillon isolé. À l’échelle d’un État, la volonté de souveraineté numérique peut certes pousser à internaliser davantage, mais pour les autres acteurs qui dépendent de cet écosystème, l’hyper-généralité augmente les risques de dépendance et de concentration de pouvoir.

Un autre argument en faveur de la généralité vient des statistiques et de l’apprentissage automatique. En simplifiant, lorsqu’on estime séparément des paramètres sur plusieurs sous-ensembles de données, il existe souvent un estimateur «global» qui, en agrégeant les données de tous les groupes, obtient une erreur moyenne plus faible sur chacun d’eux. C’est ce qui fonde l’idée que l’on apprend mieux sur «toutes les données du web» plutôt que sur un corpus ciblé. Mais cette vision néglige deux éléments essentiels dans le contexte des IA contemporaines: le coût computationnel et la toxicité potentielle des données. D’une part, un estimateur global peut être trop coûteux ou complexe à mettre en œuvre, ce qui justifie que la science elle-même se soit organisée historiquement en communautés spécialisées. D’autre part, cet argument statistique suppose que toutes les données sont «saines». Avec des données hétérogènes issues du web, se posent des problèmes de vie privée, de dé-anonymisation, de données erronées, biaisées ou malveillantes. La centralisation statistique qui améliore l’erreur moyenne peut, en contrepartie, faciliter des attaques par empoisonnement, des fuites de données et des biais massifs dans les systèmes de recommandation ou de génératifs.

Sur cette base critique, les auteurs développent plusieurs arguments positifs en faveur de la spécialisation des entités non humaines.

Le premier vient de la robustesse et de la sécurité en apprentissage automatique. Plus un modèle est grand, avec un nombre de paramètres élevé, plus il est vulnérable sur plusieurs plans: la protection de la vie privée via des techniques de type «differential privacy» exige d’ajouter du bruit sur (quasi) tous les paramètres, ce qui devient difficile à calibrer à l’échelle des grands modèles; la détection et la suppression de points de données empoisonnées est plus difficile en haute dimension, car les données «honnêtes» sont elles-mêmes très dispersées; l’augmentation de la fenêtre de contexte augmente la surface d’attaque pour des «jailbreaks» et des injections de prompt sophistiquées. En parallèle, la quête de généralité pousse à entraîner ces modèles sur des corpus extrêmement hétérogènes issus de crawls du web, où se mêlent données sensibles et contenus malveillants. Plus la diversité des cas d’usage visés est grande, plus il devient difficile d’identifier et de filtrer ces éléments problématiques. L’article fait le lien avec une littérature croissante qui montre une corrélation directe entre hétérogénéité des données et vulnérabilités adversariales.

Le second argument vient de l’ingénierie des systèmes complexes. Depuis des décennies, la pratique de l’ingénierie logicielle repose sur l’abstraction, la modularisation et la séparation des préoccupations. Découper un système en modules spécialisés permet de développer, tester, auditer, voire démontrer mathématiquement la correction de chaque partie de manière indépendante. Définir clairement ce que chaque module fait – et ce qu’il ne fait pas – permet aussi d’appliquer de manière efficace le principe du «moindre privilège». Si un module est compromis, les dégâts restent circonscrits aux privilèges qui lui ont été accordés. Les auteurs rapprochent cette approche de principes juridiques et politiques bien connus des juristes, comme la séparation des pouvoirs ou le principe de subsidiarité: plutôt que de concentrer tous les pouvoirs dans une entité unique, on répartit les compétences entre entités spécialisées, chacune agissant au niveau le plus pertinent, avec des mécanismes de contrôle croisé. La modularisation permet aussi de créer des redondances interopérables: plusieurs implémentations différentes d’un même module peuvent coexister, ce qui limite le risque de défaillance d’un fournisseur unique et atténue les effets de réseau excessifs typiques des grandes plateformes.

Viennent ensuite des arguments économiques et sociologiques classiques, réinterprétés pour les entités non humaines.

En économie, depuis Adam Smith, la division du travail est associée à des gains de productivité: fragmenter un processus en opérations simples, effectuées par des agents spécialisés, permet d’augmenter la production et de réduire les temps morts. Ricardo, avec la théorie des avantages comparatifs, montre même qu’un agent «moins efficace partout» peut malgré tout contribuer à accroître la production globale s’il se spécialise dans les tâches où son désavantage relatif le plus faible. Ces raisonnements s’appliquent aussi aux algorithmes et organisations: il est plus rationnel, du point de vue collectif, de faire coopérer plusieurs entités spécialisées plutôt que de miser sur un «super-système» qui ferait tout, au prix de risques élevés de défaillance systémique et de verrouillage de marché. Sur le plan sociologique, Durkheim voit dans la division du travail la source de formes nouvelles de solidarité, dites «organiques», fondées sur la différenciation et l’interdépendance des rôles. Transposé au monde numérique, cela plaide pour des «corps intermédiaires» de systèmes et d’organisations spécialisées, capables de définir des standards, de mutualiser des bonnes pratiques et de défendre des intérêts sectoriels face à de très grands acteurs généralistes.

Un exemple historique sert d’avertissement: celui des «company towns» des XIXe–XXe siècles, ces villes-usines où une même entreprise contrôlait l’emploi, le logement, les commerces, les services de santé, parfois l’école et la vie religieuse. Sur le papier, ce modèle généraliste promettait sécurité et commodité; en pratique, il a souffert de nombreux problèmes: inégalités de traitement entre catégories de travailleurs, incapacité à tenir toutes les promesses de service, difficulté de supervision et d’exercice simultané de multiples rôles (employeur, logeur, quasi-État). Sur le plan politique, ce modèle revenait à substituer la loi et les institutions publiques par les pratiques d’une entreprise privée, rompant avec un long processus historique de spécialisation des fonctions (État, communes, professions). Les auteurs y voient un parallèle avec le rêve contemporain de l’«everything app» ou d’une AGI intégrée à tous les niveaux: une concentration de tâches, de pouvoirs et de dépendances qui, historiquement, a montré sa fragilité et sa dangerosité.

Dans une dernière grande étape, l’article lie étroitement spécialisation et «spécification». Spécialiser un système, c’est une chose; encore faut-il pouvoir dire précisément ce pour quoi il est fait, dans quelles conditions il est sûr, et quelles garanties il offre. Un premier niveau est celui de la documentation: notices d’utilisation, fiches de modèles (model cards), fiches de jeux de données (datasheets), qui décrivent objectifs, limites, contextes d’usage autorisés ou déconseillés. Mais la recherche d’une adoption virale et d’une ergonomie maximale pousse à minimiser l’effort demandé à l’utilisateur; très peu de gens lisent la documentation de systèmes comme ChatGPT. Cela favorise les déploiements inappropriés de systèmes généraux dans des contextes pour lesquels ils n’ont ni été conçus ni évalués. Les auteurs rappellent ensuite qu’en génie logiciel, la spécification peut être intégrée à la structure même des programmes grâce aux systèmes de types sophistiqués de langages modernes: un programme ne compile que s’il respecte un certain contrat sur ses entrées et sorties, et ces mêmes types peuvent empêcher des usages incorrects d’une bibliothèque. À un niveau plus avancé, des techniques de «verifiable computing» et de preuves succintes permettent à une machine puissante de prouver à un vérificateur faible qu’un calcul a été correctement effectué, sans exposer tout le détail du calcul ni, potentiellement, les données sous-jacentes. Des travaux récents adaptent ces techniques au machine learning, pour vérifier aussi bien l’entraînement que l’inférence, ouvrant par exemple la voie à des preuves que certains modèles ont bien été entraînés dans le respect des contraintes légales de l’AI Act, sans divulguer les jeux de données ou le code exact.

Les auteurs soulignent cependant deux limites structurelles de toute politique de spécification. Premièrement, certaines tâches ont une complexité de description telle qu’il est pratiquement impossible d’en écrire une spécification complète et exploitable. Le simple exemple de l’AI Act lui-même, long mais encore loin d’une formalisation exhaustive et exempt d’ambiguïtés, montre l’ampleur du problème. Deuxièmement, sur de nombreux sujets, notamment la modération de contenus, la recommandation d’informations, la «bonne» complétion de texte, il n’existe pas de consensus social clair et stable sur la spécification à adopter; les préférences sont hétérogènes au sein de la population et évoluent dans le temps. Le risque d’«hypertélie» est également évoqué: comme en biologie où certains organes se spécialisent à l’excès au point de devenir nuisibles à l’espèce, des outils techniques trop finement adaptés à un contexte ou un objectif peuvent perdre toute capacité d’adaptation dès que le contexte change. Avec l’automatisation, la granularité des spécialisations peut devenir extrêmement fine, au risque de fabriquer une prolifération de micro-algorithmes sur-spécialisés, dont personne ne maîtrise plus la cohérence d’ensemble.

C’est pourquoi les auteurs proposent de déplacer en partie la question, du «quoi» vers le «comment»: plutôt que prétendre spécifier complètement certaines tâches ouvertes, il faut spécifier la gouvernance qui encadre la manière dont les règles applicables à ces tâches sont décidées, révisées, contestées. Le parallèle est fait avec le droit pénal: au lieu de laisser un juge omnipotent fixer librement les peines, les sociétés se sont dotées de constitutions et de procédures détaillées pour l’édiction et la modification des lois, la révision des décisions, la répartition des pouvoirs. De la même manière, pour des algorithmes de recommandation, de filtrage, d’allocation de ressources, il devient crucial de définir des mécanismes de gouvernance: qui participe à la définition des critères? avec quel poids? selon quelles procédures de vote ou de délibération? quelle transparence? quelle possibilité de recours? Le texte recense plusieurs travaux qui expérimentent des formes d’«algorithmic governance», où différentes parties prenantes (donateurs, bénéficiaires, plateformes, usagers) participent à la définition des règles que l’algorithme doit suivre, selon des procédures précisément spécifiées et parfois combinant apprentissage statistique et expression directe de préférences.

La conclusion revient à la question initiale. Si l’on s’intéresse aux entités non humaines, les classiques critiques de la spécialisation perdent beaucoup de leur force, alors que se renforcent les arguments en termes de sécurité, de robustesse, de contrôle démocratique et de valeur industrielle. L’article plaide donc pour des architectures d’IA et des cadres réglementaires qui privilégient des systèmes spécialisés, bien documentés et, autant que possible, formellement spécifiés, dotés de privilèges limités et insérés dans des chaînes socio-techniques modulaires. Pour les tâches où une telle spécification est impossible ou socialement contestée, la priorité devrait être donnée à la spécification de la gouvernance: procédures, organes, règles de décision qui encadrent l’usage et l’évolution de ces systèmes. À rebours de l’obsession pour l’AGI et les systèmes «qui font tout», les auteurs invitent à construire un écosystème d’entités non humaines spécialisées, combinant des garanties techniques issues de l’ingénierie logicielle et de la cryptographie, et des garanties institutionnelles issues du droit, de l’économie et des sciences sociales.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire