
L’article de Nathalie A. Smuha, The Relentless Threat of Algorithmic Rule by Law, EDPL 4/2025, 395 s. (https://edpl.lexxion.eu/article/EDPL/2025/4/4) défend l’idée que deux évolutions contemporaines, souvent analysées séparément, se renforcent mutuellement au point de créer un risque spécifique pour l’État de droit : d’un côté, l’érosion globale de l’État de droit, et de l’autre, le recours croissant par les administrations à des systèmes algorithmiques (y compris des systèmes d’IA) pour appliquer des règles juridiques et des politiques publiques. L’auteure, Nathalie A. Smuha, appelle cette combinaison « algorithmic rule by law » : l’utilisation d’algorithmes pour mettre en œuvre des règles juridiques d’une manière qui affaiblit les garanties associées à l’État de droit, tout en donnant une apparence de légalité et d’efficacité.
Le texte commence par rappeler les fonctions classiques de l’État de droit dans une démocratie constitutionnelle libérale : soumettre tous les acteurs au droit (y compris les détenteurs du pouvoir), limiter l’arbitraire, rendre les conséquences juridiques prévisibles et permettre aux individus d’organiser leur vie, ce qui soutient leur liberté, leur autonomie et leur dignité. L’auteure s’appuie sur le constat d’une dégradation continue de l’Etat de droit mesurée par le World Justice Project, y compris en Europe. Elle insiste sur une caractéristique centrale de la période actuelle : les atteintes à l’État de droit se font souvent « par le droit », de manière graduelle et fragmentée, via des réformes et initiatives juridiques qui affaiblissent les contre-pouvoirs tout en conservant un vernis de légalité. Ce phénomène est rapproché de la distinction entre « rule of law » et « rule by law » : le droit n’est plus un instrument de protection contre le pouvoir, mais un outil mobilisé pour le conforter. L’auteure souligne que ce basculement peut aussi survenir sans intention autoritaire explicite, par négligence ou par légalismes administratifs, lorsqu’une règle est conçue ou appliquée sans prise en compte de l’équité et du contexte. Elle cite l’exemple du scandale néerlandais des allocations de garde d’enfants, où une application rigide et punitive de la règle a conduit à des injustices massives.
Le second mouvement décrit est celui de la « régulation algorithmique » : l’emploi d’outils automatisés pour mettre en œuvre, contrôler ou exécuter des normes et politiques publiques. Le propos n’est pas technophobe : sur le papier, une automatisation bien conçue peut améliorer la cohérence, l’égalité de traitement et l’efficacité administrative, et pourrait même renforcer certaines dimensions de l’État de droit. Mais l’auteure observe qu’en pratique, de nombreux déploiements ont eu l’effet inverse : atteintes aux droits, perte d’accountability, et opacification de la décision. Là encore, l’exemple néerlandais est instructif : la rigidité de la règle a été aggravée par un système algorithmique qui a permis de « mettre à l’échelle » une application légaliste, de cibler de façon disproportionnée des groupes vulnérables et d’amplifier le dommage.
Le cœur analytique de l’article tient à un mécanisme : lorsque la norme juridique est « traduite » en code exécutable par machine, on ne procède pas à une opération neutre ou purement technique, mais à une opération normative. Il faut trancher des ambiguïtés, choisir des interprétations, sélectionner des données et des proxys, décider de ce qui compte comme fait pertinent, déterminer des seuils, exceptions et priorités. Ces choix déplacent l’exercice de la discrétion [marge de manœuvre, latitude] : au lieu d’être assumée, au cas par cas, par les agents au contact du public, elle est déplacée « en amont » vers les concepteurs et décideurs du système, et exercée ex ante, de façon centralisée. Or, l’ouverture du texte juridique et la marge d’appréciation ne sont pas des défauts accidentels : elles permettent précisément de traiter des situations variées, parfois non anticipées, et d’intégrer l’équité. Le risque, avec l’automatisation, est une rigidification structurelle, conduisant à une application étroite ou mécaniquement légaliste de règles qui, dans leur esprit, devraient être tempérées.
L’auteure ajoute un élément de vulnérabilité propre aux infrastructures numériques. D’une part, elles peuvent être piratées. D’autre part, elles permettent des changements rapides, parfois peu visibles, des paramètres qui incarnent une interprétation du droit : une autorité exécutive pourrait, « en quelques clics », modifier l’interprétation opérationnelle et l’appliquer à grande échelle, sans que des agents puissent compenser par leur jugement. Le point sous-jacent est institutionnel : des systèmes puissants augmentent l’asymétrie de pouvoir de l’exécutif, déjà dominante dans beaucoup d’ordres juridiques, et accentuent le besoin de contrôles externes et internes.
Pour montrer que la menace n’est pas théorique, l’article évoque des exemples de régulation algorithmique qui ont déjà affaibli des principes de l’État de droit, le plus souvent par négligence, mais parfois de manière intentionnelle. L’argument est que l’algorithme ne crée pas nécessairement l’illibéralisme, mais il accélère et amplifie l’exécution d’un cadre déjà problématique, au point de pouvoir créer une déficience systémique.
Un autre point important est celui des effets d’“héritage” et de “dérive d’usage” : même un gouvernement de bonne foi peut installer des infrastructures, bases de données et processus automatisés pour des objectifs d’efficacité. Mais ces capacités peuvent ensuite être réutilisées par un gouvernement ultérieur moins respectueux des droits pour mettre en œuvre des politiques illibérales à grande échelle. D’où la nécessité d’évaluer les dépendances créées par les choix technologiques (path-dependencies) et le risque de réaffectation progressive (function creep).
Sur le cadre réglementaire, l’auteure considère que la plupart des juridictions reconnaissent désormais certains risques individuels (vie privée, discrimination), mais restent moins outillées pour appréhender et traiter les dommages “sociétaux”, dont l’atteinte à l’État de droit. Elle note l’existence de nouveaux mécanismes (transparence, documentation, évaluations de risques, gouvernance des données, tests de biais), citant notamment l’approche de l’Union européenne avec le RGPD et l’AI Act. Mais elle décrit aussi un mouvement politique et économique de résistance à la régulation (au nom de l’innovation et de la “course à l’IA”), avec des tendances au report, à l’affaiblissement ou à la remise en cause de certaines protections. L’article relève également une dimension géopolitique et industrielle : les grandes entreprises qui contrôlent l’infrastructure numérique deviennent des acteurs quasi-souverains et influencent les rapports de force, ce qui complique la capacité des États à imposer des garde-fous.
La dernière partie propose une orientation plutôt qu’un programme détaillé. L’auteure soutient que l’automatisation administrative devrait être conçue comme un projet normatif : expliciter d’abord les objectifs substantiels poursuivis par l’autorité (quels droits, quelles valeurs, quelle conception de l’équité), puis seulement décider ce qui doit être automatisé et comment, après une analyse des conséquences procédurales et substantielles pour les individus et pour la société. Elle insiste sur le fait que la discrétion [marge de manœuvre, latitude] n’a pas à être supprimée pour améliorer l’égalité ou la cohérence : des systèmes peuvent, au contraire, aider les agents à exercer une discrétion mieux informée, et à se confronter plus explicitement aux cas difficiles. Elle plaide aussi pour une responsabilité et une supervision non seulement “en aval” (au niveau de l’agent qui utilise l’outil), mais “en amont” (au niveau de ceux qui conçoivent le système et arrêtent ses capacités), avec explicitation des choix normatifs afin qu’ils puissent être discutés, contestés et modifiés. Enfin, elle rappelle la nécessité de voies de recours effectives et de mécanismes de contestation, capables de traiter non seulement des atteintes individuelles mais aussi des intérêts collectifs, et conclut par un appel au renforcement des freins et contrepoids institutionnels face au pouvoir accru que l’algorithmisation confère à l’exécutif.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration