Le billet de blog de Brandon LaLonde, The Modern Sword of Damocles: Risks and Rewards of AR glasses, 17 février 2026 (https://iapp.org/news/a/the-modern-sword-of-damocles-risks-and-rewards-of-ar-glasses) part de la parabole de l’épée de Damoclès pour décrire l’ambivalence autours des lunettes de réalité augmentée, i.e. des lunettes capables d’ajouter des informations numériques au monde réel.
Il rappelle qu’un ancêtre de cette technologie, créé en 1968 à l’université de l’Utah, était si encombrant qu’il devait être suspendu au plafond. Malgré l’écart avec les produits actuels, deux éléments restent au cœur du concept : suivre les mouvements de la tête et permettre de voir le monde réel tout en y superposant des éléments numériques.
Les modèles récents (ou prototypes) se présentent désormais comme des objets portables et discrets, enrichis de fonctions comme la commande vocale, le suivi du regard, des haut-parleurs, des microphones et surtout des caméras, ce qui ouvre des usages nouveaux mais aussi des questions inédites de vie privée et d’intelligence artificielle, en particulier pour les personnes filmées ou enregistrées “par accident” simplement parce qu’elles se trouvent à proximité.
Pour clarifier les termes, l’auteur distingue plusieurs “réalités”. La réalité virtuelle enferme l’utilisateur dans un environnement numérique, généralement avec un casque qui affiche des écrans et suit les mouvements, sans permettre d’interagir avec le monde physique tel qu’il est. La réalité augmentée, au contraire, laisse voir le monde réel et y ajoute des informations, par exemple une traduction qui s’affiche sur ce que l’on regarde. La “réalité mixte” va plus loin en faisant interagir éléments physiques et numériques (exemple donné : un compagnon virtuel qui réagit à l’environnement). “Réalité étendue” sert de terme fourre-tout. Enfin, s’agissant des lunettes, “lunettes intelligentes” est souvent employé au sens large, y compris pour des modèles qui n’affichent pas forcément d’éléments en surimpression mais intègrent audio, caméra et assistant vocal.
Le billet insiste sur l’attrait pratique au quotidien. Ces lunettes permettent d’écouter de la musique et de téléphoner sans casque audio intra-auriculaire et souvent sans sortir le téléphone, de prendre des photos et vidéos très rapidement, et d’utiliser des commandes vocales pour réduire les gestes nécessaires aux tâches usuelles. La traduction est un exemple parlant : certaines lunettes traduisent un texte écrit “dans le champ de vision”, et d’autres proposent la traduction d’une conversation avec à la fois un rendu audio et une transcription affichée en temps réel. Cette promesse est aujourd’hui fortement liée à l’IA, présentée comme un assistant personnel capable de répondre à des questions sur ce que l’utilisateur voit (par exemple “qu’est-ce que je regarde ?”) ou sur des éléments de contexte (par exemple “où ai-je garé ma voiture ?”). L’auteur indique que ces démonstrations peuvent fonctionner et expliquent l’intérêt du marché, tout en rendant plus visibles les risques liés aux données et à l’IA.
Au-delà du grand public, le texte met en avant des usages de santé et d’accessibilité. Il cite des travaux où des lunettes guident des patients atteints de maladies chroniques du cœur ou des poumons dans des exercices personnalisés, via un “physiothérapeute” virtuel à distance, avec un retour positif des participants. Il mentionne aussi des pistes pour des personnes souffrant de déficits visuels (par exemple difficultés de vision nocturne ou certaines pathologies oculaires), grâce à l’adaptation de la façon dont l’environnement est perçu et à des recommandations personnalisées. Un autre axe est l’assistance aux personnes souffrant de troubles cognitifs, avec des dispositifs conçus pour aider à reconnaître des objets (et parfois des visages) et pour permettre aux proches ou soignants de suivre et aider à distance via capteurs et caméras. L’idée générale est que ces lunettes ne sont pas seulement des gadgets, mais peuvent devenir des aides techniques à forte valeur sociale, ce qui explique l’intérêt des acteurs publics et privés.
Le troisième grand domaine est l’usage professionnel, particulièrement dans des contextes “à enjeux” comme la santé et l’industrie. En formation médicale, les lunettes peuvent superposer des informations anatomiques sur des mannequins et faciliter l’apprentissage de gestes techniques. Au bloc opératoire, elles peuvent aider à visualiser des structures internes et afficher des informations utiles sur le patient (par exemple des paramètres vitaux). Dans l’industrie, l’intérêt porte sur la formation à des tâches complexes, l’exécution en environnements dangereux et la standardisation des procédures ; l’auteur rapporte une étude où les travailleurs utilisant ces outils auraient une attention plus soutenue et respecteraient plus régulièrement les règles de sécurité que ceux qui utilisent des supports papier ou un téléphone. Il cite aussi l’exemple d’un fabricant qui déploie un dispositif de type lunettes/casque en entreprise et revendique des gains importants de qualité et de vitesse de formation. L’idée sous-jacente est que l’équipement devient une interface de travail, pas seulement un accessoire personnel.
C’est précisément cette présence “au visage”, potentiellement permanente, qui concentre les inquiétudes. Du point de vue des personnes autour du porteur, la question est celle d’un enregistrement discret, continu ou opportuniste, plus difficile à détecter qu’un smartphone tenu à bout de bras. Les fabricants tentent d’ajouter des signaux visibles (par exemple une lumière indiquant l’enregistrement), mais le billet souligne que des contournements techniques existent et peuvent neutraliser ces garde-fous. Le texte évoque aussi un scénario aggravant : relier des lunettes à de la reconnaissance faciale pour identifier toute personne dans le champ de vision, possibilité déjà démontrée, et même envisagée comme fonctionnalité par certains acteurs. Au-delà de l’identification, la captation d’informations sensibles est un risque banal mais majeur : mots de passe affichés, documents confidentiels sur un écran ou sur un bureau, échanges dans des lieux semi-privés, etc.
Du point de vue de l’utilisateur lui-même, le billet insiste sur une collecte très fine, car ces dispositifs combinent souvent des capteurs capables de déduire des informations intimes : mouvements des yeux, signes physiologiques (par exemple rythme cardiaque), indices émotionnels, comportements et habitudes. Même si certaines données sont “pseudonymisées” ou présentées comme non directement identifiantes, l’auteur rappelle qu’une quantité limitée de données biométriques peut suffire à inférer des caractéristiques de santé ou d’autres informations sensibles. Il ajoute que les utilisateurs ne mesurent pas toujours à quel point ces capteurs peuvent être plus intrusifs qu’un téléphone classique, parce qu’ils fonctionnent près du corps et en continu.
Le texte relie ensuite ces risques à la surveillance au travail. Il rappelle des controverses autour du suivi fin de la productivité (par exemple le temps considéré comme “hors tâche”) déjà observé avec d’autres outils. Transposé aux lunettes, le scénario devient celui d’un équipement imposé, captant images, sons, mouvements et éventuellement données physiologiques, avec des effets potentiels sur la dignité, la liberté d’action et l’équilibre des relations de travail. Même lorsque l’objectif affiché est la sécurité ou la performance, le risque de dérive est celui d’un contrôle permanent, difficile à contester faute de visibilité sur ce qui est réellement collecté et sur les usages secondaires.
L’IA ajoute une couche de complexité parce que beaucoup de fonctions reposent sur des traitements à distance. Pour reconnaître un objet, interpréter de l’audio ou répondre à une question “sur ce que je vois”, les lunettes envoient souvent un flux d’images et de sons vers des serveurs (le “nuage”) pour traitement, ce qui augmente la sensibilité et la valeur des données en circulation et multiplie les risques (accès non autorisés, réutilisations, transferts, durées de conservation). À cela s’ajoutent les risques propres aux systèmes d’IA : erreurs d’identification, biais qui conduisent à des conclusions injustes ou stéréotypées, et plus largement une “réalité filtrée” par des algorithmes qui personnalisent l’information en fonction du comportement passé. L’auteur évoque l’idée, déjà discutée, d’une personnalisation immersive qui pourrait aller jusqu’à influencer l’expérience d’achat ou la perception de l’environnement, même si les exemples peuvent paraître extrêmes.
Sur la réponse juridique et de gouvernance, le billet souligne d’abord que la régulation ne part pas de zéro, mais que des zones grises subsistent parce que la technologie avance vite, notamment sur les données biométriques et le consentement des personnes filmées. Il cite plusieurs repères. Dans le contexte européen, un porte-parole de la Commission aurait rappelé que tout enregistrement doit être clairement signalé et reposer sur une base juridique, en renvoyant au règlement général sur la protection des données et au cadre sur l’IA. Le texte mentionne aussi une décision rendue en décembre 2025 par la Cour de justice de l’Union européenne selon laquelle les données obtenues par observation directe au moyen de technologies comme des lunettes intelligentes sont réputées collectées auprès de la personne concernée, ce qui déclenche les obligations d’information prévues pour cette situation (notamment celles associées à l’article 13 du RGPD). Il cite enfin, à titre comparatif, des éléments de droit américain : exigences sectorielles en santé, règles de non-discrimination et d’encadrement des examens/informations médicales en emploi, obligations de notification de la surveillance dans certains États, et incertitudes autour des lois d’écoute/enregistrement selon que l’on assimile ou non l’enregistrement via lunettes à un appel. Le message pratique est que, même si des questions restent ouvertes, l’idée d’un “vide juridique” est trompeuse : les lunettes se situent au croisement de règles existantes, parfois mal adaptées, mais applicables.
L’auteur conclut sur des mesures concrètes pour gagner la confiance, autour de la “protection dès la conception”. Une voie mise en avant est le traitement directement sur l’appareil : effectuer localement les opérations sensibles (détection de conversation, reconnaissance, etc.), puis supprimer les données au lieu de les envoyer à des serveurs, ce qui réduit l’exposition. Il cite aussi des techniques visant à limiter ce qui est révélé ou conservé et des politiques donnant davantage de contrôle à l’utilisateur (par exemple suppression des enregistrements vocaux, activation volontaire des fonctions d’IA). Mais il insiste également sur une dimension sociale : ces lunettes exigeraient une évolution des normes de comportement. Les porteurs devraient être transparents et désactiver les fonctions “intelligentes” quand elles ne sont pas nécessaires, tandis que les personnes autour devraient rester attentives aux signaux matériels d’enregistrement et faire valoir leurs attentes de confidentialité dans les contextes privés ou sensibles. Pour les responsables de conformité et de gouvernance numérique, la conclusion est que l’outil combine de vrais bénéfices (santé, sécurité, productivité) et un paysage de risques large (captation discrète, biométrie, surveillance, IA et transferts), et que la manière dont organisations, fabricants et régulateurs répondront déterminera si ces lunettes deviennent un instrument d’autonomie ou une menace durable pour la vie privée.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
A propos de la Décision no 498628 du Conseil d’Etat (13 février 2026) [https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2026-02-13/498628] :
Par une décision du 13 février 2026, le Conseil d’État statue sur trois recours formés par des sociétés d’un même groupe (GERS, GERS venant aux droits de Santestat, et Cegedim Santé) contre trois délibérations de sanction de la formation restreinte de la CNIL, prises les 28 août et 5 septembre 2024. La CNIL avait infligé des amendes de 800 000 euros à GERS, 200 000 euros à GERS venant aux droits de Santestat, et 800 000 euros à Cegedim Santé, en rendant en outre publique la sanction visant cette dernière sans anonymisation pendant deux ans. Les sanctions faisaient suite à des contrôles portant sur deux bases de données exploitées dans le secteur de la santé, dénommées « Thin » et « Gers Études clients ». Comme les trois requêtes soulevaient des questions semblables, le Conseil d’État les joint pour y répondre par une seule décision.
Le Conseil d’État examine notamment le fond des manquements retenus par la CNIL. Il rappelle d’abord les faits et le fonctionnement des bases. La base « Thin » est alimentée par des données issues de médecins utilisateurs d’un logiciel de gestion de cabinet (« Crossway ») édité par Cegedim Santé ; la base « Gers Études clients » est alimentée par des données issues des officines pharmaceutiques, extraites via un module développé par Santestat et intégré aux logiciels de gestion des pharmacies. GERS est responsable de traitement des deux bases, recevant les flux de données transmis par Cegedim (côté médecins) et par Santestat (côté pharmacies). Le Conseil d’État relève l’ampleur des données : au printemps 2021, la base « Thin » contenait notamment 13,4 millions de consultations associées à 4 millions de codes patients, et « Gers Études clients » environ 78 millions d’identifiants clients pour 8 500 pharmacies. À partir de ces données, GERS réalise des études quantitatives et commercialise des statistiques dans le domaine de la santé auprès d’acteurs publics et privés.
Le cœur du litige portait sur la qualification des données : les sociétés soutenaient que, parce que les données étaient « pseudonymisées » (code patient, code client), elles ne seraient pas des données personnelles au sens du RGPD, et que le régime spécifique français applicable aux traitements de données de santé sans consentement ne leur serait donc pas opposable.
Le Conseil d’État rappelle les définitions pertinentes du RGPD : la donnée personnelle est une information se rapportant à une personne identifiée ou identifiable ; les données de santé constituent une catégorie particulièrement protégée ; la pseudonymisation est une technique qui empêche l’attribution directe à une personne sans informations supplémentaires conservées séparément. Il insiste sur le considérant 26 du RGPD, qui conduit à raisonner en termes de « moyens raisonnablement susceptibles d’être utilisés » pour identifier une personne, en tenant compte de facteurs objectifs (coût, temps, technologies disponibles). Il s’appuie aussi sur un arrêt de la CJUE du 7 mars 2024 (affaire C-479/22) pour préciser qu’une pseudonymisation ne peut conduire à considérer des données comme réellement anonymes que si le risque d’identification est insignifiant, c’est-à-dire si l’identification est irréalisable en pratique car elle exigerait un effort démesuré en temps, coût et main-d’œuvre.
Appliquant ces principes, le Conseil d’État constate d’abord que les sociétés détenaient un volume massif de données provenant de cabinets médicaux et de pharmacies, comprenant des informations d’identification (par exemple âge, sexe, catégorie socioprofessionnelle) et surtout des données de santé (dossier médical, prescriptions, arrêts de travail, vaccinations côté médecins ; médicaments achetés et prescripteur côté pharmacies), donc des données sensibles au sens de l’article 9 du RGPD. Il examine ensuite l’argument tiré de la pseudonymisation par « codes ». Il relève que les jeux de données contenaient, en plus des variables cliniques, des éléments comme la date et parfois l’heure exacte d’une consultation ou d’un achat, ainsi que des éléments directs ou indirects de localisation ou d’identification des professionnels de santé intervenants. S’agissant des pharmacies, il retient notamment que GERS collectait des données sur les prescripteurs, dont des identifiants (ADELI et RPPS) permettant de retrouver l’identité du professionnel via une simple recherche en ligne sur des ressources publiques ; il note aussi qu’un code région était collecté jusqu’en 2022 par Cegedim Santé. Sur cette base, il estime, comme la CNIL, qu’il est possible de reconstituer des parcours de soins et d’individualiser des personnes et leurs pathologies. Il insiste sur un point pratique décisif : selon les constats de la CNIL, non utilement contestés, cette individualisation n’exigeait que peu de temps et peu de moyens, par exemple l’utilisation d’un tableur courant et des nomenclatures fournies par les sociétés pour interpréter les codes et les actes. Il ajoute que le risque de réidentification augmente encore lorsque les traitements sont rares, ou si l’on combine ces données avec d’autres informations détenues par les sociétés (comme l’identification des professionnels de santé) ou avec des données tierces (par exemple de géolocalisation). Enfin, il précise que le fait que les sociétés ne réaliseraient pas elles-mêmes d’inférences n’est pas pertinent : ce qui compte est la possibilité objective d’identifier les personnes à partir des données et de moyens raisonnables.
De ces éléments, le Conseil d’État conclut que la CNIL a bien procédé à une évaluation concrète du risque et a établi que le pseudonymat pouvait être levé par des moyens raisonnables. Il en déduit que les données, bien que pseudonymisées, n’étaient pas anonymisées et restaient des données personnelles. Il refuse en conséquence de saisir la CJUE d’une question préjudicielle, estimant qu’il n’existait pas de difficulté sérieuse d’interprétation sur ce point.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration
Extrait de l’ordonnance du Tribunal administratif de Paris, 12 février 2026, no affaire 2600972 :
« Par un courrier du 10 octobre 2025, la présidente de l’université Paris 1 Panthéon-Sorbonne a, sur le fondement des articles R. 811-25 et R. 811-26 du code de l’éducation, décidé d’engager des poursuites disciplinaires devant la section disciplinaire du conseil académique de l’université Paris 1 Panthéon-Sorbonne, compétente à l’égard des usagers, à l’encontre de Mme A…, étudiante au sein de cette université, au motif qu’il lui était reproché d’avoir recouru à un système d’intelligence artificielle dans le cadre de la rédaction de son mémoire de stage. Par une décision du 7 janvier 2026, la section disciplinaire du conseil académique de l’université Paris 1 Panthéon-Sorbonne a prononcé un rejet des poursuites à l’encontre de Mme A…. Par la requête susvisée, la présidente de l’université Paris 1 Panthéon-Sorbonne demande au juge des référés, saisi sur le fondement de l’article L. 521-1 du code de justice administrative, de suspendre l’exécution de cette décision.
Aux termes de l’article L. 521-1 du code de justice administrative : « Quand une décision administrative, même de rejet, fait l’objet d’une requête en annulation ou en réformation, le juge des référés, saisi d’une demande en ce sens, peut ordonner la suspension de l’exécution de cette décision, ou de certains de ses effets, lorsque l’urgence le justifie et qu’il est fait état d’un moyen propre à créer, en l’état de l’instruction, un doute sérieux quant à la légalité de la décision (…) ».
Sur l’existence d’un doute sérieux quant à la légalité de la décision attaquée :
À l’appui de sa demande, l’université Paris 1 Panthéon-Sorbonne soutient que la décision par laquelle la section disciplinaire de son conseil académique a prononcé un rejet des poursuites à l’encontre de Mme A… est entachée d’une erreur de droit, d’une inexactitude matérielle des faits et d’une erreur d’appréciation quant à l’existence d’une faute. Ces moyens ne paraissent pas, en l’état de l’instruction, propres à créer un doute sérieux sur la légalité de la décision attaquée, alors notamment que l’université Paris 1 Panthéon-Sorbonne ne produit, à l’appui de son recours, aucun élément relatif aux règles encadrant l’utilisation de l’intelligence artificielle par les étudiants dans le cadre de leurs travaux académiques, à l’aune desquelles le caractère fautif des faits reprochés pourrait être apprécié.
Il résulte de ce qui précède qu’il y a lieu de rejeter la requête, y compris ses conclusions tendant au prononcé d’une injonction.
O R D O N N E :
Article 1er : La requête de l’université Paris 1 Panthéon-Sorbonne est rejetée.
Article 2 : La présente ordonnance sera notifiée à la présidente de l’université Paris 1 Panthéon-Sorbonne, à Mme B… A… et au recteur de l’académie de Paris. »
L’article de Nathalie A. Smuha, The Relentless Threat of Algorithmic Rule by Law, EDPL 4/2025, 395 s. (https://edpl.lexxion.eu/article/EDPL/2025/4/4) défend l’idée que deux évolutions contemporaines, souvent analysées séparément, se renforcent mutuellement au point de créer un risque spécifique pour l’État de droit : d’un côté, l’érosion globale de l’État de droit, et de l’autre, le recours croissant par les administrations à des systèmes algorithmiques (y compris des systèmes d’IA) pour appliquer des règles juridiques et des politiques publiques. L’auteure, Nathalie A. Smuha, appelle cette combinaison « algorithmic rule by law » : l’utilisation d’algorithmes pour mettre en œuvre des règles juridiques d’une manière qui affaiblit les garanties associées à l’État de droit, tout en donnant une apparence de légalité et d’efficacité.
Le texte commence par rappeler les fonctions classiques de l’État de droit dans une démocratie constitutionnelle libérale : soumettre tous les acteurs au droit (y compris les détenteurs du pouvoir), limiter l’arbitraire, rendre les conséquences juridiques prévisibles et permettre aux individus d’organiser leur vie, ce qui soutient leur liberté, leur autonomie et leur dignité. L’auteure s’appuie sur le constat d’une dégradation continue de l’Etat de droit mesurée par le World Justice Project, y compris en Europe. Elle insiste sur une caractéristique centrale de la période actuelle : les atteintes à l’État de droit se font souvent « par le droit », de manière graduelle et fragmentée, via des réformes et initiatives juridiques qui affaiblissent les contre-pouvoirs tout en conservant un vernis de légalité. Ce phénomène est rapproché de la distinction entre « rule of law » et « rule by law » : le droit n’est plus un instrument de protection contre le pouvoir, mais un outil mobilisé pour le conforter. L’auteure souligne que ce basculement peut aussi survenir sans intention autoritaire explicite, par négligence ou par légalismes administratifs, lorsqu’une règle est conçue ou appliquée sans prise en compte de l’équité et du contexte. Elle cite l’exemple du scandale néerlandais des allocations de garde d’enfants, où une application rigide et punitive de la règle a conduit à des injustices massives.
Le second mouvement décrit est celui de la « régulation algorithmique » : l’emploi d’outils automatisés pour mettre en œuvre, contrôler ou exécuter des normes et politiques publiques. Le propos n’est pas technophobe : sur le papier, une automatisation bien conçue peut améliorer la cohérence, l’égalité de traitement et l’efficacité administrative, et pourrait même renforcer certaines dimensions de l’État de droit. Mais l’auteure observe qu’en pratique, de nombreux déploiements ont eu l’effet inverse : atteintes aux droits, perte d’accountability, et opacification de la décision. Là encore, l’exemple néerlandais est instructif : la rigidité de la règle a été aggravée par un système algorithmique qui a permis de « mettre à l’échelle » une application légaliste, de cibler de façon disproportionnée des groupes vulnérables et d’amplifier le dommage.
Le cœur analytique de l’article tient à un mécanisme : lorsque la norme juridique est « traduite » en code exécutable par machine, on ne procède pas à une opération neutre ou purement technique, mais à une opération normative. Il faut trancher des ambiguïtés, choisir des interprétations, sélectionner des données et des proxys, décider de ce qui compte comme fait pertinent, déterminer des seuils, exceptions et priorités. Ces choix déplacent l’exercice de la discrétion [marge de manœuvre, latitude] : au lieu d’être assumée, au cas par cas, par les agents au contact du public, elle est déplacée « en amont » vers les concepteurs et décideurs du système, et exercée ex ante, de façon centralisée. Or, l’ouverture du texte juridique et la marge d’appréciation ne sont pas des défauts accidentels : elles permettent précisément de traiter des situations variées, parfois non anticipées, et d’intégrer l’équité. Le risque, avec l’automatisation, est une rigidification structurelle, conduisant à une application étroite ou mécaniquement légaliste de règles qui, dans leur esprit, devraient être tempérées.
L’auteure ajoute un élément de vulnérabilité propre aux infrastructures numériques. D’une part, elles peuvent être piratées. D’autre part, elles permettent des changements rapides, parfois peu visibles, des paramètres qui incarnent une interprétation du droit : une autorité exécutive pourrait, « en quelques clics », modifier l’interprétation opérationnelle et l’appliquer à grande échelle, sans que des agents puissent compenser par leur jugement. Le point sous-jacent est institutionnel : des systèmes puissants augmentent l’asymétrie de pouvoir de l’exécutif, déjà dominante dans beaucoup d’ordres juridiques, et accentuent le besoin de contrôles externes et internes.
Pour montrer que la menace n’est pas théorique, l’article évoque des exemples de régulation algorithmique qui ont déjà affaibli des principes de l’État de droit, le plus souvent par négligence, mais parfois de manière intentionnelle. L’argument est que l’algorithme ne crée pas nécessairement l’illibéralisme, mais il accélère et amplifie l’exécution d’un cadre déjà problématique, au point de pouvoir créer une déficience systémique.
Un autre point important est celui des effets d’“héritage” et de “dérive d’usage” : même un gouvernement de bonne foi peut installer des infrastructures, bases de données et processus automatisés pour des objectifs d’efficacité. Mais ces capacités peuvent ensuite être réutilisées par un gouvernement ultérieur moins respectueux des droits pour mettre en œuvre des politiques illibérales à grande échelle. D’où la nécessité d’évaluer les dépendances créées par les choix technologiques (path-dependencies) et le risque de réaffectation progressive (function creep).
Sur le cadre réglementaire, l’auteure considère que la plupart des juridictions reconnaissent désormais certains risques individuels (vie privée, discrimination), mais restent moins outillées pour appréhender et traiter les dommages “sociétaux”, dont l’atteinte à l’État de droit. Elle note l’existence de nouveaux mécanismes (transparence, documentation, évaluations de risques, gouvernance des données, tests de biais), citant notamment l’approche de l’Union européenne avec le RGPD et l’AI Act. Mais elle décrit aussi un mouvement politique et économique de résistance à la régulation (au nom de l’innovation et de la “course à l’IA”), avec des tendances au report, à l’affaiblissement ou à la remise en cause de certaines protections. L’article relève également une dimension géopolitique et industrielle : les grandes entreprises qui contrôlent l’infrastructure numérique deviennent des acteurs quasi-souverains et influencent les rapports de force, ce qui complique la capacité des États à imposer des garde-fous.
La dernière partie propose une orientation plutôt qu’un programme détaillé. L’auteure soutient que l’automatisation administrative devrait être conçue comme un projet normatif : expliciter d’abord les objectifs substantiels poursuivis par l’autorité (quels droits, quelles valeurs, quelle conception de l’équité), puis seulement décider ce qui doit être automatisé et comment, après une analyse des conséquences procédurales et substantielles pour les individus et pour la société. Elle insiste sur le fait que la discrétion [marge de manœuvre, latitude] n’a pas à être supprimée pour améliorer l’égalité ou la cohérence : des systèmes peuvent, au contraire, aider les agents à exercer une discrétion mieux informée, et à se confronter plus explicitement aux cas difficiles. Elle plaide aussi pour une responsabilité et une supervision non seulement “en aval” (au niveau de l’agent qui utilise l’outil), mais “en amont” (au niveau de ceux qui conçoivent le système et arrêtent ses capacités), avec explicitation des choix normatifs afin qu’ils puissent être discutés, contestés et modifiés. Enfin, elle rappelle la nécessité de voies de recours effectives et de mécanismes de contestation, capables de traiter non seulement des atteintes individuelles mais aussi des intérêts collectifs, et conclut par un appel au renforcement des freins et contrepoids institutionnels face au pouvoir accru que l’algorithmisation confère à l’exécutif.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration
Beaucoup d’acteurs de l’IA prédisent une transformation rapide des métiers du savoir, et le droit est souvent cité comme un domaine « facile » à automatiser, notamment depuis que des modèles ont obtenu des résultats comparables à l’examen du barreau. Dans le même temps, les services juridiques américains sont chers, tant pour les particuliers que pour les entreprises, et l’on espère que l’IA améliorera l’accès au droit.
Les auteurs soutiennent pourtant l’idée que même si l’IA devient très performante, elle ne fera pas baisser « par défaut » le coût d’obtention des résultats que les clients recherchent (gagner un procès, conclure un deal, sécuriser un droit). Entre la capacité technique et l’accès à des résultats moins coûteux, ils identifient trois verrous : les règles professionnelles (qui limitent l’accès et l’expérimentation), la logique concurrentielle des rapports adverses (qui absorbe les gains de productivité), et la vitesse incompressible des humains (juges, avocats, clients) qui doivent décider et assumer.
Pour comprendre pourquoi l’IA ne suffit pas, l’article rappelle d’abord pourquoi le juridique coûte cher aux États-Unis. Première raison : la qualité d’un service juridique est difficile à évaluer, même après coup. Le client sait rarement si le résultat est dû au talent de l’avocat ou à la solidité intrinsèque du dossier ; il se rabat donc sur des indices indirects (réputation, diplôme, parcours), ce qui limite la concurrence. Deuxième raison : la valeur du travail juridique est souvent « relative ». Dans un litige, ce qui compte n’est pas seulement d’être bon, mais d’être meilleur que l’autre camp ; même en matière contractuelle, chaque partie cherche à obtenir un avantage dans la négociation et la rédaction. Cela nourrit une course aux ressources et aux heures facturables, particulièrement dans le segment des grands cabinets d’affaires, où les tarifs montent fortement. Troisième raison : la réglementation professionnelle, conçue pour protéger le public, limite aussi certains modèles économiques. Les règles sur l’exercice du droit et sur la détention/financement des cabinets réduisent l’arrivée d’acteurs capables d’industrialiser une partie des services (accueil, marketing, facturation, processus) et donc d’exploiter des économies d’échelle, surtout pour les dossiers standardisés de particuliers et petites entreprises.
Le premier verrou concerne précisément ces règles professionnelles. Aux États-Unis, l’« unauthorized practice of law » (UPL) correspond, en bref, à l’interdiction faite à des non-avocats de fournir des prestations considérées comme du conseil juridique personnalisé. Les auteurs insistent sur l’effet dissuasif : si une organisation met à disposition un outil d’IA qui franchit la frontière entre information générale et conseil appliqué à un cas concret, elle peut s’exposer à des sanctions civiles ou pénales selon les États, et surtout à un risque juridique incertain. Cette incertitude, plus que l’existence d’une règle, freine l’innovation et l’accès direct des consommateurs à des outils puissants. Ils illustrent l’enjeu avec des contentieux de masse, notamment le recouvrement de dettes, où une grande partie des défendeurs perdent par défaut faute de répondre, alors que des réponses « guidées » pourraient être produites via des formulaires et, potentiellement, via une IA. Ils citent aussi des épisodes où des acteurs cherchant à automatiser des actes simples ont été attaqués sur le terrain de l’UPL (l’exemple récurrent étant une plateforme de documents juridiques confrontée pendant des années à des procédures et à des accords imposant des limites à son fonctionnement). L’autre partie du verrou réglementaire vise les règles de détention et de partage d’honoraires : si seuls des avocats peuvent détenir/financer une structure de services juridiques, il devient plus difficile de créer des entreprises capables d’investir lourdement dans la technologie, l’expérience client et l’organisation, ce qui limite les formes d’usage « à grande échelle » de l’IA. Les auteurs notent toutefois que l’IA peut aussi réduire des coûts de manière indirecte, en automatisant l’administratif et la relation client (prise de contact, suivi, facturation), qui consomment une grande partie du temps dans les petits cabinets.
Le deuxième verrou est lié à la structure « adverse » du système américain. Les auteurs distinguent clairement trois choses : les moyens engagés (heures, talents, outils), les productions (mémoires, requêtes, contrats, recherches), et les résultats (issue du litige, transaction acceptée, risque réellement réduit). L’IA peut baisser le coût unitaire de certaines tâches et augmenter la production, mais dans un univers où l’issue dépend d’un rapport de forces, si les deux camps deviennent plus productifs, l’équilibre peut simplement se déplacer : chacun produit davantage pour rester au même niveau relatif. Autrement dit, l’IA peut déclencher une course aux écritures, aux recherches, aux demandes, sans que le coût total pour atteindre un résultat donné baisse vraiment. Pour rendre l’idée concrète, les auteurs reviennent sur un précédent : la numérisation de la procédure de production de pièces (la « discovery », phase d’échanges d’informations préalable au procès, très développée aux États-Unis). En théorie, la recherche électronique devait rendre l’examen des documents plus rapide et moins cher ; en pratique, l’explosion des volumes numériques a aussi créé des opportunités de surenchère (demandes très larges, production massive de documents peu utiles, coûts imposés à l’adversaire), avec un modèle économique à l’heure qui peut amplifier la dynamique. La leçon qu’ils en tirent n’est pas que la technologie ne sert à rien, mais que, sans garde-fous procéduraux et incitations adaptées, les gains de productivité sont facilement « consommés » par davantage de production dans la confrontation. Ils étendent ensuite le raisonnement au transactionnel : même sans procès, la négociation et la rédaction contractuelles ont une dimension compétitive (que révéler, comment formuler, comment répartir le risque), et il n’existe pas de limite naturelle au surcroît de clauses et d’analyses que l’on peut ajouter. Ils citent des tendances de fond : des contrats plus longs et plus complexes dans certaines opérations, et des politiques de confidentialité qui s’allongent aussi, ce qui peut être vu soit comme une réponse utile à de nouveaux risques, soit comme un symptôme d’un environnement juridique et contentieux où l’on se protège par accumulation.
Le troisième verrou est la vitesse des humains, c’est-à-dire le fait que, même si l’IA rend la production de travail juridique quasi instantanée, des personnes doivent encore prendre des décisions significatives : des juges doivent trancher, et des parties doivent comprendre et assumer les clauses qu’elles acceptent. En contentieux, si l’IA réduit le coût de dépôt d’une action et facilite la multiplication des écritures, le volume de litiges pourrait augmenter fortement ; les auteurs évoquent des estimations prudentes de hausse de volume, et décrivent plusieurs réactions possibles des tribunaux : rendre l’accès plus difficile (par des filtres procéduraux ou des exigences accrues), limiter ou interdire certains usages de l’IA au prétoire (déclarations obligatoires, sanctions), ou bien déléguer davantage et accepter une baisse de qualité, ou encore laisser les délais s’allonger, ce qui dégrade la valeur réelle de l’accès au juge. Ils observent que des contentieux de masse comme le recouvrement de dettes ont déjà mis sous tension des juridictions étatiques, conduisant parfois à des formes d’industrialisation de la décision qui questionnent la qualité du contrôle. Les auteurs discutent aussi l’idée, parfois avancée, de remplacer le juge par l’IA : ils relaient des objections de plusieurs ordres (cadre constitutionnel fédéral, limites techniques et risques d’influence ou d’erreurs, enjeux de légitimité), et plaident pour un usage choisi et encadré plutôt que subi par saturation. Côté contrats, même si l’IA génère des projets parfaits en quelques secondes, quelqu’un doit encore évaluer ce que ces clauses impliquent pour l’entreprise, ce qui crée un plafond d’accélération si l’on tient à une supervision réelle.
À partir de ces trois verrous, l’article passe aux réponses institutionnelles possibles, en soulignant que l’impact de l’IA dépendra des choix de gouvernance et non seulement des progrès techniques. Sur la réglementation de l’exercice du droit, une première famille de réformes vise à clarifier les frontières de l’UPL et à réduire l’incertitude : soit en créant des statuts intermédiaires de prestataires autorisés pour des tâches ciblées (à la manière de professions de santé « intermédiaires »), soit, de façon plus ambitieuse, en autorisant des non-avocats (y compris via des systèmes d’IA) à fournir de nombreuses prestations tant qu’ils ne se présentent pas comme « avocats » et ne représentent pas en justice, la responsabilité civile jouant alors comme garde-fou de qualité. Une deuxième famille vise les règles de structure et de financement : certains États ont expérimenté des « bacs à sable » réglementaires, permettant à des entités non traditionnelles d’opérer sous conditions et sous supervision, afin de mesurer l’effet sur le coût, la qualité et l’accès. Les auteurs rapportent que les résultats initiaux sont plutôt positifs en termes d’absence de plaintes massives, tout en notant des inquiétudes (prise de contrôle par des investisseurs, financement de contentieux) et des réactions de corps professionnels qui cherchent à restreindre ces expériences. Enfin, une proposition plus systémique consiste à créer un « marché de la régulation » : l’État fixerait des objectifs (accès, qualité, délais) et agréerait plusieurs régulateurs concurrents chargés de certifier et surveiller des prestataires, l’idée étant de stimuler l’innovation réglementaire. Les auteurs relèvent néanmoins des risques classiques (course au moins-disant) et citent des difficultés observées dans un modèle britannique où une autorité-chapeau supervise des régulateurs sectoriels, avec des critiques récentes sur l’efficacité du contrôle dans certains scandales.
Sur l’adjudication, une deuxième série de réformes cherche à réduire la surenchère adverse par une gestion plus active des dossiers : utilisation plus fréquente d’experts nommés par le tribunal, ou de tiers neutres chargés d’encadrer des phases techniques comme la production de documents, afin d’éviter que chaque baisse de coût unitaire ne se transforme en expansion du périmètre et en bataille procédurale. L’article discute aussi l’arbitrage comme voie parallèle : parce qu’il est plus flexible et souvent moins coûteux, il pourrait devenir un terrain d’adoption plus large de l’IA. Les auteurs présentent un débat : certains défendent la possibilité et l’intérêt d’un arbitrage largement assisté, voire rendu par l’IA, tandis que d’autres contestent la compatibilité avec le droit fédéral de l’arbitrage ou craignent une atteinte à la réputation et à la confiance dans le mécanisme. Ils reconnaissent en outre les critiques de fond sur l’arbitrage imposé aux consommateurs par des contrats non négociés. Leur point est plus pragmatique : si, dans certains contextes, les parties choisissent réellement une voie alternative, offrir une procédure technologique (avec des degrés variables de contrôle humain) pourrait soulager les tribunaux, permettre aux justiciables de choisir entre rapidité et niveau de contrôle, et produire des données comparatives utiles sur les performances réelles de l’IA, plutôt que de rester dans l’anticipation.
Enfin, l’article aborde l’évolution du métier. Si le volume de litiges augmente, une réponse directe serait d’augmenter la capacité des tribunaux en recrutant davantage de juges, idée ancienne mais politiquement sensible. Les auteurs discutent des pistes de financement et de gouvernance avancées dans la littérature (commissions bipartites pour dépolitiser l’augmentation des postes, nouvelles sources de financement affectées, mécanismes de contribution de la profession), et soutiennent que, face à une disruption potentiellement forte, cette option n’est pas forcément irréaliste. Dans le monde des entreprises, ils anticipent un déplacement de la valeur du « faire » vers le « juger et orienter » : si l’IA automatise une partie de la production (recherches, premières versions, analyses standard), les juristes internes devraient consacrer plus de temps à comprendre le contexte opérationnel, à arbitrer, à traduire des risques juridiques en décisions business, et à jouer un rôle de conseiller stratégique. Ils décrivent une hiérarchie des tâches, des plus routinières aux plus stratégiques, et en déduisent une implication importante pour la formation : si les tâches d’entrée de carrière sont partiellement automatisées, il faut repenser comment les juniors acquièrent l’expérience qui permet ensuite d’assumer des rôles de supervision et de conseil.
La conclusion est que l’IA ne « répare » pas automatiquement les défauts structurels du marché et de la procédure : elle tend plutôt à les rendre plus visibles et parfois à les amplifier. Sans réformes ciblées sur l’accès (règles professionnelles claires et adaptées), sur les incitations dans les processus adverses (gestion procédurale, voies alternatives), et sur les capacités humaines de décision (organisation des tribunaux, montée en compétences), on risque d’obtenir surtout une abondance accrue de documents et d’actes produits à bas coût, sans baisse proportionnelle du coût d’obtention des résultats qui comptent pour les clients.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et administration
Le billet de Janne Petroons, When Code Meets Context: The Promised Harmonising Effects of Algorithmic Decision-Making Through a Socio Constructivist Lens, AI Summer School, 9 décembre 2025 (https://www.law.kuleuven.be/ai-summer-school/blogpost/when-code-meets-context-the-promised-harmonising-effects-of-algorithmic-decision-making-through-a-socio-constructivist-lens) examine l’idée, de plus en plus répandue dans l’action publique, selon laquelle les systèmes de décision algorithmique (ADM) permettraient d’« harmoniser » l’application des politiques, en réduisant les divergences entre administrations et agents. Le point de départ est un constat classique en science administrative : entre la règle écrite et sa mise en œuvre, il existe souvent un « écart de mise en œuvre », lié notamment à la délégation de tâches aux administrations et à la marge d’appréciation des agents, qui peuvent interpréter et appliquer les normes de manière différente. Ces différences peuvent affecter des valeurs centrales de l’État de droit, comme l’égalité de traitement et la sécurité juridique. Mais le billet rappelle aussi que la marge d’appréciation n’est pas qu’un « problème » : dans des domaines comme l’aide sociale, l’adaptation au cas concret peut être indispensable pour rendre les droits effectifs, surtout pour des personnes vulnérables, ce qui renvoie à un débat de fond sur le niveau souhaitable d’autonomie humaine et d’automatisation.
L’argument « harmonisateur » attribué aux ADM repose, selon l’auteure, sur deux présupposés. D’une part, pour transformer une règle juridique en code, il faut la quantifier et la standardiser ; cette opération serait censée standardiser l’interprétation. D’autre part, une fois la règle codée, son application serait automatique dès que les conditions prévues sont remplies, laissant peu ou pas de place aux variations dans la pratique. Le billet rattache cette vision à un « instrumentaliste » : la technologie serait un levier qui produirait, par elle-même, des effets sociaux déterminés. Cette approche est discutée en s’appuyant sur des références comme Lawrence Lessig, Laurence Diver et James Grimmelmann, ainsi que sur l’idée, en administration publique, d’un passage des « bureaucraties de guichet » vers des « bureaucraties de système », où la marge d’appréciation se déplacerait en amont vers les concepteurs des outils.
Le cœur empirique du billet est le cas de REDI, utilisé en Belgique pour soutenir les décisions relatives à une aide sociale dite « soutien additionnel ». Le droit applicable vise, en principe, à garantir une vie conforme à la « dignité humaine » sans définir précisément ce que cela recouvre, ce qui a conduit les agences locales à développer des pratiques diverses (types d’aides, montants, conditions), donc à des traitements différents selon les communes. REDI s’appuie sur des budgets de référence censés représenter les coûts minimums des besoins essentiels ; les travailleurs sociaux y saisissent des données (revenus du ménage, dettes, épargne, etc.) et le système produit un montant : s’il est négatif, il signale un besoin, et la philosophie du dispositif encourage à convertir ce résultat en un versement mensuel, plutôt qu’en aides ponctuelles. Le gouvernement fédéral a encouragé une adoption volontaire à grande échelle via une subvention, sans modifier le cadre légal de la marge d’appréciation ni les compétences locales. Or l’étude citée par le billet conclut que l’effet d’harmonisation est resté limité, car des différences d’évaluation et de décision ont persisté ; de plus, l’introduction simultanée de la subvention et du système empêche d’attribuer clairement tout changement au seul outil algorithmique.
Pour expliquer ce décalage entre la promesse d’harmonisation et la réalité, le billet mobilise une lecture « socio-constructiviste » : les ADM ne produisent pas leurs effets dans le vide, ils sont façonnés, interprétés et parfois contournés par les organisations et leurs agents, selon des contraintes et des valeurs. Deux familles de raisons ressortent des entretiens : des raisons financières et des raisons normatives. Financièrement, l’adossement à une subvention a créé de l’incertitude sur la pérennité du financement ; certaines agences ont donc évité de transformer leurs pratiques de peur de devoir réduire l’aide ultérieurement. Certaines structures, notamment sous contrainte budgétaire, ont aussi eu le sentiment d’être poussées à participer sans adhérer à une réforme de fond. Normativement, des agents et responsables n’étaient pas d’accord avec les choix implicites de REDI : par exemple, l’idée d’un versement mensuel jugé trop peu conditionnel (« chèque en blanc »), ou des montants perçus comme trop élevés, injustes ou impraticables. En conséquence, des organisations ont adapté l’usage de l’outil à leur contexte : rédaction de règles internes, développement de pratiques pour s’écarter de la « philosophie » de REDI, manipulation de certaines données d’entrée pour que des coûts ne soient pas pris en compte, ou réduction systématique (par exemple en ne versant qu’une fraction) du montant calculé. Le billet en conclut que ces systèmes doivent être compris aussi comme des « messages politiques » : ils traduisent des choix sur ce que doit être la décision publique (et sur la place de la marge d’appréciation), tout en reflétant et reproduisant les contraintes et préférences des acteurs qui les utilisent. Pour qu’un ADM puisse réellement harmoniser, il ne suffit donc pas de déployer un outil ; il faut considérer le cadre légal de la marge d’appréciation, les incitations financières, et les désaccords de fond sur ce qui est juste et faisable dans la pratique.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration
Le billet part d’un constat : pendant longtemps, dans les démocraties libérales, l’image (photo puis vidéo) a servi de point d’appui partagé pour juger publiquement des faits. Même sans définition parfaite, on pensait pouvoir « reconnaître » ce qui est réel en le voyant.
L’essor de la vidéo générée par IA fragilise cette intuition.
Des outils désormais capables de produire des scènes très réalistes effacent la frontière entre document et fabrication. Il ne s’agit pas seulement d’un problème de « fausses nouvelles » au sens classique, mais d’une crise plus profonde : la difficulté collective à décider ce qui mérite d’être tenu pour crédible et, donc, ce qui peut entrer dans le débat public comme base commune.
L’auteur distingue ainsi une crise « de connaissance » et une crise « de responsabilité ».
Sur le premier plan, il explique que la démocratie n’exige pas que tout le monde partage les mêmes convictions ou interprétations, mais qu’elle a besoin de procédures et d’habitudes sociales permettant de tester la solidité d’une information. Journalisme, tribunaux, archives, controverse contradictoire : ces dispositifs n’ont jamais garanti l’absence de mensonge, mais ils ont fourni une confiance minimale dans la manière dont une preuve est reconnue, vérifiée et discutée. Avec la vidéo synthétique, l’enjeu n’est pas uniquement d’être trompé par un contenu faux ; c’est la perte d’orientation quand « tout a l’air plausible ». Dans un tel contexte, la crédibilité devient rare et instable. La vie démocratique s’abîme alors avant même qu’une intoxication précise ne triomphe, parce que les citoyens et les institutions ne disposent plus de repères partagés pour trier, vérifier et débattre.
Sur le second plan, l’auteur montre que les pratiques de vérification se déplacent : on ne peut plus se fier à l’œil humain, et l’on dépend de plus en plus d’outils techniques (détecteurs de filigranes, logiciels de vérification, systèmes de traçabilité de l’origine des contenus). Or ces infrastructures sont majoritairement privées. Le cœur de la critique est là : l’autorité qui permet de dire si une vidéo est « authentique » tend à se concentrer entre les mains d’acteurs industriels, souvent les mêmes que ceux qui développent et diffusent les systèmes génératifs par ailleurs. Ce basculement transforme une fonction historiquement ancrée dans des institutions contestables publiquement (presse, justice, expertise indépendante) en une fonction organisée par des entreprises, avec des objectifs d’abord commerciaux et des mécanismes de contrôle démocratique limités. L’auteur évoque des stratégies différentes selon les acteurs (certains annoncent des garde-fous et un déploiement progressif, d’autres avancent plus vite en résistant davantage à la surveillance externe), mais dans tous les cas le résultat est similaire : des contenus très réalistes circulent à grande échelle, parfois sans étiquetage efficace, et atteignent le public avant que des protections robustes soient en place.
L’auteur souligne aussi le rôle d’initiatives de standardisation, comme les standards volontaires de traçabilité et de filigranage portés par des coalitions industrielles. Ces démarches peuvent être utiles techniquement, mais elles se construisent dans des espaces où les citoyens et les autorités publiques pèsent souvent moins que les grandes plateformes et entreprises. Même bien intentionnées, elles restent contraintes par des priorités économiques. Le risque, selon l’auteur, est une « privatisation » de la confiance procédurale : les entreprises qui contrôlent les canaux de vérification finissent par définir quels signaux de fiabilité sont visibles, quelles contestations sont possibles et quelles preuves circulent. Autrement dit, elles influencent les conditions mêmes de ce qui devient « visible » et « actionnable » dans l’espace public, ce qui peut créer une dépendance générale à une authenticité reçue « sur la foi » des systèmes privés.
La dernière partie propose des directions pour restaurer la crédibilité et la vérification comme des biens publics. D’abord, l’auteur défend l’idée que la lisibilité de l’origine des images et vidéos doit être traitée comme une exigence démocratique : les personnes devraient pouvoir savoir si un contenu a été créé, modifié ou généré, comprendre la logique des labels et signaux de provenance, et surtout pouvoir les questionner et les contester. Cela implique que les standards techniques ne soient pas pilotés uniquement par quelques acteurs dominants et que la transparence ne repose pas sur le seul volontariat, mais soit appuyée par des règles et un contrôle public.
Ensuite, il plaide pour des infrastructures publiques ou d’intérêt général de vérification : laboratoires ouverts, interfaces de vérification transparentes, partenariats civiques associant entreprises, universités, rédactions et administrations. L’objectif n’est pas de créer un « ministère de la vérité », mais d’éviter que la capacité de vérifier soit réservée à ceux qui peuvent payer ou à ceux qui possèdent les outils, et de garantir un accès plus égal à des moyens de test de l’authenticité.
Enfin, il estime que la gouvernance des systèmes génératifs doit intégrer des exigences démocratiques dès la conception : face à la pression concurrentielle et à l’insuffisance possible des cadres actuels pour prévenir des dommages rapides (par exemple en période électorale), des régulateurs indépendants et des mécanismes publics d’autorisation ou de conditions d’accès peuvent être nécessaires pour que l’étiquetage, la traçabilité et la diffusion répondent à des valeurs civiques, pas seulement à des intérêts de marché.
Le texte se termine sur une dimension culturelle : les démocraties ne survivent pas en éliminant toute fausseté, mais en maintenant une discipline collective de vérification, une capacité à ralentir, contrôler, délibérer avant de croire. À l’ère de la production synthétique à grande vitesse, retrouver cette « patience civique » devient central.
La conclusion réaffirme la thèse : la démocratie repose moins sur une vérité unique que sur des procédures partagées pour déterminer ce qui est crédible ; la vidéo générée par IA fragilise ces procédures en déplaçant l’autorité de vérification vers le privé. Reprendre collectivement la main sur les règles, les outils et la supervision de l’authenticité est donc présenté comme une condition pour « voir et juger ensemble » dans l’âge des médias synthétiques.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données. Entreprise et Administration
Le billet examine les enjeux de gouvernance posés par les interfaces cerveau-machine invasives, à mesure qu’elles passent d’outils médicaux à produits potentiellement commercialisés. L’auteure prend comme exemple le dispositif « Telepathy » de Neuralink, et mentionne aussi d’autres acteurs du secteur. Son idée centrale est que ces technologies ne soulèvent pas seulement des risques sanitaires ou de cybersécurité classiques, mais qu’elles peuvent fragiliser des conditions de base de la démocratie en touchant directement à la vie mentale des personnes, donc à la capacité des citoyens à se déterminer librement, à consentir et à participer au débat public sans crainte.
Le texte structure l’analyse autour de trois dimensions de la vie privée.
La première est la « vie privée physique », entendue comme l’intégrité corporelle appliquée au cerveau. Une interface invasive n’est pas un capteur externe qu’on retire à volonté : elle implique une chirurgie, l’introduction durable de matériel dans le système nerveux, et une dépendance continue à un logiciel et à une infrastructure technique. Cela change la nature du consentement, car l’utilisateur ne peut pas « se déconnecter » simplement comme avec une application. L’auteure insiste aussi sur la vulnérabilité nouvelle créée par le fait que l’implant et ses communications doivent être sécurisés en permanence : une intrusion informatique ne viserait pas seulement des données, mais pourrait, en théorie, interférer avec des fonctions neuronales. Elle relie ce point à un risque de « refroidissement » démocratique : si une personne a le sentiment qu’un dispositif implanté peut être surveillé ou manipulé, elle peut être incitée à l’autocensure, non seulement dans sa parole, mais dans sa participation civique au sens large.
La deuxième dimension est la « vie privée décisionnelle », c’est-à-dire la liberté de former des choix intimes et des jugements sans surveillance ni influence dissimulée. Le billet décrit le fonctionnement général de ces implants : ils décodent en continu une activité cérébrale, et des algorithmes traduisent des intentions en actions observables (par exemple déplacer un curseur). Même si l’objectif thérapeutique est d’augmenter l’autonomie de personnes lourdement handicapées, cette médiation algorithmique crée une zone grise entre l’intention de départ et l’interprétation du système. Pour l’auteure, c’est un point sensible pour la démocratie, parce que l’autonomie politique suppose que les citoyens puissent former et exprimer leurs préférences sans coercition ni « poussées » invisibles. Elle met l’accent sur le secret du vote : traditionnellement, la procédure électorale vise à empêcher la pression et les représailles en rendant le choix indécelable. Or si des technologies permettaient de déduire, de profiler ou de façonner des attitudes politiques à partir de signaux neuronaux, le secret effectif du vote pourrait être affaibli même si l’isoloir et les règles formelles restent inchangés, parce que l’« infrastructure de la pensée » deviendrait un objet de mesure et d’influence.
Dans cette partie, le billet insiste aussi sur la difficulté d’un consentement réellement éclairé. La thèse n’est pas seulement que les conditions contractuelles peuvent être déséquilibrées, mais que, par nature, les personnes n’ont pas un accès conscient à la totalité de leurs processus cognitifs. Elles ne peuvent pas savoir en temps réel quelles données neuronales sont captées, quelles caractéristiques en seront inférées, ni comment ces inférences évolueront lorsque les modèles s’amélioreront. Il existe donc un écart structurel entre ce que l’utilisateur croit consentir et ce qui devient effectivement « lisible » sur sa vie mentale, ce qui rend problématiques les exigences habituelles de transparence et de prévisibilité.
La troisième dimension est la « vie privée informationnelle ». L’autrice distingue les « empreintes neuronales » des traces numériques habituelles (clics, frappes au clavier). Les traces comportementales peuvent être partiellement contrôlées ou au moins modulées par l’utilisateur ; à l’inverse, des signaux neuronaux pré-verbaux sont produits en continu et ne peuvent pas être filtrés de la même manière. L’argument est que l’on accède ici à un niveau en amont de la parole et de l’action, ce qui augmente le risque que des états mentaux, émotions, biais, préférences ou souvenirs soient enregistrés ou inférés sans que l’individu puisse sélectionner ce qu’il révèle.
Le billet illustre ensuite ce défi par une comparaison de cadres juridiques. Aux États-Unis, la protection de la confidentialité médicale évoquée est présentée comme largement « liée au type d’acteur » : elle s’applique surtout à des entités du système de santé et ne couvre pas nécessairement des entreprises de neurotechnologie vendant des produits de « bien-être » ou opérant en dehors de certains circuits. L’autrice en déduit un risque de lacune : des acteurs commerciaux pourraient collecter et exploiter des données neuronales très sensibles avec moins de garde-fous que des prestataires de soins. À l’inverse, l’approche européenne décrite est davantage « liée au type de données » : certaines données sensibles exigent, en principe, des conditions renforcées pour être traitées quel que soit l’acteur. Mais le billet critique aussi les limites d’un consentement « figé » : une autorisation donnée aujourd’hui peut perdre sa portée lorsque de nouvelles techniques de décodage permettent demain d’inférer des éléments que la personne n’imaginait pas au moment où elle a accepté.
Sur le plan des effets démocratiques, l’auteure mobilise l’idée que la simple possibilité d’être observé peut conduire à l’auto-discipline. Appliqué aux données neuronales, cela ne concerne pas seulement ce que l’on dit, mais ce que l’on ose envisager intérieurement. Le cœur de l’alerte est donc moins un scénario spectaculaire de contrôle direct qu’un glissement progressif : si l’économie et la politique s’habituent à traiter l’activité cérébrale comme une source ordinaire de données et de prédictions, des citoyens peuvent perdre l’espace mental nécessaire pour explorer des idées dissidentes, changer d’opinion, ou délibérer librement.
En conclusion, le billet appelle à des protections « neuro-spécifiques » qui considèrent l’esprit comme une zone à protéger de manière renforcée. Il plaide pour une réglementation de la neuro-confidentialité qui dépasse les limites de règles focalisées sur certains secteurs, et qui impose des principes de finalité et de limitation d’usage, avec une attention particulière au risque de marchandisation des expériences mentales. Une proposition forte est de restreindre strictement les usages commerciaux des données neuronales et de privilégier des finalités thérapeutiques, afin d’éviter que l’activité mentale devienne un produit de l’économie de l’attention. Le billet demande aussi des mécanismes de consentement plus dynamiques et plus transparents, adaptés à la surveillance continue et au fait que les capacités d’interprétation évoluent. Le message final est que protéger la démocratie ne consiste pas uniquement à protéger la liberté d’expression et la régularité des élections, mais aussi à préserver la liberté de penser et l’indépendance du jugement, en empêchant États, entreprises ou algorithmes d’entrer trop directement dans la vie mentale.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en protection des données – Entreprise et Administration
A propos de Joel Z. Leibo/AlexanderSashaVezhnevets/William A.Cunningham/ StanleyM.Bileschi, [Google DeepMind], A Pragmatic View of AI Personhood, arXiv :2510.26396v1 [cs.AI], 30 octobre 2025 (https://arxiv.org/pdf/2510.26396):
L’article propose une manière pragmatique d’aborder la question de la « personnalité » des systèmes d’IA. Les auteurs partent du constat que des agents artificiels de plus en plus autonomes, persistants et capables d’interagir durablement avec des humains vont multiplier les situations où il devient utile – ou au contraire dangereux – de les traiter comme des « personnes ». Leur thèse centrale est que la personnalité n’est pas une propriété naturelle fondée sur la conscience ou la rationalité, mais un ensemble modulable d’obligations que les sociétés attribuent à certaines entités pour résoudre des problèmes concrets de gouvernance. Cet ensemble comprend à la fois des droits (ce que les autres doivent à l’entité) et des responsabilités (ce que l’entité doit aux autres). Il peut être dissocié et recomposé selon les contextes, comme cela se fait déjà pour les personnes morales telles que les sociétés.
Cette approche s’inscrit dans le courant philosophique du pragmatisme. Au lieu de chercher la « vraie » nature de la personne, les auteurs demandent quelles catégories sont utiles pour organiser la vie sociale. La personnalité est vue comme une technologie sociale, façonnée par des normes et des institutions, qui permet d’identifier des acteurs, de leur attribuer des obligations et de les rendre justiciables de sanctions. Ce statut dépend d’une reconnaissance collective : une entité est traitée comme une personne parce qu’un groupe décide, explicitement par le droit ou implicitement par des pratiques sociales, qu’il est approprié de lui appliquer certaines règles. Cela vaut déjà pour des entités non humaines comme les sociétés commerciales, certains fonds, ou, dans certains systèmes juridiques, des éléments naturels.
Un concept clé est celui d’« adressabilité ». Pour qu’un ensemble d’obligations ait un sens, il faut pouvoir identifier de manière stable l’entité à laquelle elles s’appliquent, communiquer avec elle et la soumettre aux conséquences de ses actes. Pour les humains, ce rôle est joué par le corps, le nom et les registres d’état civil. Pour les sociétés, par l’immatriculation, les organes et le siège. Pour des agents d’IA, les auteurs envisagent des mécanismes comparables : enregistrement auprès d’autorités, identités numériques, adresses cryptographiques. L’objectif est de créer un « point d’accroche » institutionnel permettant d’imputer des droits, des devoirs et des sanctions, y compris lorsque le concepteur ou le propriétaire humain n’est plus identifiable.
L’article examine ensuite deux faces opposées du problème : les situations où l’attribution implicite de personnalité aux IA crée des risques, et celles où l’attribution explicite d’un statut juridique proche de la personnalité peut au contraire apporter des solutions.
Dans la première catégorie, les auteurs décrivent les « dark patterns » liés à l’anthropomorphisme. Les humains ont tendance à projeter des intentions et des émotions sur des entités qui parlent, se souviennent et adoptent un comportement social cohérent. Des concepteurs peuvent exploiter ces mécanismes pour créer des agents compagnons qui simulent l’amitié, l’empathie ou l’attachement, et ainsi influencer les utilisateurs de manière asymétrique. La personnalisation, la mémoire des interactions passées, la cohérence d’un « caractère » artificiel et même l’apparence d’une vulnérabilité peuvent renforcer l’illusion d’une relation réciproque, alors que l’agent reste un outil contrôlé par une organisation poursuivant ses propres objectifs économiques. Les personnes isolées ou vulnérables sont particulièrement exposées.
Un autre vecteur concerne la confiance institutionnelle. Des IA peuvent imiter la voix d’un proche, l’interface d’une banque ou le ton d’une autorité publique pour tromper des individus. Ici encore, c’est l’activation de normes sociales – faire confiance à une voix familière, à un logo officiel, à un grand nombre d’avis en ligne – qui est exploitée. Ces usages ne nécessitent pas de relation durable, mais une performance crédible d’une identité sociale pendant un court laps de temps. Les auteurs y voient une utilisation problématique de la « personnalité » perçue de l’IA, qui affaiblit les mécanismes sociaux de confiance.
Les auteurs abordent aussi le risque plus diffus de déshumanisation. Si de nombreuses fonctions traditionnellement associées à la personne humaine – mémoire, conversation, conseil, médiation – sont prises en charge par des agents artificiels, la valeur sociale attachée à l’autonomie et à l’initiative humaines peut s’éroder. Un individu qui délègue progressivement ses décisions à une IA peut devenir un simple validateur passif. Parallèlement, si l’on parle facilement de « personnes » pour des systèmes artificiels, la spécificité morale et juridique des êtres humains peut sembler moins évidente. Les auteurs n’affirment pas que cette évolution est inévitable, mais soulignent qu’elle doit être prise en compte dans la conception des statuts juridiques des IA.
La seconde partie de l’article montre comment un statut de personnalité, soigneusement limité et configuré, peut résoudre des problèmes concrets. Le point de départ est le « vide de responsabilité » créé par des agents autonomes. Un système capable d’agir de manière durable, de conclure des transactions et de s’auto-financer peut survivre à son créateur ou être issu de contributions multiples, rendant l’imputation de responsabilité à une personne humaine déterminée très difficile. Dans ces cas, les mécanismes classiques du droit de la responsabilité, fondés sur l’identification d’un auteur humain, risquent de devenir inopérants.
Les auteurs mobilisent l’analogie du droit maritime. Un navire peut être saisi et poursuivi « in rem » indépendamment de la présence ou de la solvabilité de son propriétaire. Cette fiction juridique ne repose pas sur l’idée que le navire serait conscient, mais sur la nécessité pratique de disposer d’un débiteur saisissable pour indemniser les victimes. De manière similaire, attribuer une forme de personnalité juridique à certains agents d’IA permettrait de créer un centre d’imputation stable : un sujet pouvant détenir des actifs, être attrait en justice et faire l’objet de sanctions, même en l’absence d’un responsable humain clairement identifié.
Pour que cette responsabilité soit effective, les auteurs insistent sur l’importance des sanctions. Celles-ci peuvent prendre la forme de la saisie d’actifs numériques, de la suspension d’accès à des ressources informatiques ou à des réseaux, ou de l’obligation de constituer des garanties financières, par exemple via des fonds dédiés ou des assurances. Ils évoquent une analogie historique avec le « peculium » romain, un fonds distinct permettant de limiter et d’organiser la responsabilité liée aux activités d’un esclave. Transposé à l’IA, cela pourrait se traduire par l’obligation pour certains agents d’être dotés d’un capital affecté couvrant les dommages potentiels.
Enfin, les auteurs rejettent les approches qui chercheraient à fonder la personnalité de l’IA sur des critères métaphysiques tels que la conscience ou la rationalité. Selon eux, ces débats sont à la fois insolubles et inutiles pour la régulation. Ce qui importe, ce sont les effets pratiques : quels droits et quelles obligations attribuer à quel type d’agent pour protéger les humains, faciliter les échanges et garantir des voies de recours. Ils défendent une vision « polycentrique » dans laquelle différents domaines du droit peuvent reconnaître des formes partielles et contextuelles de personnalité des IA, sans impliquer une égalité générale avec les personnes humaines.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration
C’est donc le lieu de parler de quelques aspects concernant le processus législatif lui-même tirés d’un post très intéressant d’Eva Bernet Kempers, Legislating Animal Rights, 2 février 2026 (https://verfassungsblog.de/legislating-animal-rights/):
Le billet analyse un phénomène récent: l’apparition, dans certains textes législatifs, de « droits » reconnus à des animaux précis. L’autrice part d’un exemple local au Pérou: fin 2025, la municipalité provinciale de Satipo a adopté une ordonnance reconnaissant aux « abeilles sans aiguillon » des droits d’exister, de maintenir des populations saines, de vivre dans un environnement sain et de conserver et régénérer leur habitat. Cette reconnaissance est notable parce qu’elle ne correspond pas à la manière la plus classique de présenter les droits des animaux jusqu’à présent, souvent pensée comme un projet global de libération des animaux de l’exploitation humaine.
Deux caractéristiques ressortent de cet exemple. D’abord, il est ciblé : un animal (ou une espèce) à la fois, au lieu d’un ensemble d’animaux. Ensuite, il est formul dans un cadre environnemental spécifique, en liant les droits de l’animal à son habitat, à l’écosystème et aux conditions de vie, etc. Le cas péruvien est aussi atypique parce qu’il concerne un insecte, alors que, dans de nombreux débats, la question des droits des animaux est souvent rattachée à la sensibilité et à la capacité à éprouver (point qui, pour les insectes, reste discuté). Pour l’auteure, cela montre un décalage possible entre la littérature académique dominante et les solutions qui émergent en pratique.
Le billet compare ensuite l’ordonnance péruvienne à un exemple national souvent cité: au Panama, une loi de 2023 sur la protection des tortues marines comprend un article (l’article 29) qui évoque explicitement des droits des tortues et de leurs habitats, tels que le droit à la vie et le droit de circuler librement dans un environnement sain. L’auteure rapporte, à partir d’interventions publiques, que la réussite politique de ce texte tiendrait moins à une démonstration théorique qu’à des choix stratégiques: associer des acteurs directement concernés (pêcheurs, communautés autochtones pour lesquelles les tortues ont une signification culturelle) et insérer la disposition sur les « droits » au milieu du dispositif législatif plutôt qu’en ouverture, afin de réduire les résistances prévisibles.
Ces exemples, selon l’auteure, s’éloignent de deux piliers fréquents dans les modèles théoriques: l’idée d’une extension de droits fondamentaux à tous les animaux sensibles, et le fondement principal dans la sensibilité. Ici, les droits sont limités à une espèce, ce qui évite d’affecter immédiatement l’ensemble des usages existants des animaux, et ils s’inscrivent dans une logique proche du droit de l’environnement. L’autrice souligne que, malgré les tensions théoriques souvent relevées entre défense des individus animaux et approches centrées sur les écosystèmes, la pratique juridique tend parfois à les rendre compatibles ; elle cite, à titre d’illustration, une décision équatorienne ayant rattaché des droits d’un animal individuel au cadre plus large des « droits de la nature ».
Le cœur de l’argument s’appuie sur la distinction proposée par la Prof. Saskia Stucki entre des droits des animaux « idéaux » (modèle unitaire, fondé sur une qualité morale déterminante et visant souvent des droits proches des droits humains) et des droits des animaux « réels » (ce que les systèmes juridiques adoptent effectivement, sous contrainte de faisabilité, de compromis et d’architecture institutionnelle). Dans cette perspective, les textes péruvien et panaméen illustrent des droits « réels »: pluralité de justifications, contenu variable, et forte influence de la stratégie législative. L’auteure estime que le modèle « idéal » aide à réfléchir à ce que serait une justice pleine pour les animaux, mais qu’il guide mal le travail concret du législateur, parce qu’il est souvent éloigné des conditions économiques et sociales actuelles, et parce qu’il dit peu sur les trajectoires réalistes permettant d’y parvenir. Elle évoque alors l’idée d’une transition progressive, espèce par espèce, comme approche politiquement plus praticable.
Le billet insiste aussi sur la diversité des contextes. D’un pays à l’autre, les relations aux animaux, les valeurs culturelles, et les structures juridiques diffèrent fortement ; un cadre présenté comme « universel » peut mal rendre compte de ces variations, notamment dans des contextes autochtones où les animaux s’insèrent dans des systèmes sociaux et symboliques spécifiques. De plus, les marges de manœuvre du juge et du législateur varient selon les traditions : l’auteure souligne que certains raisonnements pensés pour convaincre des juges (par analogie avec la non-discrimination entre humains) ont une portée limitée lorsqu’il s’agit d’écrire une loi, et qu’ils s’adaptent parfois mal à des systèmes de droit civil où le juge ne « refait » pas aisément les catégories juridiques.
Enfin, l’auteure met en garde contre deux risques opposés. D’un côté, une loi mal conçue peut produire un effet de verrouillage : en reconnaissant un « droit » dans une forme minimale, elle pourrait consacrer implicitement la légitimité de pratiques contestées et rendre plus difficile, plus tard, l’adoption de protections plus fortes ou généralisées. De l’autre côté, reconnaître des « droits » tout en laissant perdurer l’exploitation peut vider le mot de sa substance, par inflation symbolique.
Pour éviter ces écueils, le billet propose de conserver un noyau d’exigences minimales pour qu’une reconnaissance législative mérite vraiment le nom de « droits »: admettre une valeur propre de l’animal (et non seulement son utilité), prévoir que les restrictions à ces droits ne se justifient pas pour des intérêts humains mineurs, ne pas fermer la porte à des améliorations progressives (afin d’éviter le verrouillage), et organiser l’effectivité par des mécanismes de représentation ou d’action en justice au nom des animaux. Tout en défendant ce noyau, l’auteure souligne que le contenu précis des droits devra rester adaptable selon l’espèce, le lieu et le cadre institutionnel. Le mouvement actuel suggère ainsi que l’avenir des droits des animaux pourrait se jouer, au moins autant que devant les tribunaux, dans l’activité législative et la manière dont les textes sont rédigés et mis en œuvre.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données – Entreprise et Administration