
A propos de Lindsay Gross, Neural Privacy and Democratic Self-Rule: Governance Challenges of Invasive Brain-Computer Interfaces, Symposium on AI & Democracy., 5 Ffévrier 2026 (https://www.law.kuleuven.be/ai-summer-school/blogpost/Blogposts/neural-privacy-and-democratic-self-rule-governance-challenges-of-invasive-brain-computer-interfaces):
Le billet examine les enjeux de gouvernance posés par les interfaces cerveau-machine invasives, à mesure qu’elles passent d’outils médicaux à produits potentiellement commercialisés. L’auteure prend comme exemple le dispositif « Telepathy » de Neuralink, et mentionne aussi d’autres acteurs du secteur. Son idée centrale est que ces technologies ne soulèvent pas seulement des risques sanitaires ou de cybersécurité classiques, mais qu’elles peuvent fragiliser des conditions de base de la démocratie en touchant directement à la vie mentale des personnes, donc à la capacité des citoyens à se déterminer librement, à consentir et à participer au débat public sans crainte.
Le texte structure l’analyse autour de trois dimensions de la vie privée.
La première est la « vie privée physique », entendue comme l’intégrité corporelle appliquée au cerveau. Une interface invasive n’est pas un capteur externe qu’on retire à volonté : elle implique une chirurgie, l’introduction durable de matériel dans le système nerveux, et une dépendance continue à un logiciel et à une infrastructure technique. Cela change la nature du consentement, car l’utilisateur ne peut pas « se déconnecter » simplement comme avec une application. L’auteure insiste aussi sur la vulnérabilité nouvelle créée par le fait que l’implant et ses communications doivent être sécurisés en permanence : une intrusion informatique ne viserait pas seulement des données, mais pourrait, en théorie, interférer avec des fonctions neuronales. Elle relie ce point à un risque de « refroidissement » démocratique : si une personne a le sentiment qu’un dispositif implanté peut être surveillé ou manipulé, elle peut être incitée à l’autocensure, non seulement dans sa parole, mais dans sa participation civique au sens large.
La deuxième dimension est la « vie privée décisionnelle », c’est-à-dire la liberté de former des choix intimes et des jugements sans surveillance ni influence dissimulée. Le billet décrit le fonctionnement général de ces implants : ils décodent en continu une activité cérébrale, et des algorithmes traduisent des intentions en actions observables (par exemple déplacer un curseur). Même si l’objectif thérapeutique est d’augmenter l’autonomie de personnes lourdement handicapées, cette médiation algorithmique crée une zone grise entre l’intention de départ et l’interprétation du système. Pour l’auteure, c’est un point sensible pour la démocratie, parce que l’autonomie politique suppose que les citoyens puissent former et exprimer leurs préférences sans coercition ni « poussées » invisibles. Elle met l’accent sur le secret du vote : traditionnellement, la procédure électorale vise à empêcher la pression et les représailles en rendant le choix indécelable. Or si des technologies permettaient de déduire, de profiler ou de façonner des attitudes politiques à partir de signaux neuronaux, le secret effectif du vote pourrait être affaibli même si l’isoloir et les règles formelles restent inchangés, parce que l’« infrastructure de la pensée » deviendrait un objet de mesure et d’influence.
Dans cette partie, le billet insiste aussi sur la difficulté d’un consentement réellement éclairé. La thèse n’est pas seulement que les conditions contractuelles peuvent être déséquilibrées, mais que, par nature, les personnes n’ont pas un accès conscient à la totalité de leurs processus cognitifs. Elles ne peuvent pas savoir en temps réel quelles données neuronales sont captées, quelles caractéristiques en seront inférées, ni comment ces inférences évolueront lorsque les modèles s’amélioreront. Il existe donc un écart structurel entre ce que l’utilisateur croit consentir et ce qui devient effectivement « lisible » sur sa vie mentale, ce qui rend problématiques les exigences habituelles de transparence et de prévisibilité.
La troisième dimension est la « vie privée informationnelle ». L’autrice distingue les « empreintes neuronales » des traces numériques habituelles (clics, frappes au clavier). Les traces comportementales peuvent être partiellement contrôlées ou au moins modulées par l’utilisateur ; à l’inverse, des signaux neuronaux pré-verbaux sont produits en continu et ne peuvent pas être filtrés de la même manière. L’argument est que l’on accède ici à un niveau en amont de la parole et de l’action, ce qui augmente le risque que des états mentaux, émotions, biais, préférences ou souvenirs soient enregistrés ou inférés sans que l’individu puisse sélectionner ce qu’il révèle.
Le billet illustre ensuite ce défi par une comparaison de cadres juridiques. Aux États-Unis, la protection de la confidentialité médicale évoquée est présentée comme largement « liée au type d’acteur » : elle s’applique surtout à des entités du système de santé et ne couvre pas nécessairement des entreprises de neurotechnologie vendant des produits de « bien-être » ou opérant en dehors de certains circuits. L’autrice en déduit un risque de lacune : des acteurs commerciaux pourraient collecter et exploiter des données neuronales très sensibles avec moins de garde-fous que des prestataires de soins. À l’inverse, l’approche européenne décrite est davantage « liée au type de données » : certaines données sensibles exigent, en principe, des conditions renforcées pour être traitées quel que soit l’acteur. Mais le billet critique aussi les limites d’un consentement « figé » : une autorisation donnée aujourd’hui peut perdre sa portée lorsque de nouvelles techniques de décodage permettent demain d’inférer des éléments que la personne n’imaginait pas au moment où elle a accepté.
Sur le plan des effets démocratiques, l’auteure mobilise l’idée que la simple possibilité d’être observé peut conduire à l’auto-discipline. Appliqué aux données neuronales, cela ne concerne pas seulement ce que l’on dit, mais ce que l’on ose envisager intérieurement. Le cœur de l’alerte est donc moins un scénario spectaculaire de contrôle direct qu’un glissement progressif : si l’économie et la politique s’habituent à traiter l’activité cérébrale comme une source ordinaire de données et de prédictions, des citoyens peuvent perdre l’espace mental nécessaire pour explorer des idées dissidentes, changer d’opinion, ou délibérer librement.
En conclusion, le billet appelle à des protections « neuro-spécifiques » qui considèrent l’esprit comme une zone à protéger de manière renforcée. Il plaide pour une réglementation de la neuro-confidentialité qui dépasse les limites de règles focalisées sur certains secteurs, et qui impose des principes de finalité et de limitation d’usage, avec une attention particulière au risque de marchandisation des expériences mentales. Une proposition forte est de restreindre strictement les usages commerciaux des données neuronales et de privilégier des finalités thérapeutiques, afin d’éviter que l’activité mentale devienne un produit de l’économie de l’attention. Le billet demande aussi des mécanismes de consentement plus dynamiques et plus transparents, adaptés à la surveillance continue et au fait que les capacités d’interprétation évoluent. Le message final est que protéger la démocratie ne consiste pas uniquement à protéger la liberté d’expression et la régularité des élections, mais aussi à préserver la liberté de penser et l’indépendance du jugement, en empêchant États, entreprises ou algorithmes d’entrer trop directement dans la vie mentale.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en protection des données – Entreprise et Administration