Droit à l’obscurité et interdiction de la reconnaissance faciale

Quelques réflexions tirées de W. Hartzog/E. Selinger /J. Hyojoo Rhee, Normalizing Facial Recognition Technology and The End of Obscurity (September 06, 2025). 6 European Review of Digital Administration and Law (ERDAL) 163 (2025) (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5450895):

Selon ses auteurs, la reconnaissance faciale n’est pas un outil parmi d’autres qu’il conviendrait de réguler avec prudence ou d’encadrer par des garde-fous, mais un instrument d’une dangerosité telle qu’il doit être purement et simplement interdit. Leur raisonnement prend place en trois parties : puissance technique propre de la reconnaissance faciale, mécanismes psychologiques de normalisation qui accompagnent son usage, et choix juridiques qui, loin de contenir le phénomène, contribuent à l’amplifier. C’est en reliant ces trois dimensions que les auteurs construisent leur démonstration et plaident pour une interdiction générale et définitive. Pour bien comprendre leur démarche, il convient de suivre pas à pas leur progression et de mettre en lumière les articulations essentielles de leur raisonnement.

Le point de départ de l’argumentation repose sur un constat technologique : la reconnaissance faciale constitue un outil de surveillance sans équivalent. Là où d’autres techniques de contrôle ont des limites matérielles, logistiques ou contextuelles, la reconnaissance faciale tire sa force d’un double mouvement. D’un côté, elle exploite des caractéristiques physiques universelles et visibles : chacun d’entre nous a un visage qui le singularise, mais qu’il est difficile, voire impossible, de masquer sans éveiller immédiatement des soupçons. Contrairement aux empreintes digitales, que l’on ne prélève qu’à l’occasion d’un contact direct avec un support ou un scanner, le visage est en permanence offert au regard. De l’autre côté, ce visage est déjà disséminé sur une infinité de supports numériques : photographies publiées en ligne, profils de réseaux sociaux, bases de données administratives ou commerciales. Ainsi, la reconnaissance faciale permet de relier en temps réel les corps présents dans l’espace public aux traces numériques accumulées sur Internet. Elle rend possible une identification instantanée, à grande échelle, et à un coût marginal extrêmement faible. Cette combinaison – universalité du signe physiologique et abondance des données disponibles – confère à la reconnaissance faciale une puissance de surveillance inédite.

Cette puissance technique ne s’arrête pas à l’identification. Les auteurs soulignent que la reconnaissance faciale s’intègre facilement à des infrastructures déjà existantes, comme les réseaux de caméras de surveillance. Elle peut en outre être augmentée par des modules complémentaires, notamment la détection d’émotions ou la caractérisation des comportements. Ces modules, qui prétendent inférer des états psychologiques à partir de l’expression du visage, s’apparentent à une nouvelle forme de physiognomonie numérique, souvent assimilée à de la pseudo-science. Leur diffusion accentue les risques de biais et de discriminations, puisqu’ils tendent à classer et à hiérarchiser les individus selon des critères contestables. L’ensemble produit un effet cumulatif : la reconnaissance faciale n’est pas seulement un outil parmi d’autres, elle est conçue pour devenir le cœur d’un écosystème de surveillance globale, capable de repérer, de suivre et de qualifier les personnes dans la plupart des espaces de leur vie quotidienne.

La comparaison avec d’autres technologies éclaire encore cette singularité. Les lecteurs automatiques de plaques d’immatriculation, par exemple, ne concernent que les conducteurs et n’opèrent que dans certains lieux. La surveillance des réseaux sociaux dépend de l’inscription volontaire et peut être contournée par le silence numérique. Le visage, lui, nous accompagne partout et constitue le signe par lequel nous sommes spontanément identifiés dans nos interactions sociales. C’est bien ce caractère incontournable et omniprésent qui rend la reconnaissance faciale plus intrusive que n’importe quel autre système de contrôle.

Une fois établi ce diagnostic technique, les auteurs introduisent une dimension sociopsychologique : le mécanisme de normalisation. Même si la reconnaissance faciale suscite d’abord des réactions de méfiance, ses usages répétés, surtout lorsqu’ils sont présentés comme pratiques ou anodins, finissent par rendre la technologie banale. Déverrouiller un smartphone par reconnaissance faciale ou franchir rapidement un contrôle d’embarquement à l’aéroport ne provoque pas d’indignation collective. Au contraire, ces gestes paraissent relever du confort, voire du progrès. Chaque usage de ce type contribue pourtant à installer dans les esprits l’idée que le scan du visage est normal, quotidien, acceptable. Deux processus distincts expliquent cette banalisation. Le premier est celui de l’habitue : à force de voir ou d’utiliser un dispositif, nous cessons d’y prêter attention. Ce qui était exceptionnel devient routinier. Le second est celui de la normalisation favorable : constatant que les autres utilisent sans difficulté un outil, nous en déduisons qu’il est légitime et nous sommes enclins à l’adopter à notre tour. Ces dynamiques psychologiques déplacent progressivement la frontière de ce qui est jugé tolérable.

L’enjeu, ici, est celui de l’« obscurité », concept que les auteurs privilégient par rapport à la seule notion de vie privée. L’obscurité désigne l’écran protecteur que constituent les coûts d’accès à l’information. Dans un monde analogique, il était toujours possible, en théorie, de recueillir des renseignements sur autrui, mais l’effort à fournir – en temps, en ressources, en déplacements – rendait l’opération difficile et décourageait la plupart des curieux. Cette obscurité, faite d’obstacles pratiques, protégeait la vie sociale ordinaire et permettait une certaine autonomie. La reconnaissance faciale, en réduisant presque à zéro ces coûts de transaction, détruit ce régime d’obscurité. Les conversations publiques, les déplacements quotidiens, les simples interactions sociales cessent d’être protégés par cette barrière implicite. La possibilité constante d’une identification et d’un suivi transforme l’espace public en un lieu d’exposition permanente, produisant un effet dissuasif sur la liberté d’expression et de comportement.

Le troisième volet du raisonnement met en cause le rôle du droit. Loin de constituer un contre-poids efficace, les cadres juridiques actuels favorisent la normalisation de la reconnaissance faciale. Plusieurs mécanismes sont ici identifiés. Le premier tient à l’exigence de dommage significatif. Pour qu’une atteinte à la vie privée soit sanctionnée, il faut généralement démontrer une conséquence grave et immédiate. Les petites intrusions répétées, les micro-surveillances qui forment le quotidien numérique, échappent ainsi à la vigilance juridique. Or ce sont précisément ces « entailles » multiples, qualifiées de « privacy nicks », qui produisent à long terme la véritable érosion de l’obscurité. Le deuxième mécanisme réside dans l’importance donnée au consentement et à l’exposition volontaire. La logique est simple : ce qui est volontairement montré, ou accepté, ne peut plus être protégé. Mais appliquée au visage, cette logique devient absurde : nous ne pouvons pas dissimuler nos traits sans altérer nos interactions sociales. Le droit assimile pourtant la simple visibilité à une renonciation à la protection, ouvrant ainsi la voie à l’usage illimité des images disponibles. Le troisième mécanisme est lié à la focalisation sur les effets de proximité. Les juridictions cherchent un lien direct entre une action et un préjudice précis. Elles peinent à appréhender les effets cumulatifs et diffus d’un ensemble d’actes isolés. Ce morcellement empêche de traiter la surveillance comme un phénomène systémique et de mesurer ses conséquences globales sur la société. Enfin, le quatrième mécanisme tient à la dépendance aux attentes sociales. Le droit américain, notamment, évalue la protection de la vie privée à l’aune des « attentes raisonnables » des individus. Or ces attentes sont elles-mêmes façonnées par l’habitude et la banalisation. Plus la surveillance devient commune, plus elle est jugée acceptable, dans un cercle vicieux qui réduit sans cesse le champ de la protection juridique.

L’analyse se tourne alors vers l’Europe. L’Union européenne, avec son AI Act, a adopté des interdictions ciblées, par exemple pour l’usage de la reconnaissance faciale en temps réel dans l’espace public. Mais ces interdictions sont assorties d’exceptions, notamment pour la recherche de personnes disparues ou la prévention de menaces graves. Ces exceptions, en apparence limitées, ouvrent des brèches qui risquent de banaliser l’usage de la technologie et de créer les conditions de sa généralisation. La dynamique observée aux États-Unis pourrait ainsi se reproduire en Europe, malgré une tradition plus protectrice en matière de droits fondamentaux.

Face à ce constat, quelles réponses envisager ? Les auteurs examinent plusieurs options, mais les écartent les unes après les autres. L’approche technologique neutre, consistant à encadrer les usages plutôt que les outils, paraît séduisante en théorie mais se révèle inefficace en pratique, car elle suppose que la reconnaissance faciale puisse produire plus de bénéfices que de risques, ce qui est démenti par son potentiel d’abus quasi illimité. Les garde-fous procéduraux, tels que l’obligation d’un mandat judiciaire ou le recueil du consentement, ne font qu’institutionnaliser la pratique et la rendre encore plus acceptable aux yeux du public. Les interdictions partielles, même lorsqu’elles visent à protéger certains espaces ou certaines catégories de personnes, demeurent fragiles et exposées à des pressions politiques ou économiques.

La conclusion s’impose alors : seule une interdiction totale permettrait de préserver l’obscurité et de protéger la démocratie. La reconnaissance faciale doit être stigmatisée comme une technologie intrinsèquement dangereuse, dont les risques surpassent les éventuels avantages. Les auteurs n’ignorent pas l’objection d’irréalisme qui leur est adressée. Ils répondent en rappelant que d’autres pratiques, comme la torture, ne sont pas interdites parce qu’elles sont toujours inefficaces, mais parce qu’elles sont incompatibles avec les valeurs fondamentales d’une société démocratique. De même, certains produits ou technologies ont été interdits du fait de leur nocivité, sans que l’on cherche à équilibrer bénéfices et inconvénients. L’interdiction de la reconnaissance faciale doit être pensée dans cette logique : non comme un refus du progrès, mais comme un choix de société destiné à protéger les conditions mêmes de la liberté.

Ce plaidoyer pour la prohibition se veut aussi un avertissement intergénérationnel. La banalisation de la reconnaissance faciale ne se fait pas en un jour, mais elle produit des effets cumulatifs irréversibles. Les générations futures risquent de se retrouver dans un monde où l’obscurité a disparu, où chaque geste est traçable, chaque rencontre enregistrée, chaque émotion analysée. Dans un tel monde, l’autonomie individuelle et la liberté collective seraient durablement compromises. Refuser la reconnaissance faciale aujourd’hui, c’est donc préserver un espace d’obscurité indispensable à la vie démocratique de demain.

L’analyse, si elle peut sembler extrême dans le paysage actuel des débats, a le mérite de mettre en lumière la spécificité de la reconnaissance faciale et de rappeler que certaines technologies, par leur nature même, ne peuvent être domestiquées par de simples régulations. Elle invite juristes, législateurs et citoyens à reconsidérer la logique habituelle du compromis et à envisager que, face à certaines menaces, la seule réponse proportionnée soit l’exclusion.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Protection de la personnalité, Protection des données, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire