
Le billet de blog de Brandon LaLonde, The Modern Sword of Damocles: Risks and Rewards of AR glasses, 17 février 2026 (https://iapp.org/news/a/the-modern-sword-of-damocles-risks-and-rewards-of-ar-glasses) part de la parabole de l’épée de Damoclès pour décrire l’ambivalence autours des lunettes de réalité augmentée, i.e. des lunettes capables d’ajouter des informations numériques au monde réel.
Il rappelle qu’un ancêtre de cette technologie, créé en 1968 à l’université de l’Utah, était si encombrant qu’il devait être suspendu au plafond. Malgré l’écart avec les produits actuels, deux éléments restent au cœur du concept : suivre les mouvements de la tête et permettre de voir le monde réel tout en y superposant des éléments numériques.
Les modèles récents (ou prototypes) se présentent désormais comme des objets portables et discrets, enrichis de fonctions comme la commande vocale, le suivi du regard, des haut-parleurs, des microphones et surtout des caméras, ce qui ouvre des usages nouveaux mais aussi des questions inédites de vie privée et d’intelligence artificielle, en particulier pour les personnes filmées ou enregistrées “par accident” simplement parce qu’elles se trouvent à proximité.
Pour clarifier les termes, l’auteur distingue plusieurs “réalités”. La réalité virtuelle enferme l’utilisateur dans un environnement numérique, généralement avec un casque qui affiche des écrans et suit les mouvements, sans permettre d’interagir avec le monde physique tel qu’il est. La réalité augmentée, au contraire, laisse voir le monde réel et y ajoute des informations, par exemple une traduction qui s’affiche sur ce que l’on regarde. La “réalité mixte” va plus loin en faisant interagir éléments physiques et numériques (exemple donné : un compagnon virtuel qui réagit à l’environnement). “Réalité étendue” sert de terme fourre-tout. Enfin, s’agissant des lunettes, “lunettes intelligentes” est souvent employé au sens large, y compris pour des modèles qui n’affichent pas forcément d’éléments en surimpression mais intègrent audio, caméra et assistant vocal.
Le billet insiste sur l’attrait pratique au quotidien. Ces lunettes permettent d’écouter de la musique et de téléphoner sans casque audio intra-auriculaire et souvent sans sortir le téléphone, de prendre des photos et vidéos très rapidement, et d’utiliser des commandes vocales pour réduire les gestes nécessaires aux tâches usuelles. La traduction est un exemple parlant : certaines lunettes traduisent un texte écrit “dans le champ de vision”, et d’autres proposent la traduction d’une conversation avec à la fois un rendu audio et une transcription affichée en temps réel. Cette promesse est aujourd’hui fortement liée à l’IA, présentée comme un assistant personnel capable de répondre à des questions sur ce que l’utilisateur voit (par exemple “qu’est-ce que je regarde ?”) ou sur des éléments de contexte (par exemple “où ai-je garé ma voiture ?”). L’auteur indique que ces démonstrations peuvent fonctionner et expliquent l’intérêt du marché, tout en rendant plus visibles les risques liés aux données et à l’IA.
Au-delà du grand public, le texte met en avant des usages de santé et d’accessibilité. Il cite des travaux où des lunettes guident des patients atteints de maladies chroniques du cœur ou des poumons dans des exercices personnalisés, via un “physiothérapeute” virtuel à distance, avec un retour positif des participants. Il mentionne aussi des pistes pour des personnes souffrant de déficits visuels (par exemple difficultés de vision nocturne ou certaines pathologies oculaires), grâce à l’adaptation de la façon dont l’environnement est perçu et à des recommandations personnalisées. Un autre axe est l’assistance aux personnes souffrant de troubles cognitifs, avec des dispositifs conçus pour aider à reconnaître des objets (et parfois des visages) et pour permettre aux proches ou soignants de suivre et aider à distance via capteurs et caméras. L’idée générale est que ces lunettes ne sont pas seulement des gadgets, mais peuvent devenir des aides techniques à forte valeur sociale, ce qui explique l’intérêt des acteurs publics et privés.
Le troisième grand domaine est l’usage professionnel, particulièrement dans des contextes “à enjeux” comme la santé et l’industrie. En formation médicale, les lunettes peuvent superposer des informations anatomiques sur des mannequins et faciliter l’apprentissage de gestes techniques. Au bloc opératoire, elles peuvent aider à visualiser des structures internes et afficher des informations utiles sur le patient (par exemple des paramètres vitaux). Dans l’industrie, l’intérêt porte sur la formation à des tâches complexes, l’exécution en environnements dangereux et la standardisation des procédures ; l’auteur rapporte une étude où les travailleurs utilisant ces outils auraient une attention plus soutenue et respecteraient plus régulièrement les règles de sécurité que ceux qui utilisent des supports papier ou un téléphone. Il cite aussi l’exemple d’un fabricant qui déploie un dispositif de type lunettes/casque en entreprise et revendique des gains importants de qualité et de vitesse de formation. L’idée sous-jacente est que l’équipement devient une interface de travail, pas seulement un accessoire personnel.
C’est précisément cette présence “au visage”, potentiellement permanente, qui concentre les inquiétudes. Du point de vue des personnes autour du porteur, la question est celle d’un enregistrement discret, continu ou opportuniste, plus difficile à détecter qu’un smartphone tenu à bout de bras. Les fabricants tentent d’ajouter des signaux visibles (par exemple une lumière indiquant l’enregistrement), mais le billet souligne que des contournements techniques existent et peuvent neutraliser ces garde-fous. Le texte évoque aussi un scénario aggravant : relier des lunettes à de la reconnaissance faciale pour identifier toute personne dans le champ de vision, possibilité déjà démontrée, et même envisagée comme fonctionnalité par certains acteurs. Au-delà de l’identification, la captation d’informations sensibles est un risque banal mais majeur : mots de passe affichés, documents confidentiels sur un écran ou sur un bureau, échanges dans des lieux semi-privés, etc.
Du point de vue de l’utilisateur lui-même, le billet insiste sur une collecte très fine, car ces dispositifs combinent souvent des capteurs capables de déduire des informations intimes : mouvements des yeux, signes physiologiques (par exemple rythme cardiaque), indices émotionnels, comportements et habitudes. Même si certaines données sont “pseudonymisées” ou présentées comme non directement identifiantes, l’auteur rappelle qu’une quantité limitée de données biométriques peut suffire à inférer des caractéristiques de santé ou d’autres informations sensibles. Il ajoute que les utilisateurs ne mesurent pas toujours à quel point ces capteurs peuvent être plus intrusifs qu’un téléphone classique, parce qu’ils fonctionnent près du corps et en continu.
Le texte relie ensuite ces risques à la surveillance au travail. Il rappelle des controverses autour du suivi fin de la productivité (par exemple le temps considéré comme “hors tâche”) déjà observé avec d’autres outils. Transposé aux lunettes, le scénario devient celui d’un équipement imposé, captant images, sons, mouvements et éventuellement données physiologiques, avec des effets potentiels sur la dignité, la liberté d’action et l’équilibre des relations de travail. Même lorsque l’objectif affiché est la sécurité ou la performance, le risque de dérive est celui d’un contrôle permanent, difficile à contester faute de visibilité sur ce qui est réellement collecté et sur les usages secondaires.
L’IA ajoute une couche de complexité parce que beaucoup de fonctions reposent sur des traitements à distance. Pour reconnaître un objet, interpréter de l’audio ou répondre à une question “sur ce que je vois”, les lunettes envoient souvent un flux d’images et de sons vers des serveurs (le “nuage”) pour traitement, ce qui augmente la sensibilité et la valeur des données en circulation et multiplie les risques (accès non autorisés, réutilisations, transferts, durées de conservation). À cela s’ajoutent les risques propres aux systèmes d’IA : erreurs d’identification, biais qui conduisent à des conclusions injustes ou stéréotypées, et plus largement une “réalité filtrée” par des algorithmes qui personnalisent l’information en fonction du comportement passé. L’auteur évoque l’idée, déjà discutée, d’une personnalisation immersive qui pourrait aller jusqu’à influencer l’expérience d’achat ou la perception de l’environnement, même si les exemples peuvent paraître extrêmes.
Sur la réponse juridique et de gouvernance, le billet souligne d’abord que la régulation ne part pas de zéro, mais que des zones grises subsistent parce que la technologie avance vite, notamment sur les données biométriques et le consentement des personnes filmées. Il cite plusieurs repères. Dans le contexte européen, un porte-parole de la Commission aurait rappelé que tout enregistrement doit être clairement signalé et reposer sur une base juridique, en renvoyant au règlement général sur la protection des données et au cadre sur l’IA. Le texte mentionne aussi une décision rendue en décembre 2025 par la Cour de justice de l’Union européenne selon laquelle les données obtenues par observation directe au moyen de technologies comme des lunettes intelligentes sont réputées collectées auprès de la personne concernée, ce qui déclenche les obligations d’information prévues pour cette situation (notamment celles associées à l’article 13 du RGPD). Il cite enfin, à titre comparatif, des éléments de droit américain : exigences sectorielles en santé, règles de non-discrimination et d’encadrement des examens/informations médicales en emploi, obligations de notification de la surveillance dans certains États, et incertitudes autour des lois d’écoute/enregistrement selon que l’on assimile ou non l’enregistrement via lunettes à un appel. Le message pratique est que, même si des questions restent ouvertes, l’idée d’un “vide juridique” est trompeuse : les lunettes se situent au croisement de règles existantes, parfois mal adaptées, mais applicables.
L’auteur conclut sur des mesures concrètes pour gagner la confiance, autour de la “protection dès la conception”. Une voie mise en avant est le traitement directement sur l’appareil : effectuer localement les opérations sensibles (détection de conversation, reconnaissance, etc.), puis supprimer les données au lieu de les envoyer à des serveurs, ce qui réduit l’exposition. Il cite aussi des techniques visant à limiter ce qui est révélé ou conservé et des politiques donnant davantage de contrôle à l’utilisateur (par exemple suppression des enregistrements vocaux, activation volontaire des fonctions d’IA). Mais il insiste également sur une dimension sociale : ces lunettes exigeraient une évolution des normes de comportement. Les porteurs devraient être transparents et désactiver les fonctions “intelligentes” quand elles ne sont pas nécessaires, tandis que les personnes autour devraient rester attentives aux signaux matériels d’enregistrement et faire valoir leurs attentes de confidentialité dans les contextes privés ou sensibles. Pour les responsables de conformité et de gouvernance numérique, la conclusion est que l’outil combine de vrais bénéfices (santé, sécurité, productivité) et un paysage de risques large (captation discrète, biométrie, surveillance, IA et transferts), et que la manière dont organisations, fabricants et régulateurs répondront déterminera si ces lunettes deviennent un instrument d’autonomie ou une menace durable pour la vie privée.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration