
A propos d’Amy Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions Part 1: Why Conversational Data Creates Unique Legal Risk, 13 janvier 2026 (https://aiforlawyers.substack.com/p/ai-note-takers-wiretap-laws-and-the?utm_campaign=post-expanded-share&utm_medium=web&triedRedirect=true):
L’auteure part d’une scène devenue banale dans la pratique professionnelle : une réunion à distance entre avocats, à laquelle participe discrètement un assistant de prise de notes fondé sur l’intelligence artificielle. Ce «bot» n’est pas un simple dictaphone amélioré. Il enregistre l’audio, transcrit intégralement les échanges, capte des captures d’écran de la vidéo, extrait des noms et adresses e-mail depuis l’invitation de calendrier et peut même créer une empreinte vocale durable pour identifier chaque participant. Ce qui pouvait sembler anodin comme une simple aide administrative soulève en réalité des questions juridiques importantes
L’article montre que ces outils ne sont plus des exceptions. Depuis la pandémie, la visioconférence est devenue une infrastructure ordinaire du travail, et la transcription automatisée s’est imposée par défaut sur des plateformes comme Zoom, Teams ou Google Meet. Des services spécialisés tels qu’Otter.ai sont massivement utilisés, y compris dans les cabinets d’avocats, et le secteur des centres d’appels traite chaque jour des millions de conversations via des systèmes d’IA capables de transcrire, analyser et stocker les échanges. Beaucoup d’utilisateurs ignorent cependant ce qu’il advient réellement des données collectées.
L’auteure insiste sur le fait qu’une transcription de réunion n’est pas un simple fichier texte local. Selon l’architecture technique et les conditions contractuelles du fournisseur, le système peut conserver l’audio, des images, des métadonnées sur les participants, des identifiants persistants de locuteurs et des droits d’utilisation très larges au profit du prestataire. C’est précisément cet écart entre les attentes intuitives des utilisateurs et les capacités réelles des fournisseurs qui crée un risque juridique.
Le texte analyse ensuite pourquoi les données issues de conversations sont particulièrement précieuses pour l’entraînement des modèles d’IA. Contrairement aux données issues du web, ces échanges sont contextuels, structurés et liés à des situations réelles de travail. Ils contiennent non seulement des mots, mais aussi des problèmes concrets, des stratégies, des décisions et parfois des résultats mesurables. Dans les centres d’appels, ils sont même reliés à des dossiers clients et à des indicateurs de satisfaction. Pour les entreprises d’IA, ces informations constituent un matériau d’entraînement de très haute qualité, bien supérieur à des textes publics aléatoires.
Cette valeur technique s’accompagne toutefois d’un risque juridique accru. Des actions collectives ont déjà été intentées aux États-Unis contre des services comme Otter.ai et contre des systèmes de centres d’appels de grandes entreprises technologiques. Les plaignants soutiennent que ces fournisseurs ne sont pas de simples outils neutres de productivité, mais des tiers qui interceptent des communications privées et les exploitent commercialement.
L’auteure décrit ensuite comment, à partir d’une seule réunion, un assistant de type Otter peut créer un ensemble de données multimodales comprenant le contenu des propos, le contexte (qui parle, quand et avec qui), des images des participants et des données biométriques sous forme d’empreintes vocales. Pour l’entraînement de systèmes conversationnels, ce type de base de données est extrêmement attractif. Du point de vue de la protection de la personnalité, cela ressemble toutefois à une extraction systématique d’informations sensibles sans consentement clair et éclairé.
Le texte examine ensuite la position publique d’Otter.ai, qui reconnaît l’importance stratégique des transcriptions de réunions comme «système de référence» pour les entreprises. Cette valorisation commerciale confirme, selon l’auteure, que les conversations ne sont pas seulement utiles aux clients, mais aussi au fournisseur pour améliorer ses propres produits d’IA.
Une partie importante du post est consacrée à la comparaison entre l’utilisation de données issues du web et celle de conversations privées. Les débats juridiques sur le «web scraping» portent surtout sur le droit d’auteur. Les enregistrements de réunions, eux, relèvent d’un tout autre cadre: ils touchent au droit des écoutes, à la protection des données personnelles, au droit biométrique et à la sphère privée. Les échanges enregistrés n’étaient pas destinés à être publics et peuvent contenir des secrets professionnels, des informations médicales ou des stratégies d’affaires.
L’auteure se penche ensuite sur les arguments de «dé-identification» avancés par certains fournisseurs. Otter affirme par exemple anonymiser les données avant de les utiliser pour entraîner ses modèles. Le texte explique pourquoi cette défense est fragile. Même sans noms, le contexte d’une conversation permet souvent de réidentifier les personnes ou les organisations concernées. Lorsque des enregistrements audio, des images ou des empreintes vocales sont conservés, l’idée même d’anonymisation devient largement illusoire. De plus, Otter admet que les données intégrées dans des modèles déjà entraînés ne peuvent pratiquement plus être retirées, ce qui suggère une appropriation durable de la matière première fournie par les utilisateurs.
Un autre point critique concerne le mécanisme de consentement. Dans la pratique, c’est souvent la personne qui active le bot qui donne l’autorisation au fournisseur, et non l’ensemble des participants à la réunion. Les conditions générales d’Otter transfèrent explicitement la responsabilité d’informer et d’obtenir le consentement des autres participants à l’utilisateur qui a invité le bot. Selon les plaignants, cela transforme le fournisseur en tiers interceptant des communications sans consentement de toutes les parties.
L’article conclut en montrant que l’intérêt économique croissant pour les données conversationnelles renforce les arguments des plaignants. Plus ces données sont précieuses pour entraîner des modèles d’IA, plus il est plausible de soutenir que les fournisseurs ne se contentent pas de fournir un service, mais exploitent commercialement des communications privées. Cela alimente des revendications fondées sur le droit fédéral américain des écoutes (ECPA), sur des lois étatiques comme la CIPA californienne et sur des législations biométriques telles que la loi de l’Illinois (BIPA).
En filigrane, l’auteure invite les praticiens à ne pas banaliser la présence de ces assistants de prise de notes. Ils sont utiles, mais leur fonctionnement réel soulève des enjeux sérieux de transparence, de consentement et de responsabilité juridique, enjeux qui seront développés plus en détail dans la seconde partie de la série.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données