
La « Class Action Complaint and Demand for Jury Trial » déposée par Megan Lisota contre Heartland Dental LLC et RingCentral Inc devant l’United District Court for the Northern District of Illinois, Eastern Division, Case No. 25-cv-7518 traite de la question de l’usage d’outils d’intelligence artificielle pour l’analyse en temps réel des appels téléphoniques, sans le consentement préalable des interlocuteurs concernés. Le litige met en cause des pratiques de surveillance discrète par des outils d’IA dans un contexte médical.
La lecture du document, et du commentaire de Me James Gatto (https://www.ailawandpolicy.com/wp-content/uploads/sites/65/2025/07/AI-Recording-Issues-Article-0725.pdf) susciteles réflexions suivantes :
Heartland Dental, un « Dental Support Organization » (DSO), fournit des services de gestion non cliniques à plus de 1’700 cliniques dentaires affiliées. Dans ce cadre, elle a mis en œuvre une solution téléphonique unifiée fournie par RingCentral, laquelle intègre un outil d’intelligence artificielle, « RingCentral AI ». Cette solution comprend la transcription automatique des appels, des résumés générés par IA, l’extraction de mots-clés, et une analyse du sentiment visant à évaluer le ton émotionnel du patient. L’IA opère en tâche de fond, écoute en temps réel les appels passés entre les patients et les cliniques dentaires, et traite ces données à des fins à la fois fonctionnelles (amélioration de la relation client) et commerciales (entraînement des modèles d’IA de RingCentral).
Le cœur du litige repose sur l’absence de consentement éclairé des patients appelant les cliniques affiliées à Heartland. Selon la plainte, les patients n’avaient aucun moyen raisonnable de savoir que leurs appels étaient enregistrés et analysés en temps réel par une entité tierce – RingCentral – qui n’était ni annoncée comme partie à la communication, ni autorisée expressément par les patients à intervenir dans ces échanges. Cette situation, selon la plaignante, constitue une violation du Federal Wiretap Act (18 U.S.C. § 2511), qui interdit l’interception intentionnelle de communications orales, électroniques ou téléphoniques sans le consentement de toutes les parties (ou dans certaines juridictions, d’au moins une partie).
À cela s’ajoute une dimension plus délicate : la nature médicale des appels. En tant qu’organisation de soutien dentaire, Heartland intervient dans un contexte où les communications téléphoniques contiennent inévitablement des données de santé identifiables (« Individually Identifiable Health Information » ou IIHI), protégées par la loi fédérale HIPAA (Health Insurance Portability and Accountability Act). Cette loi interdit l’obtention ou la divulgation non autorisée de telles données. RingCentral, en écoutant et analysant ces appels à des fins propres (développement de ses produits et entraînement de ses modèles), aurait donc, toujours selon la plaignante, enfreint les règles de confidentialité définies par HIPAA.
L’article rédigé par James Gatto, avocat expert en droit de l’IA, met en exergue l’importance, pour toute entreprise utilisant des outils d’enregistrement ou de prise de notes basés sur l’IA, d’anticiper les risques juridiques associés. Il identifie plusieurs points critiques : d’abord, la nécessité de mettre en place une politique interne claire couvrant notamment les aspects du consentement, la gestion des cas où un interlocuteur refuse d’être enregistré, la précision des transcriptions générées par IA, les risques en matière de confidentialité et de secret professionnel, les politiques de rétention ou de suppression des données, la vérification de la conformité des fournisseurs et des outils utilisés, ainsi que l’usage secondaire des données collectées. L’auteur insiste aussi sur l’impératif d’une due diligence renforcée à l’égard des solutions IA déployées, notamment lorsque les fournisseurs réutilisent les données à des fins d’amélioration de leurs services.
James Gatto attire très justement l’attention des praticiens sur les outils d’enregistrement et de transcription (speech to text), dont l’usage peut entraîner quantité de questions pratiques liées à l’information, au consentement ou au secret médical. Or le problème de ces outils est souvent d’être relativement discrets, tapis dans des solutions parfois éprouvées et « bien pratiques » – dont on a simplement oublié de mesurer la conformité.
Par ailleurs le litige illustre un changement de paradigme dans la perception de la voix comme donnée personnelle. L’arrivée de l’intelligence artificielle dans la boucle transforme la voix en une source de données sémantiques, émotionnelles et comportementales. L’IA ne se contente pas d’écouter : elle interprète, elle classe, elle devine, elle prédit. Dès lors, tout traitement de la voix doit désormais être évalué non seulement sous l’angle technique ou fonctionnel, mais à la lumière des principes juridiques fondamentaux : autonomie de la personne, droit à la transparence, maîtrise sur ses propres données, et proportionnalité du traitement.
Morale de cette histoire : connaissez vos outils, analysez-les, critiquez-les – ce n’est pas parce qu’ils sont pratiques qu’ils sont sans danger.
Comme est en train de le montrer la Class Action contre Workday (https://droitdutravailensuisse.com/2025/06/01/recrutement-intelligence-artificielle-ia-et-discrimination-class-action/), toute désinvolture à cet égard peut avoir des conséquences tout à fait ravageuses…
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle