En septembre 2021, l’autorité hongroise de protection des données (APD ; Nemzeti Adatvédelmi és Információszabadság Hatóság) avait ouvert une enquête d’office contre Budapest Bank Zrt. (ci-après la Banque) concernant l’utilisation d’un logiciel d’intelligence artificielle (IA) appliqué aux enregistrements audio des conversations téléphoniques du service clientèle entre mai 2018 et le début de l’enquête. Selon la Banque, le logiciel utilisait un traitement des signaux vocaux basé sur l’IA pour identifier les périodes de silence, les différentes voix parlant en même temps, les mots clés et les éléments émotionnels (tels que la vitesse, le volume et la hauteur de la voix) au sein des fichiers sonores enregistrés afin d’identifier l’insatisfaction des clients. Une fois que le logiciel avait pris la décision automatisée d’identifier les appels en fonction de ces critères, un employé de la banque écoutait les enregistrements et rappelait les clients afin de traiter et de tenter de résoudre le problème. L’APD avait conclu, dans une décision NAIH-85-3/2022 du 08.02.2022 que la banque ne pouvait pas invoquer l’intérêt légitime comme base juridique valable au titre de l’article 6, paragraphe 1, point f) RGPD (ou de toute autre base juridique énumérée à l’article 6, paragraphe 1, RGPD) pour le traitement en question. (Décision traduite et présentée sur gdprhub : https://gdprhub.eu/index.php?title=NAIH_(Hungary)_-_NAIH-85-3/2022)
Ces logiciels devraient purement et simplement être interdits en lien avec la relation de travail. L’article 5, paragraphe 1, point f) du Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (…). (Règlement sur l’intelligence artificielle) [https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689], prévoit en effet que « la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité » est interdite.
Le règlement justifie cette interdiction par le fait que la « (…) base scientifique des systèmes d’IA visant à identifier ou à inférer les émotions suscite de vives inquiétudes, d’autant plus que l’expression des émotions varie considérablement d’une culture et d’une situation à l’autre, comme d’ailleurs chez un même individu. Les principaux défauts de ces systèmes sont, entre autres, leur fiabilité limitée, leur manque de précision et leur généralisabilité (sic) limitée. Par conséquent, les systèmes d’IA qui identifient ou déduisent les émotions ou les intentions de personnes physiques sur la base de leurs données biométriques peuvent conduire à des résultats discriminatoires et peuvent être intrusifs pour les droits et libertés des personnes concernées. Si l’on considère le déséquilibre de pouvoir qui existe dans le cadre du travail ou de l’enseignement, combiné au caractère intrusif de ces systèmes, ces derniers risqueraient de déboucher sur le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques. Par conséquent, il convient d’interdire la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA destinés à être utilisés pour déterminer l’état émotionnel de personnes physiques dans des situations liées au lieu de travail et à l’enseignement. Cette interdiction ne devrait pas porter sur les systèmes d’IA mis sur le marché strictement pour des raisons médicales ou de sécurité, tels que les systèmes destinés à un usage thérapeutique. (Règlement sur l’intelligence artificielle), consid. 44)
Cette interdiction prendra effet le 2 février 2025 (Règlement sur l’intelligence artificielle, art. 113)
Me Philippe Ehrenström, avocat, LLM
