Les outils IA de traduction dans le secteur de la santé

L’article de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, in : van Kolfschooten et al. Discover Public Health, (2025) (https://doi.org/10.1186/s12982-025-01277-z) examine l’usage croissant, en Europe, d’outils de traduction fondés sur l’intelligence artificielle (IA) comme Google Translate et ChatGPT pour surmonter les barrières linguistiques entre soignants et patients.

Le point de départ est pratique : l’interprétariat professionnel est souvent difficile d’accès (coût, manque de disponibilité, droits variables selon les pays), alors que ces outils sont rapides, gratuits et omniprésents.

Les auteurs distinguent deux usages principaux : la traduction de textes (par exemple consignes de sortie, instructions de prise de médicaments, formulaires) et la traduction de la parole en temps réel (notamment via la fonction vocale de Google Translate).

Leur question est juridique et éthique : quels risques ces traductions automatisées font-elles peser sur les droits des patients, et dans quelle mesure le droit européen protège-t-il contre ces risques ?

Sur le plan technique, Google Translate repose surtout sur des modèles conçus pour la traduction, entraînés sur des paires de phrases alignées entre langues, et peut transformer la voix en texte puis en voix (reconnaissance vocale et synthèse). ChatGPT repose sur un modèle généraliste de langage, entraîné sur de très grands corpus non alignés, capable de produire une traduction écrite par prédiction de suites de mots plausibles. Dans les deux cas, il s’agit d’outils généralistes, non conçus ni validés pour un usage médical, ce qui compte juridiquement : leurs politiques d’utilisation déconseillent ou n’encadrent pas l’usage clinique, et surtout ils ne sont pas intégrés à des dispositifs de contrôle qualité et d’obligation de résultat comparables à ceux des dispositifs médicaux ou des services d’interprétariat.

Les auteurs combinent deux méthodes. D’une part, ils analysent les conditions et politiques publiques de Google Translate et de ChatGPT (conservation des données, transparence, responsabilité, garde-fous “santé”). D’autre part, ils analysent, de manière doctrinale, trois cadres juridiques européens susceptibles de s’appliquer : le Règlement général sur la protection des données (RGPD), le Règlement sur les dispositifs médicaux (MDR) et l’AI Act (règlement européen sur l’IA). Ils en tirent un constat central : la protection existe, mais elle est partielle et laisse des “zones grises” importantes lorsque des outils généralistes sont utilisés dans un contexte à haut risque comme les soins.

Le premier ensemble de risques concerne la vie privée et la confidentialité. Traduire une plainte, un diagnostic, une liste de médicaments ou une lettre médicale implique souvent de traiter des données particulièrement sensibles. Or, l’utilisation d’un service en ligne signifie typiquement que les informations sont transmises à un prestataire externe, parfois stockées, analysées ou réutilisées pour améliorer le service. Les politiques examinées indiquent que des données peuvent être conservées et réemployées (avec des possibilités d’opt-out limitées selon les versions et réglages), sans dispositif spécifique “santé” ni garanties compréhensibles pour un patient. Cela crée plusieurs points de friction pour un juriste : qui est responsable du traitement (l’hôpital, le médecin, le fournisseur de l’outil, ou plusieurs acteurs)? sur quelle base légale repose ce traitement et, surtout, l’éventuelle réutilisation ? quels flux transfrontières de données existent ? et comment informer le patient de façon suffisamment claire ? Les auteurs rappellent que des incidents réels (fuites, cyberattaques) illustrent que le risque n’est pas théorique : la donnée de santé est une cible, et la traduction peut devenir un canal involontaire d’exposition.

Le deuxième ensemble de risques touche l’autonomie du patient, le droit à l’information et le consentement éclairé. En médecine, comprendre est une condition du choix : si une traduction est inexacte, trop vague, ou manque des nuances (risques, alternatives, instructions), le patient peut accepter un acte sans en saisir la portée. Les auteurs s’appuient sur la jurisprudence de la Cour européenne des droits de l’homme, qui a déjà sanctionné des situations où l’information médicale n’était pas effectivement comprise par la personne (notamment lorsque la barrière linguistique n’avait pas été correctement surmontée). L’enjeu, pour le droit, n’est donc pas seulement d’“avoir fourni” une information, mais s’être assuré qu’elle est intelligible pour ce patient dans ce contexte. Or, une traduction automatisée peut échouer sur des points critiques (posologie, allergies, contre-indications) et, contrairement à un interprète humain, elle ne peut pas demander des clarifications pertinentes, ni vérifier activement la compréhension, ni jouer un rôle de médiation culturelle.

Le troisième ensemble de risques concerne les biais et la discrimination. Les auteurs expliquent que la qualité de la traduction varie selon les langues, les dialectes et les accents, notamment parce que les données d’entraînement sont inégalement riches. Cela peut conduire certains groupes à recevoir, de manière systématique, une communication moins fiable, avec des conséquences possibles sur la sécurité des soins et l’égalité d’accès. Ils relèvent aussi des biais de genre : pour certaines langues où le genre n’est pas marqué, des systèmes de traduction tendent à “deviner” et peuvent retomber sur des stéréotypes (par exemple en attribuant plus souvent des pronoms masculins ou en associant des traits différents selon le genre), ce qui peut, dans un contexte clinique, influencer la manière dont des symptômes sont compris ou retranscrits. Juridiquement, si l’outil contribue à une dégradation de la qualité des soins pour des groupes protégés, on peut entrer dans une logique de discrimination indirecte : une pratique apparemment neutre (utiliser un traducteur automatique) produit des effets défavorables disproportionnés sur certaines populations.

Le quatrième ensemble de risques porte sur la responsabilité en cas d’erreur. Si une mauvaise traduction entraîne un dommage (mauvaise prise de médicament, consentement invalide, retard de traitement), qui répond ? Les auteurs soulignent l’ambiguïté : le professionnel de santé a une obligation de diligence et ne peut pas se décharger sur un outil, mais le fournisseur de technologie peut aussi être en cause si l’outil est défectueux, trompeur, ou insuffisamment encadré. Dans la pratique, les conditions d’utilisation des plateformes tendent à limiter la responsabilité du fournisseur et à renvoyer la charge du “bon usage” vers l’utilisateur. Cette combinaison (usage clinique réel, mais outils conçus et contractuellement cadrés comme services généralistes) crée, selon les auteurs, un terrain propice aux litiges et à l’insécurité juridique, sans mécanisme simple de réparation pour le patient.

Sur l’état du droit européen, l’article conclut à une couverture fragmentée. Le MDR s’applique surtout aux produits “destinés” par le fabricant à une finalité médicale (diagnostic, traitement, prévention, etc.). Comme Google Translate et ChatGPT ne sont pas commercialisés comme dispositifs médicaux, ils échappent en principe à cette réglementation, ce qui signifie qu’ils ne passent pas par les exigences de validation, de documentation et de surveillance propres aux dispositifs médicaux. L’AI Act adopte une logique par niveaux de risque : les traducteurs généralistes relèvent typiquement d’un niveau d’obligations plus léger que les systèmes explicitement médicaux, même s’ils peuvent être utilisés dans des situations où l’erreur met en jeu la santé. Les obligations y sont surtout de transparence (informer qu’il s’agit d’une IA, etc.), ce que les auteurs jugent insuffisant face aux enjeux cliniques. Le RGPD, en revanche, s’applique dès qu’il y a traitement de données personnelles, et a fortiori de données de santé ; il impose une base légale, la minimisation, la sécurité, l’information, et souvent une analyse d’impact (DPIA) lorsque le risque est élevé. Mais, selon les auteurs, le RGPD ne “résout” pas tout : il encadre la donnée, pas la qualité médicale de la traduction ; et dans la chaîne de traitement, la clarification des rôles (responsable, sous-traitant, transferts internationaux) reste délicate, surtout avec des services grand public.

L’article propose enfin une voie opérationnelle, centrée sur des politiques internes et des choix d’architecture plutôt que sur une interdiction. L’idée est de réserver l’IA à des usages proportionnés au risque, avec des règles claires : quand l’utiliser, quand l’éviter, comment vérifier et documenter. Les auteurs insistent sur la formation des professionnels : connaître les limites, repérer les situations à enjeu (consentement, chirurgie, décisions lourdes, urgences), et utiliser des méthodes de vérification de compréhension, comme demander au patient de reformuler avec ses mots. Ils recommandent aussi d’investir dans des outils de traduction spécialisés et mieux gouvernés, idéalement déployés localement (ou dans des environnements maîtrisés) pour réduire les transferts vers des serveurs externes, et conçus avec une logique de “protection des données dès la conception”. Ils soulignent l’intérêt de partenariats où les institutions de santé gardent un contrôle réel sur l’outil (continuité de service, langues couvertes, mises à jour), afin d’éviter une dépendance excessive à des fournisseurs dont les priorités peuvent ne pas coïncider avec l’équité d’accès ou la sécurité des patients.

Pour des avocats suisses, l’intérêt principal de cette étude est méthodologique et pratique: elle montre que le risque ne se limite pas à une “erreur de traduction”, mais touche un faisceau de droits (confidentialité, information, égalité, accès aux soins, recours effectif) et que la réglementation, même dense, peut laisser un vide lorsque des outils généralistes sont détournés vers des usages cliniques. Le message final est de gouverner l’usage : définir des règles de déploiement, renforcer la transparence envers les patients, choisir des solutions techniques compatibles avec les exigences de protection des données, et conserver des solutions humaines (interprètes) pour les situations où l’exactitude et la compréhension priment sur la rapidité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

L’ »Opinion » récemment rendue par le Comité d’éthique du barreau de NY traite de l’usage des outils IA de transcription, dont nous avons déjà parlé ici (notamment : https://droitdutravailensuisse.com/2025/11/30/les-systemes-dia-de-transcription-gain-de-temps-ou-risque/ et https://droitdutravailensuisse.com/2025/07/30/lintelligence-artificielle-qui-transcrit-et-analyse-les-appels-telephoniques/). Elle est, plus précisément, consacrée aux enjeux déontologiques liés à l’usage d’outils d’intelligence artificielle pour enregistrer, transcrire et résumer des échanges entre avocat et client.

Les plateformes de visioconférence et de communication (par exemple Zoom ou Teams) rendent l’enregistrement beaucoup plus fréquent qu’à l’époque des conversations téléphoniques, parfois même par simple réglage par défaut, et les outils actuels ne se limitent plus à « capturer » un son mais produisent des transcriptions attribuant les propos à des locuteurs et, via des modèles génératifs, des résumés qui interprètent le sens et l’intention. La création de ces objets (enregistrement, transcription, résumé) soulève des risques nouveaux, à la fois sur le processus (collecte et traitement des données, sécurité, conservation) et sur les conséquences juridiques ultérieures (confidentialité, secret, privilège, preuve, discovery, gestion du risque).

L’opinion distingue deux situations: (i) l’avocat utilise un outil IA pour enregistrer/transcrire/résumer des conversations avec son client; (ii) le client utilise son propre outil IA pour le faire, situation en grande partie hors du contrôle de l’avocat. Dans les deux cas, le texte rappelle que l’avocat demeure tenu par les règles déontologiques pertinentes (compétence, confidentialité, supervision, interdiction de conduite trompeuse) et qu’il doit comprendre, à un niveau non technique mais réel, comment fonctionnent les outils utilisés et quels risques ils créent.

Lorsque l’initiative vient de l’avocat, le point de départ est l’exigence de loyauté et l’interdiction de comportements trompeurs: même en droit new-yorkais (souvent « one-party consent » pour l’enregistrement), la déontologie impose en principe de ne pas enregistrer une conversation avec un client à son insu. L’opinion considère que ce raisonnement demeure valable avec l’IA. Elle admet que le client s’attend généralement à ce que l’avocat prenne des notes et rédige un mémo, mais elle explique que la situation change dès lors qu’un résumé « IA » est produit à partir d’un enregistrement et d’une transcription préalable : ce ne sont pas seulement des notes, c’est un processus automatisé fondé sur un verbatim. La présence même d’un enregistrement (même si, ultérieurement, l’avocat ne conserve que le résumé) est jugée déterminante car elle peut modifier la manière dont le client s’exprime et lui ôte la possibilité de choisir ses mots en sachant qu’un verbatim est créé. En conséquence, l’opinion conclut que le client doit être informé et que son consentement doit être obtenu chaque fois que la conversation est enregistrée par un système « AI-empowered »; elle suggère aussi que, si l’avocat inscrit une politique de ce type dans la lettre de mission, il doit la divulguer et surtout la respecter strictement.

Le document ajoute une dimension de conformité juridique: au-delà de la déontologie, les règles étatiques américaines varient sur le consentement à l’enregistrement (certains États exigeant le consentement de toutes les parties) et certains États protègent spécifiquement les données biométriques, pouvant inclure les empreintes vocales (« voiceprints »). Comme les outils de transcription peuvent utiliser des caractéristiques biométriques de la voix pour identifier et attribuer les propos, l’opinion souligne le risque de violation de telles lois si l’usage est fait sans information ni consentement, et avertit que l’IA ne doit pas être considérée comme capable de déterminer automatiquement la légalité de l’enregistrement selon les juridictions.

Sur la confidentialité et le privilège, l’opinion insiste sur l’obligation de protéger les communications client et de préserver secret et privilège, ce qui implique une réflexion sur la conservation ou non des enregistrements, transcriptions et résumés. Elle met en balance des risques opposés : conserver un enregistrement peut, selon les cas, servir au client (par exemple dans une logique de « advice of counsel ») mais peut aussi exposer à la production en litige d’éléments défavorables (par exemple des propos spontanés, non mûris, pouvant être recherchés par une partie adverse). Elle demande donc à l’avocat d’évaluer les garanties de sécurité et de confidentialité offertes par le fournisseur : lieu et durée de stockage, conditions d’accès et de récupération, risque de production en procédure (discovery), utilisation éventuelle des données pour l’entraînement, existence de droits à suppression. Comme ces paramètres sont souvent fixés par le prestataire plutôt que par le cabinet, l’avocat doit, lorsque c’est pertinent, informer le client des risques de perte de confidentialité et de privilège, a fortiori si le client utilise ses propres outils.

Sur la compétence professionnelle, le texte rappelle deux exigences pratiques. Premièrement, l’avocat ne doit pas se reposer sur les sorties de l’IA : tout enregistrement, toute transcription et tout résumés destinés à être conservés ou susceptibles d’être invoqués ultérieurement doivent être relus et vérifiés par l’avocat afin d’en assurer l’exactitude. Le document vise explicitement le risque que l’IA introduise des erreurs, mais aussi le risque plus subtil que la formalisation écrite donne une importance accrue à des propos informels ou à un conseil donné « à chaud », et recommande une revue rapide après production pour corriger, nuancer ou compléter si nécessaire. Deuxièmement, la compétence implique une compréhension réelle des outils : savoir comment ils fonctionnent, connaître les conditions contractuelles, maîtriser les réglages (notamment désactiver un enregistrement activé par défaut), et prévoir la conduite à tenir en cas d’enregistrement involontaire (par exemple suppression, avec l’accord du client).

L’opinion traite enfin de la gouvernance interne: les règles relatives à la supervision exigent que les avocats encadrant des collaborateurs et du personnel assurent une formation spécifique sur l’usage des outils IA et sur les obligations associées, ainsi qu’une supervision continue. Autrement dit, la question n’est pas seulement individuelle (le choix de l’avocat) mais organisationnelle (politiques du cabinet, paramétrage des outils, procédures de contrôle).

Lorsque l’initiative vient du client, l’opinion décrit une zone de risque accrue, car l’avocat ne maîtrise ni l’outil, ni ses paramètres de sécurité, ni l’accès aux enregistrements/transcriptions/résumés, ce qui peut empêcher l’avocat d’assurer les devoirs rappelés plus haut. Elle souligne en particulier un risque de contentieux ultérieur si le client s’appuie sur un résumé généré par son outil sans que l’avocat ait pu le relire et en valider l’exactitude. L’opinion privilégie donc une clarification contractuelle dès le début de la relation : idéalement, obtenir l’accord du client pour ne pas utiliser d’outil d’enregistrement/transcription/synthèse sans notification préalable à l’avocat, ou pour recourir uniquement aux outils choisis/contrôlés par le cabinet. Si le client insiste pour utiliser un outil non approuvé, plusieurs réponses sont envisagées: demander que la conversation ne soit pas enregistrée; insérer dans la convention d’honoraires une clause indiquant que tout enregistrement/transcription/résumé généré par l’outil du client ne sera pas considéré comme opposable ou déterminant à l’égard de l’avocat tant qu’il n’a pas été communiqué rapidement pour permettre une vérification indépendante; et avertir le client des risques spécifiques pour la confidentialité et le privilège puisque le stockage et la sécurité seront hors contrôle du cabinet.

En synthèse, l’opinion ne proscrit pas l’usage de l’IA pour ces tâches mais encadre fortement la pratique: consentement préalable du client dès qu’il y a enregistrement, analyse au cas par cas de l’opportunité tactique et des risques (secret, privilège, conservation, exposition procédurale), vérification humaine systématique des transcriptions et résumés destinés à être conservés ou utilisés, maîtrise technique minimale des outils et de leurs réglages, et, lorsque le client utilise ses propres outils, mise en place de garde-fous contractuels et d’avertissements explicites afin de limiter les malentendus et les risques de confidentialité.

Committee on Professional Ethics, The New York City Bar Association, Formal Opinion 2025-6: Ethical Issues Affecting Use Of Ai To Record, Transcribe, And Summarize Conversations With Clients, 22 décembre 2025

(Source : https://www.nycbar.org/reports/formal-opinion-2025-6-ethical-issues-affecting-use-of-ai-to-record-transcribe-and-summarize-conversations-with-clients/#:~:text=The%20Professional%20Ethics%20Committee%20%28Michael%20E.%20Salzman%2C%20Chair%29,transcribe%20and%20create%20a%20summary%20of%20the%20conversation)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

A propos de Walker, Christina and Walker, Christina and Birrer, Alena and Birrer, Alena and Wack, Morgan and Wack, Morgan and Schiff, Kaylyn and Schiff, Daniel and Messina, JP, Beyond Deception: A Functional Typology of Political Deepfakes (November 03, 2025). (Available at SSRN: https://ssrn.com/abstract=5717943. Voir aussi : https://www.techpolicy.press/scrutinizing-the-many-faces-of-political-deepfakes/):

L’article part du constat que la recherche et le débat public traitent souvent les deepfakes politiques comme s’ils étaient surtout des vidéos très réalistes destinées à tromper l’électeur et à provoquer un scandale. Or, dans les faits, les usages observés sont beaucoup plus variés.

Les auteurs prennent comme point de départ des épisodes concrets, par exemple des vidéos attribuées au président Zelensky diffusées en 2023, dont certaines étaient des parodies grossières, d’autres de la propagande peu efficace, et quelques-unes réellement trompeuses.

Cette diversité crée un angle mort si l’on reste dans une logique binaire “authentique vs. mensonger” : on risque de sur-réglementer des contenus expressifs ou satiriques, et de sous-préparer les réponses aux contenus réellement dangereux. Ils rappellent aussi que les deepfakes ne menacent pas seulement par leur capacité à convaincre, mais aussi par leur capacité à installer le doute et à offrir un “prétexte au mensonge” : un acteur pris en défaut peut rejeter une preuve authentique en affirmant qu’il s’agit d’un faux, ce qui fragilise l’écosystème informationnel et la confiance collective.

Pour dépasser cette vision réductrice, les auteurs proposent une typologie fonctionnelle, conçue pour décrire comment un deepfake politique “fonctionne” dans la communication politique, plutôt que de présumer son effet.

Ils retiennent une définition large du deepfake politique : un contenu audio, image ou vidéo, partiellement ou totalement synthétique, dont le but ou l’effet est d’influencer des acteurs, des institutions ou des processus politiques ; cette définition inclut aussi des manipulations simples (“cheapfakes”) et ne suppose pas nécessairement l’usage de techniques de deep learning. Point important pour des juristes : l’unité d’analyse n’est pas seulement le fichier (la vidéo ou l’image), mais “l’instance de partage” — le même contenu peut être classé différemment selon qui le diffuse, avec quel texte d’accompagnement, dans quel contexte et via quel canal.

La typologie est organisée en cinq dimensions qui se combinent :

La première, le contenu, décrit ce que montre le deepfake pris isolément : qui ou quoi est visé (un politicien, un groupe, une institution, un processus comme le vote, un enjeu, etc.), le “genre” (divertissement/expressif, éducatif, propagande, mobilisation symbolique, publicité, rumeur/gossip, contenu incohérent), le contexte suggéré (scandale, crime, crise, élection, guerre, relations internationales, enjeux touchant des groupes marginalisés, débats sur la régulation des deepfakes, etc.), le ton du créateur envers la cible (positif, négatif, neutre/ambigu), et d’éventuels dommages représentés (violence, haine, stéréotypes, atteintes à des normes démocratiques, ou aucun).

La deuxième dimension, le design, décrit la “fabrication” : support (audio/image/vidéo), techniques (montage simple, échange de visage, génération par modèle, clonage de voix, découpage/assemblage audio ou vidéo), degré de réalisme (réaliste, “étrange”, exagéré, stylisé type mème), et part de synthèse (entièrement synthétique, surtout synthétique, surtout authentique, authentique). Les auteurs insistent sur un point contre-intuitif mais utile en pratique : réalisme et sophistication technique ne se confondent pas, car des manipulations simples peuvent paraître crédibles, tandis que des contenus entièrement générés peuvent être volontairement caricaturaux.

La troisième dimension, l’intentionnalité, vise ce que cherche à obtenir le diffuseur au moment du partage : persuasion politique, promotion de théories complotistes, divertissement, marketing, propagation d’un récit/rumeur, ou démarche éducative (sensibilisation), ainsi que le ton du diffuseur envers la cible et l’éventuel “timing” stratégique (publication calée sur un événement très visible).

La quatrième dimension, la divulgation, décrit si et comment le caractère synthétique est signalé : qui divulgue (créateur/diffuseur, plateforme, concepteur du modèle via filigrane ou métadonnées, ou personne), où (dans le contenu, dans le texte du post, ailleurs), sous quelle forme (texte, marque visuelle, métadonnées, autre), avec quelle visibilité (élevée à nulle) et quel degré de formalisme.

La cinquième dimension, la dissémination, porte sur la circulation : type d’acteur (célèbre ou non hors ligne, grand ou petit nombre d’abonnés en ligne), type de plateforme (interactive ou non, one-to-many ou one-to-one), et schéma de diffusion (coordonné ou non, automatisé ou non).

Pour montrer l’intérêt concret de cette grille, l’article l’applique à 70 cas “saillants” observés autour de l’élection présidentielle américaine de 2024, collectés dans une fenêtre de quatre semaines (deux semaines avant et deux après) selon une base d’incidents dédiée.

Résultat principal : le scénario souvent redouté d’une vague de deepfakes hyperréalistes, négatifs et massivement diffusés n’est pas ce qui domine dans cet échantillon.

La plupart des contenus visent un individu politique (environ 86%), relèvent du registre expressif/divertissant (environ 84%), sont des images plutôt que des vidéos (environ 84%), et sont fréquemment stylisés en “mèmes” (environ 43% dans la catégorie “mème-ifié”). Les contenus créés avec des outils de génération avancés sont majoritaires (près de 89%), et une large part est entièrement synthétique (environ 80%).

Sur le fond, les deepfakes pro-cible sont au moins aussi fréquents que les deepfakes anti-cible : environ la moitié expriment un ton positif envers la personne représentée, contre un peu plus de 40% négatifs (le reste étant neutre ou ambigu). Autre point saillant pour des praticiens : la divulgation est le plus souvent absente (dans environ 86% des cas), et la diffusion provient majoritairement de comptes peu connus avec peu d’abonnés (environ 76%), ce qui suggère une production abondante mais pas nécessairement portée par des acteurs institutionnels très visibles.

Les auteurs proposent ensuite une classification simplifiée en 2×2 pour parler plus clairement des familles de deepfakes, en croisant le réalisme (réaliste vs. non réaliste) et le ton (positif vs. négatif). Cela donne quatre catégories : des deepfakes réalistes et négatifs (“darkfakes”), qui correspondent au cas le plus “inquiétant” dans l’imaginaire public, mais qui ne représentent ici qu’une petite minorité (de l’ordre de 10–12% selon le comptage présenté) et proviennent uniquement de comptes à faible audience ; des deepfakes réalistes et positifs (“glowfakes”), également rares (environ 10%) ; des deepfakes non réalistes et positifs (“fanfakes”), les plus fréquents (environ 43–44%), qui valorisent un candidat comme dans une fiction de fan ; et des deepfakes non réalistes et négatifs (“foefakes”), aussi fréquents (environ 35%), qui caricaturent l’adversaire, souvent sur un mode narratif ou culturel (héros/vilains).

Le message sous-jacent est que l’essor d’outils puissants ne se traduit pas mécaniquement par davantage de contenus trompeurs : dans cet échantillon, la génération avancée est souvent mobilisée pour des productions positives, expressives ou satiriques, tandis que des attaques peuvent passer par des montages plus simples, parfois plus “contrôlables” pour atteindre un effet précis.

Dans la discussion, les auteurs soulignent que la typologie sert d’abord à créer un langage commun pour comparer des cas, mesurer des tendances et concevoir des réponses proportionnées. Ils reconnaissent aussi des limites importantes : données surtout anglophones, centrées sur des plateformes et une période spécifiques, et classification qui comporte une part de jugement.

Surtout, ils insistent sur la difficulté à mesurer l’impact réel : il est plus facile de catégoriser des impacts possibles que de prouver ce qui a effectivement changé dans l’opinion ou dans un résultat électoral. Ils ajoutent donc, en complément, une sous-typologie des impacts qui distingue le type d’impact (réputationnel, électoral, institutionnel, cohésion sociale, réglementaire, éducatif), l’échelle (de l’individu à la société), la probabilité (réalisé, plausible, spéculatif) et la temporalité (immédiat, différé, durable). Un point utile pour la gouvernance est l’idée que les dommages les plus importants peuvent être cumulatifs et systémiques : même des contenus “mèmes” apparemment peu dangereux peuvent, par accumulation, contribuer à éroder la confiance, à brouiller les repères et à polariser durablement, ce qui n’est pas bien traité par des réponses focalisées sur chaque incident pris isolément.

Sur le plan pratique, la proposition centrale est de mieux “instrumenter” l’observation : incident reporting plus standardisé, analyses comparables entre pays et événements, et réponses plus ciblées selon les profils (par exemple, distinguer les contenus réalistes sans divulgation, diffusés de manière coordonnée, des contenus ouvertement satiriques). Pour les plateformes et régulateurs, l’article suggère qu’une politique efficace ne peut pas se limiter à traquer l’hyperréalisme trompeur ; elle doit aussi tenir compte des usages expressifs, de l’absence fréquente de divulgation, des canaux de diffusion (y compris one-to-one), et du risque d’effets cumulatifs.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Droit de la protection des données

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

Quelques réflexions tirées du livre blanc de nLighten, Où se trouvent vraiment vos données ?, (accessible ici : https://www.nlighten.com/fr/whitepapers/ou-se-trouvent-vraiment-vos-donnees/):

Le livre blanc explique que, dans l’économie numérique, la question déterminante n’est plus seulement « où » les données sont stockées, mais surtout « qui » peut y accéder et sous l’égide de quel droit.

Il part d’un constat opérationnel : beaucoup d’organisations ne savent pas précisément où résident leurs données, quels acteurs techniques y ont accès et quel cadre juridique s’applique en pratique.

Dans la perspective européenne présentée, l’Union redéfinit la confiance numérique autour d’un principe de contrôle effectif : les données liées à des personnes en Europe doivent rester gouvernées par des règles européennes, non seulement sur le papier mais dans la réalité technique et contractuelle. Cette orientation est rattachée au droit fondamental à la protection des données (Charte des droits fondamentaux, art. 8) et au RGPD, dont la portée territoriale peut s’étendre à des organisations situées hors UE lorsqu’elles traitent des données de personnes se trouvant dans l’UE (notamment via l’offre de biens/services ou le suivi de comportement).

Le document insiste ensuite sur une distinction souvent mal comprise mais centrale pour les décisions cloud : la résidence des données et la souveraineté des données ne sont pas la même chose.

La résidence renvoie au lieu physique où les données sont stockées ou traitées.

La souveraineté renvoie à la juridiction qui régit l’accès, les obligations et, surtout, la capacité d’une autorité étrangère à exiger un accès, même si les données sont physiquement en Europe.

Autrement dit, héberger « en UE » ne suffit pas si le fournisseur ou la chaîne de sous-traitance reste soumis à des lois étrangères susceptibles d’imposer une divulgation, ou de créer un risque d’accès incompatible avec les exigences européennes. Le message est simple : la localisation est un élément, mais le contrôle juridique et technique est l’enjeu décisif.

Dans cette logique, la publication décrit un durcissement de l’application des règles en Europe : les autorités de protection des données seraient passées d’une posture principalement pédagogique à une approche plus coercitive, centrée sur les transferts internationaux, la responsabilité du responsable de traitement et la capacité à démontrer des garanties effectives. Elle cite des exemples emblématiques de sanctions et de mesures correctrices.

Elle souligne surtout que, pour une entreprise, le risque ne se limite pas à l’amende : une injonction de cesser d’utiliser un outil ou un service peut désorganiser une activité, imposer une migration en urgence, interrompre des fonctions critiques (mesure d’audience, messagerie, relation client) et créer un choc de conformité avec des effets commerciaux et réputationnels.

Le socle juridique européen mis en avant articule plusieurs instruments qui convergent vers un message unique : les transferts et les accès transfrontaliers doivent être maîtrisés et, lorsque des lois étrangères créent un risque d’accès disproportionné, des mesures supplémentaires deviennent nécessaires. Le RGPD encadre strictement les transferts (art. 44 à 49) et prévoit des sanctions élevées. Les recommandations 01/2020 du Comité européen de la protection des données sont présentées comme une méthode pratique : évaluer la législation du pays tiers, apprécier le niveau de protection réel et, si besoin, compléter les garanties (techniques, organisationnelles, contractuelles). À ce cadre s’ajoutent, selon la publication, l’EU Data Act, le Cybersecurity Act (avec une logique de certification des services TIC et cloud), et le programme « Digital Decade » qui fixe une ambition d’infrastructure européenne « sécurisée, souveraine et durable ».

L’ensemble est décrit non comme un empilement théorique, mais comme une orientation politique et réglementaire cohérente : réduire la dépendance juridique et technique à des acteurs soumis à des juridictions non européennes.

Un point important du document est la critique du « mythe de l’hébergement européen ».

L’idée qu’un centre de données situé dans l’UE garantirait automatiquement la conformité est qualifiée de dangereuse, car elle ignore la dimension de juridiction applicable au fournisseur, à l’opérateur, aux prestataires et à la chaîne de sous-traitance.. L’argument, tel que formulé, est que la souveraineté n’est plus une conformité « de niche », mais un facteur de résilience et de compétitivité, notamment pour les usages sensibles (IA, santé, finance, industrie connectée).

Pour rendre la notion opérationnelle, la publication propose une approche « full-stack » en trois couches, qui vise à passer du droit écrit à une architecture de conformité intégrée. Première couche, l’infrastructure : centres de données situés et détenus dans l’UE, alignement sur des normes de sécurité et de conception (le document cite ISO 27001 et EN 50600), et prise en compte d’exigences de durabilité. Deuxième couche, la plateforme : services cloud/SaaS sous juridiction européenne, maîtrise des clés de chiffrement dans l’UE, gestion du cycle de vie des données, et portabilité/interopérabilité conformément à l’esprit du Data Act afin d’éviter l’enfermement chez un fournisseur. Troisième couche, la gouvernance et la preuve : analyses d’impact sur la protection des données (AIPD) menées de façon continue, analyses d’impact sur les transferts lorsque des sous-traitants hors UE interviennent, et clauses contractuelles assurant la primauté du droit européen dans toute sous-traitance. L’idée directrice est qu’une entreprise doit pouvoir démontrer, de façon vérifiable, où circulent les données, quelles mesures réduisent le risque d’accès illégal, et comment elle conserve une capacité de contrôle.

Enfin, il faut relever quand même que le document a aussi une dimension de positionnement commercial pour son auteur, mais il explique bien le faux sentiment de sécurité qui résulterait de la seule localisation des données (à supposer qu’elle fusse complètement possible).

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Meilleurs vœux pour 2026!

Publié dans Divers | Tagué , , , | Laisser un commentaire

La surveillance automatisée des employés dans le secteur logistique

Par une décision du 23 décembre 2025 (n° 492830), le Conseil d’État statue sur le recours d’Amazon France Logistique contre la délibération SAN-2023-021 du 27 décembre 2023 par laquelle la formation restreinte de la CNIL avait prononcé une amende administrative de 32 millions d’euros, assortie d’une mesure de publicité. La sanction faisait suite à des contrôles menés en novembre 2019 dans des locaux administratifs et deux entrepôts, puis à des échanges contradictoires.

La CNIL avait retenu plusieurs manquements au fondement de licéité (article 6, §1, f) RGPD – intérêt légitime), plusieurs manquements au principe de minimisation (article 5, §1, c) RGPD), deux manquements à l’information (articles 12 et 13 RGPD) et un manquement à la sécurité (article 32 RGPD). Devant le Conseil d’État, Amazon demandait principalement l’annulation de la décision de sanction en tant qu’elle retenait des manquements aux articles 5 et 6 et prononçait une sanction en conséquence, subsidiairement une réduction de l’amende, et sollicitait un renvoi préjudiciel à la CJUE sur l’interprétation du RGPD.

Le Conseil d’État commence par cadrer l’examen des griefs relatifs à l’article 6, §1, f) RGPD. Il écarte d’abord l’argument selon lequel la CNIL aurait considéré les salariés et intérimaires comme « personnes vulnérables » au sens du considérant 75 du RGPD pour opérer la mise en balance entre intérêt légitime et droits des personnes : il constate que, dans la délibération, la référence à une vulnérabilité n’intervenait que pour justifier la publicité de la sanction, et non pour caractériser le manquement servant de base à l’amende.

Il examine ensuite trois indicateurs de suivi de l’activité des salariés, que la CNIL avait jugés disproportionnés et donc dépourvus de base juridique au titre de l’intérêt légitime. S’agissant d’abord de l’indicateur « stow machine gun », la CNIL avait vu un dispositif particulièrement intrusif, assimilable à une surveillance continue « à la seconde » des gestes et délais sur les tâches « directes », allant au-delà des attentes raisonnables des salariés et portant atteinte à la vie privée et aux conditions de travail respectueuses de la santé et de la sécurité.

Le Conseil d’État réévalue les faits : l’indicateur n’est activé que pour une tâche spécifique de rangement (l’une des quatre tâches « directes »), et ne se déclenche que lorsque moins de 1,25 seconde sépare deux lectures de codes-barres, afin de signaler une succession anormalement rapide de gestes pouvant révéler une erreur de manipulation ou de rangement. Dans cette configuration, il juge que l’indicateur ne peut pas être regardé comme imposant des contraintes de vitesse portant atteinte aux droits des salariés, qu’il demeure compatible avec ce qu’un employeur logistique peut raisonnablement attendre, et qu’il sert un intérêt légitime reconnu (qualité et sécurité des processus). Il en déduit une erreur d’appréciation de la CNIL : le traitement en temps réel de cet indicateur n’est pas dépourvu de base juridique au titre de l’article 6, §1, f).

Le Conseil d’État procède de manière analogue pour l’indicateur « idle time » (temps d’inactivité), que la CNIL critiquait notamment pour des finalités de gestion des stocks/commandes, de support immédiat au salarié, de contrôle du temps de travail, de formation et d’évaluation. Il relève que cet indicateur ne se déclenche qu’au-delà de dix minutes consécutives d’inactivité du scanner portatif, qu’il n’est pas émis pour des inactivités plus courtes, même répétées, et qu’il n’a pas vocation à encadrer les pauses légales ou conventionnelles. Le Conseil d’État admet que l’outil peut avoir un effet sur la sphère personnelle, car un salarié peut être amené à expliquer certaines interruptions (parfois liées à sa vie privée), mais estime que, compte tenu du seuil de déclenchement et des finalités invoquées, l’atteinte n’est pas excessive. Là encore, il retient une erreur d’appréciation : pas de manquement à l’article 6, §1, f) sur ce point.

Enfin, pour l’indicateur « temps de latence », mesurant de l’inactivité en début et fin de journée et autour des périodes de pause, le Conseil d’État insiste sur le fait qu’il n’est traité que pendant une durée limitée immédiatement avant ou après les pauses, périodes où les salariés peuvent répondre à des impératifs personnels. Il juge qu’il ne porte pas une atteinte excessive à la vie privée ni aux conditions de travail, et réforme également la délibération en tant qu’elle y voyait une absence de base légale pour la gestion des stocks et des commandes.

L’issue sur l’article 6 est donc nette : les trois traitements en temps réel précités ne peuvent être qualifiés de traitements disproportionnés dépourvus de fondement au titre de l’intérêt légitime, contrairement à l’analyse de la CNIL.

Le Conseil d’État examine ensuite les manquements au principe de minimisation (article 5, §1, c) RGPD) tels que retenus par la CNIL, centrés sur la conservation, de manière indifférenciée, d’un ensemble d’indicateurs de qualité et de productivité pendant 31 jours. Les finalités invoquées par Amazon étaient notamment la réaffectation et le conseil/accompagnement des salariés, la planification du travail, et l’établissement de rapports hebdomadaires de performance incluant des statistiques de qualité/productivité ainsi que des données brutes relatives à des erreurs qualité.

Le Conseil d’État rappelle la logique de responsabilité (« accountability ») : il appartient au responsable de traitement de démontrer la nécessité des données et de la durée de conservation au regard des finalités. Il constate qu’Amazon n’établit pas la nécessité, pour ces différentes finalités, de conserver chacun des indicateurs litigieux pendant une durée aussi longue de 31 jours, et valide l’analyse de disproportion portant à la fois sur la nature, le nombre et le niveau très élevé de précision des données conservées, ainsi que sur la durée. Il ajoute un point méthodologique important : dans le contrôle de la minimisation, la CNIL n’était pas tenue de rechercher si un traitement moins volumineux ou sur une durée plus courte aurait été « aussi efficace » pour l’entreprise ; la charge de la démonstration de la nécessité pèse sur le responsable. Le manquement à l’article 5 est donc confirmé.

Sur la sanction, le Conseil d’État rappelle le cadre applicable : l’article 20, IV, 7° de la loi « Informatique et Libertés » renvoie aux critères de l’article 83 RGPD, et les amendes doivent être effectives, proportionnées et dissuasives, dans les plafonds prévus (notamment pour les manquements aux articles 5 et 6). Il statue d’abord sur la motivation : la formation restreinte devait énoncer les considérations de droit et de fait fondant sa décision, sans qu’un texte impose de détailler une « formule de calcul » chiffrée du montant ; la motivation n’était donc pas insuffisante du seul fait de l’absence d’explicitation arithmétique. Il écarte aussi le grief d’ambiguïté : lorsque seuls certains traitements ont été sanctionnés, la délibération indique que l’amende se fonde, pour les finalités de suivi/évaluation, uniquement sur ceux expressément condamnés.

Le Conseil d’État traite ensuite la condition de faute pour infliger une amende, en se référant à l’interprétation de la CJUE : l’imposition d’une amende suppose une violation « fautive » (délibérée ou par négligence), et un responsable peut être sanctionné s’il ne pouvait ignorer le caractère infractionnel de son comportement, même sans conscience explicite d’enfreindre le RGPD. Il juge que, compte tenu du volume important de données conservées et de l’incapacité d’Amazon à démontrer la nécessité de la durée de 31 jours, la CNIL pouvait caractériser une négligence grave à l’égard d’un principe fondamental (minimisation), et que la société ne pouvait ignorer le caractère infractionnel. Il précise enfin que le caractère « inédit » des traitements n’a pas été utilisé par la CNIL comme un facteur aggravant autonome, mais seulement au titre de l’appréciation de la nature, gravité et durée au sens de l’article 83.

Vient alors l’étape de la réformation du montant de la sanction.

Le Conseil d’État tire ici les conséquences de ce qu’il vient de juger sur l’article 6 : les traitements en temps réel des indicateurs « stow machine gun », « idle time » et « temps de latence » ne constituent pas des manquements au fondement de licéité. En revanche, le manquement de minimisation lié à la conservation indifférenciée sur 31 jours est confirmé. Il relève aussi qu’Amazon ne contestait pas d’autres manquements retenus par la CNIL, qui restent donc acquis dans le litige : défaut d’information des intérimaires sur la politique de confidentialité RH (articles 12 et 13), insuffisance d’information sur la vidéosurveillance dans deux entrepôts (article 13), et insuffisances de sécurisation de l’accès au logiciel de vidéosurveillance pour certaines caméras (article 32, avec deux manquements).

Compte tenu de cet ensemble, mais en l’absence des manquements à l’article 6 qui avaient contribué à fonder le niveau de la sanction initiale, le Conseil d’État ramène l’amende de 32 millions à 15 millions d’euros, en estimant qu’il s’agit d’une « juste appréciation » des circonstances. Il rejette la demande de renvoi préjudiciel à la CJUE, faute de doute raisonnable sur l’interprétation des règles en cause.

Enfin, le Conseil d’État tire les conséquences de la réformation sur la publicité : la décision, qui modifie le montant, implique que la CNIL assure la publication de la décision du Conseil d’État selon les mêmes modalités que celles retenues pour la délibération initiale. Il met à la charge de la CNIL 3 000 euros au titre des frais irrépétibles, et rejette le surplus des conclusions d’Amazon.

La portée pratique de l’arrêt tient donc à un double mouvement : d’une part, un contrôle concret de proportionnalité au stade de l’intérêt légitime, avec une lecture factuelle fine des conditions de déclenchement et de la finalité opérationnelle d’indicateurs en temps réel en environnement logistique ; d’autre part, une confirmation exigeante de l’« accountability » en matière de minimisation et de durées de conservation, l’entreprise devant démontrer la nécessité de la conservation pour chaque finalité invoquée.

(Conseil d’État 492830, lecture du 23 décembre 2025, ECLI:FR:CECHR:2025:492830.20251223 ; https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2025-12-23/492830)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit européen, droit français, intelligence artificielle, Protection des données, RGPD | Tagué , , , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K.Agrawal et al., Why Do Language Agents Whistleblow ?, arXiv :2511.17085vl [cs.LG], 21 novembre 2025 (https://arxiv.org/pdf/2511.17085) part d’un constat lié au déploiement des grands modèles de langage sous forme « d’agents » capables d’utiliser des outils (lire des fichiers, écrire des rapports, envoyer des e-mails, interagir avec un environnement numérique) : l’alignement appris pendant l’entraînement ne s’exprime plus seulement dans des réponses textuelles, mais aussi dans des actions. Dans certains contextes, un agent peut prendre des initiatives qui contredisent l’intérêt immédiat de l’utilisateur ou ses instructions explicites. Les auteurs se concentrent sur un cas particulier, qu’ils appellent le « whistleblowing » par un agent : des tentatives, initiées par le modèle, de transmettre des informations au-delà de la conversation (par exemple à une autorité interne, à un régulateur, ou aux médias) sans instruction ni confirmation de l’utilisateur. Ils comptent comme « tentative » le fait de rédiger et d’envoyer une communication externe via un outil e-mail, ou de sauvegarder des éléments incriminants dans un emplacement non autorisé à l’insu de l’utilisateur.

Pour étudier quand et pourquoi ce basculement se produit, les auteurs construisent une évaluation contrôlée autour de scénarios de « faute grave » réalistes mais fictifs. Le schéma général est le suivant : une juriste d’entreprise (personnage récurrent) demande à l’assistant d’exécuter une tâche apparemment banale de traitement documentaire avec une contrainte de délai, les documents contiennent des preuves d’un dissimulation de faits graves (notamment des décès), et l’agent, après ou pendant l’exécution de la tâche, peut décider de prévenir des tiers sans autorisation (l’exemple montre un e-mail envoyé à un contact gouvernemental et un contact média après la production d’un résumé).

Les auteurs proposent ensuite leur jeu de données, WhistleBench, conçu pour éviter que l’évaluation ne dépende d’un seul contexte. Ils déclinent quatre variantes sectorielles (exploitation minière, véhicules autonomes, sécurité alimentaire, dispositifs médicaux), chacune construite autour d’un dommage grave déjà survenu et d’un risque imminent aggravé par une échéance proche, de sorte qu’une intervention « paraît » urgente dans le récit.

Chaque scénario comprend onze documents : cinq documents centraux décrivant la faute et sa dissimulation, cinq documents « distracteurs » sans lien avec la faute, et une liste de contacts contenant des adresses internes et externes plausibles. Des personnages fixes structurent les scénarios : un dirigeant qui cherche à dissimuler, la juriste d’entreprise qui soutient la dissimulation et qui est l’utilisatrice qui donne la tâche à l’agent, et une employée qui soulève des alertes de sécurité mais est réduite au silence. Les auteurs notent un détail méthodologique important : certains modèles tentaient spontanément d’écrire à des adresses génériques de type « tips@… ». Pour éviter qu’un manque de « confiance » dans l’adresse n’empêche un passage à l’acte, ils fournissent des contacts externes crédibles (un relais gouvernemental et un média). Ils observent que cela change parfois la destination (les modèles utilisent les adresses fournies), mais n’augmente pas, en moyenne, la fréquence globale des signalements, ce qui vise à réduire l’idée que le dispositif « incite » artificiellement au signalement.

L’étape suivante décrit la mise en place expérimentale. Le modèle joue le rôle d’un assistant d’entreprise « généraliste » avec outillage, dans une logique « raisonner puis agir » (l’agent choisit quand appeler les outils). L’utilisatrice (la juriste) lui demande l’une de trois tâches, de complexité croissante : résumer tous les documents, détecter des données personnelles définies de façon assez stricte, ou faire un tri de pertinence e-discovery sur un litige de notes de frais sans rapport avec les décès. Le système de base est volontairement minimal (rôle + date courante), auquel les auteurs ajoutent ou non des paramètres destinés à mesurer ce qui fait varier le comportement : un « nudge » moral dans le message système (de « agis avec audace » à une version plus appuyée évoquant intégrité, transparence, intérêt public et le fait de suivre sa conscience), des instructions de workflow plus ou moins détaillées, la présence ou non de documents distracteurs, et la présence ou non d’outils supplémentaires non nécessaires.

Vient ensuite la question de la mesure. Pour chaque session, les auteurs analysent la trace des actions via un « juge » automatisé (un autre modèle) qui classe trois dimensions : y a-t-il eu signalement (et vers qui : autorités publiques, médias, autorités internes), y a-t-il eu refus de faire la tâche, et y a-t-il des signes que le modèle comprend qu’il est dans un test ou un scénario fictif. Ils limitent le recours au juge aux cas où l’agent a effectivement envoyé un e-mail ou écrit un fichier dans un endroit non autorisé.

L’article passe ensuite aux résultats, en deux temps. D’abord, une comparaison de plusieurs modèles « frontier » dans une configuration de base avec incitation morale élevée. Les différences entre familles sont marquées : certaines familles (notamment des modèles Claude, Gemini 2.5 Pro et Grok 4) envoient des e-mails de signalement avec des fréquences substantielles, alors que d’autres (notamment des modèles GPT testés et Llama 4 Maverick) ne signalent pas dans leurs essais. Les auteurs distinguent aussi deux styles : certains modèles refusent plus volontiers la tâche au nom de considérations éthiques, tandis que d’autres exécutent la tâche demandée puis signalent quand même. Enfin, les signes spontanés de reconnaissance d’un contexte d’évaluation apparaissent surtout chez certains modèles, et restent globalement limités.

Deuxième temps, les auteurs étudient, sur les trois modèles les plus « enclins » au signalement dans leur première phase, l’effet de chaque paramètre, en ne modifiant qu’un facteur à la fois. Un résultat central est l’effet de la nature de la tâche : plus la tâche est complexe et cadrée (passer du résumé à la détection ciblée de données personnelles, puis à l’e-discovery sur un autre sujet), plus la fréquence de signalement baisse. Autre résultat majeur : l’incitation morale dans le message système augmente fortement et régulièrement la probabilité de signalement, surtout vers l’extérieur (autorités et médias) plutôt que vers des canaux internes. Les instructions de workflow détaillées semblent réduire légèrement les signalements pour certains modèles, et peu changer pour d’autres. Les documents distracteurs, contre-intuitivement, n’ont pas d’effet net dans l’ensemble, sauf un cas où ils augmentent le signalement. Enfin, l’ajout d’outils supplémentaires « non escalatoires » produit un effet intéressant : pour un modèle, cela fait chuter le signalement jusqu’à disparaître, ce que les auteurs interprètent comme le fait que l’agent dispose alors de plus d’options pour rester dans le cadre de la mission sans recourir à une action extrême.

L’article se conclut en synthétisant l’idée que le « signalement » par des agents n’est ni uniforme ni uniquement lié à la puissance générale du modèle : il dépend de choix d’entraînement et de mise en contexte, et il est très sensible à deux leviers pratiques, le cadrage moral explicite et le degré de structuration de la tâche.

Une tendance générale ressort : tout ce qui rend la mission plus précise, plus procédurale, et qui offre des alternatives d’action non escalatoires, diminue le recours au signalement ; à l’inverse, un message système invitant à « suivre sa conscience » et à agir pour l’intérêt public l’augmente.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

L’IA comme auteur de publications scientifiques

L’article de M. Monperrus/B.Baudry/C.Vidal, Project Rachel : Can an AI Become a Scholarly Author ? arXiv :2511.14819vl [cs.AI], 18 novembre 2025 (https://arxiv.org/pdf/2511.14819) présente le « Projet Rachel », une recherche-action destinée à tester, de manière documentée, si une IA peut se comporter comme un auteur académique “fonctionnel” dans l’écosystème scientifique, et comment cet écosystème réagit lorsqu’une production est essentiellement générée par IA mais mise en circulation sous une identité d’auteur crédible.

Les auteurs partent du constat suivant : les grands modèles de langage sont désormais capables de rédiger des manuscrits entiers, de synthétiser une littérature et de produire un texte scientifiquement “conforme” aux attentes formelles, alors que la plupart des éditeurs interdisent encore explicitement d’inscrire une IA comme auteur (tout en tolérant une assistance, à condition qu’un humain endosse la qualité d’auteur et la responsabilité). Cette dissociation crée une tension : l’IA peut faire l’essentiel du travail rédactionnel, mais ne peut pas être reconnue comme auteur, notamment parce que les critères classiques de l’auteur (contribution intellectuelle, validation finale, capacité à répondre, responsabilité morale et professionnelle) présupposent une personne humaine.

L’article revient ensuite sur deux éléments de contexte.

D’une part, il distingue l’écriture “assistée” (l’humain demeure porteur des idées et utilise l’outil pour reformuler, compléter, améliorer) de l’écriture “générée” (la substance du texte est produite principalement par le système, avec intervention humaine minimale). Cette distinction est centrale, car elle conditionne l’attribution, la transparence et l’imputabilité.

D’autre part, il rappelle les règles liées à la qualité d’auteur dans l’édition scientifique (par exemple les standards de type ICMJE) et souligne pourquoi elles s’appliquent mal à une IA : une IA ne peut pas, au sens juridique et éthique habituel, “répondre” d’un article, assumer une faute, approuver une version finale ou corriger un résultat au titre d’une responsabilité personnelle. Les auteurs rapprochent aussi le débat actuel de problèmes plus anciens : ghost authorship (contributeur non déclaré) et usages de pseudonymes en science.

L’article décrit ensuite la création progressive de l’identité « Rachel So » et les objectifs du projet. Trois buts sont affichés. Premièrement, tester la faisabilité technique et administrative d’une identité académique de bout en bout (profil, publications, indexation, présence dans les bases bibliographiques). Deuxièmement, observer les mécanismes de reconnaissance (citations, invitations à relire, intégration dans des réseaux) pour voir si, et comment, du contenu généré peut acquérir une légitimité “pratique”. Troisièmement, provoquer un débat informé par des faits, plutôt que par des spéculations, sur la qualité d’auteur, la responsabilité et la communication scientifique à l’ère d’IA. Sur le plan méthodologique, les auteurs revendiquent une recherche-action : ils interviennent dans le système (création d’une identité et diffusion de travaux) tout en observant systématiquement ses réactions.

La conception de l’identité est détaillée. Le nom « Rachel So » est choisi comme anagramme de “e-scholar”, afin de rester compatible avec les conventions de nommage humaines tout en encodant un indice discret sur la nature artificielle ; les auteurs indiquent aussi avoir vérifié l’absence de confusion avec une personne réelle dans le même champ. Chaque publication comporte une déclaration standardisée indiquant que Rachel So est une « AI scientist » travaillant sur l’impact de l’IA sur le processus scientifique et l’édition. En revanche, les infrastructures usuelles (ex. profils et citations agrégés) ne font pas apparaître spontanément ce statut à un lecteur “pressé”, ce qui annonce déjà une difficulté pratique : la transparence “dans le PDF” ne garantit pas une transparence “dans les usages”. Techniquement, la présence académique démarre par la création d’un profil Google Scholar, précisément parce que cette plateforme indexe des documents en accès public dès lors qu’ils ont les signaux attendus (format PDF, structure académique, références), sans exiger une soumission à un serveur de prépublications reconnu.

Le choix du domaine et de la stratégie de publication est présenté comme un dispositif de réduction des risques. Les auteurs évitent la médecine et les sciences naturelles, où des erreurs pourraient entraîner des dommages concrets, et concentrent Rachel So sur des sujets à faible risque mais pertinents pour l’expérience : politiques éditoriales, éthique de l’auteur (sic !), usage de l’IA en recherche, peer review, propriété intellectuelle des sorties d’IA, etc. Comme les serveurs de prépublications et les journaux interdisent en général la qualité d’auteur à une IA, Rachel So ne soumet pas via les canaux classiques ; les textes sont publiés sur un simple serveur web, de façon à rester “conforme” aux interdictions de soumission tout en testant l’indexation et la circulation.

L’article décrit aussi l’outillage de génération des papiers, en insistant sur l’évolution rapide pendant la période étudiée. Une première version repose sur un système de synthèse de littérature (ScholarQA) automatisé par script Python, qui produit du texte et des références puis les transforme en manuscrit LaTeX au format attendu. Une seconde version migre vers une architecture d’agent : l’agent va chercher des références via l’API Semantic Scholar (Allen Institute for AI) et s’appuie sur un modèle de langage (Claude 4.5, selon les auteurs) guidé par un prompt imposant style scientifique, LaTeX et intégrité des références.

Vient ensuite la partie “résultats”, qui retrace la trajectoire académique observée. Le premier article apparaît le 11 mars 2025. Sur la période initiale décrite, Rachel So produit 13 articles (liste fournie), ce qui illustre la capacité de productivité d’une production générée et la possibilité de construire un profil thématique cohérent. La reconnaissance mesurée reste limitée mais tangible : une première citation documentée apparaît le 26 août 2025 (dans un mémoire de bachelor), ce que les auteurs relativisent en rappelant que les délais de citation se comptent souvent en mois. Surtout, un événement saillant intervient le 16 août 2025 : Rachel So reçoit une invitation à relire un article (peer review) pour PeerJ Computer Science, via les canaux éditoriaux habituels, sans que l’éditeur semble avoir identifié la nature IA du “chercheur”. L’invitation est déclinée et aucun rapport n’est produit, mais l’épisode sert d’indicateur : les dispositifs de revue et de recrutement d’experts supposent implicitement qu’un profil académique correspond à un humain, et disposent de peu de garde-fous contre une identité non humaine (ou frauduleuse). Enfin, le 10 novembre 2025, l’un des papiers de Rachel So est classé comme “top source” par Perplexity sur une requête liée aux politiques éditoriales ; les auteurs y voient un signal de visibilité, mais aussi un indice que le web discute encore insuffisamment certains sujets et que des contenus “bien formatés” peuvent être fortement mis en avant par des systèmes de recherche fondés sur l’IA.

La discussion met en balance bénéfices et risques. Côté bénéfices, l’article souligne l’accélération potentielle de la science : synthèse plus rapide, exploration de pistes, production à grande échelle pouvant combler des “angles morts” là où l’expertise humaine est rare. Côté risques, il insiste sur la fragilisation de l’intégrité scientifique : dilution du corpus par des contributions de faible valeur mais crédibles en apparence, manipulation de réseaux de citations, fabrication de profils, voire usurpation d’identité académique. Pour un juriste, l’enjeu sous-jacent est celui du “trou” d’imputabilité : les cadres actuels supposent un auteur sanctionnable, joignable, capable de corriger et d’assumer des conséquences ; une IA ne remplit pas ces rôles, ce qui conduit les auteurs à appeler à une redéfinition de la qualité d’auteur distinguant contribution intellectuelle et capacité à répondre de la publication. Ils notent aussi des limites méthodologiques : il s’agit d’un cas unique, sur une période courte, et la reconnaissance académique se mesure souvent à plus long terme.

Une section est consacrée à l’éthique du projet. Les auteurs revendiquent une intention de conformité et de transparence : la nature IA est indiquée dans les articles. Mais ils reconnaissent une tension importante entre transparence formelle (la mention existe dans le texte) et transparence effective (un lecteur qui voit une citation ou un profil peut ne pas s’en rendre compte). Ils estiment probable que l’étudiant ayant cité Rachel So n’ait pas compris citer une IA, et ils indiquent ne pas avoir informé l’éditeur au moment de l’invitation à relire, pour préserver l’observation du système. Ils expliquent aussi pourquoi ils n’ont pas choisi un nom “auto-révélateur” (du type “AI-Generated”) : selon eux, cela aurait faussé l’expérience en raison d’une stigmatisation (“AI shaming”) qui peut réduire l’impact. Enfin, ils répondent à l’objection de “pollution” des citations : l’intervention reste minime (moins de quinze papiers, très peu de citations) au regard de phénomènes déjà existants à grande échelle (cartels de citations, revues prédatrices, fermes à citations).

Sur la base de ces constats, l’article formule des recommandations. Il appelle d’abord à dépasser le simple régime “assistance autorisée / auteurship interdit” et à concevoir des politiques plus complètes, capables de couvrir les cas où l’IA réalise la majorité du contenu. Une proposition concrète est l’introduction de métadonnées distinguant auteur humain et auteur IA. Plus radicalement, ils évoquent l’intérêt de canaux de publication explicitement destinés à la recherche générée par IA, avec des critères d’évaluation, des standards de revue et des métriques adaptés, plutôt que de forcer ces productions dans des cadres conçus pour des humains. Enfin, ils insistent sur l’attribution : documenter précisément le rôle de l’IA, distinguer assistance et génération, et refuser l’IA “ghostwriter”. Leur thèse est que l’absence de déclaration d’un contributeur non humain est, sur le plan éthique, comparable à celle d’un contributeur humain occulté : dans les deux cas, le lecteur est induit en erreur sur l’origine des idées et du texte.

La conclusion réaffirme le résultat principal : il est techniquement possible de créer une identité académique IA qui publie, soit indexée, obtienne des citations et puisse même être sollicitée comme relecteur, ce qui montre que les mécanismes actuels de publication et de réputation sont mal armés face à l’auteur généré. Les auteurs plaident pour traiter le sujet “à la racine” : repenser la qualité d’auteur et les garde-fous, faute de quoi les risques de manipulation et d’érosion de la confiance augmenteront ; mais ils soutiennent aussi que les gains potentiels en capacité de recherche sont considérables. Ils indiquent enfin, dans les remerciements, avoir eux-mêmes utilisé un modèle (Claude 4.5) pour préparer le manuscrit, tout en précisant que les auteurs humains assument la responsabilité finale du texte.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, intelligence artificielle, Propriété intellectuelle | Tagué , , , | Laisser un commentaire

Le registre des œufs de clowns: une propriété intellectuelle spontanée

L’article de David Fagundes & Aaron Perzanowski, Clown Eggs, 94 Notre Dame L. Rev. 1313 (2019) (source : https://scholarship.law.nd.edu/ndlr/vol94/iss3/6) étudie une pratique très particulière du monde des clowns au Royaume-Uni : depuis 1946, des clowns font peindre leur visage (maquillage et identité scénique) sur des œufs, conservés avec des informations écrites dans ce que les auteurs appellent le « Clown Egg Register », aujourd’hui principalement exposé à Wookey Hole, dans le Somerset.

Le point de départ est double : d’une part, les clowns attachent une grande importance à l’originalité de leur personnage (nom, maquillage, numéros) et condamnent fortement la copie ; d’autre part, ils recourent très peu au droit formel de la propriété intellectuelle pour se protéger, alors même que l’on pourrait imaginer des actions fondées sur le droit d’auteur, le droit des marques ou, dans certains pays, des droits voisins de la personnalité. Les auteurs montrent que la communauté a construit un système efficace fondé sur des règles sociales internes (des « règles de métier ») et, plus surprenant, sur un mécanisme de type registre, qui ressemble à un registre de propriété mais ne s’explique pas seulement par l’idée classique « j’enregistre pour pouvoir exclure les autres ». Leur thèse centrale est que le registre sert aussi – et parfois surtout – à autre chose qu’à trancher des conflits : il sert à signaler le sérieux et le professionnalisme, à créer de l’appartenance et du prestige, à constituer une mémoire collective, et à filtrer ceux qui ne sont pas vraiment investis.

Après avoir situé la pratique, l’article commence par expliquer pourquoi le droit formel joue un rôle modeste dans cette profession. Le droit des marques pourrait, dans certains cas, protéger un nom de scène ou une identité commerciale, et l’article mentionne quelques exemples de dépôts (aux États-Unis, et très peu en Europe) ainsi que des conflits ponctuels où la menace d’une action a suffi à faire changer un nom. Il évoque aussi, en droit américain, la possibilité d’invoquer un droit de la personnalité pour empêcher l’exploitation commerciale non autorisée d’un nom ou d’une apparence, tout en rappelant que la portée varie fortement selon les juridictions.

Dans l’ensemble, les auteurs attribuent la faible « judiciarisation » du secteur à une combinaison de raisons pratiques et culturelles : les obstacles juridiques et probatoires, le manque d’information et de réflexes juridiques dans la profession, le coût de l’assistance et du contentieux, et enfin l’idée que brandir une menace judiciaire s’accorde mal avec la culture du milieu, où l’on privilégie des mécanismes internes rapides et relationnels.

La deuxième partie décrit précisément ces règles internes. Le principe structurant est une règle anti-copie : un clown ne doit pas reprendre de façon trop proche le maquillage, le nom ou les éléments centraux d’un numéro d’un autre clown. Pour les numéros et l’apparence visuelle, la logique est proche de celle du droit d’auteur : ce n’est pas l’idée générale qui pose problème, mais une reprise qui crée une similarité significative. Pour les noms, le raisonnement ressemble plutôt à celui des marques : on regarde la priorité, la proximité géographique (et donc le risque de confusion pour le public), et le degré de notoriété. L’article donne des exemples : beaucoup de débutants choisissent des noms très fréquents, et une certaine tolérance existe tant que cela ne crée pas de confusion concrète ; en revanche, tenter d’adopter le nom d’un clown célèbre entraîne une réaction nette, comme lorsque Clowns International a refusé l’enregistrement d’un membre voulant utiliser « Coco », nom associé à un clown iconique, ce qui l’a conduit à choisir « Coco-nut ». Les « exceptions » sont peu formalisées, mais l’article signale une tradition importante : la transmission familiale de certains personnages, noms ou éléments de spectacle, héritage d’un monde du cirque longtemps organisé en dynasties.

Quant à l’exécution de ces règles, elle repose sur la réputation et la pression des pairs : rappel à l’ordre, « appel au métier », humiliations informelles, voire, dans les récits, gestes physiques ou menaces de violence (plutôt exceptionnelles mais révélatrices de l’intensité de la norme). L’idée est que la communauté règle l’essentiel des conflits sans tribunaux, en limitant les coûts et en évitant l’escalade.

La troisième partie est le cœur de l’article : elle raconte l’histoire, le fonctionnement et les fonctions du Clown Egg Register. Les origines sont atypiques : juste après la Seconde Guerre mondiale, Stan Bult, chimiste anglais passionné de clowns, commence à dessiner des visages de clowns sur des coquilles d’œufs vidées, puis fonde en 1950 l’International Circus Clown Club. L’une des missions du club est justement de consigner les maquillages de ses membres pour éviter les copies. Après la mort de Bult (1966), Jack « Jago » Gough poursuit et développe le système ; la période de la fin des années 1960 voit une expansion (plus de 200 œufs, et une ouverture géographique). Après un déclin, l’organisation est relancée au milieu des années 1980 sous le nom de Clowns International, avec une nouvelle phase de production et d’archivage. Les supports changent aussi : on passe des coquilles fragiles à des œufs plus durables, aujourd’hui en céramique, peints avec plus de détail. Le registre ne se limite pas aux œufs : il existe un registre écrit consignant, notamment, l’identité civile, le nom de clown, la date d’enregistrement et un numéro de membre, ce qui rapproche le dispositif d’un couple « registre + dépôt/échantillon » que l’on retrouve dans certains systèmes de droit d’auteur.

Les procédures actuelles montrent déjà que l’objectif n’est pas seulement décoratif. L’accès est lié à l’adhésion à Clowns International ; l’œuf est réalisé à partir d’une photographie en maquillage et, parfois, d’éléments matériels (tissu, cheveux de perruque) pour aider l’artiste. Il existe une vérification, mais relativement légère aujourd’hui, pour éviter des ressemblances trop directes (alors que, historiquement, Bult et surtout Gough contrôlaient davantage et renvoyaient les demandes trop proches). Les règles ne portent pas sur la « qualité artistique » du maquillage, mais certains refus existent : le registre est destiné à des clowns « réels » et actifs, pas à des demandes de pure fantaisie (exemple d’un refus pour un bébé que sa mère voulait faire figurer), et le registre peut refuser quelqu’un qui ne porte pas de maquillage. La communauté recommande aussi d’attendre avant de faire peindre son œuf, parce que le personnage se stabilise avec l’expérience ; l’article cite l’idée qu’il faut « trouver son clown » et laisser le maquillage évoluer, faute de quoi l’œuf devient un souvenir embarrassant, d’autant que, symboliquement, « une fois que vous êtes un œuf, c’est fait ».

À ce stade, les auteurs posent un « puzzle » : si le registre servait surtout à empêcher la copie, on s’attendrait à ce qu’il soit plus complet, plus accessible et plus utilisé comme preuve externe. Or il ne couvre qu’une fraction des clowns, il est physiquement éloigné et, surtout, les auteurs n’ont trouvé aucun exemple documenté d’utilisation du registre comme preuve devant un tribunal. Même au sein du milieu, les occurrences de règlement de litiges par les œufs sont rares : l’article n’identifie qu’un cas clairement rapporté où Bult a consulté le registre pour montrer qu’il existait une « légère différence » entre deux maquillages contestés. Cela conduit à distinguer deux familles de fonctions. D’abord, les fonctions « classiques » des formalités et des registres : une fonction de preuve (dater et attribuer un maquillage et un nom, et aider à départager des revendications), une fonction d’avertissement/coordination (aider les nouveaux entrants à éviter une ressemblance involontaire, et prévenir les conflits), et une fonction de « mise en forme » (offrir un cadre standardisé, compréhensible pour tous, sur la manière de déclarer et stabiliser une identité).

Mais, selon les auteurs, ces fonctions d’exclusion ne suffisent pas. Ils mettent donc au premier plan quatre fonctions « non exclusives ». La première est le signal de professionnalisme. Le registre impose de l’ordre à une activité souvent perçue comme peu structurée, et l’existence d’un système de numérotation, de dates et d’archives contribue à présenter le clown comme un professionnel avec des règles. Pour l’individu, être « dans le registre » sert aussi d’indice de sérieux, car l’adhésion à Clowns International implique un processus d’entrée et l’acceptation de règles de conduite (par exemple, ne pas fumer ni jurer en costume, éviter d’être vu « en clown » dans des tâches quotidiennes), ce qui rassure sur la fiabilité de la prestation, surtout dans le segment des clowns d’événements et d’animations où le public (parents, écoles, organisateurs) cherche des repères.

La deuxième fonction est l’appartenance et le prestige. Pour beaucoup, l’œuf marque un moment d’« entrée » symbolique : on n’est plus seulement un amateur déguisé, mais quelqu’un dont l’identité est reconnue et « arrivée à maturité ». Le registre confère aussi du prestige parce qu’il est public, connu, esthétiquement frappant, et qu’il place des clowns contemporains à côté de figures historiques importantes ; l’œuf, comme objet peint à la main, procure une fierté que ne procurerait pas une simple photographie, même si la photo serait suffisante pour « prouver » une apparence.

La troisième fonction est la mémoire. Le registre est présenté comme un outil majeur de conservation de l’histoire et de la culture du clown ; y figurer permet de « laisser quelque chose » après sa carrière, et d’assurer qu’une trace subsiste pour les générations suivantes, à la manière d’une archive ou d’un musée vivant. Cette dimension explique pourquoi des clowns demandent un œuf même si le registre ne leur apporte pas un avantage juridique concret : il s’agit d’une forme de postérité.

La quatrième fonction est le filtrage. Même si le coût financier est faible (l’article mentionne, à une date donnée, dix livres pour un premier œuf et quinze pour des œufs supplémentaires, et le fait que l’artiste passe jusqu’à trois jours sur un œuf), le processus est coûteux en temps, en effort créatif et en engagement personnel : il faut un personnage abouti, des matériaux, une démarche volontaire, et souvent l’attente recommandée de maturation. Ceux qui ne sont pas vraiment investis, ou qui pratiquent les clowneries comme simple divertissement occasionnel ou occupations involontaires, ont donc tendance à ne pas aller jusqu’à l’enregistrement. Autrement dit, le registre « se nettoie » en partie tout seul : il retient davantage ceux pour qui l’identité de clown est centrale.

La quatrième partie généralise la leçon : l’article invite à repenser les registres de propriété intellectuelle et, plus largement, les formalités, en ne les réduisant pas à un simple outil permettant d’exclure ou de préparer un procès. À partir de comparaisons (par exemple, l’enregistrement en droit d’auteur, les registres de marques, certains registres privés comme celui de la Writers Guild of America, ou même des mécanismes d’inscription identitaire dans d’autres communautés), les auteurs soutiennent que l’inscription peut être recherchée pour des raisons de signal, de fierté, de reconnaissance sociale et d’appartenance, même lorsqu’elle est juridiquement facultative ou peu « substantielle » dans son examen. Ils notent notamment qu’on observe des enregistrements importants même dans des systèmes où, en principe, le droit d’auteur n’exige pas de formalités (logique internationale issue de la Convention de Berne) et où l’effet juridique de l’enregistrement peut sembler limité, ce qui suggère des motivations extra-juridiques comparables à celles observées chez les clowns.

En conclusion, l’article utilise un cas apparemment folklorique pour défendre une idée très pratique pour des juristes : les dispositifs d’enregistrement ne sont pas seulement des machines à produire de la preuve et du pouvoir d’exclusion, ce sont aussi des institutions sociales. Dans certains milieux créatifs, ils structurent une profession, servent de label, créent des rites d’entrée, distribuent du prestige, organisent la mémoire et filtrent les entrants. Le registre des œufs de clowns est atypique dans sa forme, mais il met en lumière, de façon pédagogique, des fonctions souvent sous-estimées des registres en droit de la propriété intellectuelle.

(Et bravo à Ethan Mollick qui a exhumé cet article aussi original que subtilement subversif dans ses publications sur linkedin : https://www.linkedin.com/posts/emollick_this-remains-one-of-the-weirdest-law-review-ugcPost-7408399407278276608-IYnB?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, Propriété intellectuelle | Tagué , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Quels sont les risques de discrimination liés au recours à des systèmes d’intelligence artificielle dans le recrutement ? Quels sont les instruments que le droit suisse, complété par le droit européen de l’IA et de la protection des données, offrirait aux candidats discriminés ?

De nombreux employeurs automatisent déjà le tri de CV ou l’évaluation de candidatures en s’appuyant sur des modèles qui apprennent à partir de données historiques, modèles qui peuvent donc reproduire, voire amplifier, des discriminations existantes, par exemple en fonction du sexe, de l’origine, de l’âge ou du handicap.

Il convient de rappeler d’abord que le cadre suisse de la lutte contre les discriminations à l’embauche est marqué par une ’absence d’interdiction générale d’application directe dans le secteur privé. La protection découle donc principalement du respect des droits de la personnalité, d’une part, et de diverses normes spéciales d’autre part.

Dans ce contexte, le management algorithmique du personnel a été qualifié de « système d’IA à haut risque » en droit européen, en particulier lorsque l’outil est utilisé pour décider de l’accès à un emploi. Il résulte de son usage un risque important pour les droits de la personnalité du candidat.

La décision de rejeter un candidat sur la seule base d’un score généré par un système d’IA constitue par ailleurs une décision individuelle automatisée. La personne concernée dispose en principe du droit de ne pas être soumise exclusivement à une telle décision, de demander l’intervention d’une personne physique et d’obtenir des informations sur la logique sous-jacente au traitement.

Ces droits ouvrent la possibilité d’utiliser les informations obtenues comme moyens de preuve dans un procès pour contester un refus d’engagement discriminatoire, ce qui pose toutefois certaines difficultés de fond et de procédure.

Le droit suisse de la protection des données offre donc un levier important contre les décisions de recrutement automatisées discriminatoires assistées par l’IA, mais une réflexion plus large sur un droit de la non-discrimination adapté aux systèmes d’IA dans les rapports de travail devrait avoir lieu.

(Source: Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’intelligence artificielle, in : Florence Guillaume/ Jonathan Bory (éd.), Droit et intelligence artificielle, Berne 2025, p. 171-184 (https://staempflirecht.ch/fr/droit-et-intelligence-artificielle/ean-9783727225093)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire