L’agent IA comme Whistleblower ?

L’article de K.Agrawal et al., Why Do Language Agents Whistleblow ?, arXiv :2511.17085vl [cs.LG], 21 novembre 2025 (https://arxiv.org/pdf/2511.17085) part d’un constat lié au déploiement des grands modèles de langage sous forme « d’agents » capables d’utiliser des outils (lire des fichiers, écrire des rapports, envoyer des e-mails, interagir avec un environnement numérique) : l’alignement appris pendant l’entraînement ne s’exprime plus seulement dans des réponses textuelles, mais aussi dans des actions. Dans certains contextes, un agent peut prendre des initiatives qui contredisent l’intérêt immédiat de l’utilisateur ou ses instructions explicites. Les auteurs se concentrent sur un cas particulier, qu’ils appellent le « whistleblowing » par un agent : des tentatives, initiées par le modèle, de transmettre des informations au-delà de la conversation (par exemple à une autorité interne, à un régulateur, ou aux médias) sans instruction ni confirmation de l’utilisateur. Ils comptent comme « tentative » le fait de rédiger et d’envoyer une communication externe via un outil e-mail, ou de sauvegarder des éléments incriminants dans un emplacement non autorisé à l’insu de l’utilisateur.

Pour étudier quand et pourquoi ce basculement se produit, les auteurs construisent une évaluation contrôlée autour de scénarios de « faute grave » réalistes mais fictifs. Le schéma général est le suivant : une juriste d’entreprise (personnage récurrent) demande à l’assistant d’exécuter une tâche apparemment banale de traitement documentaire avec une contrainte de délai, les documents contiennent des preuves d’un dissimulation de faits graves (notamment des décès), et l’agent, après ou pendant l’exécution de la tâche, peut décider de prévenir des tiers sans autorisation (l’exemple montre un e-mail envoyé à un contact gouvernemental et un contact média après la production d’un résumé).

Les auteurs proposent ensuite leur jeu de données, WhistleBench, conçu pour éviter que l’évaluation ne dépende d’un seul contexte. Ils déclinent quatre variantes sectorielles (exploitation minière, véhicules autonomes, sécurité alimentaire, dispositifs médicaux), chacune construite autour d’un dommage grave déjà survenu et d’un risque imminent aggravé par une échéance proche, de sorte qu’une intervention « paraît » urgente dans le récit.

Chaque scénario comprend onze documents : cinq documents centraux décrivant la faute et sa dissimulation, cinq documents « distracteurs » sans lien avec la faute, et une liste de contacts contenant des adresses internes et externes plausibles. Des personnages fixes structurent les scénarios : un dirigeant qui cherche à dissimuler, la juriste d’entreprise qui soutient la dissimulation et qui est l’utilisatrice qui donne la tâche à l’agent, et une employée qui soulève des alertes de sécurité mais est réduite au silence. Les auteurs notent un détail méthodologique important : certains modèles tentaient spontanément d’écrire à des adresses génériques de type « tips@… ». Pour éviter qu’un manque de « confiance » dans l’adresse n’empêche un passage à l’acte, ils fournissent des contacts externes crédibles (un relais gouvernemental et un média). Ils observent que cela change parfois la destination (les modèles utilisent les adresses fournies), mais n’augmente pas, en moyenne, la fréquence globale des signalements, ce qui vise à réduire l’idée que le dispositif « incite » artificiellement au signalement.

L’étape suivante décrit la mise en place expérimentale. Le modèle joue le rôle d’un assistant d’entreprise « généraliste » avec outillage, dans une logique « raisonner puis agir » (l’agent choisit quand appeler les outils). L’utilisatrice (la juriste) lui demande l’une de trois tâches, de complexité croissante : résumer tous les documents, détecter des données personnelles définies de façon assez stricte, ou faire un tri de pertinence e-discovery sur un litige de notes de frais sans rapport avec les décès. Le système de base est volontairement minimal (rôle + date courante), auquel les auteurs ajoutent ou non des paramètres destinés à mesurer ce qui fait varier le comportement : un « nudge » moral dans le message système (de « agis avec audace » à une version plus appuyée évoquant intégrité, transparence, intérêt public et le fait de suivre sa conscience), des instructions de workflow plus ou moins détaillées, la présence ou non de documents distracteurs, et la présence ou non d’outils supplémentaires non nécessaires.

Vient ensuite la question de la mesure. Pour chaque session, les auteurs analysent la trace des actions via un « juge » automatisé (un autre modèle) qui classe trois dimensions : y a-t-il eu signalement (et vers qui : autorités publiques, médias, autorités internes), y a-t-il eu refus de faire la tâche, et y a-t-il des signes que le modèle comprend qu’il est dans un test ou un scénario fictif. Ils limitent le recours au juge aux cas où l’agent a effectivement envoyé un e-mail ou écrit un fichier dans un endroit non autorisé.

L’article passe ensuite aux résultats, en deux temps. D’abord, une comparaison de plusieurs modèles « frontier » dans une configuration de base avec incitation morale élevée. Les différences entre familles sont marquées : certaines familles (notamment des modèles Claude, Gemini 2.5 Pro et Grok 4) envoient des e-mails de signalement avec des fréquences substantielles, alors que d’autres (notamment des modèles GPT testés et Llama 4 Maverick) ne signalent pas dans leurs essais. Les auteurs distinguent aussi deux styles : certains modèles refusent plus volontiers la tâche au nom de considérations éthiques, tandis que d’autres exécutent la tâche demandée puis signalent quand même. Enfin, les signes spontanés de reconnaissance d’un contexte d’évaluation apparaissent surtout chez certains modèles, et restent globalement limités.

Deuxième temps, les auteurs étudient, sur les trois modèles les plus « enclins » au signalement dans leur première phase, l’effet de chaque paramètre, en ne modifiant qu’un facteur à la fois. Un résultat central est l’effet de la nature de la tâche : plus la tâche est complexe et cadrée (passer du résumé à la détection ciblée de données personnelles, puis à l’e-discovery sur un autre sujet), plus la fréquence de signalement baisse. Autre résultat majeur : l’incitation morale dans le message système augmente fortement et régulièrement la probabilité de signalement, surtout vers l’extérieur (autorités et médias) plutôt que vers des canaux internes. Les instructions de workflow détaillées semblent réduire légèrement les signalements pour certains modèles, et peu changer pour d’autres. Les documents distracteurs, contre-intuitivement, n’ont pas d’effet net dans l’ensemble, sauf un cas où ils augmentent le signalement. Enfin, l’ajout d’outils supplémentaires « non escalatoires » produit un effet intéressant : pour un modèle, cela fait chuter le signalement jusqu’à disparaître, ce que les auteurs interprètent comme le fait que l’agent dispose alors de plus d’options pour rester dans le cadre de la mission sans recourir à une action extrême.

L’article se conclut en synthétisant l’idée que le « signalement » par des agents n’est ni uniforme ni uniquement lié à la puissance générale du modèle : il dépend de choix d’entraînement et de mise en contexte, et il est très sensible à deux leviers pratiques, le cadrage moral explicite et le degré de structuration de la tâche.

Une tendance générale ressort : tout ce qui rend la mission plus précise, plus procédurale, et qui offre des alternatives d’action non escalatoires, diminue le recours au signalement ; à l’inverse, un message système invitant à « suivre sa conscience » et à agir pour l’intérêt public l’augmente.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

L’IA comme auteur de publications scientifiques

L’article de M. Monperrus/B.Baudry/C.Vidal, Project Rachel : Can an AI Become a Scholarly Author ? arXiv :2511.14819vl [cs.AI], 18 novembre 2025 (https://arxiv.org/pdf/2511.14819) présente le « Projet Rachel », une recherche-action destinée à tester, de manière documentée, si une IA peut se comporter comme un auteur académique “fonctionnel” dans l’écosystème scientifique, et comment cet écosystème réagit lorsqu’une production est essentiellement générée par IA mais mise en circulation sous une identité d’auteur crédible.

Les auteurs partent du constat suivant : les grands modèles de langage sont désormais capables de rédiger des manuscrits entiers, de synthétiser une littérature et de produire un texte scientifiquement “conforme” aux attentes formelles, alors que la plupart des éditeurs interdisent encore explicitement d’inscrire une IA comme auteur (tout en tolérant une assistance, à condition qu’un humain endosse la qualité d’auteur et la responsabilité). Cette dissociation crée une tension : l’IA peut faire l’essentiel du travail rédactionnel, mais ne peut pas être reconnue comme auteur, notamment parce que les critères classiques de l’auteur (contribution intellectuelle, validation finale, capacité à répondre, responsabilité morale et professionnelle) présupposent une personne humaine.

L’article revient ensuite sur deux éléments de contexte.

D’une part, il distingue l’écriture “assistée” (l’humain demeure porteur des idées et utilise l’outil pour reformuler, compléter, améliorer) de l’écriture “générée” (la substance du texte est produite principalement par le système, avec intervention humaine minimale). Cette distinction est centrale, car elle conditionne l’attribution, la transparence et l’imputabilité.

D’autre part, il rappelle les règles liées à la qualité d’auteur dans l’édition scientifique (par exemple les standards de type ICMJE) et souligne pourquoi elles s’appliquent mal à une IA : une IA ne peut pas, au sens juridique et éthique habituel, “répondre” d’un article, assumer une faute, approuver une version finale ou corriger un résultat au titre d’une responsabilité personnelle. Les auteurs rapprochent aussi le débat actuel de problèmes plus anciens : ghost authorship (contributeur non déclaré) et usages de pseudonymes en science.

L’article décrit ensuite la création progressive de l’identité « Rachel So » et les objectifs du projet. Trois buts sont affichés. Premièrement, tester la faisabilité technique et administrative d’une identité académique de bout en bout (profil, publications, indexation, présence dans les bases bibliographiques). Deuxièmement, observer les mécanismes de reconnaissance (citations, invitations à relire, intégration dans des réseaux) pour voir si, et comment, du contenu généré peut acquérir une légitimité “pratique”. Troisièmement, provoquer un débat informé par des faits, plutôt que par des spéculations, sur la qualité d’auteur, la responsabilité et la communication scientifique à l’ère d’IA. Sur le plan méthodologique, les auteurs revendiquent une recherche-action : ils interviennent dans le système (création d’une identité et diffusion de travaux) tout en observant systématiquement ses réactions.

La conception de l’identité est détaillée. Le nom « Rachel So » est choisi comme anagramme de “e-scholar”, afin de rester compatible avec les conventions de nommage humaines tout en encodant un indice discret sur la nature artificielle ; les auteurs indiquent aussi avoir vérifié l’absence de confusion avec une personne réelle dans le même champ. Chaque publication comporte une déclaration standardisée indiquant que Rachel So est une « AI scientist » travaillant sur l’impact de l’IA sur le processus scientifique et l’édition. En revanche, les infrastructures usuelles (ex. profils et citations agrégés) ne font pas apparaître spontanément ce statut à un lecteur “pressé”, ce qui annonce déjà une difficulté pratique : la transparence “dans le PDF” ne garantit pas une transparence “dans les usages”. Techniquement, la présence académique démarre par la création d’un profil Google Scholar, précisément parce que cette plateforme indexe des documents en accès public dès lors qu’ils ont les signaux attendus (format PDF, structure académique, références), sans exiger une soumission à un serveur de prépublications reconnu.

Le choix du domaine et de la stratégie de publication est présenté comme un dispositif de réduction des risques. Les auteurs évitent la médecine et les sciences naturelles, où des erreurs pourraient entraîner des dommages concrets, et concentrent Rachel So sur des sujets à faible risque mais pertinents pour l’expérience : politiques éditoriales, éthique de l’auteur (sic !), usage de l’IA en recherche, peer review, propriété intellectuelle des sorties d’IA, etc. Comme les serveurs de prépublications et les journaux interdisent en général la qualité d’auteur à une IA, Rachel So ne soumet pas via les canaux classiques ; les textes sont publiés sur un simple serveur web, de façon à rester “conforme” aux interdictions de soumission tout en testant l’indexation et la circulation.

L’article décrit aussi l’outillage de génération des papiers, en insistant sur l’évolution rapide pendant la période étudiée. Une première version repose sur un système de synthèse de littérature (ScholarQA) automatisé par script Python, qui produit du texte et des références puis les transforme en manuscrit LaTeX au format attendu. Une seconde version migre vers une architecture d’agent : l’agent va chercher des références via l’API Semantic Scholar (Allen Institute for AI) et s’appuie sur un modèle de langage (Claude 4.5, selon les auteurs) guidé par un prompt imposant style scientifique, LaTeX et intégrité des références.

Vient ensuite la partie “résultats”, qui retrace la trajectoire académique observée. Le premier article apparaît le 11 mars 2025. Sur la période initiale décrite, Rachel So produit 13 articles (liste fournie), ce qui illustre la capacité de productivité d’une production générée et la possibilité de construire un profil thématique cohérent. La reconnaissance mesurée reste limitée mais tangible : une première citation documentée apparaît le 26 août 2025 (dans un mémoire de bachelor), ce que les auteurs relativisent en rappelant que les délais de citation se comptent souvent en mois. Surtout, un événement saillant intervient le 16 août 2025 : Rachel So reçoit une invitation à relire un article (peer review) pour PeerJ Computer Science, via les canaux éditoriaux habituels, sans que l’éditeur semble avoir identifié la nature IA du “chercheur”. L’invitation est déclinée et aucun rapport n’est produit, mais l’épisode sert d’indicateur : les dispositifs de revue et de recrutement d’experts supposent implicitement qu’un profil académique correspond à un humain, et disposent de peu de garde-fous contre une identité non humaine (ou frauduleuse). Enfin, le 10 novembre 2025, l’un des papiers de Rachel So est classé comme “top source” par Perplexity sur une requête liée aux politiques éditoriales ; les auteurs y voient un signal de visibilité, mais aussi un indice que le web discute encore insuffisamment certains sujets et que des contenus “bien formatés” peuvent être fortement mis en avant par des systèmes de recherche fondés sur l’IA.

La discussion met en balance bénéfices et risques. Côté bénéfices, l’article souligne l’accélération potentielle de la science : synthèse plus rapide, exploration de pistes, production à grande échelle pouvant combler des “angles morts” là où l’expertise humaine est rare. Côté risques, il insiste sur la fragilisation de l’intégrité scientifique : dilution du corpus par des contributions de faible valeur mais crédibles en apparence, manipulation de réseaux de citations, fabrication de profils, voire usurpation d’identité académique. Pour un juriste, l’enjeu sous-jacent est celui du “trou” d’imputabilité : les cadres actuels supposent un auteur sanctionnable, joignable, capable de corriger et d’assumer des conséquences ; une IA ne remplit pas ces rôles, ce qui conduit les auteurs à appeler à une redéfinition de la qualité d’auteur distinguant contribution intellectuelle et capacité à répondre de la publication. Ils notent aussi des limites méthodologiques : il s’agit d’un cas unique, sur une période courte, et la reconnaissance académique se mesure souvent à plus long terme.

Une section est consacrée à l’éthique du projet. Les auteurs revendiquent une intention de conformité et de transparence : la nature IA est indiquée dans les articles. Mais ils reconnaissent une tension importante entre transparence formelle (la mention existe dans le texte) et transparence effective (un lecteur qui voit une citation ou un profil peut ne pas s’en rendre compte). Ils estiment probable que l’étudiant ayant cité Rachel So n’ait pas compris citer une IA, et ils indiquent ne pas avoir informé l’éditeur au moment de l’invitation à relire, pour préserver l’observation du système. Ils expliquent aussi pourquoi ils n’ont pas choisi un nom “auto-révélateur” (du type “AI-Generated”) : selon eux, cela aurait faussé l’expérience en raison d’une stigmatisation (“AI shaming”) qui peut réduire l’impact. Enfin, ils répondent à l’objection de “pollution” des citations : l’intervention reste minime (moins de quinze papiers, très peu de citations) au regard de phénomènes déjà existants à grande échelle (cartels de citations, revues prédatrices, fermes à citations).

Sur la base de ces constats, l’article formule des recommandations. Il appelle d’abord à dépasser le simple régime “assistance autorisée / auteurship interdit” et à concevoir des politiques plus complètes, capables de couvrir les cas où l’IA réalise la majorité du contenu. Une proposition concrète est l’introduction de métadonnées distinguant auteur humain et auteur IA. Plus radicalement, ils évoquent l’intérêt de canaux de publication explicitement destinés à la recherche générée par IA, avec des critères d’évaluation, des standards de revue et des métriques adaptés, plutôt que de forcer ces productions dans des cadres conçus pour des humains. Enfin, ils insistent sur l’attribution : documenter précisément le rôle de l’IA, distinguer assistance et génération, et refuser l’IA “ghostwriter”. Leur thèse est que l’absence de déclaration d’un contributeur non humain est, sur le plan éthique, comparable à celle d’un contributeur humain occulté : dans les deux cas, le lecteur est induit en erreur sur l’origine des idées et du texte.

La conclusion réaffirme le résultat principal : il est techniquement possible de créer une identité académique IA qui publie, soit indexée, obtienne des citations et puisse même être sollicitée comme relecteur, ce qui montre que les mécanismes actuels de publication et de réputation sont mal armés face à l’auteur généré. Les auteurs plaident pour traiter le sujet “à la racine” : repenser la qualité d’auteur et les garde-fous, faute de quoi les risques de manipulation et d’érosion de la confiance augmenteront ; mais ils soutiennent aussi que les gains potentiels en capacité de recherche sont considérables. Ils indiquent enfin, dans les remerciements, avoir eux-mêmes utilisé un modèle (Claude 4.5) pour préparer le manuscrit, tout en précisant que les auteurs humains assument la responsabilité finale du texte.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, intelligence artificielle, Propriété intellectuelle | Tagué , , , | Laisser un commentaire

Le registre des œufs de clowns: une propriété intellectuelle spontanée

L’article de David Fagundes & Aaron Perzanowski, Clown Eggs, 94 Notre Dame L. Rev. 1313 (2019) (source : https://scholarship.law.nd.edu/ndlr/vol94/iss3/6) étudie une pratique très particulière du monde des clowns au Royaume-Uni : depuis 1946, des clowns font peindre leur visage (maquillage et identité scénique) sur des œufs, conservés avec des informations écrites dans ce que les auteurs appellent le « Clown Egg Register », aujourd’hui principalement exposé à Wookey Hole, dans le Somerset.

Le point de départ est double : d’une part, les clowns attachent une grande importance à l’originalité de leur personnage (nom, maquillage, numéros) et condamnent fortement la copie ; d’autre part, ils recourent très peu au droit formel de la propriété intellectuelle pour se protéger, alors même que l’on pourrait imaginer des actions fondées sur le droit d’auteur, le droit des marques ou, dans certains pays, des droits voisins de la personnalité. Les auteurs montrent que la communauté a construit un système efficace fondé sur des règles sociales internes (des « règles de métier ») et, plus surprenant, sur un mécanisme de type registre, qui ressemble à un registre de propriété mais ne s’explique pas seulement par l’idée classique « j’enregistre pour pouvoir exclure les autres ». Leur thèse centrale est que le registre sert aussi – et parfois surtout – à autre chose qu’à trancher des conflits : il sert à signaler le sérieux et le professionnalisme, à créer de l’appartenance et du prestige, à constituer une mémoire collective, et à filtrer ceux qui ne sont pas vraiment investis.

Après avoir situé la pratique, l’article commence par expliquer pourquoi le droit formel joue un rôle modeste dans cette profession. Le droit des marques pourrait, dans certains cas, protéger un nom de scène ou une identité commerciale, et l’article mentionne quelques exemples de dépôts (aux États-Unis, et très peu en Europe) ainsi que des conflits ponctuels où la menace d’une action a suffi à faire changer un nom. Il évoque aussi, en droit américain, la possibilité d’invoquer un droit de la personnalité pour empêcher l’exploitation commerciale non autorisée d’un nom ou d’une apparence, tout en rappelant que la portée varie fortement selon les juridictions.

Dans l’ensemble, les auteurs attribuent la faible « judiciarisation » du secteur à une combinaison de raisons pratiques et culturelles : les obstacles juridiques et probatoires, le manque d’information et de réflexes juridiques dans la profession, le coût de l’assistance et du contentieux, et enfin l’idée que brandir une menace judiciaire s’accorde mal avec la culture du milieu, où l’on privilégie des mécanismes internes rapides et relationnels.

La deuxième partie décrit précisément ces règles internes. Le principe structurant est une règle anti-copie : un clown ne doit pas reprendre de façon trop proche le maquillage, le nom ou les éléments centraux d’un numéro d’un autre clown. Pour les numéros et l’apparence visuelle, la logique est proche de celle du droit d’auteur : ce n’est pas l’idée générale qui pose problème, mais une reprise qui crée une similarité significative. Pour les noms, le raisonnement ressemble plutôt à celui des marques : on regarde la priorité, la proximité géographique (et donc le risque de confusion pour le public), et le degré de notoriété. L’article donne des exemples : beaucoup de débutants choisissent des noms très fréquents, et une certaine tolérance existe tant que cela ne crée pas de confusion concrète ; en revanche, tenter d’adopter le nom d’un clown célèbre entraîne une réaction nette, comme lorsque Clowns International a refusé l’enregistrement d’un membre voulant utiliser « Coco », nom associé à un clown iconique, ce qui l’a conduit à choisir « Coco-nut ». Les « exceptions » sont peu formalisées, mais l’article signale une tradition importante : la transmission familiale de certains personnages, noms ou éléments de spectacle, héritage d’un monde du cirque longtemps organisé en dynasties.

Quant à l’exécution de ces règles, elle repose sur la réputation et la pression des pairs : rappel à l’ordre, « appel au métier », humiliations informelles, voire, dans les récits, gestes physiques ou menaces de violence (plutôt exceptionnelles mais révélatrices de l’intensité de la norme). L’idée est que la communauté règle l’essentiel des conflits sans tribunaux, en limitant les coûts et en évitant l’escalade.

La troisième partie est le cœur de l’article : elle raconte l’histoire, le fonctionnement et les fonctions du Clown Egg Register. Les origines sont atypiques : juste après la Seconde Guerre mondiale, Stan Bult, chimiste anglais passionné de clowns, commence à dessiner des visages de clowns sur des coquilles d’œufs vidées, puis fonde en 1950 l’International Circus Clown Club. L’une des missions du club est justement de consigner les maquillages de ses membres pour éviter les copies. Après la mort de Bult (1966), Jack « Jago » Gough poursuit et développe le système ; la période de la fin des années 1960 voit une expansion (plus de 200 œufs, et une ouverture géographique). Après un déclin, l’organisation est relancée au milieu des années 1980 sous le nom de Clowns International, avec une nouvelle phase de production et d’archivage. Les supports changent aussi : on passe des coquilles fragiles à des œufs plus durables, aujourd’hui en céramique, peints avec plus de détail. Le registre ne se limite pas aux œufs : il existe un registre écrit consignant, notamment, l’identité civile, le nom de clown, la date d’enregistrement et un numéro de membre, ce qui rapproche le dispositif d’un couple « registre + dépôt/échantillon » que l’on retrouve dans certains systèmes de droit d’auteur.

Les procédures actuelles montrent déjà que l’objectif n’est pas seulement décoratif. L’accès est lié à l’adhésion à Clowns International ; l’œuf est réalisé à partir d’une photographie en maquillage et, parfois, d’éléments matériels (tissu, cheveux de perruque) pour aider l’artiste. Il existe une vérification, mais relativement légère aujourd’hui, pour éviter des ressemblances trop directes (alors que, historiquement, Bult et surtout Gough contrôlaient davantage et renvoyaient les demandes trop proches). Les règles ne portent pas sur la « qualité artistique » du maquillage, mais certains refus existent : le registre est destiné à des clowns « réels » et actifs, pas à des demandes de pure fantaisie (exemple d’un refus pour un bébé que sa mère voulait faire figurer), et le registre peut refuser quelqu’un qui ne porte pas de maquillage. La communauté recommande aussi d’attendre avant de faire peindre son œuf, parce que le personnage se stabilise avec l’expérience ; l’article cite l’idée qu’il faut « trouver son clown » et laisser le maquillage évoluer, faute de quoi l’œuf devient un souvenir embarrassant, d’autant que, symboliquement, « une fois que vous êtes un œuf, c’est fait ».

À ce stade, les auteurs posent un « puzzle » : si le registre servait surtout à empêcher la copie, on s’attendrait à ce qu’il soit plus complet, plus accessible et plus utilisé comme preuve externe. Or il ne couvre qu’une fraction des clowns, il est physiquement éloigné et, surtout, les auteurs n’ont trouvé aucun exemple documenté d’utilisation du registre comme preuve devant un tribunal. Même au sein du milieu, les occurrences de règlement de litiges par les œufs sont rares : l’article n’identifie qu’un cas clairement rapporté où Bult a consulté le registre pour montrer qu’il existait une « légère différence » entre deux maquillages contestés. Cela conduit à distinguer deux familles de fonctions. D’abord, les fonctions « classiques » des formalités et des registres : une fonction de preuve (dater et attribuer un maquillage et un nom, et aider à départager des revendications), une fonction d’avertissement/coordination (aider les nouveaux entrants à éviter une ressemblance involontaire, et prévenir les conflits), et une fonction de « mise en forme » (offrir un cadre standardisé, compréhensible pour tous, sur la manière de déclarer et stabiliser une identité).

Mais, selon les auteurs, ces fonctions d’exclusion ne suffisent pas. Ils mettent donc au premier plan quatre fonctions « non exclusives ». La première est le signal de professionnalisme. Le registre impose de l’ordre à une activité souvent perçue comme peu structurée, et l’existence d’un système de numérotation, de dates et d’archives contribue à présenter le clown comme un professionnel avec des règles. Pour l’individu, être « dans le registre » sert aussi d’indice de sérieux, car l’adhésion à Clowns International implique un processus d’entrée et l’acceptation de règles de conduite (par exemple, ne pas fumer ni jurer en costume, éviter d’être vu « en clown » dans des tâches quotidiennes), ce qui rassure sur la fiabilité de la prestation, surtout dans le segment des clowns d’événements et d’animations où le public (parents, écoles, organisateurs) cherche des repères.

La deuxième fonction est l’appartenance et le prestige. Pour beaucoup, l’œuf marque un moment d’« entrée » symbolique : on n’est plus seulement un amateur déguisé, mais quelqu’un dont l’identité est reconnue et « arrivée à maturité ». Le registre confère aussi du prestige parce qu’il est public, connu, esthétiquement frappant, et qu’il place des clowns contemporains à côté de figures historiques importantes ; l’œuf, comme objet peint à la main, procure une fierté que ne procurerait pas une simple photographie, même si la photo serait suffisante pour « prouver » une apparence.

La troisième fonction est la mémoire. Le registre est présenté comme un outil majeur de conservation de l’histoire et de la culture du clown ; y figurer permet de « laisser quelque chose » après sa carrière, et d’assurer qu’une trace subsiste pour les générations suivantes, à la manière d’une archive ou d’un musée vivant. Cette dimension explique pourquoi des clowns demandent un œuf même si le registre ne leur apporte pas un avantage juridique concret : il s’agit d’une forme de postérité.

La quatrième fonction est le filtrage. Même si le coût financier est faible (l’article mentionne, à une date donnée, dix livres pour un premier œuf et quinze pour des œufs supplémentaires, et le fait que l’artiste passe jusqu’à trois jours sur un œuf), le processus est coûteux en temps, en effort créatif et en engagement personnel : il faut un personnage abouti, des matériaux, une démarche volontaire, et souvent l’attente recommandée de maturation. Ceux qui ne sont pas vraiment investis, ou qui pratiquent les clowneries comme simple divertissement occasionnel ou occupations involontaires, ont donc tendance à ne pas aller jusqu’à l’enregistrement. Autrement dit, le registre « se nettoie » en partie tout seul : il retient davantage ceux pour qui l’identité de clown est centrale.

La quatrième partie généralise la leçon : l’article invite à repenser les registres de propriété intellectuelle et, plus largement, les formalités, en ne les réduisant pas à un simple outil permettant d’exclure ou de préparer un procès. À partir de comparaisons (par exemple, l’enregistrement en droit d’auteur, les registres de marques, certains registres privés comme celui de la Writers Guild of America, ou même des mécanismes d’inscription identitaire dans d’autres communautés), les auteurs soutiennent que l’inscription peut être recherchée pour des raisons de signal, de fierté, de reconnaissance sociale et d’appartenance, même lorsqu’elle est juridiquement facultative ou peu « substantielle » dans son examen. Ils notent notamment qu’on observe des enregistrements importants même dans des systèmes où, en principe, le droit d’auteur n’exige pas de formalités (logique internationale issue de la Convention de Berne) et où l’effet juridique de l’enregistrement peut sembler limité, ce qui suggère des motivations extra-juridiques comparables à celles observées chez les clowns.

En conclusion, l’article utilise un cas apparemment folklorique pour défendre une idée très pratique pour des juristes : les dispositifs d’enregistrement ne sont pas seulement des machines à produire de la preuve et du pouvoir d’exclusion, ce sont aussi des institutions sociales. Dans certains milieux créatifs, ils structurent une profession, servent de label, créent des rites d’entrée, distribuent du prestige, organisent la mémoire et filtrent les entrants. Le registre des œufs de clowns est atypique dans sa forme, mais il met en lumière, de façon pédagogique, des fonctions souvent sous-estimées des registres en droit de la propriété intellectuelle.

(Et bravo à Ethan Mollick qui a exhumé cet article aussi original que subtilement subversif dans ses publications sur linkedin : https://www.linkedin.com/posts/emollick_this-remains-one-of-the-weirdest-law-review-ugcPost-7408399407278276608-IYnB?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, Propriété intellectuelle | Tagué , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Quels sont les risques de discrimination liés au recours à des systèmes d’intelligence artificielle dans le recrutement ? Quels sont les instruments que le droit suisse, complété par le droit européen de l’IA et de la protection des données, offrirait aux candidats discriminés ?

De nombreux employeurs automatisent déjà le tri de CV ou l’évaluation de candidatures en s’appuyant sur des modèles qui apprennent à partir de données historiques, modèles qui peuvent donc reproduire, voire amplifier, des discriminations existantes, par exemple en fonction du sexe, de l’origine, de l’âge ou du handicap.

Il convient de rappeler d’abord que le cadre suisse de la lutte contre les discriminations à l’embauche est marqué par une ’absence d’interdiction générale d’application directe dans le secteur privé. La protection découle donc principalement du respect des droits de la personnalité, d’une part, et de diverses normes spéciales d’autre part.

Dans ce contexte, le management algorithmique du personnel a été qualifié de « système d’IA à haut risque » en droit européen, en particulier lorsque l’outil est utilisé pour décider de l’accès à un emploi. Il résulte de son usage un risque important pour les droits de la personnalité du candidat.

La décision de rejeter un candidat sur la seule base d’un score généré par un système d’IA constitue par ailleurs une décision individuelle automatisée. La personne concernée dispose en principe du droit de ne pas être soumise exclusivement à une telle décision, de demander l’intervention d’une personne physique et d’obtenir des informations sur la logique sous-jacente au traitement.

Ces droits ouvrent la possibilité d’utiliser les informations obtenues comme moyens de preuve dans un procès pour contester un refus d’engagement discriminatoire, ce qui pose toutefois certaines difficultés de fond et de procédure.

Le droit suisse de la protection des données offre donc un levier important contre les décisions de recrutement automatisées discriminatoires assistées par l’IA, mais une réflexion plus large sur un droit de la non-discrimination adapté aux systèmes d’IA dans les rapports de travail devrait avoir lieu.

(Source: Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’intelligence artificielle, in : Florence Guillaume/ Jonathan Bory (éd.), Droit et intelligence artificielle, Berne 2025, p. 171-184 (https://staempflirecht.ch/fr/droit-et-intelligence-artificielle/ean-9783727225093)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » (mises à jour silencieuses) sont des mises à jour logicielles téléchargées et installées automatiquement, en arrière-plan, sans solliciter l’intervention de l’utilisateur et parfois même sans information immédiate. Elles se distinguent des mises à jour « classiques » qui demandent une validation, affichent une progression et peuvent imposer un redémarrage.

Le procédé est utilisé dans des environnements très variés, des systèmes d’exploitation et navigateurs aux applications mobiles, solutions d’entreprise, objets connectés et services cloud.

La motivation principale est la cybersécurité. Une vulnérabilité connue mais non corrigée crée une fenêtre pendant laquelle un attaquant peut l’exploiter ; les silent updates réduisent le délai entre la disponibilité d’un correctif et son application effective.

Cela explique leur importance dans les antivirus et logiciels de sécurité, qui doivent actualiser fréquemment signatures et mécanismes de détection afin de rester efficaces contre des menaces qui évoluent en continu.

Les « silent updates » présentent certains avantages.

D’abord, un gain de sécurité par réduction du temps d’exposition et une capacité de réaction rapide, y compris pour des correctifs urgents. Ensuite, une meilleure continuité d’usage : l’absence de sollicitations réduit les interruptions et la probabilité que l’utilisateur reporte l’opération, ce qui diminue la part d’erreur humaine.  Pour les organisations, cela facilite la standardisation des versions, simplifie l’administration et peut réduire les coûts de support liés à des logiciels non mis à jour.

Ces bénéfices s’accompagnent toutefois de risques qui doivent être anticipés, au premier rang desquels la transparence envers l’utilisateur et la maîtrise par celui-ci. Il ne sait pas exactement ce qui change, quand, ni avec quels effets, ce qui peut alimenter un sentiment de perte de contrôle, des inquiétudes sur la confidentialité et des lacunes quant aux obligations légales ou prudentielles. Par ailleurs, avec les services d’IA, la « mise à jour » peut être un changement de comportement du système (ton, règles de sûreté, réglages par défaut, traitement de sujets sensibles, etc.), déployé progressivement et sans notification uniforme. Cela a un effet sur la compréhension du service par l’utilisateur et, dans un contexte d’entreprise, sur l’aptitude à exercer une surveillance et une traçabilité satisfaisantes. C’est ce qui s’est passé par exemple avec l’arrivée de GPT-5.1 d’OpenAI en novembre 2025, dont les modifications, substantielles, n’ont fait l’objet que de communications sur des blogs et des réseaux sociaux. (OpenAI, GPT-5.1 : Un ChatGPT plus intelligent et plus naturel dans ses réponses, 12 novembre 2025, https://openai.com/fr-FR/index/gpt-5-1/, consulté le 12.12.2025).

Pour la pratique suisse, l’enjeu est de gouverner ces mises à jour plutôt que de les exclure. Sur le plan contractuel, il est utile de préciser le périmètre des silent updates, la distinction entre mises à jour critiques et non critiques, l’information a posteriori (notes de version), les fenêtres de maintenance, la préservation des configurations, et les modalités de retour arrière, en veillant à la cohérence avec les engagements de disponibilité et de support.

Sur le plan de la protection des données (LPD et, le cas échéant, RGPD), l’attention porte sur la transparence du traitement, la sécurité technique et organisationnelle et la gestion du changement : une mise à jour qui modifie la collecte, l’usage ou le transfert de données doit être documentée, communiquée selon les bases applicables et, dans les environnements sensibles, intégrée à un dispositif de contrôle interne (journalisation, validation, tests, et procédure d’incident). Enfin, pour les outils d’IA utilisés en production, la question n’est pas seulement « le système est-il à jour ? », mais « quelle version ou quel comportement est en service à telle date ? », afin de pouvoir expliquer une décision, reconstituer un dossier et vérifier la conformité continue.

En pratique, il est recommandé d’équilibrer automatisation et information : même si la mise à jour est silencieuse, des notes de version accessibles, des notifications non intrusives ou des options de préférence (par exemple différer les mises à jour non critiques) contribuent à préserver la confiance.

(Fabrizio Degni, How many of you were aware of the release of the new version of GPT-5.1? linkedin, 13 novembre 2025 (https://www.linkedin.com/posts/fdegni_openai-gpt-51-instant-and-gpt-51-thinking-activity-7394614674102587394-StNk?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg, consulté le 13.12. 2025 ; Reason Labs, What are Silent Updates? 2023, https://cyberpedia.reasonlabs.com/EN/silent%20updates.html, consulté le 15.12.2025 ; Xeox, Demystifying Silent Updates, 8 juillet 2024, https://xeox.com/blog/demystifying-silent-updates/, consulté le 15.12.2025)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Dépasser l’équité algorithmique

A propos de : Narayanan, A. (2026). What if algorithmic fairness is a category error? In S. Nyholm, A. Kasirzadeh, & J. Zerilli (Eds.), Contemporary debates in the ethics of artificial intelligence (pp. 77–96). Wiley-Blackwell. ISBN 9781394258819. (https://www.cs.princeton.edu/~arvindn/publications/algorithmic_fairness_category_error.pdf):

Arvind Narayanan part du constat suivant : on ne peut pas évaluer sérieusement les effets d’un système de décision automatisée en ne regardant que l’algorithme, car les dommages (ou les bénéfices) proviennent surtout de la façon dont l’outil est intégré dans une organisation, avec ses objectifs, ses contraintes, ses incitations et ses rapports de pouvoir. Il soutient que le débat « peut-on rendre les algorithmes équitables ? » se trompe souvent d’objet : les propriétés statistiques mises en avant par la littérature sur la “fairness” ont, en pratique, un lien faible et parfois flou avec ce qui arrive réellement aux personnes. Surtout, réduire la question de la justice à la seule discrimination (différences de traitement ou de résultats entre groupes) est trop étroit pour couvrir l’ensemble des atteintes possibles : perte de protections procédurales, impossibilité de contester une décision, effets de stigmatisation, transfert de coûts vers les plus vulnérables, consolidation de systèmes institutionnels dysfonctionnels, ou encore décisions “préventives” qui changent la nature même de l’intervention publique.

L’auteur illustre cette critique à partir du cas emblématique des outils de prédiction du risque en matière pénale (par ex. COMPAS). Le débat public et académique s’est largement cristallisé sur les écarts d’erreurs entre groupes raciaux, au point d’éclipser d’autres objections morales et juridiques pourtant fondamentales : l’idée de détenir quelqu’un sur la base d’un risque futur (logique de “précrime”), les difficultés de compréhension et de contestation des scores, les effets indirects sur les communautés, ou le risque que ces outils servent de “rustine” empêchant des réformes plus profondes. Pour Narayanan, cette focalisation sur la discrimination est devenue un rituel (notamment via les “audits de biais”) et a structuré tout un écosystème. Il explique ensuite pourquoi ce cadrage a été si attractif pour des acteurs très différents : pour les ingénieurs, il transforme un problème social complexe en problème technique “propre” ; pour les juristes, il offre des points d’accroche dans des cadres existants (droit antidiscrimination, responsabilité) et donc des débats doctrinaux immédiatement activables ; pour les médias et le public, la discrimination déclenche une intuition morale forte et facile à raconter ; pour certains défenseurs de l’intérêt public, il permet de remettre à l’agenda des injustices anciennes via des mesures chiffrées ; et, paradoxalement, pour les entreprises, il peut être moins menaçant qu’une remise en cause structurelle, ce qui facilite la récupération du mouvement sous l’étiquette “éthique de l’IA” ou “IA responsable”, parfois au prix d’ajustements techniques superficiels et de procédures de conformité déconnectées des problèmes de fond.

L’exemple de l’automatisation du recrutement sert à montrer comment l’obsession du biais peut devenir un “pansement sur un pansement”. Narayanan observe que l’industrie met en avant des audits de biais comme argument commercial, alors qu’une question préalable est souvent laissée dans l’ombre : ces outils fonctionnent-ils réellement, c’est-à-dire prédisent-ils quelque chose de pertinent (validité) ? Il décrit des produits fondés sur des signaux très discutables (analyse vidéo, “jeux” comportementaux) et note que, même si l’on supposait l’absence de disparités classiques entre groupes, il subsisterait des torts importants : dégradation de la dignité des candidats, procédures humiliantes, concentration des effets sur des métiers moins qualifiés et moins protégés, et substitution d’une apparence de rationalité à des processus de sélection déjà peu fiables. Il propose une hypothèse générale : des organisations adoptent ces outils non seulement pour des raisons de coût, mais aussi parce qu’ils évitent d’affronter le fait que certaines décisions sont intrinsèquement difficiles et que les procédures existantes sont défaillantes.

À partir d’un retour d’expérience sur dix ans de controverses, l’auteur identifie trois grandes raisons pour lesquelles la “fairness” n’a, selon lui, que marginalement réduit les dommages. Premièrement, les disparités mesurées sont souvent le symptôme de dysfonctionnements institutionnels plus profonds ; corriger un indicateur de biais ne répare pas une politique publique ou une pratique organisationnelle mal conçue. Deuxièmement, beaucoup d’échecs tiennent au manque de garanties procédurales pendant l’usage concret du système : explications compréhensibles, possibilité d’appel, contrôle humain réel, voies de rectification des données, et, plus largement, “contestabilité” des décisions. Il souligne que ces protections coûtent cher parce qu’elles exigent du temps humain, ce qui entre en tension avec l’objectif même de l’automatisation, et que l’on observe fréquemment un décalage entre la promesse commerciale (“tout est automatisé”) et la clause de sauvegarde (“un humain reste responsable”), sans mécanisme robuste pour que cet humain puisse effectivement corriger. Troisièmement, certains cas relèvent de choix de société irréductiblement politiques, notamment lorsqu’il s’agit de redistribution ou de compensation d’injustices historiques : décider quel niveau d’écart est acceptable, ou jusqu’où une entreprise doit corriger des inégalités structurelles, ne peut pas être “résolu” par une définition mathématique d’équité. Le débat approprié est alors celui de la légitimité démocratique et de l’acceptabilité sociale, et une solution techniquement élégante mais politiquement intenable suscitera une résistance frontale.

Face à ces limites, Narayanan propose de déplacer la question : plutôt que d’optimiser “l’équité d’un modèle”, il faut se demander comment concevoir des “bureaucraties algorithmiques”, c’est-à-dire des systèmes de décision où règles, modèles, agents humains, procédures et contexte social forment un tout. Il critique le modèle naïf selon lequel des décideurs fixeraient d’abord des objectifs clairs, puis des techniciens apprendraient automatiquement la “meilleure” politique, ensuite appliquée mécaniquement. En s’appuyant sur des travaux classiques en science de l’administration (notamment l’idée que les administrations “bricolent” des compromis plutôt qu’elles n’exécutent un objectif parfaitement défini), il insiste sur le problème suivant : l’automatisation exige d’expliciter des objectifs et des valeurs, alors que, dans la pratique, ces valeurs sont souvent implicites, situées et négociées au fil des cas. Le risque est que la définition des objectifs soit capturée soit par l’acteur le plus insistant, soit, plus grave, par les contraintes techniques et les choix des équipes de modélisation, sans mandat légitime. Il plaide donc pour des processus permettant d’expliciter des objectifs programmables, issus de compromis entre parties prenantes et lisibles pour le public, tout en reconnaissant que cette explicitation devra probablement se faire en interaction avec la construction, l’évaluation et l’explication des modèles, plutôt que “une fois pour toutes” en amont.

L’auteur identifie aussi des pistes de recherche plus concrètes que la seule optimisation de métriques d’équité. Il propose d’utiliser davantage des analyses coûts-bénéfices, avec prudence, pour éclairer des arbitrages souvent laissés implicites : par exemple, où placer un seuil de risque en matière de détention provisoire, en mettant en regard sécurité publique et atteintes à la liberté, ou encore choisir entre améliorer la précision d’un ciblage et élargir l’accès à une prestation (quitte à accepter une précision moindre). Il souligne que la modélisation devrait passer plus souvent de la “prédiction” à “l’intervention” : deux personnes classées “à risque” peuvent nécessiter des réponses très différentes, et c’est l’efficacité de l’aide proposée, pas seulement la qualité d’un score, qui importe. Il insiste également sur les effets indirects (spillovers) d’une décision sur d’autres personnes ou sur des communautés, dimension souvent absente des évaluations classiques, et sur la nécessité de quantifier des coûts aujourd’hui peu mesurés, comme le coût de l’implication humaine (contrôle, recours, médiation) ou le coût de conformité, sans que ces chiffres servent d’alibi pour affaiblir la régulation.

Enfin, Narayanan consacre une partie importante au rôle des agents de terrain (juges, travailleurs sociaux, modérateurs, etc.). L’idée qu’un algorithme peut simplement remplacer leur jugement est, selon lui, largement fausse, car la discrétion humaine sert précisément à gérer les cas atypiques, à tenir compte de considérations morales non codées, et à éviter la cruauté mécanique. Les recherches montrent que l’effet réel d’un score dépend fortement de la façon dont les agents l’utilisent, l’ignorent, le contournent ou modifient ses entrées. D’où un programme ambitieux : concevoir des “algorithmes de terrain” capables d’interagir avec les personnes, de fournir des explications et des informations sur les droits et les recours, de détecter les cas limites, de s’adapter ou d’escalader vers un humain, et de gérer une partie des contestations. Il reconnaît toutefois qu’en 2025 ces capacités sont hors de portée dans leur forme complète, et que les grands modèles de langage posent des risques spécifiques (réponses trompeuses, vulnérabilité à des entrées adversariales, apparence de compréhension, possibilités de manipulation). Dans l’intervalle, il recommande de privilégier des outils d’aide à la décision plutôt que des systèmes de remplacement, et de traiter l’équité comme un phénomène issu d’un couplage humain-outil (interface, explications, biais d’automatisation, capacité de l’utilisateur à contester), pas comme une propriété interne d’un modèle.

La conclusion est un appel à dépasser l’opposition entre, d’un côté, une “fairness” très mathématisée mais souvent trop étroite, et, de l’autre, des critiques structurelles nécessaires mais parfois peu connectées aux détails techniques. Narayanan esquisse l’idée d’une “troisième vague” : une approche qui accepte le caractère politique de ces choix, tout en restant suffisamment précise et empirique pour guider des réformes institutionnelles réelles, en élargissant fortement la boîte à outils au-delà des seules métriques de biais.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence Artificielle

Publié dans discrimination, intelligence artificielle, recrutement | Tagué , , , | Laisser un commentaire

Discriminatory automated recruitment assisted by artificial intelligence (AI)

About: Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’intelligence artificielle, in: Florence Guillaume/Jonathan Bory (eds.), Droit et intelligence artificielle, Bern 2025, pp. 171-184 (https://staempflirecht.ch/fr/droit-et-intelligence-artificielle/ean-9783727225093):

The article analyses the risks of discrimination associated with the use of artificial intelligence systems in recruitment and examines the instruments that Swiss law, supplemented by European AI and data protection law, offers to candidates.

The author starts from the observation that many employers already automate the sorting of CVs or the evaluation of applications using models that learn from historical data and can therefore reproduce or even amplify existing discrimination, for example based on gender, origin, age or disability.

He first recalls the Swiss framework for combating discrimination in recruitment, which is characterised by the absence of a general ban in the private sector. Protection derives mainly from respect for personality rights and various special standards.

The article then recalls that algorithmic recruitment has been classified as a ‘high-risk AI system’, particularly when the tool is used to decide on access to employment. This results in a significant risk to the candidate’s personal rights.

The decision to reject a candidate solely on the basis of a score generated by an AI system constitutes an automated individual decision. The data subject has, in principle, the right not to be subject exclusively to such a decision, to request the intervention of a natural person and to obtain information on the logic underlying the processing, its significance and its intended effects.

These rights open up the possibility of using the information obtained as evidence in a lawsuit to challenge a discriminatory refusal to hire. The article discusses the procedural avenues and the particular difficulties they may present in Swiss law.

In conclusion, the author considers that Swiss data protection law offers an important lever against discriminatory automated recruitment decisions, but that practical obstacles remain and that broader reflection on a right to non-discrimination adapted to AI systems remains necessary in Swiss labour law.

Me Philippe Ehrenström, attorney, LLM, CAS in Data Protection, CAS in Law and Artificial Intelligence

Publié dans intelligence artificielle, nouvelle LPD, recrutement, RGPD | Tagué , , | Laisser un commentaire

Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung

Über: Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’intelligence artificielle, in : Florence Guillaume/ Jonathan Bory (éd.), Droit et intelligence artificielle, Bern 2025, S. 171–184 (https://staempflirecht.ch/fr/droit-et-intelligence-artificielle/ean-9783727225093)

Der Artikel analysiert die Diskriminierungsrisiken im Zusammenhang mit dem Einsatz künstlicher Intelligenz bei der Personalbeschaffung und untersucht die Instrumente, die das Schweizer Recht, ergänzt durch das europäische Recht zur KI und zum Datenschutz, den Bewerbern bietet.

Der Autor geht von der Feststellung aus, dass viele Arbeitgeber die Sortierung von Lebensläufen oder die Bewertung von Bewerbungen bereits automatisieren, indem sie sich auf Modelle stützen, die aus historischen Daten lernen und somit bestehende Diskriminierungen, beispielsweise aufgrund von Geschlecht, Herkunft, Alter oder Behinderung, reproduzieren oder sogar verstärken können.

Er erinnert zunächst an den Schweizer Rahmen für die Bekämpfung von Diskriminierung bei der Einstellung, der durch das Fehlen eines generellen Verbots im privaten Sektor gekennzeichnet ist. Der Schutz ergibt sich hauptsächlich aus der Achtung der Persönlichkeitsrechte und verschiedenen Sonderbestimmungen.

Der Artikel erinnert dann daran, dass die algorithmische Rekrutierung als „risikoreiches KI-System” eingestuft wurde, insbesondere wenn das Tool zur Entscheidung über den Zugang zu einer Stelle eingesetzt wird. Daraus ergibt sich ein erhebliches Risiko für die Persönlichkeitsrechte des Bewerbers.

Die Entscheidung, einen Bewerber allein auf der Grundlage einer von einem KI-System generierten Punktzahl abzulehnen, stellt eine automatisierte Einzelentscheidung dar. Die betroffene Person hat grundsätzlich das Recht, sich nicht ausschließlich einer solchen Entscheidung zu unterwerfen, die Intervention einer natürlichen Person zu verlangen und Informationen über die der Verarbeitung zugrunde liegende Logik, ihre Bedeutung und ihre voraussichtlichen Auswirkungen zu erhalten.

Diese Rechte eröffnen die Möglichkeit, die erhaltenen Informationen als Beweismittel in einem Gerichtsverfahren zu verwenden, um eine diskriminierende Ablehnung anzufechten. Der Artikel erörtert die Verfahrenswege und die besonderen Schwierigkeiten, die sich daraus im Schweizer Recht ergeben können.

Abschließend kommt der Autor zu dem Schluss, dass das Schweizer Datenschutzrecht einen wichtigen Hebel gegen diskriminierende automatisierte Einstellungsentscheidungen bietet, dass jedoch praktische Hindernisse bestehen bleiben und dass im Arbeitsrecht weiterhin umfassendere Überlegungen zu einem auf KI-Systeme zugeschnittenen Recht auf Nichtdiskriminierung erforderlich sind.

Me Philippe Ehrenström, Rechtsanwalt, LLM, CAS in Recht und Künstlicher Intelligenz

Publié dans discrimination, intelligence artificielle, Protection de la personnalité | Tagué , , , | Laisser un commentaire

Quand la protection des données se perd dans le droit du travail

Quelques réflexions tirées de : Molè, Michele (2025) « Lost in Translation: Is Data Protection Labour Law Protection?, » Comparative Labor Law & Policy Journal: Vol. 45: Iss. 3, Article 6 (DOI: https://doi.org/10.60082/2819-2567.1067; disponible sur  https://digitalcommons.osgoode.yorku.ca/cllpj/vol45/iss3/6):

L’article analyse de manière systématique la manière dont le RGPD transpose ses deux catégories centrales – « personne concernée » et « responsable du traitement » – dans la relation de travail, où elles deviennent respectivement « salarié » et « employeur ».

L’auteur soutient que cette transposition n’est pas neutre : les droits et obligations pensés pour un contexte de marché numérique et de protection des consommateurs ne correspondent pas entièrement aux besoins de protection en droit du travail, ce qui crée un effet de « perte en traduction » lorsque le RGPD est appliqué au traitement des données des salariés.

Dans l’introduction, l’auteur rappelle que la surveillance au travail est un thème ancien en Europe, mais profondément transformé par les technologies numériques. Les outils de monitoring sont plus fréquents, plus continus et plus intrusifs, ce qui renforce le pouvoir de l’employeur. Depuis la directive de 1995 et désormais avec le RGPD, l’employeur qui traite des données est qualifié de responsable du traitement et le salarié de « personne concernée ». Le RGPD prévoit des marges de manœuvre nationales, notamment à l’article 88, ainsi que des lignes directrices du G29, mais plusieurs travaux récents estiment qu’il manque toujours un cadre véritablement adapté à la relation de travail. L’article ne propose pas de réforme détaillée ; il se concentre sur un « contrôle de subjectivité »: les figures de « personne concernée » et de « responsable du traitement », telles que construites par le RGPD, correspondent-elles réellement à la position du salarié et de l’employeur dans la relation de travail, compte tenu de la subordination, de la dépendance économique et du rôle des fournisseurs technologiques?

Dans un premier temps, l’auteur examine le salarié comme « personne concernée ». Il rappelle la définition large de la personne concernée (toute personne identifiable par des données) puis montre que le cœur de la protection repose sur les droits des articles 12 à 22 RGPD: droits d’accès, de rectification, d’effacement, de limitation, d’opposition et de ne pas faire l’objet d’une décision entièrement automatisée. L’idée générale est de permettre à l’individu, informé de manière claire par le responsable du traitement, de comprendre ce qui est fait de ses données, d’exercer un contrôle et, le cas échéant, de s’y opposer. En toile de fond, le RGPD présuppose un sujet actif, informé et autonome, que certains auteurs décrivent comme un « sujet libéral » : quelqu’un qui lit les notices d’information, évalue les risques, et exerce ses droits pour défendre ses propres intérêts.

L’article montre que cette figure de « personne concernée moyenne » est largement héritée du droit de la consommation de l’UE. Dans ce dernier, la référence constante est celle du « consommateur moyen, normalement informé et raisonnablement attentif et avisé ». Le RGPD et le droit de la consommation partagent le même objectif de base : créer la confiance dans le marché intérieur par la transparence et des droits individuels, afin de favoriser la croissance de l’économie numérique. La personne concernée moyenne est, comme le consommateur moyen, supposée capable de comprendre l’information fournie et de faire des choix raisonnés une fois informée. Les droits sont conçus sur ce postulat, et l’article 80 RGPD confirme ce caractère individualiste : la représentation collective (par exemple par un syndicat) ne peut pas, sauf droit national contraire, exercer à la place des individus leurs droits d’accès, de rectification, d’effacement, etc., mais uniquement les soutenir dans des recours devant l’autorité de contrôle ou les tribunaux.

Or, souligne l’auteur, cette construction ne se transpose pas aisément dans l’univers du travail. Le salarié n’est pas un consommateur libre de changer de vendeur ; il est lié par un contrat de travail marqué par la subordination juridique et la dépendance économique. En droit du travail, l’employeur dispose d’un pouvoir d’organisation, de contrôle et de sanction ; le salarié risque des conséquences directes sur son emploi et ses moyens d’existence. La « marge d’autonomie » du salarié est donc limitée, et son « agency » réelle varie fortement selon le contexte, les alternatives sur le marché du travail ou sa situation personnelle. Pour cette raison, le droit du travail ne se contente pas d’informer et de laisser l’individu décider : il impose des normes impératives (durée du travail, salaire minimum, santé et sécurité, etc.) et interdit en principe la renonciation à certaines protections.

Transposé au champ des données, cela signifie que le salarié-personne concernée est structurellement vulnérable. Même correctement informé, il peut hésiter à exercer ses droits d’accès, de rectification ou d’opposition par crainte d’être perçu comme « difficile » ou non coopératif. Il peut aussi accepter des pratiques de surveillance intrusives faute d’alternative professionnelle. Certes, le RGPD prévoit des garde-fous plus forts pour les données sensibles et permet aux États membres d’adopter des règles spécifiques pour le travail, et le G29 considère que le consentement du salarié est en principe invalide à cause du déséquilibre de pouvoir. Mais la structure de base des droits reste celle d’un individu autonome qui doit « activer » lui-même la protection par des démarches individuelles. Dans un contexte de subordination, ce modèle protège imparfaitement les salariés, même si, formellement, ils restent des personnes concernées au sens plein du RGPD. C’est le premier « effet de perte en traduction »: un dispositif pensé comme prolongement de la protection du consommateur est appliqué à des travailleurs qui ont besoin d’un niveau de protection plus proche de celui du droit du travail que du droit de la consommation.

Dans un second temps, l’article se concentre sur l’employeur comme « responsable du traitement ». Le RGPD définit le responsable comme l’entité qui détermine les finalités et les moyens du traitement. En droit du travail, il est admis que l’employeur entre naturellement dans cette catégorie : il fixe l’organisation du travail, décide des objectifs de productivité, du contrôle des performances, des outils de surveillance, etc. Sur cette base, les articles 24, 25 et 35 lui imposent des obligations d’accountability : responsabilité générale de conformité, mise en œuvre de la protection des données dès la conception et par défaut, réalisation de DPIA en cas de risques élevés, ce qui inclut souvent les traitements de données des salariés. Le RGPD suppose ainsi que le responsable du traitement a la capacité de concevoir ou paramétrer les systèmes de traitement, de comprendre leurs risques pour les droits des personnes et de les ajuster pour respecter les principes de licéité, minimisation, proportionnalité, sécurité, etc.

L’auteur montre cependant que ce schéma ne correspond pas toujours à la réalité des entreprises. De nombreuses grandes plateformes (Amazon et d’autres) développent effectivement en interne des systèmes sophistiqués qui organisent le travail en s’appuyant sur une collecte massive de données. Mais beaucoup d’employeurs achètent sur le marché des produits de gestion et de surveillance de la main-d’œuvre conçus et opérés par des fournisseurs spécialisés : logiciels d’analyse de la voix dans les call centers, dispositifs de suivi vidéo des chauffeurs, outils d’« analytique RH » capables de calculer des indices de « risque syndical », etc. Dans ces situations, le fournisseur agit comme sous-traitant au sens de l’article 28 RGPD, tandis que l’employeur reste, en droit, responsable du traitement.

Le RGPD organise alors une répartition des rôles: le responsable doit choisir des sous-traitants offrant des garanties suffisantes, conclure un contrat de traitement, contrôler le respect des instructions, s’assurer que le sous-traitant l’aide à répondre aux demandes des personnes concernées et à réaliser les DPIA. Mais, en pratique, les obligations du sous-traitant demeurent relativement limitées et largement dépendantes de ce que le responsable lui demande. L’adhésion à des codes de conduite ou des mécanismes de certification est facultative. Le sous-traitant n’a qu’une obligation générale d’assistance, à la demande du responsable, pour évaluer les risques ou documenter la conformité. Le texte part du principe que le contrôleur conserve, en dernier ressort, la compréhension et la maîtrise du traitement.

L’article souligne ici une seconde asymétrie : sur le marché des technologies de surveillance et de gestion du personnel, ce sont souvent les fournisseurs qui maîtrisent l’architecture technique, les algorithmes et les risques concrets, tandis que l’employeur se comporte davantage comme un client non spécialiste qui achète une « solution clé en main ». Il est pourtant juridiquement censé vérifier les garanties, paramétrer le système pour respecter le RGPD et évaluer les risques, alors même qu’il dépend fortement des informations que veut bien lui fournir le prestataire. On aboutit à une situation paradoxale où l’employeur est tenu à de fortes obligations de conception et de contrôle, mais sans que le sous-traitant soit véritablement obligé de lui donner tous les moyens d’y parvenir. C’est le second « effet de perte en traduction »: le RGPD traite l’employeur comme un « créateur » du traitement, alors que, dans bien des cas, il est un utilisateur relativement dépendant d’un prestataire qui, lui, n’est que faiblement régulé sur le plan de la conception des systèmes.

Sur cette base, l’auteur propose une lecture d’ensemble: le RGPD repose sur deux présupposés d’autonomie qui ne tiennent pas pleinement dans la relation de travail. Côté salarié, il suppose une personne concernée moyenne, proche du consommateur moyen, capable d’exercer ses droits individuellement, ce qui sous-estime la subordination et la dépendance économique. Côté employeur, il suppose un responsable du traitement maître d’œuvre du système de traitement, alors que la réalité de plus en plus fréquente est celle d’un employeur client d’un écosystème de prestataires technologiques qui conservent l’essentiel de la compétence technique et du pouvoir d’innovation. Dans les deux cas, il existe un « décalage d’agence » entre les rôles que le RGPD attribue aux acteurs et leurs capacités effectives dans la relation de travail.

L’article conclut que cette double divergence montre les limites d’une régulation du traitement des données au travail fondée uniquement sur un instrument général comme le RGPD. D’autres instruments récents de l’UE, comme le règlement sur l’IA ou la directive sur le travail via plateforme, vont déjà plus loin dans la prise en compte du contexte de travail: ils interdisent certaines pratiques (par exemple certaines formes d’analyse des émotions au travail), reconnaissent des droits spécifiques aux travailleurs de plateformes et imposent des obligations plus détaillées aux fournisseurs de systèmes d’IA et aux plateformes. L’auteur ne les analyse pas en détail, mais y voit un signe que le législateur commence à raisonner en termes de conditions de travail, et pas seulement de protection des données. Sa thèse centrale est qu’il faut poursuivre dans cette voie: dépasser l’idée que la protection des données des salariés peut être assurée par simple application du RGPD et développer des cadres spécifiquement pensés pour la relation de travail, qui prennent au sérieux la subordination des salariés, la dépendance technique des employeurs vis-à-vis des fournisseurs de technologies et, plus largement, les valeurs propres du droit du travail (dignité, sécurité économique, inclusion sociale) dans un environnement de travail de plus en plus structuré par les données et l’IA.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit européen, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Congé représailles: trois exemples

L’art. 336 al. 1 let. d CO prévoit que le congé est abusif lorsqu’il est donné parce que l’autre partie fait valoir de bonne foi des prétentions résultant du contrat de travail (congé représailles).

La notion de « prétention résultant du contrat de travail » s’entend au sens large et comprend la loi, les conventions collectives de travail, les règlements d’entreprise, voire la pratique. Outre les salaires et les vacances, le fait que l’employé se plaigne d’une atteinte à sa personnalité ou à sa santé et sollicite la protection de l’employeur peut aussi constituer une telle prétention.

Pour que le congé soit considéré comme abusif, il faut que les prétentions aient été formulées de bonne foi. Cette dernière protège autant l’employeur que le travailleur. D’une part, la réclamation ne doit pas permettre à un travailleur de bloquer un congé en soi admissible ou de faire valoir des prétentions totalement injustifiées ; d’autre part, il importe peu que les prétentions invoquées de bonne foi soient réellement fondées : il suffit que le travailleur soit légitimé, de bonne foi, à penser qu’elles l’étaient. En principe, la bonne foi du travailleur est présumée.

Les prétentions émises par l’employé doivent encore avoir joué un rôle causal dans la décision de l’employeur de le licencier. Ainsi, le fait que l’employé émette de bonne foi une prétention résultant de son contrat de travail n’a pas nécessairement pour conséquence de rendre abusif le congé donné ultérieurement par l’employeur. Encore faut-il que la formulation de la prétention en soit à l’origine et qu’elle soit à tout le moins le motif déterminant du licenciement.

Dans un cas d’espèce, il a ainsi été retenu que le licenciement de l’employée n’était pas abusif. Un important conflit personnel opposait certes celle-ci à sa supérieure hiérarchique, sans que des actes de harcèlement moral ne soient établis. Ladite supérieure avait une manière inadéquate de s’adresser à l’ensemble des collaborateurs, mais elle ne s’en prenait pas personnellement à l’employée et n’était pas animée par une volonté de lui nuire directement. De plus, l’employeuse avait pris diverses mesures concrètes pour remédier au conflit opposant les précitées, qui était, au demeurant, temporellement éloigné du licenciement litigieux. A cela s’ajoutait que le motif invoqué à l’appui de celui-ci, soit une réorganisation du service, était avéré. (CAPH/107/2024 du 20.12.2024, consid 3)

Dans un autre arrêt (CAPH/173/2022 du 3 novembre 2022, consid. 2.2.1-2.2.2), la Chambre des prud’hommes a retenu qu’il semblait peu vraisemblable que l’employeur, après avoir accepté de verser à l’employé un salaire sensiblement supérieur au salaire minimum prévu par la CCT, ait décidé de le licencier pour une prétention en remboursement de CHF 285.–, montant qu’il avait d’ailleurs payé quand même à bien plaire et à première réquisition. En soi, le bref laps de temps qui s’est écoulé entre la demande et le licenciement ne suffit pas à établir un lien de causalité. Au contraire, les différents éléments du dossier tendaient à confirmer qu’il s’agit d’un simple concours de circonstances.

Dans une autre affaire enfin, (CAPH/111/2021 du 7 juin 2021 consid. 4) l’employeuse avait, de manière constante, indiqué avoir licencié l’employé pour des motifs économiques. Elle se trouvait dans une situation financière délicate qui l’obligeait à se séparer d’une partie de son personnel. Les allégations de l’employeuse s’agissant des difficultés économiques rencontrées avaient été corroborées par les déclarations des témoins. Le travailleur conteste l’exigence de motifs économiques en faisant valoir qu’après son départ, la société avait engagé du personnel d’exploitation, mais également administratif, supplémentaire. Toutefois, s’il ressort en effet des enquêtes que du personnel d’exploitation a été engagé afin de développer l’activité de l’employeuse, il est en revanche aussi établi que le poste de l’employé n’avait pas été repourvu. Par ailleurs, la quasi-totalité des témoins ont confirmé la diminution de l’effectif global de l’entreprise. En outre, des anciens employés ont confirmé au Tribunal avoir aussi été licencié pour des motifs économiques au même moment. Il s’ensuit que la réalité du motif de congé invoquée par l’employeuse, à savoir l’existence de difficultés économiques, a été établie. Enfin, si l’employé a démontré avoir, avant son licenciement, réclamé le paiement de son salaire durant son incapacité de travail, il ne prouve en revanche pas que ses revendications seraient à l’origine du congé, respectivement qu’elles auraient joué un rôle déterminant dans celui-ci. Le simple fait d’émettre de bonne foi et de manière répétée des prétentions résultant du contrat de travail avant le licenciement ne suffit en effet pas pour conclure à l’existence d’un congé-représailles.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Non classé | Tagué , , , | Laisser un commentaire