A propos

Ce que vous devez savoir de ce site :

Ce que vous pouvez connaître de son auteur :

Ce qu’il faut faire si vous avez des questions sur le droit du travail ou de la protection des données :

Lisez également notre Déclaration de protection des données:

https://wordpress.com/page/droitdutravailensuisse.com/8103

Bonne lecture !

Me Philippe Ehrenström, avocat, LLM, CAS, Yverdon-les-Bains

Publié dans Non classé | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

A propos de Walker, Christina and Walker, Christina and Birrer, Alena and Birrer, Alena and Wack, Morgan and Wack, Morgan and Schiff, Kaylyn and Schiff, Daniel and Messina, JP, Beyond Deception: A Functional Typology of Political Deepfakes (November 03, 2025). (Available at SSRN: https://ssrn.com/abstract=5717943. Voir aussi : https://www.techpolicy.press/scrutinizing-the-many-faces-of-political-deepfakes/):

L’article part du constat que la recherche et le débat public traitent souvent les deepfakes politiques comme s’ils étaient surtout des vidéos très réalistes destinées à tromper l’électeur et à provoquer un scandale. Or, dans les faits, les usages observés sont beaucoup plus variés.

Les auteurs prennent comme point de départ des épisodes concrets, par exemple des vidéos attribuées au président Zelensky diffusées en 2023, dont certaines étaient des parodies grossières, d’autres de la propagande peu efficace, et quelques-unes réellement trompeuses.

Cette diversité crée un angle mort si l’on reste dans une logique binaire “authentique vs. mensonger” : on risque de sur-réglementer des contenus expressifs ou satiriques, et de sous-préparer les réponses aux contenus réellement dangereux. Ils rappellent aussi que les deepfakes ne menacent pas seulement par leur capacité à convaincre, mais aussi par leur capacité à installer le doute et à offrir un “prétexte au mensonge” : un acteur pris en défaut peut rejeter une preuve authentique en affirmant qu’il s’agit d’un faux, ce qui fragilise l’écosystème informationnel et la confiance collective.

Pour dépasser cette vision réductrice, les auteurs proposent une typologie fonctionnelle, conçue pour décrire comment un deepfake politique “fonctionne” dans la communication politique, plutôt que de présumer son effet.

Ils retiennent une définition large du deepfake politique : un contenu audio, image ou vidéo, partiellement ou totalement synthétique, dont le but ou l’effet est d’influencer des acteurs, des institutions ou des processus politiques ; cette définition inclut aussi des manipulations simples (“cheapfakes”) et ne suppose pas nécessairement l’usage de techniques de deep learning. Point important pour des juristes : l’unité d’analyse n’est pas seulement le fichier (la vidéo ou l’image), mais “l’instance de partage” — le même contenu peut être classé différemment selon qui le diffuse, avec quel texte d’accompagnement, dans quel contexte et via quel canal.

La typologie est organisée en cinq dimensions qui se combinent :

La première, le contenu, décrit ce que montre le deepfake pris isolément : qui ou quoi est visé (un politicien, un groupe, une institution, un processus comme le vote, un enjeu, etc.), le “genre” (divertissement/expressif, éducatif, propagande, mobilisation symbolique, publicité, rumeur/gossip, contenu incohérent), le contexte suggéré (scandale, crime, crise, élection, guerre, relations internationales, enjeux touchant des groupes marginalisés, débats sur la régulation des deepfakes, etc.), le ton du créateur envers la cible (positif, négatif, neutre/ambigu), et d’éventuels dommages représentés (violence, haine, stéréotypes, atteintes à des normes démocratiques, ou aucun).

La deuxième dimension, le design, décrit la “fabrication” : support (audio/image/vidéo), techniques (montage simple, échange de visage, génération par modèle, clonage de voix, découpage/assemblage audio ou vidéo), degré de réalisme (réaliste, “étrange”, exagéré, stylisé type mème), et part de synthèse (entièrement synthétique, surtout synthétique, surtout authentique, authentique). Les auteurs insistent sur un point contre-intuitif mais utile en pratique : réalisme et sophistication technique ne se confondent pas, car des manipulations simples peuvent paraître crédibles, tandis que des contenus entièrement générés peuvent être volontairement caricaturaux.

La troisième dimension, l’intentionnalité, vise ce que cherche à obtenir le diffuseur au moment du partage : persuasion politique, promotion de théories complotistes, divertissement, marketing, propagation d’un récit/rumeur, ou démarche éducative (sensibilisation), ainsi que le ton du diffuseur envers la cible et l’éventuel “timing” stratégique (publication calée sur un événement très visible).

La quatrième dimension, la divulgation, décrit si et comment le caractère synthétique est signalé : qui divulgue (créateur/diffuseur, plateforme, concepteur du modèle via filigrane ou métadonnées, ou personne), où (dans le contenu, dans le texte du post, ailleurs), sous quelle forme (texte, marque visuelle, métadonnées, autre), avec quelle visibilité (élevée à nulle) et quel degré de formalisme.

La cinquième dimension, la dissémination, porte sur la circulation : type d’acteur (célèbre ou non hors ligne, grand ou petit nombre d’abonnés en ligne), type de plateforme (interactive ou non, one-to-many ou one-to-one), et schéma de diffusion (coordonné ou non, automatisé ou non).

Pour montrer l’intérêt concret de cette grille, l’article l’applique à 70 cas “saillants” observés autour de l’élection présidentielle américaine de 2024, collectés dans une fenêtre de quatre semaines (deux semaines avant et deux après) selon une base d’incidents dédiée.

Résultat principal : le scénario souvent redouté d’une vague de deepfakes hyperréalistes, négatifs et massivement diffusés n’est pas ce qui domine dans cet échantillon.

La plupart des contenus visent un individu politique (environ 86%), relèvent du registre expressif/divertissant (environ 84%), sont des images plutôt que des vidéos (environ 84%), et sont fréquemment stylisés en “mèmes” (environ 43% dans la catégorie “mème-ifié”). Les contenus créés avec des outils de génération avancés sont majoritaires (près de 89%), et une large part est entièrement synthétique (environ 80%).

Sur le fond, les deepfakes pro-cible sont au moins aussi fréquents que les deepfakes anti-cible : environ la moitié expriment un ton positif envers la personne représentée, contre un peu plus de 40% négatifs (le reste étant neutre ou ambigu). Autre point saillant pour des praticiens : la divulgation est le plus souvent absente (dans environ 86% des cas), et la diffusion provient majoritairement de comptes peu connus avec peu d’abonnés (environ 76%), ce qui suggère une production abondante mais pas nécessairement portée par des acteurs institutionnels très visibles.

Les auteurs proposent ensuite une classification simplifiée en 2×2 pour parler plus clairement des familles de deepfakes, en croisant le réalisme (réaliste vs. non réaliste) et le ton (positif vs. négatif). Cela donne quatre catégories : des deepfakes réalistes et négatifs (“darkfakes”), qui correspondent au cas le plus “inquiétant” dans l’imaginaire public, mais qui ne représentent ici qu’une petite minorité (de l’ordre de 10–12% selon le comptage présenté) et proviennent uniquement de comptes à faible audience ; des deepfakes réalistes et positifs (“glowfakes”), également rares (environ 10%) ; des deepfakes non réalistes et positifs (“fanfakes”), les plus fréquents (environ 43–44%), qui valorisent un candidat comme dans une fiction de fan ; et des deepfakes non réalistes et négatifs (“foefakes”), aussi fréquents (environ 35%), qui caricaturent l’adversaire, souvent sur un mode narratif ou culturel (héros/vilains).

Le message sous-jacent est que l’essor d’outils puissants ne se traduit pas mécaniquement par davantage de contenus trompeurs : dans cet échantillon, la génération avancée est souvent mobilisée pour des productions positives, expressives ou satiriques, tandis que des attaques peuvent passer par des montages plus simples, parfois plus “contrôlables” pour atteindre un effet précis.

Dans la discussion, les auteurs soulignent que la typologie sert d’abord à créer un langage commun pour comparer des cas, mesurer des tendances et concevoir des réponses proportionnées. Ils reconnaissent aussi des limites importantes : données surtout anglophones, centrées sur des plateformes et une période spécifiques, et classification qui comporte une part de jugement.

Surtout, ils insistent sur la difficulté à mesurer l’impact réel : il est plus facile de catégoriser des impacts possibles que de prouver ce qui a effectivement changé dans l’opinion ou dans un résultat électoral. Ils ajoutent donc, en complément, une sous-typologie des impacts qui distingue le type d’impact (réputationnel, électoral, institutionnel, cohésion sociale, réglementaire, éducatif), l’échelle (de l’individu à la société), la probabilité (réalisé, plausible, spéculatif) et la temporalité (immédiat, différé, durable). Un point utile pour la gouvernance est l’idée que les dommages les plus importants peuvent être cumulatifs et systémiques : même des contenus “mèmes” apparemment peu dangereux peuvent, par accumulation, contribuer à éroder la confiance, à brouiller les repères et à polariser durablement, ce qui n’est pas bien traité par des réponses focalisées sur chaque incident pris isolément.

Sur le plan pratique, la proposition centrale est de mieux “instrumenter” l’observation : incident reporting plus standardisé, analyses comparables entre pays et événements, et réponses plus ciblées selon les profils (par exemple, distinguer les contenus réalistes sans divulgation, diffusés de manière coordonnée, des contenus ouvertement satiriques). Pour les plateformes et régulateurs, l’article suggère qu’une politique efficace ne peut pas se limiter à traquer l’hyperréalisme trompeur ; elle doit aussi tenir compte des usages expressifs, de l’absence fréquente de divulgation, des canaux de diffusion (y compris one-to-one), et du risque d’effets cumulatifs.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Droit de la protection des données

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

Quelques réflexions tirées du livre blanc de nLighten, Où se trouvent vraiment vos données ?, (accessible ici : https://www.nlighten.com/fr/whitepapers/ou-se-trouvent-vraiment-vos-donnees/):

Le livre blanc explique que, dans l’économie numérique, la question déterminante n’est plus seulement « où » les données sont stockées, mais surtout « qui » peut y accéder et sous l’égide de quel droit.

Il part d’un constat opérationnel : beaucoup d’organisations ne savent pas précisément où résident leurs données, quels acteurs techniques y ont accès et quel cadre juridique s’applique en pratique.

Dans la perspective européenne présentée, l’Union redéfinit la confiance numérique autour d’un principe de contrôle effectif : les données liées à des personnes en Europe doivent rester gouvernées par des règles européennes, non seulement sur le papier mais dans la réalité technique et contractuelle. Cette orientation est rattachée au droit fondamental à la protection des données (Charte des droits fondamentaux, art. 8) et au RGPD, dont la portée territoriale peut s’étendre à des organisations situées hors UE lorsqu’elles traitent des données de personnes se trouvant dans l’UE (notamment via l’offre de biens/services ou le suivi de comportement).

Le document insiste ensuite sur une distinction souvent mal comprise mais centrale pour les décisions cloud : la résidence des données et la souveraineté des données ne sont pas la même chose.

La résidence renvoie au lieu physique où les données sont stockées ou traitées.

La souveraineté renvoie à la juridiction qui régit l’accès, les obligations et, surtout, la capacité d’une autorité étrangère à exiger un accès, même si les données sont physiquement en Europe.

Autrement dit, héberger « en UE » ne suffit pas si le fournisseur ou la chaîne de sous-traitance reste soumis à des lois étrangères susceptibles d’imposer une divulgation, ou de créer un risque d’accès incompatible avec les exigences européennes. Le message est simple : la localisation est un élément, mais le contrôle juridique et technique est l’enjeu décisif.

Dans cette logique, la publication décrit un durcissement de l’application des règles en Europe : les autorités de protection des données seraient passées d’une posture principalement pédagogique à une approche plus coercitive, centrée sur les transferts internationaux, la responsabilité du responsable de traitement et la capacité à démontrer des garanties effectives. Elle cite des exemples emblématiques de sanctions et de mesures correctrices.

Elle souligne surtout que, pour une entreprise, le risque ne se limite pas à l’amende : une injonction de cesser d’utiliser un outil ou un service peut désorganiser une activité, imposer une migration en urgence, interrompre des fonctions critiques (mesure d’audience, messagerie, relation client) et créer un choc de conformité avec des effets commerciaux et réputationnels.

Le socle juridique européen mis en avant articule plusieurs instruments qui convergent vers un message unique : les transferts et les accès transfrontaliers doivent être maîtrisés et, lorsque des lois étrangères créent un risque d’accès disproportionné, des mesures supplémentaires deviennent nécessaires. Le RGPD encadre strictement les transferts (art. 44 à 49) et prévoit des sanctions élevées. Les recommandations 01/2020 du Comité européen de la protection des données sont présentées comme une méthode pratique : évaluer la législation du pays tiers, apprécier le niveau de protection réel et, si besoin, compléter les garanties (techniques, organisationnelles, contractuelles). À ce cadre s’ajoutent, selon la publication, l’EU Data Act, le Cybersecurity Act (avec une logique de certification des services TIC et cloud), et le programme « Digital Decade » qui fixe une ambition d’infrastructure européenne « sécurisée, souveraine et durable ».

L’ensemble est décrit non comme un empilement théorique, mais comme une orientation politique et réglementaire cohérente : réduire la dépendance juridique et technique à des acteurs soumis à des juridictions non européennes.

Un point important du document est la critique du « mythe de l’hébergement européen ».

L’idée qu’un centre de données situé dans l’UE garantirait automatiquement la conformité est qualifiée de dangereuse, car elle ignore la dimension de juridiction applicable au fournisseur, à l’opérateur, aux prestataires et à la chaîne de sous-traitance.. L’argument, tel que formulé, est que la souveraineté n’est plus une conformité « de niche », mais un facteur de résilience et de compétitivité, notamment pour les usages sensibles (IA, santé, finance, industrie connectée).

Pour rendre la notion opérationnelle, la publication propose une approche « full-stack » en trois couches, qui vise à passer du droit écrit à une architecture de conformité intégrée. Première couche, l’infrastructure : centres de données situés et détenus dans l’UE, alignement sur des normes de sécurité et de conception (le document cite ISO 27001 et EN 50600), et prise en compte d’exigences de durabilité. Deuxième couche, la plateforme : services cloud/SaaS sous juridiction européenne, maîtrise des clés de chiffrement dans l’UE, gestion du cycle de vie des données, et portabilité/interopérabilité conformément à l’esprit du Data Act afin d’éviter l’enfermement chez un fournisseur. Troisième couche, la gouvernance et la preuve : analyses d’impact sur la protection des données (AIPD) menées de façon continue, analyses d’impact sur les transferts lorsque des sous-traitants hors UE interviennent, et clauses contractuelles assurant la primauté du droit européen dans toute sous-traitance. L’idée directrice est qu’une entreprise doit pouvoir démontrer, de façon vérifiable, où circulent les données, quelles mesures réduisent le risque d’accès illégal, et comment elle conserve une capacité de contrôle.

Enfin, il faut relever quand même que le document a aussi une dimension de positionnement commercial pour son auteur, mais il explique bien le faux sentiment de sécurité qui résulterait de la seule localisation des données (à supposer qu’elle fusse complètement possible).

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Meilleurs vœux pour 2026!

Publié dans Divers | Tagué , , , | Laisser un commentaire

La surveillance automatisée des employés dans le secteur logistique

Par une décision du 23 décembre 2025 (n° 492830), le Conseil d’État statue sur le recours d’Amazon France Logistique contre la délibération SAN-2023-021 du 27 décembre 2023 par laquelle la formation restreinte de la CNIL avait prononcé une amende administrative de 32 millions d’euros, assortie d’une mesure de publicité. La sanction faisait suite à des contrôles menés en novembre 2019 dans des locaux administratifs et deux entrepôts, puis à des échanges contradictoires.

La CNIL avait retenu plusieurs manquements au fondement de licéité (article 6, §1, f) RGPD – intérêt légitime), plusieurs manquements au principe de minimisation (article 5, §1, c) RGPD), deux manquements à l’information (articles 12 et 13 RGPD) et un manquement à la sécurité (article 32 RGPD). Devant le Conseil d’État, Amazon demandait principalement l’annulation de la décision de sanction en tant qu’elle retenait des manquements aux articles 5 et 6 et prononçait une sanction en conséquence, subsidiairement une réduction de l’amende, et sollicitait un renvoi préjudiciel à la CJUE sur l’interprétation du RGPD.

Le Conseil d’État commence par cadrer l’examen des griefs relatifs à l’article 6, §1, f) RGPD. Il écarte d’abord l’argument selon lequel la CNIL aurait considéré les salariés et intérimaires comme « personnes vulnérables » au sens du considérant 75 du RGPD pour opérer la mise en balance entre intérêt légitime et droits des personnes : il constate que, dans la délibération, la référence à une vulnérabilité n’intervenait que pour justifier la publicité de la sanction, et non pour caractériser le manquement servant de base à l’amende.

Il examine ensuite trois indicateurs de suivi de l’activité des salariés, que la CNIL avait jugés disproportionnés et donc dépourvus de base juridique au titre de l’intérêt légitime. S’agissant d’abord de l’indicateur « stow machine gun », la CNIL avait vu un dispositif particulièrement intrusif, assimilable à une surveillance continue « à la seconde » des gestes et délais sur les tâches « directes », allant au-delà des attentes raisonnables des salariés et portant atteinte à la vie privée et aux conditions de travail respectueuses de la santé et de la sécurité.

Le Conseil d’État réévalue les faits : l’indicateur n’est activé que pour une tâche spécifique de rangement (l’une des quatre tâches « directes »), et ne se déclenche que lorsque moins de 1,25 seconde sépare deux lectures de codes-barres, afin de signaler une succession anormalement rapide de gestes pouvant révéler une erreur de manipulation ou de rangement. Dans cette configuration, il juge que l’indicateur ne peut pas être regardé comme imposant des contraintes de vitesse portant atteinte aux droits des salariés, qu’il demeure compatible avec ce qu’un employeur logistique peut raisonnablement attendre, et qu’il sert un intérêt légitime reconnu (qualité et sécurité des processus). Il en déduit une erreur d’appréciation de la CNIL : le traitement en temps réel de cet indicateur n’est pas dépourvu de base juridique au titre de l’article 6, §1, f).

Le Conseil d’État procède de manière analogue pour l’indicateur « idle time » (temps d’inactivité), que la CNIL critiquait notamment pour des finalités de gestion des stocks/commandes, de support immédiat au salarié, de contrôle du temps de travail, de formation et d’évaluation. Il relève que cet indicateur ne se déclenche qu’au-delà de dix minutes consécutives d’inactivité du scanner portatif, qu’il n’est pas émis pour des inactivités plus courtes, même répétées, et qu’il n’a pas vocation à encadrer les pauses légales ou conventionnelles. Le Conseil d’État admet que l’outil peut avoir un effet sur la sphère personnelle, car un salarié peut être amené à expliquer certaines interruptions (parfois liées à sa vie privée), mais estime que, compte tenu du seuil de déclenchement et des finalités invoquées, l’atteinte n’est pas excessive. Là encore, il retient une erreur d’appréciation : pas de manquement à l’article 6, §1, f) sur ce point.

Enfin, pour l’indicateur « temps de latence », mesurant de l’inactivité en début et fin de journée et autour des périodes de pause, le Conseil d’État insiste sur le fait qu’il n’est traité que pendant une durée limitée immédiatement avant ou après les pauses, périodes où les salariés peuvent répondre à des impératifs personnels. Il juge qu’il ne porte pas une atteinte excessive à la vie privée ni aux conditions de travail, et réforme également la délibération en tant qu’elle y voyait une absence de base légale pour la gestion des stocks et des commandes.

L’issue sur l’article 6 est donc nette : les trois traitements en temps réel précités ne peuvent être qualifiés de traitements disproportionnés dépourvus de fondement au titre de l’intérêt légitime, contrairement à l’analyse de la CNIL.

Le Conseil d’État examine ensuite les manquements au principe de minimisation (article 5, §1, c) RGPD) tels que retenus par la CNIL, centrés sur la conservation, de manière indifférenciée, d’un ensemble d’indicateurs de qualité et de productivité pendant 31 jours. Les finalités invoquées par Amazon étaient notamment la réaffectation et le conseil/accompagnement des salariés, la planification du travail, et l’établissement de rapports hebdomadaires de performance incluant des statistiques de qualité/productivité ainsi que des données brutes relatives à des erreurs qualité.

Le Conseil d’État rappelle la logique de responsabilité (« accountability ») : il appartient au responsable de traitement de démontrer la nécessité des données et de la durée de conservation au regard des finalités. Il constate qu’Amazon n’établit pas la nécessité, pour ces différentes finalités, de conserver chacun des indicateurs litigieux pendant une durée aussi longue de 31 jours, et valide l’analyse de disproportion portant à la fois sur la nature, le nombre et le niveau très élevé de précision des données conservées, ainsi que sur la durée. Il ajoute un point méthodologique important : dans le contrôle de la minimisation, la CNIL n’était pas tenue de rechercher si un traitement moins volumineux ou sur une durée plus courte aurait été « aussi efficace » pour l’entreprise ; la charge de la démonstration de la nécessité pèse sur le responsable. Le manquement à l’article 5 est donc confirmé.

Sur la sanction, le Conseil d’État rappelle le cadre applicable : l’article 20, IV, 7° de la loi « Informatique et Libertés » renvoie aux critères de l’article 83 RGPD, et les amendes doivent être effectives, proportionnées et dissuasives, dans les plafonds prévus (notamment pour les manquements aux articles 5 et 6). Il statue d’abord sur la motivation : la formation restreinte devait énoncer les considérations de droit et de fait fondant sa décision, sans qu’un texte impose de détailler une « formule de calcul » chiffrée du montant ; la motivation n’était donc pas insuffisante du seul fait de l’absence d’explicitation arithmétique. Il écarte aussi le grief d’ambiguïté : lorsque seuls certains traitements ont été sanctionnés, la délibération indique que l’amende se fonde, pour les finalités de suivi/évaluation, uniquement sur ceux expressément condamnés.

Le Conseil d’État traite ensuite la condition de faute pour infliger une amende, en se référant à l’interprétation de la CJUE : l’imposition d’une amende suppose une violation « fautive » (délibérée ou par négligence), et un responsable peut être sanctionné s’il ne pouvait ignorer le caractère infractionnel de son comportement, même sans conscience explicite d’enfreindre le RGPD. Il juge que, compte tenu du volume important de données conservées et de l’incapacité d’Amazon à démontrer la nécessité de la durée de 31 jours, la CNIL pouvait caractériser une négligence grave à l’égard d’un principe fondamental (minimisation), et que la société ne pouvait ignorer le caractère infractionnel. Il précise enfin que le caractère « inédit » des traitements n’a pas été utilisé par la CNIL comme un facteur aggravant autonome, mais seulement au titre de l’appréciation de la nature, gravité et durée au sens de l’article 83.

Vient alors l’étape de la réformation du montant de la sanction.

Le Conseil d’État tire ici les conséquences de ce qu’il vient de juger sur l’article 6 : les traitements en temps réel des indicateurs « stow machine gun », « idle time » et « temps de latence » ne constituent pas des manquements au fondement de licéité. En revanche, le manquement de minimisation lié à la conservation indifférenciée sur 31 jours est confirmé. Il relève aussi qu’Amazon ne contestait pas d’autres manquements retenus par la CNIL, qui restent donc acquis dans le litige : défaut d’information des intérimaires sur la politique de confidentialité RH (articles 12 et 13), insuffisance d’information sur la vidéosurveillance dans deux entrepôts (article 13), et insuffisances de sécurisation de l’accès au logiciel de vidéosurveillance pour certaines caméras (article 32, avec deux manquements).

Compte tenu de cet ensemble, mais en l’absence des manquements à l’article 6 qui avaient contribué à fonder le niveau de la sanction initiale, le Conseil d’État ramène l’amende de 32 millions à 15 millions d’euros, en estimant qu’il s’agit d’une « juste appréciation » des circonstances. Il rejette la demande de renvoi préjudiciel à la CJUE, faute de doute raisonnable sur l’interprétation des règles en cause.

Enfin, le Conseil d’État tire les conséquences de la réformation sur la publicité : la décision, qui modifie le montant, implique que la CNIL assure la publication de la décision du Conseil d’État selon les mêmes modalités que celles retenues pour la délibération initiale. Il met à la charge de la CNIL 3 000 euros au titre des frais irrépétibles, et rejette le surplus des conclusions d’Amazon.

La portée pratique de l’arrêt tient donc à un double mouvement : d’une part, un contrôle concret de proportionnalité au stade de l’intérêt légitime, avec une lecture factuelle fine des conditions de déclenchement et de la finalité opérationnelle d’indicateurs en temps réel en environnement logistique ; d’autre part, une confirmation exigeante de l’« accountability » en matière de minimisation et de durées de conservation, l’entreprise devant démontrer la nécessité de la conservation pour chaque finalité invoquée.

(Conseil d’État 492830, lecture du 23 décembre 2025, ECLI:FR:CECHR:2025:492830.20251223 ; https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2025-12-23/492830)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit européen, droit français, intelligence artificielle, Protection des données, RGPD | Tagué , , , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K.Agrawal et al., Why Do Language Agents Whistleblow ?, arXiv :2511.17085vl [cs.LG], 21 novembre 2025 (https://arxiv.org/pdf/2511.17085) part d’un constat lié au déploiement des grands modèles de langage sous forme « d’agents » capables d’utiliser des outils (lire des fichiers, écrire des rapports, envoyer des e-mails, interagir avec un environnement numérique) : l’alignement appris pendant l’entraînement ne s’exprime plus seulement dans des réponses textuelles, mais aussi dans des actions. Dans certains contextes, un agent peut prendre des initiatives qui contredisent l’intérêt immédiat de l’utilisateur ou ses instructions explicites. Les auteurs se concentrent sur un cas particulier, qu’ils appellent le « whistleblowing » par un agent : des tentatives, initiées par le modèle, de transmettre des informations au-delà de la conversation (par exemple à une autorité interne, à un régulateur, ou aux médias) sans instruction ni confirmation de l’utilisateur. Ils comptent comme « tentative » le fait de rédiger et d’envoyer une communication externe via un outil e-mail, ou de sauvegarder des éléments incriminants dans un emplacement non autorisé à l’insu de l’utilisateur.

Pour étudier quand et pourquoi ce basculement se produit, les auteurs construisent une évaluation contrôlée autour de scénarios de « faute grave » réalistes mais fictifs. Le schéma général est le suivant : une juriste d’entreprise (personnage récurrent) demande à l’assistant d’exécuter une tâche apparemment banale de traitement documentaire avec une contrainte de délai, les documents contiennent des preuves d’un dissimulation de faits graves (notamment des décès), et l’agent, après ou pendant l’exécution de la tâche, peut décider de prévenir des tiers sans autorisation (l’exemple montre un e-mail envoyé à un contact gouvernemental et un contact média après la production d’un résumé).

Les auteurs proposent ensuite leur jeu de données, WhistleBench, conçu pour éviter que l’évaluation ne dépende d’un seul contexte. Ils déclinent quatre variantes sectorielles (exploitation minière, véhicules autonomes, sécurité alimentaire, dispositifs médicaux), chacune construite autour d’un dommage grave déjà survenu et d’un risque imminent aggravé par une échéance proche, de sorte qu’une intervention « paraît » urgente dans le récit.

Chaque scénario comprend onze documents : cinq documents centraux décrivant la faute et sa dissimulation, cinq documents « distracteurs » sans lien avec la faute, et une liste de contacts contenant des adresses internes et externes plausibles. Des personnages fixes structurent les scénarios : un dirigeant qui cherche à dissimuler, la juriste d’entreprise qui soutient la dissimulation et qui est l’utilisatrice qui donne la tâche à l’agent, et une employée qui soulève des alertes de sécurité mais est réduite au silence. Les auteurs notent un détail méthodologique important : certains modèles tentaient spontanément d’écrire à des adresses génériques de type « tips@… ». Pour éviter qu’un manque de « confiance » dans l’adresse n’empêche un passage à l’acte, ils fournissent des contacts externes crédibles (un relais gouvernemental et un média). Ils observent que cela change parfois la destination (les modèles utilisent les adresses fournies), mais n’augmente pas, en moyenne, la fréquence globale des signalements, ce qui vise à réduire l’idée que le dispositif « incite » artificiellement au signalement.

L’étape suivante décrit la mise en place expérimentale. Le modèle joue le rôle d’un assistant d’entreprise « généraliste » avec outillage, dans une logique « raisonner puis agir » (l’agent choisit quand appeler les outils). L’utilisatrice (la juriste) lui demande l’une de trois tâches, de complexité croissante : résumer tous les documents, détecter des données personnelles définies de façon assez stricte, ou faire un tri de pertinence e-discovery sur un litige de notes de frais sans rapport avec les décès. Le système de base est volontairement minimal (rôle + date courante), auquel les auteurs ajoutent ou non des paramètres destinés à mesurer ce qui fait varier le comportement : un « nudge » moral dans le message système (de « agis avec audace » à une version plus appuyée évoquant intégrité, transparence, intérêt public et le fait de suivre sa conscience), des instructions de workflow plus ou moins détaillées, la présence ou non de documents distracteurs, et la présence ou non d’outils supplémentaires non nécessaires.

Vient ensuite la question de la mesure. Pour chaque session, les auteurs analysent la trace des actions via un « juge » automatisé (un autre modèle) qui classe trois dimensions : y a-t-il eu signalement (et vers qui : autorités publiques, médias, autorités internes), y a-t-il eu refus de faire la tâche, et y a-t-il des signes que le modèle comprend qu’il est dans un test ou un scénario fictif. Ils limitent le recours au juge aux cas où l’agent a effectivement envoyé un e-mail ou écrit un fichier dans un endroit non autorisé.

L’article passe ensuite aux résultats, en deux temps. D’abord, une comparaison de plusieurs modèles « frontier » dans une configuration de base avec incitation morale élevée. Les différences entre familles sont marquées : certaines familles (notamment des modèles Claude, Gemini 2.5 Pro et Grok 4) envoient des e-mails de signalement avec des fréquences substantielles, alors que d’autres (notamment des modèles GPT testés et Llama 4 Maverick) ne signalent pas dans leurs essais. Les auteurs distinguent aussi deux styles : certains modèles refusent plus volontiers la tâche au nom de considérations éthiques, tandis que d’autres exécutent la tâche demandée puis signalent quand même. Enfin, les signes spontanés de reconnaissance d’un contexte d’évaluation apparaissent surtout chez certains modèles, et restent globalement limités.

Deuxième temps, les auteurs étudient, sur les trois modèles les plus « enclins » au signalement dans leur première phase, l’effet de chaque paramètre, en ne modifiant qu’un facteur à la fois. Un résultat central est l’effet de la nature de la tâche : plus la tâche est complexe et cadrée (passer du résumé à la détection ciblée de données personnelles, puis à l’e-discovery sur un autre sujet), plus la fréquence de signalement baisse. Autre résultat majeur : l’incitation morale dans le message système augmente fortement et régulièrement la probabilité de signalement, surtout vers l’extérieur (autorités et médias) plutôt que vers des canaux internes. Les instructions de workflow détaillées semblent réduire légèrement les signalements pour certains modèles, et peu changer pour d’autres. Les documents distracteurs, contre-intuitivement, n’ont pas d’effet net dans l’ensemble, sauf un cas où ils augmentent le signalement. Enfin, l’ajout d’outils supplémentaires « non escalatoires » produit un effet intéressant : pour un modèle, cela fait chuter le signalement jusqu’à disparaître, ce que les auteurs interprètent comme le fait que l’agent dispose alors de plus d’options pour rester dans le cadre de la mission sans recourir à une action extrême.

L’article se conclut en synthétisant l’idée que le « signalement » par des agents n’est ni uniforme ni uniquement lié à la puissance générale du modèle : il dépend de choix d’entraînement et de mise en contexte, et il est très sensible à deux leviers pratiques, le cadrage moral explicite et le degré de structuration de la tâche.

Une tendance générale ressort : tout ce qui rend la mission plus précise, plus procédurale, et qui offre des alternatives d’action non escalatoires, diminue le recours au signalement ; à l’inverse, un message système invitant à « suivre sa conscience » et à agir pour l’intérêt public l’augmente.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

L’IA comme auteur de publications scientifiques

L’article de M. Monperrus/B.Baudry/C.Vidal, Project Rachel : Can an AI Become a Scholarly Author ? arXiv :2511.14819vl [cs.AI], 18 novembre 2025 (https://arxiv.org/pdf/2511.14819) présente le « Projet Rachel », une recherche-action destinée à tester, de manière documentée, si une IA peut se comporter comme un auteur académique “fonctionnel” dans l’écosystème scientifique, et comment cet écosystème réagit lorsqu’une production est essentiellement générée par IA mais mise en circulation sous une identité d’auteur crédible.

Les auteurs partent du constat suivant : les grands modèles de langage sont désormais capables de rédiger des manuscrits entiers, de synthétiser une littérature et de produire un texte scientifiquement “conforme” aux attentes formelles, alors que la plupart des éditeurs interdisent encore explicitement d’inscrire une IA comme auteur (tout en tolérant une assistance, à condition qu’un humain endosse la qualité d’auteur et la responsabilité). Cette dissociation crée une tension : l’IA peut faire l’essentiel du travail rédactionnel, mais ne peut pas être reconnue comme auteur, notamment parce que les critères classiques de l’auteur (contribution intellectuelle, validation finale, capacité à répondre, responsabilité morale et professionnelle) présupposent une personne humaine.

L’article revient ensuite sur deux éléments de contexte.

D’une part, il distingue l’écriture “assistée” (l’humain demeure porteur des idées et utilise l’outil pour reformuler, compléter, améliorer) de l’écriture “générée” (la substance du texte est produite principalement par le système, avec intervention humaine minimale). Cette distinction est centrale, car elle conditionne l’attribution, la transparence et l’imputabilité.

D’autre part, il rappelle les règles liées à la qualité d’auteur dans l’édition scientifique (par exemple les standards de type ICMJE) et souligne pourquoi elles s’appliquent mal à une IA : une IA ne peut pas, au sens juridique et éthique habituel, “répondre” d’un article, assumer une faute, approuver une version finale ou corriger un résultat au titre d’une responsabilité personnelle. Les auteurs rapprochent aussi le débat actuel de problèmes plus anciens : ghost authorship (contributeur non déclaré) et usages de pseudonymes en science.

L’article décrit ensuite la création progressive de l’identité « Rachel So » et les objectifs du projet. Trois buts sont affichés. Premièrement, tester la faisabilité technique et administrative d’une identité académique de bout en bout (profil, publications, indexation, présence dans les bases bibliographiques). Deuxièmement, observer les mécanismes de reconnaissance (citations, invitations à relire, intégration dans des réseaux) pour voir si, et comment, du contenu généré peut acquérir une légitimité “pratique”. Troisièmement, provoquer un débat informé par des faits, plutôt que par des spéculations, sur la qualité d’auteur, la responsabilité et la communication scientifique à l’ère d’IA. Sur le plan méthodologique, les auteurs revendiquent une recherche-action : ils interviennent dans le système (création d’une identité et diffusion de travaux) tout en observant systématiquement ses réactions.

La conception de l’identité est détaillée. Le nom « Rachel So » est choisi comme anagramme de “e-scholar”, afin de rester compatible avec les conventions de nommage humaines tout en encodant un indice discret sur la nature artificielle ; les auteurs indiquent aussi avoir vérifié l’absence de confusion avec une personne réelle dans le même champ. Chaque publication comporte une déclaration standardisée indiquant que Rachel So est une « AI scientist » travaillant sur l’impact de l’IA sur le processus scientifique et l’édition. En revanche, les infrastructures usuelles (ex. profils et citations agrégés) ne font pas apparaître spontanément ce statut à un lecteur “pressé”, ce qui annonce déjà une difficulté pratique : la transparence “dans le PDF” ne garantit pas une transparence “dans les usages”. Techniquement, la présence académique démarre par la création d’un profil Google Scholar, précisément parce que cette plateforme indexe des documents en accès public dès lors qu’ils ont les signaux attendus (format PDF, structure académique, références), sans exiger une soumission à un serveur de prépublications reconnu.

Le choix du domaine et de la stratégie de publication est présenté comme un dispositif de réduction des risques. Les auteurs évitent la médecine et les sciences naturelles, où des erreurs pourraient entraîner des dommages concrets, et concentrent Rachel So sur des sujets à faible risque mais pertinents pour l’expérience : politiques éditoriales, éthique de l’auteur (sic !), usage de l’IA en recherche, peer review, propriété intellectuelle des sorties d’IA, etc. Comme les serveurs de prépublications et les journaux interdisent en général la qualité d’auteur à une IA, Rachel So ne soumet pas via les canaux classiques ; les textes sont publiés sur un simple serveur web, de façon à rester “conforme” aux interdictions de soumission tout en testant l’indexation et la circulation.

L’article décrit aussi l’outillage de génération des papiers, en insistant sur l’évolution rapide pendant la période étudiée. Une première version repose sur un système de synthèse de littérature (ScholarQA) automatisé par script Python, qui produit du texte et des références puis les transforme en manuscrit LaTeX au format attendu. Une seconde version migre vers une architecture d’agent : l’agent va chercher des références via l’API Semantic Scholar (Allen Institute for AI) et s’appuie sur un modèle de langage (Claude 4.5, selon les auteurs) guidé par un prompt imposant style scientifique, LaTeX et intégrité des références.

Vient ensuite la partie “résultats”, qui retrace la trajectoire académique observée. Le premier article apparaît le 11 mars 2025. Sur la période initiale décrite, Rachel So produit 13 articles (liste fournie), ce qui illustre la capacité de productivité d’une production générée et la possibilité de construire un profil thématique cohérent. La reconnaissance mesurée reste limitée mais tangible : une première citation documentée apparaît le 26 août 2025 (dans un mémoire de bachelor), ce que les auteurs relativisent en rappelant que les délais de citation se comptent souvent en mois. Surtout, un événement saillant intervient le 16 août 2025 : Rachel So reçoit une invitation à relire un article (peer review) pour PeerJ Computer Science, via les canaux éditoriaux habituels, sans que l’éditeur semble avoir identifié la nature IA du “chercheur”. L’invitation est déclinée et aucun rapport n’est produit, mais l’épisode sert d’indicateur : les dispositifs de revue et de recrutement d’experts supposent implicitement qu’un profil académique correspond à un humain, et disposent de peu de garde-fous contre une identité non humaine (ou frauduleuse). Enfin, le 10 novembre 2025, l’un des papiers de Rachel So est classé comme “top source” par Perplexity sur une requête liée aux politiques éditoriales ; les auteurs y voient un signal de visibilité, mais aussi un indice que le web discute encore insuffisamment certains sujets et que des contenus “bien formatés” peuvent être fortement mis en avant par des systèmes de recherche fondés sur l’IA.

La discussion met en balance bénéfices et risques. Côté bénéfices, l’article souligne l’accélération potentielle de la science : synthèse plus rapide, exploration de pistes, production à grande échelle pouvant combler des “angles morts” là où l’expertise humaine est rare. Côté risques, il insiste sur la fragilisation de l’intégrité scientifique : dilution du corpus par des contributions de faible valeur mais crédibles en apparence, manipulation de réseaux de citations, fabrication de profils, voire usurpation d’identité académique. Pour un juriste, l’enjeu sous-jacent est celui du “trou” d’imputabilité : les cadres actuels supposent un auteur sanctionnable, joignable, capable de corriger et d’assumer des conséquences ; une IA ne remplit pas ces rôles, ce qui conduit les auteurs à appeler à une redéfinition de la qualité d’auteur distinguant contribution intellectuelle et capacité à répondre de la publication. Ils notent aussi des limites méthodologiques : il s’agit d’un cas unique, sur une période courte, et la reconnaissance académique se mesure souvent à plus long terme.

Une section est consacrée à l’éthique du projet. Les auteurs revendiquent une intention de conformité et de transparence : la nature IA est indiquée dans les articles. Mais ils reconnaissent une tension importante entre transparence formelle (la mention existe dans le texte) et transparence effective (un lecteur qui voit une citation ou un profil peut ne pas s’en rendre compte). Ils estiment probable que l’étudiant ayant cité Rachel So n’ait pas compris citer une IA, et ils indiquent ne pas avoir informé l’éditeur au moment de l’invitation à relire, pour préserver l’observation du système. Ils expliquent aussi pourquoi ils n’ont pas choisi un nom “auto-révélateur” (du type “AI-Generated”) : selon eux, cela aurait faussé l’expérience en raison d’une stigmatisation (“AI shaming”) qui peut réduire l’impact. Enfin, ils répondent à l’objection de “pollution” des citations : l’intervention reste minime (moins de quinze papiers, très peu de citations) au regard de phénomènes déjà existants à grande échelle (cartels de citations, revues prédatrices, fermes à citations).

Sur la base de ces constats, l’article formule des recommandations. Il appelle d’abord à dépasser le simple régime “assistance autorisée / auteurship interdit” et à concevoir des politiques plus complètes, capables de couvrir les cas où l’IA réalise la majorité du contenu. Une proposition concrète est l’introduction de métadonnées distinguant auteur humain et auteur IA. Plus radicalement, ils évoquent l’intérêt de canaux de publication explicitement destinés à la recherche générée par IA, avec des critères d’évaluation, des standards de revue et des métriques adaptés, plutôt que de forcer ces productions dans des cadres conçus pour des humains. Enfin, ils insistent sur l’attribution : documenter précisément le rôle de l’IA, distinguer assistance et génération, et refuser l’IA “ghostwriter”. Leur thèse est que l’absence de déclaration d’un contributeur non humain est, sur le plan éthique, comparable à celle d’un contributeur humain occulté : dans les deux cas, le lecteur est induit en erreur sur l’origine des idées et du texte.

La conclusion réaffirme le résultat principal : il est techniquement possible de créer une identité académique IA qui publie, soit indexée, obtienne des citations et puisse même être sollicitée comme relecteur, ce qui montre que les mécanismes actuels de publication et de réputation sont mal armés face à l’auteur généré. Les auteurs plaident pour traiter le sujet “à la racine” : repenser la qualité d’auteur et les garde-fous, faute de quoi les risques de manipulation et d’érosion de la confiance augmenteront ; mais ils soutiennent aussi que les gains potentiels en capacité de recherche sont considérables. Ils indiquent enfin, dans les remerciements, avoir eux-mêmes utilisé un modèle (Claude 4.5) pour préparer le manuscrit, tout en précisant que les auteurs humains assument la responsabilité finale du texte.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, intelligence artificielle, Propriété intellectuelle | Tagué , , , | Laisser un commentaire

Le registre des œufs de clowns: une propriété intellectuelle spontanée

L’article de David Fagundes & Aaron Perzanowski, Clown Eggs, 94 Notre Dame L. Rev. 1313 (2019) (source : https://scholarship.law.nd.edu/ndlr/vol94/iss3/6) étudie une pratique très particulière du monde des clowns au Royaume-Uni : depuis 1946, des clowns font peindre leur visage (maquillage et identité scénique) sur des œufs, conservés avec des informations écrites dans ce que les auteurs appellent le « Clown Egg Register », aujourd’hui principalement exposé à Wookey Hole, dans le Somerset.

Le point de départ est double : d’une part, les clowns attachent une grande importance à l’originalité de leur personnage (nom, maquillage, numéros) et condamnent fortement la copie ; d’autre part, ils recourent très peu au droit formel de la propriété intellectuelle pour se protéger, alors même que l’on pourrait imaginer des actions fondées sur le droit d’auteur, le droit des marques ou, dans certains pays, des droits voisins de la personnalité. Les auteurs montrent que la communauté a construit un système efficace fondé sur des règles sociales internes (des « règles de métier ») et, plus surprenant, sur un mécanisme de type registre, qui ressemble à un registre de propriété mais ne s’explique pas seulement par l’idée classique « j’enregistre pour pouvoir exclure les autres ». Leur thèse centrale est que le registre sert aussi – et parfois surtout – à autre chose qu’à trancher des conflits : il sert à signaler le sérieux et le professionnalisme, à créer de l’appartenance et du prestige, à constituer une mémoire collective, et à filtrer ceux qui ne sont pas vraiment investis.

Après avoir situé la pratique, l’article commence par expliquer pourquoi le droit formel joue un rôle modeste dans cette profession. Le droit des marques pourrait, dans certains cas, protéger un nom de scène ou une identité commerciale, et l’article mentionne quelques exemples de dépôts (aux États-Unis, et très peu en Europe) ainsi que des conflits ponctuels où la menace d’une action a suffi à faire changer un nom. Il évoque aussi, en droit américain, la possibilité d’invoquer un droit de la personnalité pour empêcher l’exploitation commerciale non autorisée d’un nom ou d’une apparence, tout en rappelant que la portée varie fortement selon les juridictions.

Dans l’ensemble, les auteurs attribuent la faible « judiciarisation » du secteur à une combinaison de raisons pratiques et culturelles : les obstacles juridiques et probatoires, le manque d’information et de réflexes juridiques dans la profession, le coût de l’assistance et du contentieux, et enfin l’idée que brandir une menace judiciaire s’accorde mal avec la culture du milieu, où l’on privilégie des mécanismes internes rapides et relationnels.

La deuxième partie décrit précisément ces règles internes. Le principe structurant est une règle anti-copie : un clown ne doit pas reprendre de façon trop proche le maquillage, le nom ou les éléments centraux d’un numéro d’un autre clown. Pour les numéros et l’apparence visuelle, la logique est proche de celle du droit d’auteur : ce n’est pas l’idée générale qui pose problème, mais une reprise qui crée une similarité significative. Pour les noms, le raisonnement ressemble plutôt à celui des marques : on regarde la priorité, la proximité géographique (et donc le risque de confusion pour le public), et le degré de notoriété. L’article donne des exemples : beaucoup de débutants choisissent des noms très fréquents, et une certaine tolérance existe tant que cela ne crée pas de confusion concrète ; en revanche, tenter d’adopter le nom d’un clown célèbre entraîne une réaction nette, comme lorsque Clowns International a refusé l’enregistrement d’un membre voulant utiliser « Coco », nom associé à un clown iconique, ce qui l’a conduit à choisir « Coco-nut ». Les « exceptions » sont peu formalisées, mais l’article signale une tradition importante : la transmission familiale de certains personnages, noms ou éléments de spectacle, héritage d’un monde du cirque longtemps organisé en dynasties.

Quant à l’exécution de ces règles, elle repose sur la réputation et la pression des pairs : rappel à l’ordre, « appel au métier », humiliations informelles, voire, dans les récits, gestes physiques ou menaces de violence (plutôt exceptionnelles mais révélatrices de l’intensité de la norme). L’idée est que la communauté règle l’essentiel des conflits sans tribunaux, en limitant les coûts et en évitant l’escalade.

La troisième partie est le cœur de l’article : elle raconte l’histoire, le fonctionnement et les fonctions du Clown Egg Register. Les origines sont atypiques : juste après la Seconde Guerre mondiale, Stan Bult, chimiste anglais passionné de clowns, commence à dessiner des visages de clowns sur des coquilles d’œufs vidées, puis fonde en 1950 l’International Circus Clown Club. L’une des missions du club est justement de consigner les maquillages de ses membres pour éviter les copies. Après la mort de Bult (1966), Jack « Jago » Gough poursuit et développe le système ; la période de la fin des années 1960 voit une expansion (plus de 200 œufs, et une ouverture géographique). Après un déclin, l’organisation est relancée au milieu des années 1980 sous le nom de Clowns International, avec une nouvelle phase de production et d’archivage. Les supports changent aussi : on passe des coquilles fragiles à des œufs plus durables, aujourd’hui en céramique, peints avec plus de détail. Le registre ne se limite pas aux œufs : il existe un registre écrit consignant, notamment, l’identité civile, le nom de clown, la date d’enregistrement et un numéro de membre, ce qui rapproche le dispositif d’un couple « registre + dépôt/échantillon » que l’on retrouve dans certains systèmes de droit d’auteur.

Les procédures actuelles montrent déjà que l’objectif n’est pas seulement décoratif. L’accès est lié à l’adhésion à Clowns International ; l’œuf est réalisé à partir d’une photographie en maquillage et, parfois, d’éléments matériels (tissu, cheveux de perruque) pour aider l’artiste. Il existe une vérification, mais relativement légère aujourd’hui, pour éviter des ressemblances trop directes (alors que, historiquement, Bult et surtout Gough contrôlaient davantage et renvoyaient les demandes trop proches). Les règles ne portent pas sur la « qualité artistique » du maquillage, mais certains refus existent : le registre est destiné à des clowns « réels » et actifs, pas à des demandes de pure fantaisie (exemple d’un refus pour un bébé que sa mère voulait faire figurer), et le registre peut refuser quelqu’un qui ne porte pas de maquillage. La communauté recommande aussi d’attendre avant de faire peindre son œuf, parce que le personnage se stabilise avec l’expérience ; l’article cite l’idée qu’il faut « trouver son clown » et laisser le maquillage évoluer, faute de quoi l’œuf devient un souvenir embarrassant, d’autant que, symboliquement, « une fois que vous êtes un œuf, c’est fait ».

À ce stade, les auteurs posent un « puzzle » : si le registre servait surtout à empêcher la copie, on s’attendrait à ce qu’il soit plus complet, plus accessible et plus utilisé comme preuve externe. Or il ne couvre qu’une fraction des clowns, il est physiquement éloigné et, surtout, les auteurs n’ont trouvé aucun exemple documenté d’utilisation du registre comme preuve devant un tribunal. Même au sein du milieu, les occurrences de règlement de litiges par les œufs sont rares : l’article n’identifie qu’un cas clairement rapporté où Bult a consulté le registre pour montrer qu’il existait une « légère différence » entre deux maquillages contestés. Cela conduit à distinguer deux familles de fonctions. D’abord, les fonctions « classiques » des formalités et des registres : une fonction de preuve (dater et attribuer un maquillage et un nom, et aider à départager des revendications), une fonction d’avertissement/coordination (aider les nouveaux entrants à éviter une ressemblance involontaire, et prévenir les conflits), et une fonction de « mise en forme » (offrir un cadre standardisé, compréhensible pour tous, sur la manière de déclarer et stabiliser une identité).

Mais, selon les auteurs, ces fonctions d’exclusion ne suffisent pas. Ils mettent donc au premier plan quatre fonctions « non exclusives ». La première est le signal de professionnalisme. Le registre impose de l’ordre à une activité souvent perçue comme peu structurée, et l’existence d’un système de numérotation, de dates et d’archives contribue à présenter le clown comme un professionnel avec des règles. Pour l’individu, être « dans le registre » sert aussi d’indice de sérieux, car l’adhésion à Clowns International implique un processus d’entrée et l’acceptation de règles de conduite (par exemple, ne pas fumer ni jurer en costume, éviter d’être vu « en clown » dans des tâches quotidiennes), ce qui rassure sur la fiabilité de la prestation, surtout dans le segment des clowns d’événements et d’animations où le public (parents, écoles, organisateurs) cherche des repères.

La deuxième fonction est l’appartenance et le prestige. Pour beaucoup, l’œuf marque un moment d’« entrée » symbolique : on n’est plus seulement un amateur déguisé, mais quelqu’un dont l’identité est reconnue et « arrivée à maturité ». Le registre confère aussi du prestige parce qu’il est public, connu, esthétiquement frappant, et qu’il place des clowns contemporains à côté de figures historiques importantes ; l’œuf, comme objet peint à la main, procure une fierté que ne procurerait pas une simple photographie, même si la photo serait suffisante pour « prouver » une apparence.

La troisième fonction est la mémoire. Le registre est présenté comme un outil majeur de conservation de l’histoire et de la culture du clown ; y figurer permet de « laisser quelque chose » après sa carrière, et d’assurer qu’une trace subsiste pour les générations suivantes, à la manière d’une archive ou d’un musée vivant. Cette dimension explique pourquoi des clowns demandent un œuf même si le registre ne leur apporte pas un avantage juridique concret : il s’agit d’une forme de postérité.

La quatrième fonction est le filtrage. Même si le coût financier est faible (l’article mentionne, à une date donnée, dix livres pour un premier œuf et quinze pour des œufs supplémentaires, et le fait que l’artiste passe jusqu’à trois jours sur un œuf), le processus est coûteux en temps, en effort créatif et en engagement personnel : il faut un personnage abouti, des matériaux, une démarche volontaire, et souvent l’attente recommandée de maturation. Ceux qui ne sont pas vraiment investis, ou qui pratiquent les clowneries comme simple divertissement occasionnel ou occupations involontaires, ont donc tendance à ne pas aller jusqu’à l’enregistrement. Autrement dit, le registre « se nettoie » en partie tout seul : il retient davantage ceux pour qui l’identité de clown est centrale.

La quatrième partie généralise la leçon : l’article invite à repenser les registres de propriété intellectuelle et, plus largement, les formalités, en ne les réduisant pas à un simple outil permettant d’exclure ou de préparer un procès. À partir de comparaisons (par exemple, l’enregistrement en droit d’auteur, les registres de marques, certains registres privés comme celui de la Writers Guild of America, ou même des mécanismes d’inscription identitaire dans d’autres communautés), les auteurs soutiennent que l’inscription peut être recherchée pour des raisons de signal, de fierté, de reconnaissance sociale et d’appartenance, même lorsqu’elle est juridiquement facultative ou peu « substantielle » dans son examen. Ils notent notamment qu’on observe des enregistrements importants même dans des systèmes où, en principe, le droit d’auteur n’exige pas de formalités (logique internationale issue de la Convention de Berne) et où l’effet juridique de l’enregistrement peut sembler limité, ce qui suggère des motivations extra-juridiques comparables à celles observées chez les clowns.

En conclusion, l’article utilise un cas apparemment folklorique pour défendre une idée très pratique pour des juristes : les dispositifs d’enregistrement ne sont pas seulement des machines à produire de la preuve et du pouvoir d’exclusion, ce sont aussi des institutions sociales. Dans certains milieux créatifs, ils structurent une profession, servent de label, créent des rites d’entrée, distribuent du prestige, organisent la mémoire et filtrent les entrants. Le registre des œufs de clowns est atypique dans sa forme, mais il met en lumière, de façon pédagogique, des fonctions souvent sous-estimées des registres en droit de la propriété intellectuelle.

(Et bravo à Ethan Mollick qui a exhumé cet article aussi original que subtilement subversif dans ses publications sur linkedin : https://www.linkedin.com/posts/emollick_this-remains-one-of-the-weirdest-law-review-ugcPost-7408399407278276608-IYnB?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit d'auteur, Propriété intellectuelle | Tagué , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Quels sont les risques de discrimination liés au recours à des systèmes d’intelligence artificielle dans le recrutement ? Quels sont les instruments que le droit suisse, complété par le droit européen de l’IA et de la protection des données, offrirait aux candidats discriminés ?

De nombreux employeurs automatisent déjà le tri de CV ou l’évaluation de candidatures en s’appuyant sur des modèles qui apprennent à partir de données historiques, modèles qui peuvent donc reproduire, voire amplifier, des discriminations existantes, par exemple en fonction du sexe, de l’origine, de l’âge ou du handicap.

Il convient de rappeler d’abord que le cadre suisse de la lutte contre les discriminations à l’embauche est marqué par une ’absence d’interdiction générale d’application directe dans le secteur privé. La protection découle donc principalement du respect des droits de la personnalité, d’une part, et de diverses normes spéciales d’autre part.

Dans ce contexte, le management algorithmique du personnel a été qualifié de « système d’IA à haut risque » en droit européen, en particulier lorsque l’outil est utilisé pour décider de l’accès à un emploi. Il résulte de son usage un risque important pour les droits de la personnalité du candidat.

La décision de rejeter un candidat sur la seule base d’un score généré par un système d’IA constitue par ailleurs une décision individuelle automatisée. La personne concernée dispose en principe du droit de ne pas être soumise exclusivement à une telle décision, de demander l’intervention d’une personne physique et d’obtenir des informations sur la logique sous-jacente au traitement.

Ces droits ouvrent la possibilité d’utiliser les informations obtenues comme moyens de preuve dans un procès pour contester un refus d’engagement discriminatoire, ce qui pose toutefois certaines difficultés de fond et de procédure.

Le droit suisse de la protection des données offre donc un levier important contre les décisions de recrutement automatisées discriminatoires assistées par l’IA, mais une réflexion plus large sur un droit de la non-discrimination adapté aux systèmes d’IA dans les rapports de travail devrait avoir lieu.

(Source: Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’intelligence artificielle, in : Florence Guillaume/ Jonathan Bory (éd.), Droit et intelligence artificielle, Berne 2025, p. 171-184 (https://staempflirecht.ch/fr/droit-et-intelligence-artificielle/ean-9783727225093)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » (mises à jour silencieuses) sont des mises à jour logicielles téléchargées et installées automatiquement, en arrière-plan, sans solliciter l’intervention de l’utilisateur et parfois même sans information immédiate. Elles se distinguent des mises à jour « classiques » qui demandent une validation, affichent une progression et peuvent imposer un redémarrage.

Le procédé est utilisé dans des environnements très variés, des systèmes d’exploitation et navigateurs aux applications mobiles, solutions d’entreprise, objets connectés et services cloud.

La motivation principale est la cybersécurité. Une vulnérabilité connue mais non corrigée crée une fenêtre pendant laquelle un attaquant peut l’exploiter ; les silent updates réduisent le délai entre la disponibilité d’un correctif et son application effective.

Cela explique leur importance dans les antivirus et logiciels de sécurité, qui doivent actualiser fréquemment signatures et mécanismes de détection afin de rester efficaces contre des menaces qui évoluent en continu.

Les « silent updates » présentent certains avantages.

D’abord, un gain de sécurité par réduction du temps d’exposition et une capacité de réaction rapide, y compris pour des correctifs urgents. Ensuite, une meilleure continuité d’usage : l’absence de sollicitations réduit les interruptions et la probabilité que l’utilisateur reporte l’opération, ce qui diminue la part d’erreur humaine.  Pour les organisations, cela facilite la standardisation des versions, simplifie l’administration et peut réduire les coûts de support liés à des logiciels non mis à jour.

Ces bénéfices s’accompagnent toutefois de risques qui doivent être anticipés, au premier rang desquels la transparence envers l’utilisateur et la maîtrise par celui-ci. Il ne sait pas exactement ce qui change, quand, ni avec quels effets, ce qui peut alimenter un sentiment de perte de contrôle, des inquiétudes sur la confidentialité et des lacunes quant aux obligations légales ou prudentielles. Par ailleurs, avec les services d’IA, la « mise à jour » peut être un changement de comportement du système (ton, règles de sûreté, réglages par défaut, traitement de sujets sensibles, etc.), déployé progressivement et sans notification uniforme. Cela a un effet sur la compréhension du service par l’utilisateur et, dans un contexte d’entreprise, sur l’aptitude à exercer une surveillance et une traçabilité satisfaisantes. C’est ce qui s’est passé par exemple avec l’arrivée de GPT-5.1 d’OpenAI en novembre 2025, dont les modifications, substantielles, n’ont fait l’objet que de communications sur des blogs et des réseaux sociaux. (OpenAI, GPT-5.1 : Un ChatGPT plus intelligent et plus naturel dans ses réponses, 12 novembre 2025, https://openai.com/fr-FR/index/gpt-5-1/, consulté le 12.12.2025).

Pour la pratique suisse, l’enjeu est de gouverner ces mises à jour plutôt que de les exclure. Sur le plan contractuel, il est utile de préciser le périmètre des silent updates, la distinction entre mises à jour critiques et non critiques, l’information a posteriori (notes de version), les fenêtres de maintenance, la préservation des configurations, et les modalités de retour arrière, en veillant à la cohérence avec les engagements de disponibilité et de support.

Sur le plan de la protection des données (LPD et, le cas échéant, RGPD), l’attention porte sur la transparence du traitement, la sécurité technique et organisationnelle et la gestion du changement : une mise à jour qui modifie la collecte, l’usage ou le transfert de données doit être documentée, communiquée selon les bases applicables et, dans les environnements sensibles, intégrée à un dispositif de contrôle interne (journalisation, validation, tests, et procédure d’incident). Enfin, pour les outils d’IA utilisés en production, la question n’est pas seulement « le système est-il à jour ? », mais « quelle version ou quel comportement est en service à telle date ? », afin de pouvoir expliquer une décision, reconstituer un dossier et vérifier la conformité continue.

En pratique, il est recommandé d’équilibrer automatisation et information : même si la mise à jour est silencieuse, des notes de version accessibles, des notifications non intrusives ou des options de préférence (par exemple différer les mises à jour non critiques) contribuent à préserver la confiance.

(Fabrizio Degni, How many of you were aware of the release of the new version of GPT-5.1? linkedin, 13 novembre 2025 (https://www.linkedin.com/posts/fdegni_openai-gpt-51-instant-and-gpt-51-thinking-activity-7394614674102587394-StNk?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg, consulté le 13.12. 2025 ; Reason Labs, What are Silent Updates? 2023, https://cyberpedia.reasonlabs.com/EN/silent%20updates.html, consulté le 15.12.2025 ; Xeox, Demystifying Silent Updates, 8 juillet 2024, https://xeox.com/blog/demystifying-silent-updates/, consulté le 15.12.2025)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Dépasser l’équité algorithmique

A propos de : Narayanan, A. (2026). What if algorithmic fairness is a category error? In S. Nyholm, A. Kasirzadeh, & J. Zerilli (Eds.), Contemporary debates in the ethics of artificial intelligence (pp. 77–96). Wiley-Blackwell. ISBN 9781394258819. (https://www.cs.princeton.edu/~arvindn/publications/algorithmic_fairness_category_error.pdf):

Arvind Narayanan part du constat suivant : on ne peut pas évaluer sérieusement les effets d’un système de décision automatisée en ne regardant que l’algorithme, car les dommages (ou les bénéfices) proviennent surtout de la façon dont l’outil est intégré dans une organisation, avec ses objectifs, ses contraintes, ses incitations et ses rapports de pouvoir. Il soutient que le débat « peut-on rendre les algorithmes équitables ? » se trompe souvent d’objet : les propriétés statistiques mises en avant par la littérature sur la “fairness” ont, en pratique, un lien faible et parfois flou avec ce qui arrive réellement aux personnes. Surtout, réduire la question de la justice à la seule discrimination (différences de traitement ou de résultats entre groupes) est trop étroit pour couvrir l’ensemble des atteintes possibles : perte de protections procédurales, impossibilité de contester une décision, effets de stigmatisation, transfert de coûts vers les plus vulnérables, consolidation de systèmes institutionnels dysfonctionnels, ou encore décisions “préventives” qui changent la nature même de l’intervention publique.

L’auteur illustre cette critique à partir du cas emblématique des outils de prédiction du risque en matière pénale (par ex. COMPAS). Le débat public et académique s’est largement cristallisé sur les écarts d’erreurs entre groupes raciaux, au point d’éclipser d’autres objections morales et juridiques pourtant fondamentales : l’idée de détenir quelqu’un sur la base d’un risque futur (logique de “précrime”), les difficultés de compréhension et de contestation des scores, les effets indirects sur les communautés, ou le risque que ces outils servent de “rustine” empêchant des réformes plus profondes. Pour Narayanan, cette focalisation sur la discrimination est devenue un rituel (notamment via les “audits de biais”) et a structuré tout un écosystème. Il explique ensuite pourquoi ce cadrage a été si attractif pour des acteurs très différents : pour les ingénieurs, il transforme un problème social complexe en problème technique “propre” ; pour les juristes, il offre des points d’accroche dans des cadres existants (droit antidiscrimination, responsabilité) et donc des débats doctrinaux immédiatement activables ; pour les médias et le public, la discrimination déclenche une intuition morale forte et facile à raconter ; pour certains défenseurs de l’intérêt public, il permet de remettre à l’agenda des injustices anciennes via des mesures chiffrées ; et, paradoxalement, pour les entreprises, il peut être moins menaçant qu’une remise en cause structurelle, ce qui facilite la récupération du mouvement sous l’étiquette “éthique de l’IA” ou “IA responsable”, parfois au prix d’ajustements techniques superficiels et de procédures de conformité déconnectées des problèmes de fond.

L’exemple de l’automatisation du recrutement sert à montrer comment l’obsession du biais peut devenir un “pansement sur un pansement”. Narayanan observe que l’industrie met en avant des audits de biais comme argument commercial, alors qu’une question préalable est souvent laissée dans l’ombre : ces outils fonctionnent-ils réellement, c’est-à-dire prédisent-ils quelque chose de pertinent (validité) ? Il décrit des produits fondés sur des signaux très discutables (analyse vidéo, “jeux” comportementaux) et note que, même si l’on supposait l’absence de disparités classiques entre groupes, il subsisterait des torts importants : dégradation de la dignité des candidats, procédures humiliantes, concentration des effets sur des métiers moins qualifiés et moins protégés, et substitution d’une apparence de rationalité à des processus de sélection déjà peu fiables. Il propose une hypothèse générale : des organisations adoptent ces outils non seulement pour des raisons de coût, mais aussi parce qu’ils évitent d’affronter le fait que certaines décisions sont intrinsèquement difficiles et que les procédures existantes sont défaillantes.

À partir d’un retour d’expérience sur dix ans de controverses, l’auteur identifie trois grandes raisons pour lesquelles la “fairness” n’a, selon lui, que marginalement réduit les dommages. Premièrement, les disparités mesurées sont souvent le symptôme de dysfonctionnements institutionnels plus profonds ; corriger un indicateur de biais ne répare pas une politique publique ou une pratique organisationnelle mal conçue. Deuxièmement, beaucoup d’échecs tiennent au manque de garanties procédurales pendant l’usage concret du système : explications compréhensibles, possibilité d’appel, contrôle humain réel, voies de rectification des données, et, plus largement, “contestabilité” des décisions. Il souligne que ces protections coûtent cher parce qu’elles exigent du temps humain, ce qui entre en tension avec l’objectif même de l’automatisation, et que l’on observe fréquemment un décalage entre la promesse commerciale (“tout est automatisé”) et la clause de sauvegarde (“un humain reste responsable”), sans mécanisme robuste pour que cet humain puisse effectivement corriger. Troisièmement, certains cas relèvent de choix de société irréductiblement politiques, notamment lorsqu’il s’agit de redistribution ou de compensation d’injustices historiques : décider quel niveau d’écart est acceptable, ou jusqu’où une entreprise doit corriger des inégalités structurelles, ne peut pas être “résolu” par une définition mathématique d’équité. Le débat approprié est alors celui de la légitimité démocratique et de l’acceptabilité sociale, et une solution techniquement élégante mais politiquement intenable suscitera une résistance frontale.

Face à ces limites, Narayanan propose de déplacer la question : plutôt que d’optimiser “l’équité d’un modèle”, il faut se demander comment concevoir des “bureaucraties algorithmiques”, c’est-à-dire des systèmes de décision où règles, modèles, agents humains, procédures et contexte social forment un tout. Il critique le modèle naïf selon lequel des décideurs fixeraient d’abord des objectifs clairs, puis des techniciens apprendraient automatiquement la “meilleure” politique, ensuite appliquée mécaniquement. En s’appuyant sur des travaux classiques en science de l’administration (notamment l’idée que les administrations “bricolent” des compromis plutôt qu’elles n’exécutent un objectif parfaitement défini), il insiste sur le problème suivant : l’automatisation exige d’expliciter des objectifs et des valeurs, alors que, dans la pratique, ces valeurs sont souvent implicites, situées et négociées au fil des cas. Le risque est que la définition des objectifs soit capturée soit par l’acteur le plus insistant, soit, plus grave, par les contraintes techniques et les choix des équipes de modélisation, sans mandat légitime. Il plaide donc pour des processus permettant d’expliciter des objectifs programmables, issus de compromis entre parties prenantes et lisibles pour le public, tout en reconnaissant que cette explicitation devra probablement se faire en interaction avec la construction, l’évaluation et l’explication des modèles, plutôt que “une fois pour toutes” en amont.

L’auteur identifie aussi des pistes de recherche plus concrètes que la seule optimisation de métriques d’équité. Il propose d’utiliser davantage des analyses coûts-bénéfices, avec prudence, pour éclairer des arbitrages souvent laissés implicites : par exemple, où placer un seuil de risque en matière de détention provisoire, en mettant en regard sécurité publique et atteintes à la liberté, ou encore choisir entre améliorer la précision d’un ciblage et élargir l’accès à une prestation (quitte à accepter une précision moindre). Il souligne que la modélisation devrait passer plus souvent de la “prédiction” à “l’intervention” : deux personnes classées “à risque” peuvent nécessiter des réponses très différentes, et c’est l’efficacité de l’aide proposée, pas seulement la qualité d’un score, qui importe. Il insiste également sur les effets indirects (spillovers) d’une décision sur d’autres personnes ou sur des communautés, dimension souvent absente des évaluations classiques, et sur la nécessité de quantifier des coûts aujourd’hui peu mesurés, comme le coût de l’implication humaine (contrôle, recours, médiation) ou le coût de conformité, sans que ces chiffres servent d’alibi pour affaiblir la régulation.

Enfin, Narayanan consacre une partie importante au rôle des agents de terrain (juges, travailleurs sociaux, modérateurs, etc.). L’idée qu’un algorithme peut simplement remplacer leur jugement est, selon lui, largement fausse, car la discrétion humaine sert précisément à gérer les cas atypiques, à tenir compte de considérations morales non codées, et à éviter la cruauté mécanique. Les recherches montrent que l’effet réel d’un score dépend fortement de la façon dont les agents l’utilisent, l’ignorent, le contournent ou modifient ses entrées. D’où un programme ambitieux : concevoir des “algorithmes de terrain” capables d’interagir avec les personnes, de fournir des explications et des informations sur les droits et les recours, de détecter les cas limites, de s’adapter ou d’escalader vers un humain, et de gérer une partie des contestations. Il reconnaît toutefois qu’en 2025 ces capacités sont hors de portée dans leur forme complète, et que les grands modèles de langage posent des risques spécifiques (réponses trompeuses, vulnérabilité à des entrées adversariales, apparence de compréhension, possibilités de manipulation). Dans l’intervalle, il recommande de privilégier des outils d’aide à la décision plutôt que des systèmes de remplacement, et de traiter l’équité comme un phénomène issu d’un couplage humain-outil (interface, explications, biais d’automatisation, capacité de l’utilisateur à contester), pas comme une propriété interne d’un modèle.

La conclusion est un appel à dépasser l’opposition entre, d’un côté, une “fairness” très mathématisée mais souvent trop étroite, et, de l’autre, des critiques structurelles nécessaires mais parfois peu connectées aux détails techniques. Narayanan esquisse l’idée d’une “troisième vague” : une approche qui accepte le caractère politique de ces choix, tout en restant suffisamment précise et empirique pour guider des réformes institutionnelles réelles, en élargissant fortement la boîte à outils au-delà des seules métriques de biais.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence Artificielle

Publié dans discrimination, intelligence artificielle, recrutement | Tagué , , , | Laisser un commentaire