Mémorisation et droit d’auteur dans les modèles d’IA

Quelques réflexions tirées de James Grimmelmann & A. F. Cooper, The Files are in the Computer: On Copyright, Memorization, and Generative AI, 100 Chi.-Kent L. Rev. 141 (2025)  (Available at: https://scholarship.kentlaw.iit.edu/cklawreview/vol100/iss1/9):

L’article est consacré à la notion de « mémorisation » dans les modèles d’intelligence artificielle générative et à ses implications en droit d’auteur.

À travers un examen approfondi des concepts, des mécanismes techniques et des controverses judiciaires en cours, les auteurs cherchent à donner aux juristes une base technique solide leur permettant de saisir la nature exacte de la mémorisation et de la distinguer d’autres notions proches, afin d’éviter que le droit ne repose sur des approximations.

L’analyse prend comme point de départ l’affaire initiée par le New York Times contre OpenAI et Microsoft à la fin de l’année 2023. Le journal reprochait à ChatGPT et à Bing Copilot d’avoir « mémorisé » des articles publiés dans ses colonnes, de telle sorte qu’en fournissant un extrait d’un article comme amorce, le modèle produisait un texte restituant presque mot pour mot la suite de l’article. Pour le Times, il s’agissait d’une reproduction illicite et donc d’une violation flagrante du droit d’auteur. OpenAI, au contraire, soutenait que de tels résultats étaient obtenus uniquement par des manipulations particulières de l’outil, constitutives d’un usage dit « adversarial », et qu’ils ne représentaient pas le fonctionnement normal du système. Ainsi s’opposaient deux visions : celle d’un modèle qui aurait en lui-même intégré et stocké illégalement des contenus protégés, et celle d’un simple outil statistique neutre dont les sorties dépendent essentiellement de l’usage qu’en font les utilisateurs.

Les auteurs montrent que ce désaccord tient en réalité à une confusion conceptuelle autour de la notion de mémorisation. Ils insistent sur le fait que l’on ne peut se contenter de métaphores vagues telles que « corrélations statistiques » ou « motifs », qui masquent ce qui se passe réellement dans les paramètres du modèle. Une approche juridique sérieuse doit s’appuyer sur une compréhension technique précise. C’est dans ce but que l’essai propose une définition rigoureuse : un modèle a mémorisé une donnée d’entraînement lorsqu’il est possible d’en reconstruire une copie exacte ou quasi exacte d’une portion substantielle.

Cette définition met en évidence plusieurs conséquences importantes.

Premièrement, la mémorisation n’est pas synonyme de l’ensemble des processus d’apprentissage : la plupart des capacités des modèles génératifs relèvent de la généralisation et de la recombinaison créative des données, mais cela n’exclut pas l’existence ponctuelle de mémorisation brute.

Deuxièmement, la mémorisation intervient lors de la phase d’entraînement et non au moment de la génération. Lorsqu’un modèle restitue mot pour mot un passage, il ne crée pas la mémorisation sur le moment : il manifeste simplement un état latent déjà acquis.

Troisièmement, en droit d’auteur, un modèle contenant des données mémorisées peut être considéré comme une copie de ces données, même si elles ne sont pas immédiatement visibles.

Quatrièmement, à la différence d’un magnétoscope ou d’un outil de copie neutre, le modèle ne se contente pas de reproduire mécaniquement : il incorpore certains éléments plus que d’autres, et ces choix tiennent à la manière dont il a été entraîné.

Cinquièmement, la mémorisation existe indépendamment de l’intention des utilisateurs. Ce n’est pas seulement le fruit de sollicitations malveillantes, mais une propriété inhérente du modèle.

Sixièmement, l’ampleur de la mémorisation dépend des choix techniques des développeurs : taille et nature du jeu de données, méthode d’entraînement, ajustements fins.

Septièmement, même une fois la mémorisation intégrée, il est possible d’en limiter l’apparition dans les sorties en ajoutant des garde-fous au niveau du système global, comme des filtres d’entrée et de sortie ou des comparaisons avec des bases de données externes.

Pour illustrer ces mécanismes, l’article consacre une première partie à l’explication technique des modèles génératifs et des chaînes de production dans lesquelles ils s’insèrent. Les auteurs rappellent que, derrière la diversité des applications — chatbots, générateurs d’images, de musique, de vidéos ou d’assistants de programmation — se cache une architecture commune. Les modèles sont entraînés sur des ensembles massifs de données, découpés en unités appelées « tokens », et cherchent à en dégager des distributions statistiques. Contrairement à des modèles discriminatifs qui se contentent de classer, les modèles génératifs produisent de nouvelles données du même type que celles de l’entraînement. Le processus repose sur des réseaux neuronaux qui ajustent des milliards de paramètres, puis génèrent des sorties par une procédure de prédiction itérative des prochains tokens.

Cette approche statistique permet une créativité apparente, en recomposant des corrélations de styles, de concepts ou de structures. Mais elle comporte aussi la possibilité de reproduire textuellement des fragments du corpus.

Les auteurs insistent également sur la complexité de la chaîne de valeur. Le modèle n’est qu’un maillon dans un ensemble plus large comprenant la collecte et la curation des données, la phase de pré-entraînement sur des bases générales, l’éventuel affinement sur des données spécifiques, l’intégration du modèle dans un système logiciel avec interface et filtres, puis l’alignement par renforcement sur des préférences humaines. Chaque étape implique des acteurs différents et des choix techniques ou économiques ayant des incidences juridiques. C’est pourquoi une approche juridique globale doit tenir compte de l’ensemble de la chaîne plutôt que de se focaliser sur un seul moment.

La deuxième partie, cœur de l’article, développe une typologie précise des notions de mémorisation et de ses manifestations. Trois termes doivent être distingués. L’« extraction » désigne le cas où un utilisateur, par un prompt ciblé, obtient volontairement la copie exacte d’un élément d’entraînement. La « régurgitation » correspond à la génération spontanée par le modèle d’une telle copie, indépendamment de l’intention de l’utilisateur. Enfin, la « reconstruction » vise la capacité à obtenir la copie par n’importe quel moyen, pas nécessairement via le processus habituel de génération.

Ces distinctions permettent de mieux comprendre les débats judiciaires : lorsqu’un modèle régurgite un article, c’est la preuve qu’il l’avait mémorisé, et non la cause de la mémorisation. La présence d’une œuvre dans le modèle suffit à caractériser la reproduction, peu importe le degré de difficulté à l’extraire.

Les auteurs s’attardent ensuite sur la manière dont la mémorisation s’inscrit dans les paramètres du modèle. Les « motifs » et « corrélations » abstraits que décrivent les entreprises incluent en réalité aussi des formes de copie quasi textuelle. La mémorisation peut être vue comme une compression extrême, où certains fragments sont conservés tels quels. Le caractère non déterministe de la génération — le fait qu’un même prompt puisse donner des résultats différents — ne change pas cette réalité : même si la reproduction n’apparaît pas systématiquement, la donnée mémorisée demeure stockée dans les poids du modèle.

La question de la quantité mémorisée est plus délicate. Les chercheurs tentent de la mesurer par des expériences d’extraction, mais les résultats varient selon la taille et la nature des modèles. Il est impossible de réduire cela à un chiffre unique, comme « un pour cent du corpus ». Il faut plutôt admettre une variabilité importante. En outre, les modèles ne se limitent pas à mémoriser : ils généralisent aussi, produisant des contenus nouveaux. La coexistence de ces deux capacités brouille les analogies trop simples. Les auteurs critiquent par exemple l’analogie avec les magnétoscopes, avancée pour minimiser la responsabilité des développeurs. Un magnétoscope ne contient pas en lui-même des copies d’œuvres ; un modèle qui a mémorisé des données, si. Cette différence est essentielle pour le droit d’auteur.

L’article aborde aussi la figure de l’« utilisateur adversarial », mise en avant par les défendeurs pour rejeter la faute sur des usagers abusifs. Les auteurs estiment que cette approche est trompeuse : la possibilité d’extraction découle des propriétés intrinsèques du modèle, non de comportements marginaux. Si un utilisateur peut obtenir une copie, c’est que la donnée est présente. La responsabilité ne saurait être évacuée aussi simplement.

Enfin, les auteurs replacent le modèle dans l’écosystème plus large du système d’IA générative. Même si la mémorisation est inévitable, il existe des moyens de réduire le risque de régurgitation publique : limiter les prompts acceptés, filtrer les sorties, comparer avec des bases de données de références, voire réentraîner le modèle. Ces choix techniques montrent que la responsabilité juridique pourrait se distribuer à plusieurs niveaux : la conception du jeu de données, l’entraînement, mais aussi la mise en œuvre des garde-fous.

La conclusion de l’article, formulée dans un style plus réflexif, souligne que le débat autour de la mémorisation est encore jeune et parfois parasité par des incompréhensions conceptuelles. Les auteurs ne prennent pas position sur les solutions juridiques à adopter ni sur l’issue des procès en cours, mais insistent sur la nécessité de bâtir les raisonnements sur une base technique correcte. Ils rappellent que la définition de la copie en droit d’auteur, centrée sur la fixation matérielle d’une œuvre, doit être éclairée par la compréhension du fonctionnement réel des modèles. Les enjeux dépassent le seul copyright et touchent aussi à la vie privée et à l’éthique de l’IA, mais l’urgence actuelle est de clarifier le vocabulaire et de ne pas laisser les tribunaux décider à partir de concepts flous. En définitive, l’article invite les juristes à se détourner des analogies simplistes et des débats rhétoriques pour regarder ce qui se passe « dans l’ordinateur », là où résident les fichiers, c’est-à-dire dans les paramètres des modèles.

La mémorisation est réelle, mesurable, et distincte de la généralisation. Elle est inscrite dans la structure même des modèles. Elle peut être limitée, mais non effacée par une simple dénégation. C’est sur cette réalité que doit se construire toute réflexion juridique sur le droit d’auteur à l’ère de l’intelligence artificielle générative.

(L’article est paru dans les actes du colloque AI Disrupting, sous la direction du Professeur Edward Lee, Chicago – Kent Law Revie, vol.  100, Issue 1 (2025), en libre accès ici : https://scholarship.kentlaw.iit.edu/cklawreview/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, Droit US, intelligence artificielle | Tagué , , | Laisser un commentaire

Intelligence artificielle et effondrement du droit

Quelques réflexions tirées de Solow-Niederman, Alicia, AI and Doctrinal Collapse (August 08, 2025). 78 Stanford Law Review __ (forthcoming 2026), Available at SSRN: https://ssrn.com/abstract=5384965):

L’article s’ouvre sur un constat qui déplace la manière habituelle d’analyser le rapport entre intelligence artificielle et droit. Contrairement à l’idée répandue selon laquelle les technologies iraient trop vite et que le droit serait en retard, l’auteure soutient que le véritable problème n’est pas la vitesse mais la structure même des régimes juridiques existants. Ce sont les choix historiques de construction des règles de propriété intellectuelle et de protection de la vie privée qui créent aujourd’hui un terrain propice à ce qu’elle appelle un « effondrement doctrinal  inter-régime». L’expression désigne la situation où deux régimes de droit distincts, chacun avec sa logique propre, en viennent à se chevaucher sur le même objet – en l’occurrence les données – jusqu’à perdre leur lisibilité et leur cohérence. L’intelligence artificielle agit comme un catalyseur de cette instabilité, car elle dépend massivement de l’accès aux données, qui se trouvent régies simultanément par le droit d’auteur et par le droit de la protection des données. Lorsque les frontières se brouillent, les entreprises technologiques peuvent exploiter les contradictions pour justifier des comportements qui échappent au contrôle effectif de la loi.

La problématique est illustrée par l’exemple des grandes entreprises d’IA qui, selon les circonstances, qualifient les données de « publiques » pour se soustraire aux restrictions de copyright ou de vie privée, mais qui dans le même temps les revendiquent comme « propriétaires » et confidentielles pour échapper à la transparence. Cette oscillation entre deux cadres normatifs contradictoires révèle une défaillance plus profonde : l’incapacité du droit à maintenir ses catégories distinctes et à assigner de manière stable des droits et obligations. Pour l’auteure, cette déstabilisation n’est pas seulement un problème technique ou sectoriel. Elle menace le principe de l’État de droit, car elle rend la règle imprévisible et manipulable par les acteurs les mieux dotés en ressources juridiques.

I. Définir l’effondrement doctrinal

Le premier chapitre s’attache à préciser le concept. L’auteure rappelle que l’on a déjà beaucoup étudié les effondrements internes à un régime juridique donné, par exemple l’érosion progressive de certaines doctrines en droit de la responsabilité civile ou en droit constitutionnel. Dans ces cas, un corpus de règles perd sa cohérence interne, soit parce que les juges en confondent les éléments, soit parce qu’ils les appliquent à des situations nouvelles qui en révèlent les limites. Ces évolutions sont parfois décrites comme des dérives doctrinales ou idéologiques. Mais ici, l’objet est différent : il s’agit d’un effondrement inter-régime, c’est-à-dire entre deux domaines du droit qui coexistent et se recouvrent.

Pour qu’il y ait effondrement, il faut d’abord que deux régimes s’appliquent au même objet de régulation. C’est le cas des données, qui peuvent être vues à la fois comme des informations protégées par la vie privée et comme des œuvres ou contenus soumis au droit d’auteur. Ensuite, il faut que les frontières doctrinales s’estompent, de sorte qu’il devienne difficile de déterminer quel régime prévaut et selon quelle logique. Enfin, il faut que les logiques sous-jacentes soient irréconciliables : le droit d’auteur repose sur une logique de propriété et d’incitation à la création, alors que le droit de la vie privée repose sur une logique de contrôle individuel et d’autonomie. Lorsque ces logiques s’entremêlent sans cohérence, la structure juridique s’effondre.

L’auteure insiste pour distinguer cet effondrement d’autres phénomènes. Ce n’est pas une simple lacune, où la loi manquerait. Ce n’est pas non plus de l’arbitrage réglementaire, où une entreprise choisit stratégiquement une juridiction ou une qualification favorable. L’effondrement est plus fondamental : il se situe dans la structure même des catégories juridiques, qui deviennent incohérentes et donc exploitables.

L’effondrement n’est pas toujours négatif en soi. Il peut parfois permettre des innovations, des mélanges de régimes plus adaptés, ou une flexibilité accrue. Mais il devient problématique lorsqu’il ouvre la voie à une exploitation systématique par des acteurs dominants, aux dépens de la clarté et de la légitimité du droit. C’est précisément ce qui se produit aujourd’hui avec l’intelligence artificielle et la collecte de données.

II. L’effondrement doctrinal dans la pratique : l’acquisition de données pour l’IA

La deuxième partie applique cette grille de lecture à la réalité du développement de l’intelligence artificielle. Les modèles actuels, et notamment les modèles génératifs, ont besoin d’immenses quantités de données pour être entraînés. Cette nécessité les place immédiatement dans une zone de chevauchement entre droit d’auteur et droit de la vie privée.

L’auteure rappelle que chacun de ces domaines a une logique distincte. Le droit d’auteur confère des droits exclusifs sur les œuvres afin d’encourager la création et l’investissement, mais il admet des exceptions comme le fair use pour préserver l’accès du public. Le droit de la vie privée (privacy), tel qu’il s’est développé aux États-Unis, repose sur le paradigme du consentement individuel et de l’autonomie, avec des règles sectorielles et le contrôle de la Federal Trade Commission contre les pratiques déloyales. Les deux régimes ne poursuivent donc pas les mêmes objectifs ni ne mobilisent les mêmes tests.

Or, dans la pratique, les entreprises d’IA naviguent entre ces logiques pour justifier leurs comportements. Lorsqu’il s’agit d’utiliser massivement des données disponibles en ligne, elles invoquent leur caractère « public » pour nier à la fois les droits d’auteur et les droits de vie privée. Mais lorsqu’elles sont sommées de révéler quelles données ont effectivement servi à l’entraînement, elles se retranchent derrière la notion de secret commercial ou de propriété intellectuelle pour refuser la divulgation. Cette double posture illustre le brouillage des catégories.

L’auteure montre aussi que ce brouillage ne reste pas théorique mais se traduit dans des litiges en cours. De nombreux procès aux États-Unis opposent auteurs, artistes, éditeurs ou journalistes aux développeurs d’IA, avec des arguments juridiques fluctuants selon les cas. Les juges sont confrontés à des demandes contradictoires et peinent à trancher de manière cohérente, ce qui accentue le sentiment d’effondrement.

L’auteure identifie ensuite deux grandes stratégies d’exploitation, qu’elle appelle le « buy » et le « ask ». La première consiste à acheter des données via des accords commerciaux entre entreprises, ce qui permet de contourner les droits individuels des personnes concernées. Les grandes plateformes concluent des contrats avec des bases de données, des éditeurs ou des réseaux sociaux pour accéder à des contenus massifs, souvent sans que les individus sachent que leurs données sont ainsi transférées. La seconde stratégie consiste à demander directement le consentement des utilisateurs par le biais de conditions générales d’utilisation ou de politiques de confidentialité. Dans ce cas, l’entreprise obtient une autorisation très large, en s’appuyant sur le paradigme du consentement éclairé, même si celui-ci est en pratique illusoire. Ces deux tactiques, acheter ou demander, aboutissent au même résultat : consolider le pouvoir des acteurs disposant des moyens financiers et techniques de mettre en œuvre ces stratégies, au détriment des individus et de la concurrence.

III. Les conséquences de l’effondrement doctrinal

Cette partie analyse les effets politiques et institutionnels de l’effondrement doctrinal.

Le premier effet est une concentration accrue du pouvoir économique. Seules les entreprises riches peuvent acheter des bases de données ou déployer des infrastructures juridiques et techniques pour exploiter le consentement des utilisateurs. Les start-up ou les chercheurs indépendants se retrouvent désavantagés, ce qui freine l’innovation et renforce la domination des géants technologiques.

Le deuxième effet est un coût de gouvernance pour l’État de droit. Lorsque la loi perd sa lisibilité, il devient impossible de savoir quelle règle s’applique. Les tribunaux ne peuvent plus identifier clairement quel régime juridique régit une situation donnée. La conséquence est une perte de prévisibilité et de cohérence. Or, la prévisibilité est une valeur fondamentale du droit, car elle garantit que les citoyens et les entreprises peuvent organiser leurs comportements en fonction de règles stables.

Le troisième effet est un déficit de légitimité. Si les décisions juridiques apparaissent comme le résultat d’un opportunisme des acteurs puissants plutôt que de l’application de principes cohérents, la confiance dans le système diminue. L’auteure met en garde contre une dérive où le droit ne serait plus qu’un instrument manipulable par les plus forts, ce qui minerait sa fonction de régulation et de protection.

IV. Faire face à l’effondrement

L’auteure ne propose pas de résoudre l’effondrement en restaurant artificiellement des frontières étanches entre les régimes. Elle considère plutôt qu’il faut reconnaître la dynamique du collapse et apprendre à la gérer. Elle emprunte deux pistes théoriques : le droit international privé et le pluralisme juridique.

Du droit international privé, elle retient l’idée que lorsque plusieurs régimes s’appliquent à un même objet, il faut élaborer des règles de conflit qui organisent la hiérarchie ou la coordination entre eux. De la même manière, il conviendrait de développer des principes permettant de décider, dans le cas des données utilisées par l’IA, si la logique de la vie privée ou celle du droit d’auteur doit prévaloir, selon des critères prévisibles et stables.

Du pluralisme juridique, elle retient l’idée qu’il peut exister plusieurs systèmes normatifs qui coexistent, sans qu’il soit nécessaire de les réduire à une unité artificielle. L’enjeu est alors de préserver la lisibilité et la cohérence globale, tout en permettant une certaine flexibilité. L’effort doit porter sur la capacité des institutions à reconnaître la pluralité des logiques et à arbitrer sans se laisser enfermer dans les contradictions exploitées par les acteurs privés.

Ces pistes supposent une intervention législative ou réglementaire consciente de la spécificité du problème. Il ne s’agit pas seulement de combler des lacunes ou de renforcer les sanctions, mais de créer un véritable droit de l’effondrement, c’est-à-dire un ensemble de mécanismes institutionnels pour gérer les chevauchements et éviter qu’ils ne deviennent des instruments de domination.

V. Conclusion

En conclusion, l’auteure souligne que le développement de l’intelligence artificielle révèle de manière aiguë les failles structurelles du droit tel qu’il a été construit dans les décennies passées. Le problème ne se réduit pas à une question de vitesse ou de retard. C’est une crise de cohérence doctrinale. Si elle n’est pas prise au sérieux, elle risque de transformer le droit en outil malléable aux mains des entreprises les plus puissantes, au détriment de l’intérêt public. Reconnaître et gérer l’effondrement doctrinal est donc indispensable pour préserver la capacité du droit à encadrer l’innovation technologique dans un cadre démocratique.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire

Pollution de la recherche comportementale en ligne par les modèles de langage

Quelques réflexions tirées de R. Rilla et al., Recognising, Anticipating, and Mitigating LLM Pollution of Online Behavioural Research, arXiv :2508.01390v1 [cs.CY] 2 août 2025 (https://arxiv.org/abs/2508.01390):

Introduction

L’article analyse un phénomène émergent qui affecte la recherche comportementale en ligne : la « pollution par les modèles de langage » (LLM Pollution). Ce terme désigne les situations où des participants, censés répondre à des études destinées à évaluer la cognition et le comportement humains, recourent à des modèles d’intelligence artificielle pour traduire, reformuler, générer ou même déléguer entièrement leurs réponses. Dès lors, les données produites ne sont plus exclusivement humaines, ce qui remet en cause la validité scientifique de ces travaux.

Le problème est d’autant plus aigu que les grandes plateformes de recrutement de participants, comme Prolific ou MTurk, fondent leur attrait sur la promesse de réponses authentiquement humaines, contrôlées et vérifiées. Or, des observations récentes montrent qu’une part importante des contributions est en réalité partiellement ou totalement produite par des systèmes automatisés. Les auteurs notent que, dans certains cas, jusqu’à 45 % des réponses collectées dans des expériences pilotes présentaient des indices évidents d’intervention d’un modèle de langage. Ces indices allaient de formulations atypiques et excessivement fluides à des réponses trahissant l’absence d’expérience humaine.

Cette intrusion des modèles de langage dans la recherche n’est pas seulement une extension des anciennes menaces posées par les robots ou les participants frauduleux. Elle est plus difficile à détecter, plus sophistiquée, et produit des effets insidieux sur l’intégrité des échantillons, la qualité des données et les conclusions tirées.

Trois variantes de la pollution par LLM

Les auteurs distinguent trois formes principales, qui interagissent entre elles.

La première est la médiation partielle. Ici, le participant continue à remplir le questionnaire ou la tâche lui-même, mais s’appuie ponctuellement sur un modèle pour traduire, reformuler ou optimiser ses réponses. Les productions finales semblent humaines, mais sont en réalité façonnées par la machine. Cette médiation peut réduire la variabilité naturelle des réponses, introduire des biais culturels propres aux données d’entraînement des modèles et donner l’illusion d’une plus grande homogénéité. Elle fausse ainsi la distribution statistique des réponses et nuit à l’interprétation de phénomènes psychologiques censés refléter la diversité humaine.

La deuxième est la délégation totale. Le participant confie l’ensemble de la tâche à un agent basé sur un modèle de langage, capable de lire les instructions, naviguer sur les pages, cliquer sur les boutons, remplir les champs et produire les réponses. Ces agents, comme certains systèmes propriétaires ou solutions open source, fonctionnent avec peu ou pas de supervision humaine. Ils peuvent même adopter des stratégies de dissimulation, imitant des styles d’écriture différents, ce qui rend leur détection encore plus difficile. La délégation totale rompt le lien essentiel entre le protocole et la cognition humaine : les chercheurs analysent alors des comportements purement artificiels, mais sans le savoir.

La troisième est le débordement comportemental, ou spillover. Même en l’absence d’utilisation directe de modèles, les participants peuvent modifier leur comportement parce qu’ils soupçonnent leur présence. Ainsi, ils peuvent introduire volontairement des fautes de frappe pour se démarquer d’une écriture trop parfaite, ou au contraire réduire leurs efforts en estimant que d’autres trichent avec l’aide de machines. Certains peuvent hésiter à donner des réponses sincères, par crainte d’être observés par un système automatisé. Cette anticipation crée des effets secondaires qui biaisent également les résultats, même sans intervention technique d’un modèle de langage.

Les menaces pour la validité scientifique

Les trois variantes décrites créent des menaces multiples. La médiation partielle brouille la frontière entre humain et machine, tout en introduisant des biais systématiques. La délégation totale supprime toute base humaine à la recherche. Le débordement comportemental engendre des distorsions sociales et psychologiques, impossibles à corriger a posteriori.

Ces phénomènes compromettent à la fois la validité interne des expériences (la capacité à isoler des effets causaux précis) et leur validité externe (la possibilité de généraliser les résultats). Plus largement, ils posent un risque épistémologique : la recherche comportementale en ligne pourrait perdre son objet, c’est-à-dire la compréhension des mécanismes humains, au profit d’un mélange non identifié d’humain et de machine.

Étude de cas et premières mesures de détection

Un cas pratique présenté par les auteurs illustre l’ampleur du problème. Dans une étude pilote, 45 % des participants avaient copié ou collé du texte, suggérant un recours massif aux modèles. Même après l’introduction de protections comme des tests de type reCAPTCHA, des questions pièges invisibles, ou la désactivation du copier-coller, des réponses générées par des modèles continuaient d’apparaître, parfois de manière indétectable par les mécanismes mis en place. L’expérience montre que les mesures existantes ne suffisent pas et que l’arsenal technique doit être diversifié et renforcé.

Stratégies de mitigation : une approche à plusieurs niveaux

Les auteurs soulignent que la lutte contre cette pollution s’apparente déjà à une course aux armements : à chaque nouvelle méthode de détection, correspondent des stratégies d’évitement plus sophistiquées. L’objectif réaliste n’est pas d’éliminer complètement les réponses générées, mais d’en réduire la faisabilité et d’augmenter le coût pour les utilisateurs tentés d’y recourir.

Les mesures envisagées se répartissent sur plusieurs niveaux. Au niveau des chercheurs, il est recommandé de concevoir des protocoles qui rendent le recours aux modèles moins aisé. Cela peut passer par la présentation multimodale des instructions (par exemple en vidéo ou en images), par des restrictions techniques sur l’interface de réponse (blocage du copier-coller, enregistrement vocal), ou par l’introduction de tests spécifiques exploitant les faiblesses connues des modèles, tels que des illusions visuelles ou des scénarios nécessitant une véritable théorie de l’esprit. Ces dispositifs visent à compliquer l’automatisation.

D’autres stratégies relèvent de la détection a posteriori. Il s’agit d’intégrer des questions pièges invisibles, de surveiller les comportements de frappe, de mouvements de souris ou de changements d’onglets, ou encore d’utiliser des détecteurs commerciaux de texte généré. Toutefois, chacun de ces outils présente des limites, que ce soit en termes de précision, de transparence ou de contournement possible par des systèmes de plus en plus performants.

La gestion du débordement comportemental est plus délicate, car elle implique la psychologie des participants. Rappeler explicitement qu’il est interdit d’utiliser des modèles peut décourager certains, mais renforcer la suspicion chez d’autres. Trop insister sur la présence de contrôles peut paradoxalement accentuer les comportements de signalement ou de dissimulation. Pour réduire ces effets pervers, il est nécessaire d’établir des normes partagées de participation équitable et d’authenticité, en réaffirmant la valeur de la contribution humaine.

Enfin, des actions doivent être portées au niveau des plateformes elles-mêmes, qui doivent assumer une responsabilité accrue dans l’intégrité des données. Cela inclut la clarification des conditions d’utilisation, la mise en place de mécanismes de signalement et de remboursement, et le déploiement de protections techniques standardisées. À une échelle plus large, la communauté scientifique doit élaborer des standards communs, partager les meilleures pratiques et, lorsque nécessaire, réinvestir dans des environnements physiques ou supervisés, là où la fiabilité des données est cruciale.

Perspectives et conclusion

Les auteurs insistent sur le fait que la pollution par les modèles n’est pas toujours le fruit d’une intention malveillante. Souvent, les participants cherchent simplement à améliorer leur compréhension des instructions, à gagner du temps ou à s’exprimer plus clairement. Mais même ces usages apparemment bénins introduisent des distorsions invisibles qui affectent la recherche.

La question de savoir ce qui constitue une « pollution » se complexifie : à mesure que l’usage des modèles s’intègre dans la vie quotidienne, il deviendra difficile de considérer ces comportements comme des anomalies. La recherche devra peut-être adapter ses cadres théoriques à un monde où cognition humaine et outils intelligents s’entremêlent en permanence.

À court terme, la priorité reste la préservation de la validité des méthodes actuelles, par des mesures de prévention et de détection adaptées. À long terme, il faudra redéfinir ce que signifie étudier le comportement humain dans un contexte où ce comportement est lui-même façonné par des intelligences artificielles.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

La cave du Conseil fédéral

Les jours ont été difficiles ces temps pour le Conseil fédéral.

Les droits de douane, les drones qui ne volent pas, les avions qui vont coûter un saladier, les contrats d’armement qu’on a pas lus ou compris de travers…

Alors certes une membre éminente de cet auguste aéropage nous a quand même déclaré sa joie que les droits de douane US n’aient pas terni la grande fête du cinéma à Locarno, pendant que, pas très loin, un autre, censé s’occuper des affaires étrangères, finissait ses vacances.

Mais quand même, quelle cagade !

Comme le disait le Conseiller fédéral Parmelin, dans une des fulgurances dont il a le secret, la question, pendant ces temps difficiles, était en fait de comprendre « où la chatte a mal au pied » (voir ses interventions dans la conférence de presse du 7 août 2025 (https://www.rts.ch/info/suisse/2025/minute-par-minute/28962016.html, sous 17 heures 35).

A la lecture d’un arrêt du Tribunal administratif fédéral (A-313/2025 du 7 août 2025) on aura une petite idée de pourquoi minette boite bas à voir le temps, l’énergie et les moyens dépensés par la Chancellerie pour une simple affaire de bouteilles.

Le 4 octobre 2023, un journaliste de la Radio Télévision Suisse (RTS) adresse donc à la Chancellerie fédérale une demande formelle fondée sur la LTrans. Dans son courrier, il sollicite la remise de quatre catégories de documents : premièrement, la liste complète des vins figurant dans la cave à vin du Conseil fédéral ; deuxièmement, le budget de cette cave pour chacune des cinq dernières années ; troisièmement, les directives internes relatives à son utilisation ; quatrièmement, les critères appliqués pour sélectionner les bouteilles.

Dix jours plus tard, la Chancellerie fédérale répond par un refus pur et simple. Dans sa lettre du 13 octobre 2023, elle ne cherche pas à invoquer un motif d’exception lié à la protection d’intérêts publics ou privés (comme le permettrait l’art. 7 LTrans), mais affirme que la demande est tout simplement hors champ : selon elle, la cave à vin relève de la « sphère du Conseil fédéral », c’est-à-dire de l’activité gouvernementale du collège, et non de l’administration fédérale soumise à la transparence.

Le journaliste ne s’en satisfait pas et, le 24 octobre 2023, dépose une demande de réexamen. Il y fait valoir que la cave à vin est entretenue et gérée par des services administratifs ; que son financement provient de fonds publics ; et que la transparence sur son contenu et son coût est légitime. La Chancellerie maintient sa position dans une nouvelle réponse datée du 27 octobre 2023 : les documents demandés concernent, selon elle, des aspects logistiques et représentatifs liés au fonctionnement du Conseil fédéral en tant qu’organe gouvernemental, ce qui justifie l’exclusion.

Conformément à la procédure prévue par la LTrans, le journaliste saisit alors le Préposé fédéral à la protection des données et à la transparence (PFPDT) d’une demande de médiation. Cette instance indépendante cherche à rapprocher les positions, mais les échanges n’aboutissent pas. Dans sa recommandation du 8 novembre 2024, le PFPDT prend clairement parti : il estime que les documents en cause sont bien des documents officiels au sens de la loi et que l’accès doit être accordé, sous réserve de caviarder les données personnelles (noms, coordonnées des fonctionnaires). Il souligne que la gestion de la cave à vin est une activité administrative courante, qu’elle soit assurée directement par la Chancellerie ou par un office fédéral.

La Chancellerie fédérale décide de ne pas suivre cette recommandation. Par décision formelle du 29 novembre 2024, elle confirme son refus, en reprenant ses arguments initiaux.

En janvier 2025, le journaliste saisit le Tribunal administratif fédéral (TAF). Son recours vise à faire constater que les documents sollicités sont des documents officiels soumis à la LTrans, et à obtenir leur communication.

Le TAF rappelle d’abord qu’il est compétent pour connaître de tels recours, que la procédure a été respectée et que la cause est recevable.

Le cœur du litige porte sur l’art. 2 LTrans. Son alinéa 1, lettre a, exclut du champ de la loi « les activités du Conseil fédéral en tant qu’autorité gouvernementale ». Cette exclusion vise les actes de direction politique et les délibérations collégiales, et non les tâches purement administratives.

Le Tribunal commence par souligner que la Chancellerie fédérale a une double nature : elle est à la fois l’état-major du Conseil fédéral (assistance, planification, coordination) et une unité administrative centrale (gestion de ressources, exécution de tâches techniques). Dans le premier rôle, elle agit en dehors de la LTrans ; dans le second, elle est soumise aux obligations de transparence.

Le Tribunal passe ensuite en revue chaque catégorie de documents. Pour ce qui concerne les conditions de commande des vins, il s’agit clairement d’un acte administratif. Il ne porte en effet pas sur une délibération politique, mais sur des modalités techniques d’approvisionnement. La participation de l’OFAG, qui est sans conteste soumis à la LTrans, renforce cette conclusion.

Pour ce qui est de  la liste des vins de la cave, elle est certes tenue par la Chancellerie, mais les achats et budgets sont gérés par l’OFAG. La constitution de cette liste relève donc d’une activité de gestion courante et non d’une mission gouvernementale.

Pour ce qui est des communications relatives aux usages, à la sélection et à la commande des vins, il s’agit là aussi d’actes administratifs ne concernant pas la prise de décision politique.

Pour ce qui est des relevés des budgets annuels de la cave, là encore il s’agit de documents comptables administratifs, que rien  ne permet de qualifier d’actes liés au « fonctionnement collégial » du Conseil fédéral.

Ayant établi que les documents entrent dans le champ d’application de la loi, le Tribunal vérifie ensuite si l’administration pouvait refuser l’accès sur la base des exceptions prévues aux art. 7 et 8 LTrans. Or la Chancellerie n’a invoqué aucun de ces motifs : ni protection d’intérêts publics prépondérants (sécurité, relations extérieures, politique monétaire), ni protection de données personnelles sensibles au sens strict. Rien ne s’oppose donc à la communication.

Le seul point restant est celui des données personnelles. Pour les noms et coordonnées des producteurs de vin figurant dans la liste, le PFPDT avait déjà estimé que ces informations ne sont pas sensibles et que l’intérêt public à leur divulgation est supérieur à l’intérêt privé à la confidentialité. Le TAF partage cette analyse et décide, exceptionnellement, de renoncer à la consultation préalable des producteurs : celle-ci serait disproportionnée au regard de la nature des données.

Pour les employés fédéraux, le recourant a accepté que leurs noms, fonctions, numéros de téléphone et adresses e-mail soient biffés. Le Tribunal ordonne donc ce caviardage, ce qui permet de protéger la sphère privée tout en assurant la transparence sur le reste du contenu.

Le Tribunal admet le recours, annule la décision de la Chancellerie et ordonne la remise des documents.

On tremble à l’idée que la Berne fédérale aurait pu mettre autant de temps, d’énergie et de combativité à la préparation de négociations internationales, à la tenue de séances de crise ou à la préparation de solutions alternatives dans un contexte de crise diplomatique et tarifaire.

Au moins, maintenant, on saura ce qu’ils vont boire pour oublier ce terrible été.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans transparence | Tagué , , , , | Laisser un commentaire

Gratification soumise à des objectifs non définis par l’employeur

La gratification, aux termes de l’art. 322d al. 1 CO, est une rétribution spéciale que l’employeur accorde en sus du salaire à certaines occasions telles que Noël ou la fin de l’exercice annuel. Elle peut consister dans une somme d’argent ou dans des prestations en nature, mais aussi dans la remise de titres, d’options, etc.

La gratification se distingue d’abord du salaire en ceci que son versement dépend au moins partiellement du bon vouloir de l’employeur, de son bon plaisir. Il en résulte notamment que la gratification doit conserver un caractère accessoire par rapport au salaire. Elle ne peut avoir qu’une importance secondaire dans la rétribution du travailleur, qui sinon serait soumis à l’arbitraire ou au caprice de l’employeur alors qu’il a besoin de sa rémunération pour vivre.

Le fait que la gratification dépende en tout cas partiellement du bon plaisir de l’employeur n’empêche pas que certaines conditions puissent être mises à son versement, dont la fixation d’objectifs à l’employé par exemple.

Dans un cas d’espèce (TF 4A_378/2017 du 27 novembre 2017, consid. 3.3-3.4), le Tribunal avait relevé que l’autorité cantonale avait correctement qualifié la rémunération de gratification eu égard à son caractère accessoire et au fait que la rétribution dépendait au moins dans une certaine mesure du bon vouloir de l’employeur, nonobstant les objectifs qui devaient être fixés par celui-ci à l’employé. La difficulté résidait bien plutôt dans le fait que l’employeur avait renoncé à fixer des objectifs annuels concrets, ce que l’employé interprétait comme une renonciation (tacite) par l’employeur de la condition fixée au versement de la gratification.

Pour le Tribunal fédéral, cette renonciation devait bien plutôt s’interpréter à la lumière de l’art. 156 CO.

En effet, lorsqu’une condition est convenue et que son accomplissement dépend, dans une certaine mesure, de la volonté d’une des parties auxquelles le contrat impose des obligations, cette partie n’a en principe pas une liberté entière de refuser cet accomplissement et de se dégager ainsi de ses obligations contractuelles. Elle doit au contraire agir de manière loyale et conforme aux règles de la bonne foi ; en cas de violation de ces exigences, la condition est censée être accomplie selon l’art. 156 CO.

Toutefois, dans le cas d’espèce, le fait que l’employeur se soit abstenu de fixer à l’employé chaque année des objectifs particuliers alors que le versement de la gratification était conditionné à de tels objectifs ne signifiait pas encore qu’il aurait renoncé par actes concluants à subordonner le paiement à toute condition, y compris celle, élémentaire, de la bonne et fidèle exécution des tâches correspondant au cahier des charges de l’employé.  Or il découle des constatations de fait que l’employé n’avait pas donné pleine et entière satisfaction dans l’accomplissement de ses tâches contractuelles.

Le paiement de la gratification n’était donc pas dû, quand bien même l’employeur n’aurait pas assigné d’objectifs annuels particuliers comme le requérait le contrat.

Me Philippe Ehrenström, avocat, LLM

Publié dans Salaire | Tagué , , , , , , | Laisser un commentaire

Taxinomie des difficultés rencontrées par les Multi-Agent LLM Systems (MAS)

Quelques réflexions tirées de M. CEMRI et al., Why Do Multi-Agent LLM Systems Fail ?  (arXiv :2503.13657v2 [cs.AI] 22 avril 2025 – https://arxiv.org/pdf/2503.13657):

Le sujet de l’étude peut être délimité comme suit : malgré un engouement marqué pour les systèmes multi-agents reposant sur des modèles de langage de grande taille (« Large Language Models », ou LLM), les gains de performance mesurés restent souvent modestes par rapport à des systèmes plus simples, parfois même inférieurs à des approches mono-agent bien conçues.

Les « Multi-Agent LLM Systems » (MAS) sont pourtant conçus pour répondre à des tâches complexes en multipliant les compétences et points de vue : chaque agent peut se voir assigner un rôle spécifique, dialoguer avec ses pairs, utiliser des outils ou interagir avec des environnements numériques. Les bénéfices attendus sont connus : meilleure décomposition des tâches, parallélisation des traitements, isolement des contextes, spécialisation des raisonnements, voire débat entre agents pour converger vers la bonne solution. Dans les domaines de l’ingénierie logicielle, de la recherche scientifique, de la simulation, de la découverte de médicaments ou de l’assistance généraliste, ces promesses ont suscité un intérêt rapide, tant académique qu’industriel.

Pourtant, lorsque l’on mesure les résultats de ces systèmes sur des jeux d’essai pertinents, le constat est sévère : les gains ne sont pas au rendez-vous, et les taux d’échec sont élevés. Les auteurs citent par exemple le framework ChatDev, qui n’atteint que 33 % de réussite sur un benchmark de développement logiciel pourtant composé de tâches simples pour un ingénieur humain (création d’un jeu de type Wordle, implémentation d’un Sudoku, etc.). Ces difficultés ne sont pas marginales : elles touchent l’ensemble des architectures testées, qu’elles soient hiérarchiques, en étoile ou en ligne d’assemblage, et se retrouvent même lorsque le modèle de base est un LLM de pointe.

De là découle la question centrale : pourquoi ces MAS semblent-ils échouer ? Les auteurs choisissent de répondre non pas en invoquant uniquement les limites connues des modèles (hallucinations, mauvaise interprétation d’instructions), mais en examinant méthodiquement les échecs réels pour en dégager des schémas récurrents. Leur objectif est double : d’une part fournir un cadre conceptuel commun pour décrire et comprendre ces échecs, d’autre part orienter la conception vers des systèmes plus robustes. Ce cadre, ils le baptisent « Multi-Agent System Failure Taxonomy » (MAST).

La méthodologie adoptée se fonde sur la « Grounded Theory » : au lieu de partir d’hypothèses préexistantes, on laisse émerger les catégories d’échec directement des données observées. Les auteurs collectent plus de 200 traces d’exécution issues de sept systèmes multi-agents open source. Chaque trace correspond à une conversation complète entre agents et/ou avec l’environnement, d’une longueur moyenne de 15 000 lignes. Les tâches sont choisies pour représenter les cas d’usage annoncés par chaque système.

Six annotateurs humains, tous expérimentés avec ce type de systèmes, examinent les traces et identifient les problèmes survenus. Le « codage ouvert » consiste à segmenter les dialogues, à attribuer des étiquettes descriptives aux incidents, puis à comparer ces étiquettes pour repérer les similitudes et différences. Ce travail est collaboratif et itératif : les annotateurs discutent des cas ambigus, affinent les définitions, fusionnent ou scindent des catégories selon les besoins. L’objectif est d’aboutir à une taxonomie suffisamment précise pour que deux personnes différentes classent un même échec de la même façon.

Pour valider cette clarté, trois séries d’études d’accord inter-annotateurs sont menées. Lors de la première, le coefficient de Cohen (k) n’atteint que 0,24 : les définitions sont encore trop floues. Après révisions, une deuxième série obtient 0,92, signe d’un accord quasi parfait. La troisième série, sur un nouvel échantillon, confirme la stabilité avec 0,84. À ce stade, MAST est considérée comme suffisamment robuste.

La taxonomie finale comprend quatorze modes d’échec précis, regroupés en trois grandes catégories.

La première catégorie, « Specification Issues », regroupe les défaillances issues de la phase de conception ou d’instructions initiales inadéquates. Cela inclut : le non-respect des exigences de la tâche (par exemple ignorer une contrainte implicite mais standard, le non-respect des rôles assignés à chaque agent, la répétition inutile d’étapes, la perte de l’historique de la conversation, ou l’incapacité à reconnaître que la tâche est achevée. Ces problèmes traduisent parfois des ambiguïtés de l’invite initiale, mais aussi des défauts structurels : incapacité de l’architecture à inférer correctement des détails pourtant raisonnablement déductibles.

La deuxième catégorie, « Inter-Agent Misalignment », regroupe les échecs de coordination entre agents : conversation réinitialisée inopinément, absence de demande de clarification lorsqu’une ambiguïté apparaît, dérive de la tâche vers un autre objectif, rétention d’informations cruciales, ignorance pure et simple des apports d’autres agents, ou encore discordance entre ce qu’un agent exprime comme raisonnement et ce qu’il exécute réellement. Les auteurs montrent que des symptômes similaires (par exemple information manquante) peuvent avoir des causes très différentes, d’où l’importance d’une catégorisation fine.

La troisième catégorie, « Task Verification », concerne les mécanismes de contrôle qualité en fin de processus : arrêt prématuré avant d’avoir produit une solution complète, absence ou insuffisance de vérification (par exemple se contenter de compiler un programme sans tester sa conformité fonctionnelle), ou validation erronée d’un résultat incorrect. L’exemple d’un programme d’échecs est parlant : il passe toutes les étapes de vérification mais accepte des coups illégaux, faute de contrôle approfondi.

Pour appliquer MAST à grande échelle, les auteurs développent un outil automatisé, un « LLM-as-a-judge ». Il s’agit d’un modèle de langage auquel on fournit la liste des modes d’échec avec leurs définitions et exemples, et qui classe les incidents d’une trace donnée. Avec un entraînement en contexte (exemples fournis), cet outil atteint 94 % de précision et un κ de 0,77 par rapport aux humains. Il permet ainsi d’annoter rapidement l’ensemble des 200 traces et de produire des statistiques : environ 42 % des échecs relèvent de la spécification, 37 % du désalignement, 21 % de la vérification. Cette répartition équilibrée indique que la taxonomie n’est pas biaisée vers un type particulier de problème.

Les auteurs testent aussi MAST sur deux systèmes et jeux de données totalement nouveaux :. Les scores d’accord restent élevés (0,79), preuve que les définitions sont généralisables.

Les auteurs insistent sur un enseignement central : beaucoup d’échecs sont imputables à la conception du système, non aux seules limites du LLM. Améliorer le modèle aide, mais ne remplace pas une architecture réfléchie : organisation des agents, gestion du contexte, protocoles de communication et vérification intégrée doivent être conçus avec autant de soin que le choix du modèle. L’analogie avec les organisations humaines à haute fiabilité est explicite : même des individus compétents échouent si la structure collective est mal conçue.

En conclusion, MAST fournit : un vocabulaire structuré pour décrire les échecs de MAS ; un outil d’évaluation automatisé ; et la preuve empirique que des interventions ciblées sur la conception peuvent améliorer les performances. Les auteurs voient dans ce cadre un point de départ pour la recherche : étendre l’analyse à d’autres dimensions (efficacité, coût, robustesse, sécurité), concevoir des stratégies de vérification multi-niveaux, et imaginer des architectures plus résilientes. À terme, ils espèrent que MAST contribuera à faire des MAS non seulement des démonstrateurs prometteurs, mais des systèmes fiables et utilisables dans des contextes réels exigeants.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Musique, intelligence artificielle et Large Language Models

Quelques éléments de réflexion tirés de D. Gervais, Observations on the Role of Copyright in Shaping Music Industry Use of Large Language Models (August 04, 2025). Intellect Handbook of Global Music Industries (Chris Anderton, editor), Available at SSRN: https://ssrn.com/abstract=5388435 or http://dx.doi.org/10.2139/ssrn.5388435):

Le droit, dans son essence, est un outil d’organisation sociale. Il fixe des règles qui orientent, encouragent ou limitent certaines activités humaines. Cette fonction est universelle : qu’il s’agisse de régir la circulation routière, les échanges commerciaux ou les créations artistiques, le droit établit un cadre dans lequel les comportements s’inscrivent.

Dans le domaine de la propriété intellectuelle, et en particulier du droit d’auteur, cette mission prend une forme spécifique. Les législateurs ont historiquement cherché à stimuler la création en accordant aux auteurs des droits exclusifs sur leurs œuvres. Ces droits, patrimoniaux et moraux, permettent aux créateurs de contrôler l’utilisation de leurs œuvres et d’en tirer un revenu, tout en prévoyant des sanctions dissuasives contre toute utilisation non autorisée.

Ce mécanisme repose sur un équilibre délicat. Trop de protection, trop longue ou trop large, peut freiner l’accès aux œuvres et limiter l’innovation ; trop peu de protection, et les créateurs peuvent être découragés de produire, faute de retour sur investissement. Cette question d’équilibre est d’autant plus cruciale que de nombreuses innovations se développent même en dehors du système de la propriété intellectuelle. Certaines naissent grâce à des mécanismes comme l’ingénierie inverse (reverse engineering), qui consiste à analyser un produit fini pour comprendre son fonctionnement, d’autres sont stimulées par la simple concurrence commerciale.

La musique est un terrain privilégié pour observer cette dynamique. Depuis plus d’un siècle, elle est protégée par le droit d’auteur, les droits voisins des artistes interprètes et des producteurs, et a vu ce cadre s’adapter à chaque grande mutation technologique : la radio, la télévision, les supports enregistrés, les services de streaming. Chaque innovation a apporté de nouvelles possibilités et de nouveaux défis, poussant le législateur à ajuster les droits exclusifs et les exceptions pour maintenir la vitalité du secteur.

Aujourd’hui, nous entrons dans une nouvelle ère : celle de l’intelligence artificielle générative et des grands modèles de langage appliqués à la musique. Ces systèmes peuvent composer des mélodies, écrire des paroles, transposer un morceau dans un autre style, ou imiter la « patte » d’un artiste. Leur particularité ? Ils n’ont aucune motivation humaine, aucun vécu, aucun ressenti ; leur « créativité » est le produit de calculs statistiques sur d’immenses bases de données musicales. C’est un bouleversement historique : pour la première fois depuis le Statute of Anne de 1710, fondateur du droit d’auteur moderne, la créativité non humaine devient une réalité concurrente à celle des auteurs humains.

Trois grandes questions émergent alors :

Peut-on légalement utiliser des catalogues musicaux protégés pour entraîner ces modèles ?

Les morceaux produits par ces systèmes peuvent-ils violer des droits d’auteur existants ?

Peut-on protéger, par le droit d’auteur, une œuvre créée par une machine ?

Pour répondre, l’auteur de l’article propose de commencer par un détour technique pour comprendre comment ces systèmes fonctionnent, puis d’analyser successivement chacune des trois questions, avant de conclure sur les implications à long terme pour la création musicale et la société.

Les dessous techniques des LLM musicaux

Un grand modèle de langage, ou LLM, est un système d’intelligence artificielle qui apprend à produire du contenu – texte, image, musique – en analysant d’énormes ensembles de données. Il fait partie de la famille de l’apprentissage automatique, où un algorithme « s’entraîne » en repérant des régularités dans les données qu’on lui fournit.

Dans le cas de la musique, l’entraînement commence par la copie intégrale de morceaux, qu’ils soient sous forme de partitions, d’enregistrements audio ou de fichiers MIDI. Cette copie n’est pas un simple accès : les œuvres sont téléchargées et stockées dans l’environnement technique du développeur. Elles sont ensuite « tokenisées » : découpées en petites unités – notes, accords, séquences rythmiques ou phonèmes pour les paroles – qui sont ensuite converties en valeurs numériques.

Ces tokens conservent entre eux des relations contextuelles : ce ne sont pas des morceaux isolés jetés pêle-mêle, mais des fragments reliés par des « fils invisibles » qui reflètent la structure et la logique de l’œuvre d’origine. C’est ce qui permet, lors de la génération, de reconstituer des séquences qui peuvent être très proches de l’original.

La tokenisation s’accompagne souvent de la suppression d’informations de gestion des droits (RMI), comme le nom de l’auteur ou l’éditeur. Or, cette suppression ou altération est réglementée par les traités internationaux, car elle peut faciliter des utilisations non autorisées.

Une fois entraîné, le modèle fonctionne comme un prédicteur : à partir d’un point de départ (une note, un accord, un mot), il calcule la suite la plus probable en se basant sur ce qu’il a appris. C’est ici qu’intervient l’humain via le « prompt » : une instruction plus ou moins précise qui oriente la production.

Le cadre juridique international

Le droit d’auteur protège les œuvres originales, qu’elles soient littéraires, artistiques ou musicales. Les droits patrimoniaux incluent le droit de reproduction, d’adaptation, de distribution, de communication au public. Les droits moraux permettent notamment de revendiquer la paternité de l’œuvre et de s’opposer à toute modification préjudiciable à l’honneur ou à la réputation de l’auteur.

La Convention de Berne, adoptée en 1886 et aujourd’hui forte de 181 membres, impose un socle commun de protection. L’Accord sur les ADPIC (TRIPS), intégré à l’OMC, rend ces obligations contraignantes et exécutoires. Le Traité OMPI de 1996 renforce la protection, notamment contre la suppression des RMI et le contournement des mesures techniques.

À côté de ces droits, les droits voisins protègent les interprètes et producteurs de phonogrammes. Ils ne sont pas identiques au droit d’auteur, mais offrent des prérogatives comparables pour la reproduction et la communication au public.

Entraîner une IA sur des œuvres protégées : légal ou pas ?

Le fait qu’une œuvre soit en ligne ne signifie pas qu’elle est libre de droits. En droit suisse comme en droit international, toute reproduction, même temporaire, nécessite une autorisation, sauf exception. L’entraînement d’un LLM implique de copier les œuvres dans leur intégralité, puis de les conserver sous forme tokenisée.

En Europe, la directive 2019 prévoit deux exceptions pour le text and data mining : l’une réservée à la recherche scientifique par des institutions habilitées, l’autre plus large mais assortie d’un droit d’opt-out pour les titulaires de droits. En Suisse, la loi sur le droit d’auteur contient depuis 2020 une exception pour la fouille de textes et de données, mais qui respecte les conditions et limitations imposées par les traités internationaux.

Aux États-Unis, l’incertitude règne : la doctrine du fair use pourrait, selon les circonstances, couvrir certains entraînements, mais aucun consensus jurisprudentiel clair ne s’est encore dégagé.

L’argument souvent avancé par les développeurs – que la tokenisation ne reproduirait que des « idées » et non des expressions – est réfuté : les tokens contiennent des éléments d’expression protégés. Comparer l’entraînement machine à l’apprentissage humain est trompeur, car l’humain assimile et transforme, tandis que la machine copie mécaniquement et stocke.

Les sorties d’un LLM : quand y a-t-il infraction ?

La question ici est classique : une œuvre générée reproduit-elle une partie substantielle d’une œuvre préexistante ? Cela inclut les copies exactes, mais aussi les adaptations, traductions ou arrangements.

Il existe un débat doctrinal sur la question de savoir si toute sortie d’un LLM, du fait qu’elle est influencée par les œuvres d’entraînement, est automatiquement une œuvre dérivée. Les juridictions, en Europe comme aux États-Unis, n’ont pas retenu cette approche globale. L’analyse se fait au cas par cas, selon la similarité substantielle et la preuve de l’accès aux œuvres originales.

Un auteur non humain peut-il exister ?

La réponse majoritaire est non. Depuis plus de trois siècles, le droit d’auteur protège les créations humaines. L’originalité, en Europe, se définit comme l’expression de la personnalité de l’auteur à travers des choix libres et créatifs. Aux États-Unis, la Cour suprême, dans l’affaire Feist, a confirmé que le droit d’auteur protège la créativité et non le simple travail ou investissement (« sweat of the brow »).

Les machines, aussi sophistiquées soient-elles, ne prennent pas de décisions créatives au sens juridique : elles appliquent des algorithmes pour optimiser une probabilité statistique. Les décisions récentes de l’US Copyright Office et de tribunaux fédéraux confirment que l’absence d’auteur humain empêche la protection.

La collaboration homme-machine

L’IA peut être un outil d’assistance : aider à trouver une mélodie, suggérer des paroles, optimiser une harmonie. Dans ce cas, si l’humain conserve un rôle créatif significatif et identifiable, l’œuvre peut rester protégée.

L’auteur propose un test : rechercher la cause « proche » de l’originalité. Si les éléments originaux sont imputables à l’humain, la protection s’applique ; si l’originalité est produite exclusivement par la machine, l’œuvre tombe dans le domaine public.

Cela suppose de séparer les apports fonctionnels ou aléatoires de la machine et de vérifier que l’humain a exercé un contrôle créatif réel. Cette approche rappelle les analyses faites en matière d’œuvres en collaboration ou de transformations d’œuvres du domaine public.

Perspectives et conclusion

Nous sommes entrés dans une ère où les « esprits artificiels » participent à la création musicale. Cette évolution présente des risques : remplacement progressif des auteurs humains, appauvrissement de la diversité culturelle, perte d’opportunités pour les nouvelles générations de créateurs.

L’auteur plaide pour un cadre clair : les œuvres purement générées par des machines doivent rester sans protection ; les créateurs doivent être rémunérés lorsque leurs œuvres sont utilisées pour entraîner des systèmes qui produisent des contenus concurrents ; la transparence sur la part de contenus IA dans les flux commerciaux doit être imposée.

En définitive, le droit d’auteur doit, comme il l’a toujours fait, s’adapter à la technologie pour préserver la valeur irremplaçable de la créativité humaine dans un paysage artistique où l’IA est désormais un acteur à part entière.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Panama Papers et protection de la personnalité de l’employé

Le recourant [avocat, collaborateur de l’employeur associé dans une Etude] invoque encore une violation des art. 28a al. 3 CC, 42 al. 2 CO, 43 al. 1 CO, 49 CO et 55 CO, qui résulterait d’un établissement arbitraire des faits: l’intimé [l’associé employeur] aurait porté atteinte à sa personnalité, puisque son étude aurait été associée à l’affaire des  » Panama Papers « ; ceci lui aurait causé un dommage ainsi qu’un tort moral. 

 Selon l’instance précédente, le recourant n’avait pas rendu vraisemblable un quelconque comportement répréhensible de l’employeur à son encontre, ni pendant la relation contractuelle, ni après celle-ci, de sorte qu’il fallait retenir qu’il n’y avait pas d’atteinte à sa personnalité au sens de l’art. 328 al. 1 CO. En particulier, le recourant n’était qu’un collaborateur subordonné dans l’étude qui, au demeurant, n’était pas organisée sous une forme intégrée. Ainsi, que l’étude ait par hypothèse été en charge de dossiers dévoilés par le scandale des  » Panama Papers  » ne signifiait pas encore que le recourant ait travaillé sur ces dossiers et que sa réputation ait été atteinte par ces révélations. Quant au dommage allégué par le recourant, correspondant à la différence entre son salaire effectif au moment des faits et celui auquel il aurait pu prétendre sans cette hypothétique atteinte, il n’avait pas démontré que ses chances sur le marché du travail avaient été réduites, singulièrement dans l’administration publique ou la magistrature, comme il l’alléguait. Dans ce contexte, il n’était pas suffisant d’affirmer qu’il aurait pu gagner 20’000 fr. de plus par an en exerçant dans le secteur public, spécifiquement en tant que juge au Tribunal administratif fédéral: postuler à cette fonction ne signifiait pas encore être élu à celle-ci. Le recourant n’avait en outre produit aucun document démontrant que sa candidature avait été écartée en raison de son activité antérieure dans l’étude de l’intimé; il affirmait au contraire avoir retiré lui-même sa postulation. S’agissant de son prétendu tort moral, le recourant n’en fournissait pas la moindre preuve; il n’alléguait d’ailleurs aucune incapacité de travail, ni traumatisme ou suivi médical. 

 En substance, la critique qu’adresse le recourant à l’arrêt cantonal peut être résumée en deux points: 

— D’une part, il reproche à l’instance précédente d’avoir nié toute atteinte à sa personnalité. Dénonçant un établissement arbitraire des faits, il prétend avoir prouvé à satisfaction en première instance que l’étude dont l’intimé était l’un des associés était très fortement impliquée dans le scandale des  » Panama Papers  » en 2016; son nom ressortait à ses dires plus de 150 fois dans les banques de données publiées dans ce contexte. L’intimé n’aurait par ailleurs pris aucune mesure pour protéger la personnalité du recourant, notamment pour éviter tout amalgame entre ce dernier et l’affaire en cause; il aurait même délibérément provoqué cette confusion. 

— D’autre part, le recourant fait valoir que la cour cantonale aurait, de manière arbitraire, nié qu’un dommage était établi. Il aurait pourtant démontré qu’en raison du scandale en cause, il avait été contraint de taire son expérience professionnelle de quatre ans et demi pour l’intimé et qu’il avait de ce fait été incapable de postuler à des postes du secteur public correspondant à son niveau de carrière, soit notamment à celui de juge administratif fédéral ou de cadre. Son dommage s’élèverait ainsi à la somme de 40’000 fr., soit à la différence entre le salaire qu’il avait perçu entre 2017 et 2019 et celui d’un « juge au Tribunal administratif fédéral à 60% ou pour un emploi équivalent dans d’autres unités du secteur public à classe salariale comparable, cela pendant deux ans ». Subsidiairement, si la Cour de céans devait par impossible estimer que le dommage n’a pas été prouvé, le recourant requiert qu’elle le détermine équitablement sur la base des art. 42 al. 2 CO et 43 al. 1 CO. Enfin, il estime que l’autorité précédente aurait, de manière insoutenable, retenu qu’il n’avait ni allégué ni prouvé une incapacité de travail; si on le saisit bien, il prétend par-là avoir démontré l’existence d’un tort moral.

 Sans qu’il ne l’explicite, le recourant reproche à la cour cantonale d’avoir violé l’art. 328 CO. Avant d’examiner les mérites de ses critiques, il convient de rappeler certains principes juridiques. 

L’employeur a un devoir général d’assistance envers le travailleur dont les contours sont définis par les règles de la bonne foi ( Fürsorgepflicht; art. 2 al. 1 CC). Il s’explique par le lien de subordination qui caractérise cette relation contractuelle: le salarié doit observer les instructions qui lui sont données (art. 321d al. 2 CO) et faire preuve de diligence et de fidélité (art. 321a CO). En contrepartie, l’employeur lui doit assistance, protection et respect de sa personnalité (art. 328 CO; arrêt 4A_479/2020 du 30 août 2022 consid. 4.1 et les références citées). 

Les droits de la personnalité englobent l’ensemble des valeurs essentielles – physiques, affectives et sociales – liées à la personne humaine, notamment la vie, l’intégrité physique et psychique, l’honneur, la considération sociale et professionnelle (arrêts 4A_479/2020 précité consid. 4.1; 5A_612/2019 du 10 septembre 2021 consid. 6.1.2; 4A_610/2018 du 29 août 2019 consid. 5.1).

La violation des obligations prévues à l’art. 328 CO entraîne la responsabilité contractuelle (art. 97 ss CO) de l’employeur pour le préjudice matériel et/ou, aux conditions fixées par l’art. 49 al. 1 CO (cf. art. 99 al. 3 CO), pour le tort moral causé au travailleur (ATF 137 III 303 consid. 2.2.2; 130 III 699 consid. 5.1; arrêts 4A_51/2024 du 10 décembre 2024 consid. 5.3.1; 4A_610/2018 précité consid. 5.1).

L’art. 49 al. 1 CO prévoit que celui qui subit une atteinte illicite à sa personnalité a droit à une somme d’argent à titre de réparation morale, pour autant que la gravité de l’atteinte le justifie et que l’auteur ne lui ait pas donné satisfaction autrement; l’atteinte doit avoir une certaine gravité objective et avoir été ressentie par la victime, subjectivement, comme une souffrance morale suffisamment forte pour qu’il apparaisse légitime qu’une personne, dans ces circonstances, s’adresse au juge pour obtenir réparation. Savoir si une atteinte à la personnalité est suffisamment grave pour justifier l’allocation d’une telle somme dépend des circonstances du cas d’espèce. La fixation de l’indemnité pour tort moral est une question d’appréciation, de sorte que le Tribunal fédéral ne la revoit qu’avec retenue (ATF 137 III 303 consid. 2.2.2; 130 III 699 consid. 5.1; arrêt 4A_610/2018 précité consid. 5.1).

 Le recourant reproche à l’instance précédente d’avoir nié toute atteinte à sa personnalité. À l’appui de sa critique, il ne propose toutefois qu’une argumentation appellatoire, soit sa propre appréciation du dossier fondée sur des faits ne résultant pas de la décision querellée. Il en va ainsi de ses développements construits autour de l’affaire des  » Panama Papers « , puisqu’il ne ressort pas de l’arrêt cantonal que le nom de l’étude de l’intimé aurait été publiquement cité dans ce contexte, ni qu’une telle publication aurait concrètement atteint le recourant dans sa personnalité. À ce propos, l’affirmation du recourant selon laquelle l’intimé aurait favorisé un amalgame entre le recourant et le scandale en cause est insaisissable et manifestement infondée. Au demeurant, le recourant ne se conforme pas aux règles applicables en matière de complètement de l’était de fait pour requérir le constat des faits sur lesquels il construit sa critique ; il ne précise notamment pas où les faits en cause auraient été allégués conformément aux règles de la procédure; or, il n’appartient pas à la Cour de céans de les rechercher dans le dossier de la procédure cantonale. Ce pan de la critique est donc irrecevable. En l’absence de violation de l’art. 328 CO, toute responsabilité de l’intimé peut déjà être niée. 

Mais il y a plus. Le recourant critique également l’arrêt cantonal en tant qu’il nie l’existence d’un dommage. Dans ce contexte, sa critique prend à nouveau appui sur des faits non constatés. Il allègue avoir subi une perte de gain correspondant à la différence entre le salaire qu’il a perçu entre 2017 et 2019 et le salaire de juge administratif fédéral ou de cadre dans le secteur public qu’il aurait touché sans la violation contractuelle de l’intimé (qui n’est pas établie). Il ne saurait sérieusement en être question: le recourant n’apporte pas la moindre preuve qui accréditerait le fait qu’il aurait accédé à ces fonctions sans cette prétendue atteinte: en l’état, rien ne démontre que ces postes lui auraient été refusés en raison d’hypothétiques faits répréhensibles qu’il tente d’imputer à l’intimé. C’est donc sans arbitraire que la cour cantonale a jugé que l’existence d’un dommage n’était pas établie.

En ce qui concerne l’art. 42 al. 2 CO, dont le recourant requiert l’application, ce dernier ne démontre pas en quoi la cour cantonale l’aurait violé; et pour cause, son application ne devant intervenir que lorsqu’il est objectivement impossible pour le demandeur d’apporter la preuve stricte du dommage ou que l’on ne peut raisonnablement l’exiger (arrêts 4A_431/2015 du 19 avril 2016 consid. 5.1.2; 4A_709/2011 du 31 mai 2012 consid. 3.3.2), ce qui n’est manifestement pas le cas ici pour la perte de gain alléguée. Il s’ensuit que la preuve du dommage devait être apportée conformément à l’art. 42 al. 1 CO.

Enfin, s’agissant du tort moral, le recourant se contente d’affirmer que la cour cantonale aurait arbitrairement retenu qu’il n’avait ni allégué, ni prouvé une incapacité de travail. Sa critique ne répond manifestement pas aux exigences applicables en matière d’arbitraire, de sorte qu’elle s’avère irrecevable (cf. supra consid. 2.3). 

Il en résulte que le recourant échoue à démontrer que la cour cantonale aurait violé les art. 28a al. 3 CC, 42 al. 2 CO, 43 al. 1 CO, 49 CO, 55 CO et 328 CO; le grief tiré de la responsabilité de l’intimé ne peut ainsi qu’être rejeté dans la mesure de sa recevabilité.

(TF 4A_285/2024 du 7 juillet 2025, consid. 6)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Protection de la personnalité | Tagué , , | Laisser un commentaire

L’action en répétition de l’indu concernant le traitement du fonctionnaire

B.________ a été engagé à partir du 9 octobre 2023 en qualité de [***] à un taux de 100 %, à titre provisoire, au service C.________. Par courrier du 19 décembre 2023, il a fait part de sa démission au 28 février 2024. Les parties se sont mises d’accord pour qu’il quitte ses fonctions au 31 janvier 2024. Par courrier du 13 février 2024 le chef du service A.________ a fait part de l’accord de son service pour cette nouvelle date, a informé le prénommé qu’il avait présenté un nombre important d’absences injustifiées qui ont engendré un solde négatif de 113,99 heures, représentant un traitement de 3’228,30 francs (13ème salaire compris), a annexé un décompte des horaires et une facture permettant à l’intéressé de restituer le traitement perçu de manière illégitime. Celui-ci ne s’est pas exécuté dans le délai échéant au 15 mars 2024.

Le 22 mars 2024, le Service A.________ adresse à la Cour de droit public une action de droit administratif contre B.________ prenant pour conclusion sa condamnation à verser à l’Etat de Neuchâtel la somme de 3’228,30 francs avec intérêts à 5 % dès le dépôt de l’action et à ce qu’il soit statué sans frais.

Il peut arriver que l’administration verse une somme dont elle n’est pas redevable. Dans ce cas, elle peut se faire restituer la somme en question, tout comme en droit privé. L’action en répétition de l’indu est en effet considérée comme une institution générale du droit. Elle existe même lorsque la législation administrative applicable ne prévoit rien à son sujet (ATF 78 I 86 ; RJN 2003, p. 235 ; Moor, Droit administratif, vol. I, ch. 2.1.3.2, p. 59 ; Grisel, Traité de droit administratif, p. 619 ; Knapp, Précis de droit administratif, n. 756, p. 166 ; Schaer, Juridiction administrative neuchâteloise, p. 213).

En l’absence de dispositions légales topiques, la jurisprudence applique mutatis mutandis les règles des articles 62 ss CO (ATF 78 I 86 ; RJN 2003, p. 235). Selon l’article 62 CO, celui qui, sans cause légitime, s’est enrichi aux dépens d’autrui, est tenu à restitution (al.1). La restitution est due, en particulier, de ce qui a été reçu sans cause valable, en vertu d’une cause qui ne s’est pas réalisée, ou d’une cause qui a cessé d’exister (al. 2). L’enrichissement sans cause entraîne en principe l’obligation de restituer l’indu (art. 63 al.1 CO).

L’institution de l’enrichissement illégitime se présente dans une configuration particulière, lorsque l’illégitimité qui est invoquée réside dans l’illégalité d’une décision, entrée en force, qui fonde l’obligation exécutée. La prestation fournie en vertu d’une décision obligatoire n’est en effet pas dépourvue de cause valable. Les vices dont cette décision peut être entachée ne s’opposent pas à ce qu’elle soit exécutée. En principe, les prestations fournies sur sa base ne sont pas sujettes à répétition ; il n’en est autrement que si la décision est nulle, annulée à la suite d’un recours, révoquée, révisée ou levée par la loi. L’administration devra ainsi révoquer préalablement la décision sur laquelle son paiement est fondé, dans le délai de prescription de l’action en répétition, et elle ne peut le faire qu’à des conditions restrictives, surtout lorsqu’il est question de révoquer des décisions de prestations assorties d’effets durables. En outre, la révocation n’a en principe pas d’effet rétroactif (RJN 2010, p. 244 et les réf. cit.).

Dans le cas particulier, l’employeur a accepté que le défendeur quitte ses fonctions au 31 janvier 2024, en spécifiant au service A.________ qu’une retenue devrait être effectuée sur son dernier salaire du fait de ses absences injustifiées. Malgré cette indication, la collectivité a versé l’entier de son salaire au défendeur pour le mois de janvier 2024 comme attesté par le décompte de salaire de janvier 2024. Toutefois, s’estimant créancier de 113,99 heures non travaillées dues à des absences non justifiées de l’employé, la collectivité a partiellement révoqué le décompte précité par un nouveau document intitulé « décompte de salaire février 2024 » aux termes duquel il a retenu que ces heures représentaient un traitement de 3’228,30 francs (13ème salaire compris). Sur cette base, et conformément aux principes qui viennent d’être rappelés ci-dessus, A.________ a sollicité la restitution du traitement perçu de manière illégitime.

La décision d’engagement provisoire du 13 octobre 2023 mentionne que la personne engagée, empêchée de remplir sa fonction pour cause de maladie ou accident reçoit son traitement à 100 % pendant 180 jours. Il en résulte qu’en l’absence de maladie ou accident, la personne absente ne peut prétendre à être rémunérée. De plus, n’ayant pas agi dans le temps imparti, le défendeur doit être considéré comme admettant les allégués de la demande, si bien que la Cour de droit public peut rendre son jugement sur la base des pièces du dossier. Il ressort de ce dernier, soit notamment du décompte d’heures du 9 février 2024 relatif aux mois d’octobre 2023 à janvier 2024, que celui-ci a été régulièrement absent durant son engagement engendrant un solde négatif de 113,99 heures au 31 janvier 2024. Son absence de réaction permet de considérer qu’il admet que ce nombre d’heures représente un total de 3’328,30 francs. Vu l’absence de justification, il doit dès lors être condamné à restituer ce montant trop perçu à tort.

Selon la doctrine et la jurisprudence, les obligations pécuniaires de droit public donnent lieu, en règle générale, au paiement d’intérêts moratoires si le débiteur est en demeure (RJN 1995, p. 269 cons. 3 et les réf. ; arrêt du TA du 22.03.2000 [TA.1999.213]). Comme en droit privé, le débiteur doit avoir été mis en demeure par interpellation, ce qui a été le cas en l’espèce par lettre du 13 février 2024, de sorte que l’intérêt moratoire réclamé par le demandeur à partir du dépôt de la demande, le 22 mars 2024, doit être admis. C’est dès lors un montant de 3’328,30 francs, plus intérêts à 5 % dès le 22 mars 2024 que le défendeur doit être condamné à payer.

(Arrêt de la Cour de droit public du Tribunal cantonal [NE] CDP.2024.90 du 11.07.2025, consid. 2)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Fonction publique | Tagué , , , , | Laisser un commentaire

Gouvernance des données et rapports de travail

Quelques réflexions tirées de Veena Dubal, Data Laws at Work, Yale Law Journal (2025), pp. 405-447 (https://www.yalelawjournal.org/collection/reimagining-and-empowering-the-contemporary-workforce):

Introduction générale et thèse d’ensemble

L’essai part d’un constat : les technologies numériques les plus intrusives ne s’attaquent pas d’abord aux consommateurs mais aux travailleurs. Dans un nombre croissant de secteurs — transport, livraison, entrepôts, hôtellerie, propreté, santé, informatique, enseignement —, la gestion du personnel est numérisée, automatisée et, souvent, déléguée à des systèmes d’observation (automated monitoring systems, AMS) et de décision (automated decision-making systems, ADS). Ces outils remplacent parfois les managers humains dans des fonctions centrales : recrutement, allocation du travail, fixation (ou modulation) de la rémunération, évaluation, discipline et licenciement. Cette dynamique, d’abord expérimentée dans la « plateforme » (gig economy), s’est diffusée vers l’emploi plus traditionnel. L’Union européenne a réagi par un premier corpus normatif articulé autour du RGPD (2016), de l’AI Act (2024) et de la Platform Work Directive (PWD, 2024).

L’ambition de l’article est double : mesurer la pertinence de cette « première vague » et, à partir d’un contentieux stratégique conduit par des chauffeurs VTC, tirer des leçons pour une régulation future plus efficace. L’auteur soutient que, malgré des apports notables, le cadre européen demeure insuffisant pour deux raisons structurelles : d’une part, il traite les travailleurs comme des sujets « libéraux » autonomes alors qu’ils sont juridiquement subordonnés à l’employeur ; d’autre part, il mise prioritairement sur la transparence, sans répondre aux nouveaux dommages produits par la logique relationnelle des systèmes algorithmiques (rémunération, évaluation, rupture), dommages que le droit du travail positif ne saisit pas encore. D’où cette recommandation : passer d’un paradigme d’élucidation et d’évaluation à un paradigme de proscription ciblée des pratiques numériques génératrices de préjudice.

Cadre conceptuel : AMS, ADS et diffusion de « l’algorithmic management »

Le texte distingue les AMS, qui captent et agrègent des données comportementales et de performance (sur et parfois hors temps de travail), et les ADS, qui utilisent ces données pour prendre ou soutenir des décisions de gestion. Ces outils permettent la granularité fine, l’évaluation en continu et la modélisation probabiliste de comportements attendus. La situation emblématique est la « gestion par application » des plateformes, mais la méthode s’étend désormais à des emplois salariés classiques. L’auteur met en avant deux usages importants : la modulation algorithmique des salaires, qui personnalise prix et incitations (« wage manipulators », « upfront pricing », bonus différenciés), et l’évaluation/rupture automatisées (« deactivation ») qui peuvent évincer un salarié pour des scores ou seuils dynamiques difficiles à contester. Ces mécanismes, tout en respectant parfois la lettre des normes usuelles (planchers de salaire, anti-discrimination, cause du licenciement), en subvertissent l’esprit en installant l’incertitude et l’opacité au cœur du rapport salarial.

Première partie : la « première vague » européenne — promesses et angles morts

Le RGPD, droit pivot mais conçu pour des « personnes » plus que pour des « salariés »

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679)

Le RGPD, règlement à portée générale, s’applique aussi à l’emploi (art. 88) et confère des droits clés mobilisés par les travailleurs : droit d’accès et d’explication concernant l’existence et la logique des traitements et décisions automatisées (art. 15, 22), portabilité (art. 20) et obligation d’analyse d’impact pour les traitements à risques (art. 35). En pratique, ces droits devraient permettre de « connaître les règles » d’un atelier numérique : quelles données sont collectées, comment elles sont traitées, selon quelle logique s’opèrent l’allocation des tâches, l’évaluation, la fixation de la rémunération et les mesures disciplinaires. L’article rappelle toutefois que ces prérogatives, pensées pour des individus libres de consentir ou non, se heurtent dans l’emploi à une « illusion du consentement » et, plus concrètement, à des tactiques d’évitement : délivrance de données non exploitable en machine, rétention de catégories essentielles, invocations extensives du secret des affaires, « human in the loop » purement formel. L’auteur souligne la difficulté pratique pour un travailleur isolé de savoir si l’employeur a vraiment livré l’ensemble des données pertinentes, tant la chaîne de traitement est opaque ; elle relève aussi que la donnée brute est souvent inutile sans retraitement ou mise en forme statistique.

Au-delà de ces obstacles d’exécution, l’analyse pointe plusieurs ambiguïtés juridiques. D’abord, certaines entreprises soutiennent que la divulgation de la « logique » algorithmique porterait atteinte à des intérêts essentiels (concurrence, sécurité), ce qui conduit à des contentieux répétés autour de la portée concrète des articles 15 et 22. Ensuite, l’article montre que des interprétations restrictives de la notion de « données personnelles » excluent parfois des « données agrégées », alors même que ce sont précisément ces variables dérivées qui gouvernent l’allocation du travail et la rémunération dans une logique de comparaison dynamique entre pairs. Enfin, les analyses d’impact prévues par l’article 35 restent rares, rarement publiques et difficiles à auditer, faute de standards opérationnels clairs pour qualifier les atteintes à la santé, à la sécurité ou aux droits fondamentaux dans le contexte du travail.

L’AI Act : classification « high-risk », obligations à dominante fournisseur et interdit ciblé des IA manipulatrices

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689)

L’AI Act classe la plupart des usages de l’IA en milieu de travail comme « à haut risque ». Le texte impose aux « fournisseurs » d’IA de mettre en place des systèmes de gestion des risques couvrant tout le cycle de vie, des obligations de test, d’enregistrement et de surveillance post-commercialisation, et enjoint les « déployeurs » (employeurs utilisateurs) à suivre les instructions du fournisseur, assurer une supervision humaine, valider les données d’entrée et journaliser le fonctionnement. Sur le papier, cet édifice est substantiel ; en pratique, l’effort pèse surtout sur les fournisseurs, alors que ce sont les pratiques déployées in situ — c’est-à-dire par les employeurs — qui impactent directement les travailleurs. L’auteur insiste sur l’absence de balises opérationnelles pour mesurer des préjudices typiques du travail sous algorithme : baisse et imprévisibilité de la rémunération, intensification, stress, effets distributifs indirects. Elle attire aussi l’attention sur un interdit potentiellement décisif mais d’application incertaine : l’interdiction des systèmes visant à manipuler émotionnellement les personnes pour les pousser à des comportements indésirés ou à des décisions contraires à leur autonomie — un libellé qui, s’il était étendu au travail sous statut indépendant de plateforme, pourrait remettre en cause des dispositifs de « nudging » (surge, incitations « on the fly »), mais qui, dans l’emploi salarié, risquerait de se heurter au « pouvoir de direction » de l’employeur.

La Platform Work Directive : protections supplémentaires, interdictions ciblées et limites structurelles

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024L2831)

La directive « plateforme » (PWD) concentre, pour les personnes exécutant un travail via plateforme, des garanties renforcées — notamment des obligations d’information proactives sur les AMS/ADS et, surtout, des interdictions de certains traitements (données émotionnelles ou psychologiques, conversations privées, collecte hors temps de travail, inférence de croyances, opinions, orientation sexuelle, etc.). Elle prévoit aussi des analyses d’impact périodiques, à communiquer aux représentants des travailleurs. Ces avancées vont plus loin que le RGPD en basculant d’un droit « à actionner » par le travailleur vers des obligations positives de la plateforme. Mais l’autrice en montre les failles : ouverture possible pour des traitements « dépersonnalisés » par regroupement, tolérance de vérifications biométriques d’identité malgré des faux positifs différenciés, absence de prohibition des décisions automatisées dans les moments clés (embauche, rémunération, allocation, discipline, rupture), et risques d’« arbitrage définitionnel » tant sur le statut du travailleur que sur la qualification d’« entreprise de plateforme ». En d’autres termes, le meilleur de la PWD réside dans ses interdictions franches ; son pari central — transparence et évaluation — demeure fragile dès lors que les systèmes sont mouvants et que l’asymétrie d’information reste institutionnalisée.

Deuxième partie : replacer les « lois de la donnée » dans l’économie politique du travail

Le cœur de l’argument tient en une critique de perspective. Les régimes de données envisagent les « personnes » comme des sujets autonomes susceptibles de consentir à des traitements moyennant information et possibilité de retrait. Or, au travail, les individus ne sont pas des consommateurs : ils sont économiquement dépendants, légalement subordonnés et exposés au pouvoir disciplinaire — en Europe comme aux États-Unis, la doctrine du « pouvoir de direction » (ou « managerial prerogative ») et les critères de contrôle propres à la qualification d’emploi consacrent cette asymétrie. Dans ce contexte, déplacer la charge de l’initiative vers le salarié — demander ses données, les interpréter, contester les biais, provoquer la consultation — est, selon l’auteur, un pari peu réaliste, surtout pour les travailleurs à bas salaire qui n’ont ni les ressources ni l’expertise pour s’y engager seuls.

L’essai avance ensuite une thèse plus technique : les AMS/ADS ne reproduisent pas simplement la rationalité du taylorisme en la rendant opaque ; ils substituent à des règles objectives et stables une logique de « comparaison relationnelle » permanente. L’évaluation n’est plus la conformité d’un individu à une norme fixe mais sa position dynamique par rapport aux autres, avec des seuils mouvants et des objectifs itératifs. Cette architecture modifie le sens du « bon comportement » et pousse, une fois connue, à des comportements d’auto-exploitation qui alimentent une course vers le bas. L’autrice donne des exemples concrets : rémunérations horaires qui diminuent avec la durée travaillée, quotas et seuils de productivité ajustés au dernier quartile, bonus distribués de manière asynchrone entre les travailleurs, « updates » algorithmiques pour reconfigurer incitations et répartition des tâches. Le résultat est une incertitude systémique qui érode les liens classiques entre conformité aux règles, fidélité, effort et sécurité économique.

Troisième partie : le « test naturel » — contentieux WIE/ADCU contre Ola et Uber sous le RGPD

Contexte et stratégie procédurale

L’auteur retrace la genèse d’une stratégie de conquête des droits par la donnée : un contentieux de qualification au Royaume-Uni (Aslam/Farrar c. Uber) qui révèle l’ampleur du contrôle exercé par l’application et convainc les militants de la nécessité de « reprendre la main » sur la donnée. James Farrar fonde Worker Info Exchange (WIE), ONG qui dépose des demandes d’accès, de portabilité et d’explication/d’intervention humaine pour des chauffeurs au Royaume-Uni, aux Pays-Bas et au Portugal, souvent avec l’appui du syndicat App Drivers and Couriers Union (ADCU). L’objectif : comprendre les fondements des suspensions/« deactivations », recomposer l’historique de rémunération et débusquer la logique d’allocation et d’évaluation.

Affaire Ola : faire la lumière sur la « fraude » et la rupture

En 2020, WIE et l’ADCU agissent pour trois chauffeurs licenciés par Ola. Ils réclament, entre autres, les « fraud probability scores », les « earning profiles » et les règles d’allocation des courses. En appel, la cour d’Amsterdam leur donne largement raison : ces systèmes « affectent de manière significative » les travailleurs, relèvent de l’article 22 et appellent une véritable intervention humaine, non symbolique. La cour insiste sur l’authenticité du « human in the loop » et refuse l’argument consistant à requalifier les décisions comme « assistées » pour échapper au régime de l’article 22. Néanmoins, même après cette victoire, l’utilité concrète reste limitée : les documents produits (y compris la politique de confidentialité d’Ola, qui liste une kyrielle de facteurs — historiques d’acceptation/annulation, distance, préférences, type de véhicule, « fraude », etc.) ne permettent pas aux chauffeurs de reconstruire la pondération effective ni la dynamique des modèles ; ils ne fournissent pas, non plus, les moyens de distinguer la cause précise du préjudice vécu.

 Affaire Uber : comprendre l’allocation et la rémunération

Toujours avec WIE, huit chauffeurs réclament des explications sur le « batched matching system » (appariement conducteur-passager) et l’« upfront pricing system » (détermination différenciée du prix de base), afin de comprendre la fixation de la rémunération et la distribution des courses. Uber oppose le secret des affaires et le risque de contournement. La cour d’Amsterdam rejette cette ligne de défense : l’ampleur des effets sur les chauffeurs justifie la divulgation. Pourtant, malgré la décision d’avril 2023, Uber ne fournit pas l’information attendue et préfère payer des astreintes substantielles, ce qui illustre, selon l’auteur, les limites d’une réponse fondée sur la seule transparence lorsqu’elle se heurte à des avantages concurrentiels massifs et à des systèmes hautement évolutifs.

Enseignements tirés du contentieux : puissance probatoire, faiblesse réparatrice

L’auteur tire un double enseignement de ce qui précède. Sur le plan probatoire, ces affaires ont une grande valeur : elles rendent visible un degré de contrôle algorithmique difficilement contestable et nourrissent, en retour, les débats sur le statut d’emploi. Sur le plan réparateur, elles déçoivent : l’accès aux données et à certaines explications n’a ni stoppé les suspensions jugées arbitraires, ni atténué l’instabilité et l’iniquité des rémunérations individualisées. L’argument d’Uber — connaître les règles permettrait aux chauffeurs de « jouer » le système — révèle la nature relationnelle du contrôle : même si un travailleur retire un avantage individuel de l’information, la règle se reconfigure au niveau collectif et l’avantage s’évanouit. Ce constat milite pour une régulation substantielle des effets et non une simple « lumière » sur les processus.

Propositions normatives : de la transparence à la proscription

Au terme de l’analyse, l’auteur formule des orientations pratiques pour une « deuxième vague » de lois sur la donnée au travail, en restant dans le périmètre de l’essai.

Première orientation : recentrer les obligations sur l’employeur-déployeur. La transparence doit devenir une obligation positive et permanente du « déployeur » (employeur), et non un droit procédural que le salarié doit activer au risque de s’exposer à des représailles. Les DPIA devraient être régulières et publiques (ou au minimum auditables par un tiers indépendant), portées par l’entité qui utilise le système sur le lieu de travail. Les manquements devraient ouvrir non seulement à des actions publiques mais aussi à des voies d’action privées.

Deuxième orientation : étendre la surface des données et leur utilisabilité. Les définitions légales devraient englober explicitement les « données sociales » dérivées des données personnelles (banding/grouping) dès lors qu’elles gouvernent les décisions individuelles ; les livraisons devraient être en formats lisibles par machine ; les exceptions type « secret des affaires » devraient être encadrées pour ne pas vider les droits de leur substance.

Troisième orientation — la plus décisive : proscrire certaines pratiques et viser les résultats. L’auteur plaide pour renouer avec la grammaire matérielle du droit du travail : plutôt que d’exiger qu’une machine dangereuse soit expliquée, on fixe des standards de sécurité et on interdit certaines configurations ; plutôt que de « rendre transparentes » des rémunérations variables, on borne juridiquement l’amplitude et l’imprévisibilité ; plutôt que de requérir un « humain dans la boucle » sans critère de qualité, on prohibe l’usage exclusif d’ADS pour des décisions de rupture ou d’accès au travail et on densifie les garanties de procédure contradictoire. L’idée, clairement assumée, est de déplacer le centre de gravité vers l’interdiction des « wage manipulators » et des dispositifs d’allocation/évaluation dont les effets sont systématiquement incompatibles avec la sécurité d’emploi, la prévisibilité salariale et la dignité.

Portée et intérêt pour la pratique suisse

Même si la Suisse n’est pas membre de l’UE, l’alignement de la pratique des grandes plateformes, la circulation des technologies de gestion et l’influence normative européenne sur les chaînes transnationales rendent ces analyses directement pertinentes pour la pratique helvétique. Pour des employeurs actifs en Suisse qui déploient des AMS/ADS conçus dans l’UE, pour des travailleurs mobiles ou exposés à des systèmes transfrontières, et pour les autorités qui réfléchissent à l’adaptation des garanties de la LPD et des normes de droit du travail, la grille de lecture proposée aide à orienter le diagnostic : la transparence est nécessaire mais non suffisante ; les obligations doivent être placées sur le déployeur ; les analyses d’impact doivent être opérationnalisées par des référentiels de risques propres au travail ; et certaines pratiques doivent être encadrées, voire interdites, au nom d’objectifs matériels classiques en droit du travail.

Conclusion

L’essai de Veena Dubal propose une critique cohérente des « lois de la donnée » appliquées au travail dans leur état actuel. Il ne rejette ni la transparence ni l’évaluation d’impact ; il en expose la limite intrinsèque dans un univers de subordination juridique et d’algorithmes relationnels et évolutifs. En restituant précisément la lettre des régimes européens et en confrontant leur efficacité à un test contentieux réel, l’auteur esquisse une feuille de route pragmatique : transformer des droits procéduraux en obligations positives pour les employeurs-déployeurs ; élargir la définition et l’utilisabilité des données ; et, surtout, réintroduire des interdictions matérielles centrées sur les effets — rémunération imprévisible, intensification délétère, évaluations opaques, ruptures automatisées — afin de réaligner le gouvernement numérique du travail avec les finalités propres droit du travail : sécurité, prévisibilité, dignité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit collectif du travail, intelligence artificielle, nouvelle LPD, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire