Musique, intelligence artificielle et Large Language Models

Quelques éléments de réflexion tirés de D. Gervais, Observations on the Role of Copyright in Shaping Music Industry Use of Large Language Models (August 04, 2025). Intellect Handbook of Global Music Industries (Chris Anderton, editor), Available at SSRN: https://ssrn.com/abstract=5388435 or http://dx.doi.org/10.2139/ssrn.5388435):

Le droit, dans son essence, est un outil d’organisation sociale. Il fixe des règles qui orientent, encouragent ou limitent certaines activités humaines. Cette fonction est universelle : qu’il s’agisse de régir la circulation routière, les échanges commerciaux ou les créations artistiques, le droit établit un cadre dans lequel les comportements s’inscrivent.

Dans le domaine de la propriété intellectuelle, et en particulier du droit d’auteur, cette mission prend une forme spécifique. Les législateurs ont historiquement cherché à stimuler la création en accordant aux auteurs des droits exclusifs sur leurs œuvres. Ces droits, patrimoniaux et moraux, permettent aux créateurs de contrôler l’utilisation de leurs œuvres et d’en tirer un revenu, tout en prévoyant des sanctions dissuasives contre toute utilisation non autorisée.

Ce mécanisme repose sur un équilibre délicat. Trop de protection, trop longue ou trop large, peut freiner l’accès aux œuvres et limiter l’innovation ; trop peu de protection, et les créateurs peuvent être découragés de produire, faute de retour sur investissement. Cette question d’équilibre est d’autant plus cruciale que de nombreuses innovations se développent même en dehors du système de la propriété intellectuelle. Certaines naissent grâce à des mécanismes comme l’ingénierie inverse (reverse engineering), qui consiste à analyser un produit fini pour comprendre son fonctionnement, d’autres sont stimulées par la simple concurrence commerciale.

La musique est un terrain privilégié pour observer cette dynamique. Depuis plus d’un siècle, elle est protégée par le droit d’auteur, les droits voisins des artistes interprètes et des producteurs, et a vu ce cadre s’adapter à chaque grande mutation technologique : la radio, la télévision, les supports enregistrés, les services de streaming. Chaque innovation a apporté de nouvelles possibilités et de nouveaux défis, poussant le législateur à ajuster les droits exclusifs et les exceptions pour maintenir la vitalité du secteur.

Aujourd’hui, nous entrons dans une nouvelle ère : celle de l’intelligence artificielle générative et des grands modèles de langage appliqués à la musique. Ces systèmes peuvent composer des mélodies, écrire des paroles, transposer un morceau dans un autre style, ou imiter la « patte » d’un artiste. Leur particularité ? Ils n’ont aucune motivation humaine, aucun vécu, aucun ressenti ; leur « créativité » est le produit de calculs statistiques sur d’immenses bases de données musicales. C’est un bouleversement historique : pour la première fois depuis le Statute of Anne de 1710, fondateur du droit d’auteur moderne, la créativité non humaine devient une réalité concurrente à celle des auteurs humains.

Trois grandes questions émergent alors :

Peut-on légalement utiliser des catalogues musicaux protégés pour entraîner ces modèles ?

Les morceaux produits par ces systèmes peuvent-ils violer des droits d’auteur existants ?

Peut-on protéger, par le droit d’auteur, une œuvre créée par une machine ?

Pour répondre, l’auteur de l’article propose de commencer par un détour technique pour comprendre comment ces systèmes fonctionnent, puis d’analyser successivement chacune des trois questions, avant de conclure sur les implications à long terme pour la création musicale et la société.

Les dessous techniques des LLM musicaux

Un grand modèle de langage, ou LLM, est un système d’intelligence artificielle qui apprend à produire du contenu – texte, image, musique – en analysant d’énormes ensembles de données. Il fait partie de la famille de l’apprentissage automatique, où un algorithme « s’entraîne » en repérant des régularités dans les données qu’on lui fournit.

Dans le cas de la musique, l’entraînement commence par la copie intégrale de morceaux, qu’ils soient sous forme de partitions, d’enregistrements audio ou de fichiers MIDI. Cette copie n’est pas un simple accès : les œuvres sont téléchargées et stockées dans l’environnement technique du développeur. Elles sont ensuite « tokenisées » : découpées en petites unités – notes, accords, séquences rythmiques ou phonèmes pour les paroles – qui sont ensuite converties en valeurs numériques.

Ces tokens conservent entre eux des relations contextuelles : ce ne sont pas des morceaux isolés jetés pêle-mêle, mais des fragments reliés par des « fils invisibles » qui reflètent la structure et la logique de l’œuvre d’origine. C’est ce qui permet, lors de la génération, de reconstituer des séquences qui peuvent être très proches de l’original.

La tokenisation s’accompagne souvent de la suppression d’informations de gestion des droits (RMI), comme le nom de l’auteur ou l’éditeur. Or, cette suppression ou altération est réglementée par les traités internationaux, car elle peut faciliter des utilisations non autorisées.

Une fois entraîné, le modèle fonctionne comme un prédicteur : à partir d’un point de départ (une note, un accord, un mot), il calcule la suite la plus probable en se basant sur ce qu’il a appris. C’est ici qu’intervient l’humain via le « prompt » : une instruction plus ou moins précise qui oriente la production.

Le cadre juridique international

Le droit d’auteur protège les œuvres originales, qu’elles soient littéraires, artistiques ou musicales. Les droits patrimoniaux incluent le droit de reproduction, d’adaptation, de distribution, de communication au public. Les droits moraux permettent notamment de revendiquer la paternité de l’œuvre et de s’opposer à toute modification préjudiciable à l’honneur ou à la réputation de l’auteur.

La Convention de Berne, adoptée en 1886 et aujourd’hui forte de 181 membres, impose un socle commun de protection. L’Accord sur les ADPIC (TRIPS), intégré à l’OMC, rend ces obligations contraignantes et exécutoires. Le Traité OMPI de 1996 renforce la protection, notamment contre la suppression des RMI et le contournement des mesures techniques.

À côté de ces droits, les droits voisins protègent les interprètes et producteurs de phonogrammes. Ils ne sont pas identiques au droit d’auteur, mais offrent des prérogatives comparables pour la reproduction et la communication au public.

Entraîner une IA sur des œuvres protégées : légal ou pas ?

Le fait qu’une œuvre soit en ligne ne signifie pas qu’elle est libre de droits. En droit suisse comme en droit international, toute reproduction, même temporaire, nécessite une autorisation, sauf exception. L’entraînement d’un LLM implique de copier les œuvres dans leur intégralité, puis de les conserver sous forme tokenisée.

En Europe, la directive 2019 prévoit deux exceptions pour le text and data mining : l’une réservée à la recherche scientifique par des institutions habilitées, l’autre plus large mais assortie d’un droit d’opt-out pour les titulaires de droits. En Suisse, la loi sur le droit d’auteur contient depuis 2020 une exception pour la fouille de textes et de données, mais qui respecte les conditions et limitations imposées par les traités internationaux.

Aux États-Unis, l’incertitude règne : la doctrine du fair use pourrait, selon les circonstances, couvrir certains entraînements, mais aucun consensus jurisprudentiel clair ne s’est encore dégagé.

L’argument souvent avancé par les développeurs – que la tokenisation ne reproduirait que des « idées » et non des expressions – est réfuté : les tokens contiennent des éléments d’expression protégés. Comparer l’entraînement machine à l’apprentissage humain est trompeur, car l’humain assimile et transforme, tandis que la machine copie mécaniquement et stocke.

Les sorties d’un LLM : quand y a-t-il infraction ?

La question ici est classique : une œuvre générée reproduit-elle une partie substantielle d’une œuvre préexistante ? Cela inclut les copies exactes, mais aussi les adaptations, traductions ou arrangements.

Il existe un débat doctrinal sur la question de savoir si toute sortie d’un LLM, du fait qu’elle est influencée par les œuvres d’entraînement, est automatiquement une œuvre dérivée. Les juridictions, en Europe comme aux États-Unis, n’ont pas retenu cette approche globale. L’analyse se fait au cas par cas, selon la similarité substantielle et la preuve de l’accès aux œuvres originales.

Un auteur non humain peut-il exister ?

La réponse majoritaire est non. Depuis plus de trois siècles, le droit d’auteur protège les créations humaines. L’originalité, en Europe, se définit comme l’expression de la personnalité de l’auteur à travers des choix libres et créatifs. Aux États-Unis, la Cour suprême, dans l’affaire Feist, a confirmé que le droit d’auteur protège la créativité et non le simple travail ou investissement (« sweat of the brow »).

Les machines, aussi sophistiquées soient-elles, ne prennent pas de décisions créatives au sens juridique : elles appliquent des algorithmes pour optimiser une probabilité statistique. Les décisions récentes de l’US Copyright Office et de tribunaux fédéraux confirment que l’absence d’auteur humain empêche la protection.

La collaboration homme-machine

L’IA peut être un outil d’assistance : aider à trouver une mélodie, suggérer des paroles, optimiser une harmonie. Dans ce cas, si l’humain conserve un rôle créatif significatif et identifiable, l’œuvre peut rester protégée.

L’auteur propose un test : rechercher la cause « proche » de l’originalité. Si les éléments originaux sont imputables à l’humain, la protection s’applique ; si l’originalité est produite exclusivement par la machine, l’œuvre tombe dans le domaine public.

Cela suppose de séparer les apports fonctionnels ou aléatoires de la machine et de vérifier que l’humain a exercé un contrôle créatif réel. Cette approche rappelle les analyses faites en matière d’œuvres en collaboration ou de transformations d’œuvres du domaine public.

Perspectives et conclusion

Nous sommes entrés dans une ère où les « esprits artificiels » participent à la création musicale. Cette évolution présente des risques : remplacement progressif des auteurs humains, appauvrissement de la diversité culturelle, perte d’opportunités pour les nouvelles générations de créateurs.

L’auteur plaide pour un cadre clair : les œuvres purement générées par des machines doivent rester sans protection ; les créateurs doivent être rémunérés lorsque leurs œuvres sont utilisées pour entraîner des systèmes qui produisent des contenus concurrents ; la transparence sur la part de contenus IA dans les flux commerciaux doit être imposée.

En définitive, le droit d’auteur doit, comme il l’a toujours fait, s’adapter à la technologie pour préserver la valeur irremplaçable de la créativité humaine dans un paysage artistique où l’IA est désormais un acteur à part entière.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Panama Papers et protection de la personnalité de l’employé

Le recourant [avocat, collaborateur de l’employeur associé dans une Etude] invoque encore une violation des art. 28a al. 3 CC, 42 al. 2 CO, 43 al. 1 CO, 49 CO et 55 CO, qui résulterait d’un établissement arbitraire des faits: l’intimé [l’associé employeur] aurait porté atteinte à sa personnalité, puisque son étude aurait été associée à l’affaire des  » Panama Papers « ; ceci lui aurait causé un dommage ainsi qu’un tort moral. 

 Selon l’instance précédente, le recourant n’avait pas rendu vraisemblable un quelconque comportement répréhensible de l’employeur à son encontre, ni pendant la relation contractuelle, ni après celle-ci, de sorte qu’il fallait retenir qu’il n’y avait pas d’atteinte à sa personnalité au sens de l’art. 328 al. 1 CO. En particulier, le recourant n’était qu’un collaborateur subordonné dans l’étude qui, au demeurant, n’était pas organisée sous une forme intégrée. Ainsi, que l’étude ait par hypothèse été en charge de dossiers dévoilés par le scandale des  » Panama Papers  » ne signifiait pas encore que le recourant ait travaillé sur ces dossiers et que sa réputation ait été atteinte par ces révélations. Quant au dommage allégué par le recourant, correspondant à la différence entre son salaire effectif au moment des faits et celui auquel il aurait pu prétendre sans cette hypothétique atteinte, il n’avait pas démontré que ses chances sur le marché du travail avaient été réduites, singulièrement dans l’administration publique ou la magistrature, comme il l’alléguait. Dans ce contexte, il n’était pas suffisant d’affirmer qu’il aurait pu gagner 20’000 fr. de plus par an en exerçant dans le secteur public, spécifiquement en tant que juge au Tribunal administratif fédéral: postuler à cette fonction ne signifiait pas encore être élu à celle-ci. Le recourant n’avait en outre produit aucun document démontrant que sa candidature avait été écartée en raison de son activité antérieure dans l’étude de l’intimé; il affirmait au contraire avoir retiré lui-même sa postulation. S’agissant de son prétendu tort moral, le recourant n’en fournissait pas la moindre preuve; il n’alléguait d’ailleurs aucune incapacité de travail, ni traumatisme ou suivi médical. 

 En substance, la critique qu’adresse le recourant à l’arrêt cantonal peut être résumée en deux points: 

— D’une part, il reproche à l’instance précédente d’avoir nié toute atteinte à sa personnalité. Dénonçant un établissement arbitraire des faits, il prétend avoir prouvé à satisfaction en première instance que l’étude dont l’intimé était l’un des associés était très fortement impliquée dans le scandale des  » Panama Papers  » en 2016; son nom ressortait à ses dires plus de 150 fois dans les banques de données publiées dans ce contexte. L’intimé n’aurait par ailleurs pris aucune mesure pour protéger la personnalité du recourant, notamment pour éviter tout amalgame entre ce dernier et l’affaire en cause; il aurait même délibérément provoqué cette confusion. 

— D’autre part, le recourant fait valoir que la cour cantonale aurait, de manière arbitraire, nié qu’un dommage était établi. Il aurait pourtant démontré qu’en raison du scandale en cause, il avait été contraint de taire son expérience professionnelle de quatre ans et demi pour l’intimé et qu’il avait de ce fait été incapable de postuler à des postes du secteur public correspondant à son niveau de carrière, soit notamment à celui de juge administratif fédéral ou de cadre. Son dommage s’élèverait ainsi à la somme de 40’000 fr., soit à la différence entre le salaire qu’il avait perçu entre 2017 et 2019 et celui d’un « juge au Tribunal administratif fédéral à 60% ou pour un emploi équivalent dans d’autres unités du secteur public à classe salariale comparable, cela pendant deux ans ». Subsidiairement, si la Cour de céans devait par impossible estimer que le dommage n’a pas été prouvé, le recourant requiert qu’elle le détermine équitablement sur la base des art. 42 al. 2 CO et 43 al. 1 CO. Enfin, il estime que l’autorité précédente aurait, de manière insoutenable, retenu qu’il n’avait ni allégué ni prouvé une incapacité de travail; si on le saisit bien, il prétend par-là avoir démontré l’existence d’un tort moral.

 Sans qu’il ne l’explicite, le recourant reproche à la cour cantonale d’avoir violé l’art. 328 CO. Avant d’examiner les mérites de ses critiques, il convient de rappeler certains principes juridiques. 

L’employeur a un devoir général d’assistance envers le travailleur dont les contours sont définis par les règles de la bonne foi ( Fürsorgepflicht; art. 2 al. 1 CC). Il s’explique par le lien de subordination qui caractérise cette relation contractuelle: le salarié doit observer les instructions qui lui sont données (art. 321d al. 2 CO) et faire preuve de diligence et de fidélité (art. 321a CO). En contrepartie, l’employeur lui doit assistance, protection et respect de sa personnalité (art. 328 CO; arrêt 4A_479/2020 du 30 août 2022 consid. 4.1 et les références citées). 

Les droits de la personnalité englobent l’ensemble des valeurs essentielles – physiques, affectives et sociales – liées à la personne humaine, notamment la vie, l’intégrité physique et psychique, l’honneur, la considération sociale et professionnelle (arrêts 4A_479/2020 précité consid. 4.1; 5A_612/2019 du 10 septembre 2021 consid. 6.1.2; 4A_610/2018 du 29 août 2019 consid. 5.1).

La violation des obligations prévues à l’art. 328 CO entraîne la responsabilité contractuelle (art. 97 ss CO) de l’employeur pour le préjudice matériel et/ou, aux conditions fixées par l’art. 49 al. 1 CO (cf. art. 99 al. 3 CO), pour le tort moral causé au travailleur (ATF 137 III 303 consid. 2.2.2; 130 III 699 consid. 5.1; arrêts 4A_51/2024 du 10 décembre 2024 consid. 5.3.1; 4A_610/2018 précité consid. 5.1).

L’art. 49 al. 1 CO prévoit que celui qui subit une atteinte illicite à sa personnalité a droit à une somme d’argent à titre de réparation morale, pour autant que la gravité de l’atteinte le justifie et que l’auteur ne lui ait pas donné satisfaction autrement; l’atteinte doit avoir une certaine gravité objective et avoir été ressentie par la victime, subjectivement, comme une souffrance morale suffisamment forte pour qu’il apparaisse légitime qu’une personne, dans ces circonstances, s’adresse au juge pour obtenir réparation. Savoir si une atteinte à la personnalité est suffisamment grave pour justifier l’allocation d’une telle somme dépend des circonstances du cas d’espèce. La fixation de l’indemnité pour tort moral est une question d’appréciation, de sorte que le Tribunal fédéral ne la revoit qu’avec retenue (ATF 137 III 303 consid. 2.2.2; 130 III 699 consid. 5.1; arrêt 4A_610/2018 précité consid. 5.1).

 Le recourant reproche à l’instance précédente d’avoir nié toute atteinte à sa personnalité. À l’appui de sa critique, il ne propose toutefois qu’une argumentation appellatoire, soit sa propre appréciation du dossier fondée sur des faits ne résultant pas de la décision querellée. Il en va ainsi de ses développements construits autour de l’affaire des  » Panama Papers « , puisqu’il ne ressort pas de l’arrêt cantonal que le nom de l’étude de l’intimé aurait été publiquement cité dans ce contexte, ni qu’une telle publication aurait concrètement atteint le recourant dans sa personnalité. À ce propos, l’affirmation du recourant selon laquelle l’intimé aurait favorisé un amalgame entre le recourant et le scandale en cause est insaisissable et manifestement infondée. Au demeurant, le recourant ne se conforme pas aux règles applicables en matière de complètement de l’était de fait pour requérir le constat des faits sur lesquels il construit sa critique ; il ne précise notamment pas où les faits en cause auraient été allégués conformément aux règles de la procédure; or, il n’appartient pas à la Cour de céans de les rechercher dans le dossier de la procédure cantonale. Ce pan de la critique est donc irrecevable. En l’absence de violation de l’art. 328 CO, toute responsabilité de l’intimé peut déjà être niée. 

Mais il y a plus. Le recourant critique également l’arrêt cantonal en tant qu’il nie l’existence d’un dommage. Dans ce contexte, sa critique prend à nouveau appui sur des faits non constatés. Il allègue avoir subi une perte de gain correspondant à la différence entre le salaire qu’il a perçu entre 2017 et 2019 et le salaire de juge administratif fédéral ou de cadre dans le secteur public qu’il aurait touché sans la violation contractuelle de l’intimé (qui n’est pas établie). Il ne saurait sérieusement en être question: le recourant n’apporte pas la moindre preuve qui accréditerait le fait qu’il aurait accédé à ces fonctions sans cette prétendue atteinte: en l’état, rien ne démontre que ces postes lui auraient été refusés en raison d’hypothétiques faits répréhensibles qu’il tente d’imputer à l’intimé. C’est donc sans arbitraire que la cour cantonale a jugé que l’existence d’un dommage n’était pas établie.

En ce qui concerne l’art. 42 al. 2 CO, dont le recourant requiert l’application, ce dernier ne démontre pas en quoi la cour cantonale l’aurait violé; et pour cause, son application ne devant intervenir que lorsqu’il est objectivement impossible pour le demandeur d’apporter la preuve stricte du dommage ou que l’on ne peut raisonnablement l’exiger (arrêts 4A_431/2015 du 19 avril 2016 consid. 5.1.2; 4A_709/2011 du 31 mai 2012 consid. 3.3.2), ce qui n’est manifestement pas le cas ici pour la perte de gain alléguée. Il s’ensuit que la preuve du dommage devait être apportée conformément à l’art. 42 al. 1 CO.

Enfin, s’agissant du tort moral, le recourant se contente d’affirmer que la cour cantonale aurait arbitrairement retenu qu’il n’avait ni allégué, ni prouvé une incapacité de travail. Sa critique ne répond manifestement pas aux exigences applicables en matière d’arbitraire, de sorte qu’elle s’avère irrecevable (cf. supra consid. 2.3). 

Il en résulte que le recourant échoue à démontrer que la cour cantonale aurait violé les art. 28a al. 3 CC, 42 al. 2 CO, 43 al. 1 CO, 49 CO, 55 CO et 328 CO; le grief tiré de la responsabilité de l’intimé ne peut ainsi qu’être rejeté dans la mesure de sa recevabilité.

(TF 4A_285/2024 du 7 juillet 2025, consid. 6)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Protection de la personnalité | Tagué , , | Laisser un commentaire

L’action en répétition de l’indu concernant le traitement du fonctionnaire

B.________ a été engagé à partir du 9 octobre 2023 en qualité de [***] à un taux de 100 %, à titre provisoire, au service C.________. Par courrier du 19 décembre 2023, il a fait part de sa démission au 28 février 2024. Les parties se sont mises d’accord pour qu’il quitte ses fonctions au 31 janvier 2024. Par courrier du 13 février 2024 le chef du service A.________ a fait part de l’accord de son service pour cette nouvelle date, a informé le prénommé qu’il avait présenté un nombre important d’absences injustifiées qui ont engendré un solde négatif de 113,99 heures, représentant un traitement de 3’228,30 francs (13ème salaire compris), a annexé un décompte des horaires et une facture permettant à l’intéressé de restituer le traitement perçu de manière illégitime. Celui-ci ne s’est pas exécuté dans le délai échéant au 15 mars 2024.

Le 22 mars 2024, le Service A.________ adresse à la Cour de droit public une action de droit administratif contre B.________ prenant pour conclusion sa condamnation à verser à l’Etat de Neuchâtel la somme de 3’228,30 francs avec intérêts à 5 % dès le dépôt de l’action et à ce qu’il soit statué sans frais.

Il peut arriver que l’administration verse une somme dont elle n’est pas redevable. Dans ce cas, elle peut se faire restituer la somme en question, tout comme en droit privé. L’action en répétition de l’indu est en effet considérée comme une institution générale du droit. Elle existe même lorsque la législation administrative applicable ne prévoit rien à son sujet (ATF 78 I 86 ; RJN 2003, p. 235 ; Moor, Droit administratif, vol. I, ch. 2.1.3.2, p. 59 ; Grisel, Traité de droit administratif, p. 619 ; Knapp, Précis de droit administratif, n. 756, p. 166 ; Schaer, Juridiction administrative neuchâteloise, p. 213).

En l’absence de dispositions légales topiques, la jurisprudence applique mutatis mutandis les règles des articles 62 ss CO (ATF 78 I 86 ; RJN 2003, p. 235). Selon l’article 62 CO, celui qui, sans cause légitime, s’est enrichi aux dépens d’autrui, est tenu à restitution (al.1). La restitution est due, en particulier, de ce qui a été reçu sans cause valable, en vertu d’une cause qui ne s’est pas réalisée, ou d’une cause qui a cessé d’exister (al. 2). L’enrichissement sans cause entraîne en principe l’obligation de restituer l’indu (art. 63 al.1 CO).

L’institution de l’enrichissement illégitime se présente dans une configuration particulière, lorsque l’illégitimité qui est invoquée réside dans l’illégalité d’une décision, entrée en force, qui fonde l’obligation exécutée. La prestation fournie en vertu d’une décision obligatoire n’est en effet pas dépourvue de cause valable. Les vices dont cette décision peut être entachée ne s’opposent pas à ce qu’elle soit exécutée. En principe, les prestations fournies sur sa base ne sont pas sujettes à répétition ; il n’en est autrement que si la décision est nulle, annulée à la suite d’un recours, révoquée, révisée ou levée par la loi. L’administration devra ainsi révoquer préalablement la décision sur laquelle son paiement est fondé, dans le délai de prescription de l’action en répétition, et elle ne peut le faire qu’à des conditions restrictives, surtout lorsqu’il est question de révoquer des décisions de prestations assorties d’effets durables. En outre, la révocation n’a en principe pas d’effet rétroactif (RJN 2010, p. 244 et les réf. cit.).

Dans le cas particulier, l’employeur a accepté que le défendeur quitte ses fonctions au 31 janvier 2024, en spécifiant au service A.________ qu’une retenue devrait être effectuée sur son dernier salaire du fait de ses absences injustifiées. Malgré cette indication, la collectivité a versé l’entier de son salaire au défendeur pour le mois de janvier 2024 comme attesté par le décompte de salaire de janvier 2024. Toutefois, s’estimant créancier de 113,99 heures non travaillées dues à des absences non justifiées de l’employé, la collectivité a partiellement révoqué le décompte précité par un nouveau document intitulé « décompte de salaire février 2024 » aux termes duquel il a retenu que ces heures représentaient un traitement de 3’228,30 francs (13ème salaire compris). Sur cette base, et conformément aux principes qui viennent d’être rappelés ci-dessus, A.________ a sollicité la restitution du traitement perçu de manière illégitime.

La décision d’engagement provisoire du 13 octobre 2023 mentionne que la personne engagée, empêchée de remplir sa fonction pour cause de maladie ou accident reçoit son traitement à 100 % pendant 180 jours. Il en résulte qu’en l’absence de maladie ou accident, la personne absente ne peut prétendre à être rémunérée. De plus, n’ayant pas agi dans le temps imparti, le défendeur doit être considéré comme admettant les allégués de la demande, si bien que la Cour de droit public peut rendre son jugement sur la base des pièces du dossier. Il ressort de ce dernier, soit notamment du décompte d’heures du 9 février 2024 relatif aux mois d’octobre 2023 à janvier 2024, que celui-ci a été régulièrement absent durant son engagement engendrant un solde négatif de 113,99 heures au 31 janvier 2024. Son absence de réaction permet de considérer qu’il admet que ce nombre d’heures représente un total de 3’328,30 francs. Vu l’absence de justification, il doit dès lors être condamné à restituer ce montant trop perçu à tort.

Selon la doctrine et la jurisprudence, les obligations pécuniaires de droit public donnent lieu, en règle générale, au paiement d’intérêts moratoires si le débiteur est en demeure (RJN 1995, p. 269 cons. 3 et les réf. ; arrêt du TA du 22.03.2000 [TA.1999.213]). Comme en droit privé, le débiteur doit avoir été mis en demeure par interpellation, ce qui a été le cas en l’espèce par lettre du 13 février 2024, de sorte que l’intérêt moratoire réclamé par le demandeur à partir du dépôt de la demande, le 22 mars 2024, doit être admis. C’est dès lors un montant de 3’328,30 francs, plus intérêts à 5 % dès le 22 mars 2024 que le défendeur doit être condamné à payer.

(Arrêt de la Cour de droit public du Tribunal cantonal [NE] CDP.2024.90 du 11.07.2025, consid. 2)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Fonction publique | Tagué , , , , | Laisser un commentaire

Gouvernance des données et rapports de travail

Quelques réflexions tirées de Veena Dubal, Data Laws at Work, Yale Law Journal (2025), pp. 405-447 (https://www.yalelawjournal.org/collection/reimagining-and-empowering-the-contemporary-workforce):

Introduction générale et thèse d’ensemble

L’essai part d’un constat : les technologies numériques les plus intrusives ne s’attaquent pas d’abord aux consommateurs mais aux travailleurs. Dans un nombre croissant de secteurs — transport, livraison, entrepôts, hôtellerie, propreté, santé, informatique, enseignement —, la gestion du personnel est numérisée, automatisée et, souvent, déléguée à des systèmes d’observation (automated monitoring systems, AMS) et de décision (automated decision-making systems, ADS). Ces outils remplacent parfois les managers humains dans des fonctions centrales : recrutement, allocation du travail, fixation (ou modulation) de la rémunération, évaluation, discipline et licenciement. Cette dynamique, d’abord expérimentée dans la « plateforme » (gig economy), s’est diffusée vers l’emploi plus traditionnel. L’Union européenne a réagi par un premier corpus normatif articulé autour du RGPD (2016), de l’AI Act (2024) et de la Platform Work Directive (PWD, 2024).

L’ambition de l’article est double : mesurer la pertinence de cette « première vague » et, à partir d’un contentieux stratégique conduit par des chauffeurs VTC, tirer des leçons pour une régulation future plus efficace. L’auteur soutient que, malgré des apports notables, le cadre européen demeure insuffisant pour deux raisons structurelles : d’une part, il traite les travailleurs comme des sujets « libéraux » autonomes alors qu’ils sont juridiquement subordonnés à l’employeur ; d’autre part, il mise prioritairement sur la transparence, sans répondre aux nouveaux dommages produits par la logique relationnelle des systèmes algorithmiques (rémunération, évaluation, rupture), dommages que le droit du travail positif ne saisit pas encore. D’où cette recommandation : passer d’un paradigme d’élucidation et d’évaluation à un paradigme de proscription ciblée des pratiques numériques génératrices de préjudice.

Cadre conceptuel : AMS, ADS et diffusion de « l’algorithmic management »

Le texte distingue les AMS, qui captent et agrègent des données comportementales et de performance (sur et parfois hors temps de travail), et les ADS, qui utilisent ces données pour prendre ou soutenir des décisions de gestion. Ces outils permettent la granularité fine, l’évaluation en continu et la modélisation probabiliste de comportements attendus. La situation emblématique est la « gestion par application » des plateformes, mais la méthode s’étend désormais à des emplois salariés classiques. L’auteur met en avant deux usages importants : la modulation algorithmique des salaires, qui personnalise prix et incitations (« wage manipulators », « upfront pricing », bonus différenciés), et l’évaluation/rupture automatisées (« deactivation ») qui peuvent évincer un salarié pour des scores ou seuils dynamiques difficiles à contester. Ces mécanismes, tout en respectant parfois la lettre des normes usuelles (planchers de salaire, anti-discrimination, cause du licenciement), en subvertissent l’esprit en installant l’incertitude et l’opacité au cœur du rapport salarial.

Première partie : la « première vague » européenne — promesses et angles morts

Le RGPD, droit pivot mais conçu pour des « personnes » plus que pour des « salariés »

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679)

Le RGPD, règlement à portée générale, s’applique aussi à l’emploi (art. 88) et confère des droits clés mobilisés par les travailleurs : droit d’accès et d’explication concernant l’existence et la logique des traitements et décisions automatisées (art. 15, 22), portabilité (art. 20) et obligation d’analyse d’impact pour les traitements à risques (art. 35). En pratique, ces droits devraient permettre de « connaître les règles » d’un atelier numérique : quelles données sont collectées, comment elles sont traitées, selon quelle logique s’opèrent l’allocation des tâches, l’évaluation, la fixation de la rémunération et les mesures disciplinaires. L’article rappelle toutefois que ces prérogatives, pensées pour des individus libres de consentir ou non, se heurtent dans l’emploi à une « illusion du consentement » et, plus concrètement, à des tactiques d’évitement : délivrance de données non exploitable en machine, rétention de catégories essentielles, invocations extensives du secret des affaires, « human in the loop » purement formel. L’auteur souligne la difficulté pratique pour un travailleur isolé de savoir si l’employeur a vraiment livré l’ensemble des données pertinentes, tant la chaîne de traitement est opaque ; elle relève aussi que la donnée brute est souvent inutile sans retraitement ou mise en forme statistique.

Au-delà de ces obstacles d’exécution, l’analyse pointe plusieurs ambiguïtés juridiques. D’abord, certaines entreprises soutiennent que la divulgation de la « logique » algorithmique porterait atteinte à des intérêts essentiels (concurrence, sécurité), ce qui conduit à des contentieux répétés autour de la portée concrète des articles 15 et 22. Ensuite, l’article montre que des interprétations restrictives de la notion de « données personnelles » excluent parfois des « données agrégées », alors même que ce sont précisément ces variables dérivées qui gouvernent l’allocation du travail et la rémunération dans une logique de comparaison dynamique entre pairs. Enfin, les analyses d’impact prévues par l’article 35 restent rares, rarement publiques et difficiles à auditer, faute de standards opérationnels clairs pour qualifier les atteintes à la santé, à la sécurité ou aux droits fondamentaux dans le contexte du travail.

L’AI Act : classification « high-risk », obligations à dominante fournisseur et interdit ciblé des IA manipulatrices

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689)

L’AI Act classe la plupart des usages de l’IA en milieu de travail comme « à haut risque ». Le texte impose aux « fournisseurs » d’IA de mettre en place des systèmes de gestion des risques couvrant tout le cycle de vie, des obligations de test, d’enregistrement et de surveillance post-commercialisation, et enjoint les « déployeurs » (employeurs utilisateurs) à suivre les instructions du fournisseur, assurer une supervision humaine, valider les données d’entrée et journaliser le fonctionnement. Sur le papier, cet édifice est substantiel ; en pratique, l’effort pèse surtout sur les fournisseurs, alors que ce sont les pratiques déployées in situ — c’est-à-dire par les employeurs — qui impactent directement les travailleurs. L’auteur insiste sur l’absence de balises opérationnelles pour mesurer des préjudices typiques du travail sous algorithme : baisse et imprévisibilité de la rémunération, intensification, stress, effets distributifs indirects. Elle attire aussi l’attention sur un interdit potentiellement décisif mais d’application incertaine : l’interdiction des systèmes visant à manipuler émotionnellement les personnes pour les pousser à des comportements indésirés ou à des décisions contraires à leur autonomie — un libellé qui, s’il était étendu au travail sous statut indépendant de plateforme, pourrait remettre en cause des dispositifs de « nudging » (surge, incitations « on the fly »), mais qui, dans l’emploi salarié, risquerait de se heurter au « pouvoir de direction » de l’employeur.

La Platform Work Directive : protections supplémentaires, interdictions ciblées et limites structurelles

(https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024L2831)

La directive « plateforme » (PWD) concentre, pour les personnes exécutant un travail via plateforme, des garanties renforcées — notamment des obligations d’information proactives sur les AMS/ADS et, surtout, des interdictions de certains traitements (données émotionnelles ou psychologiques, conversations privées, collecte hors temps de travail, inférence de croyances, opinions, orientation sexuelle, etc.). Elle prévoit aussi des analyses d’impact périodiques, à communiquer aux représentants des travailleurs. Ces avancées vont plus loin que le RGPD en basculant d’un droit « à actionner » par le travailleur vers des obligations positives de la plateforme. Mais l’autrice en montre les failles : ouverture possible pour des traitements « dépersonnalisés » par regroupement, tolérance de vérifications biométriques d’identité malgré des faux positifs différenciés, absence de prohibition des décisions automatisées dans les moments clés (embauche, rémunération, allocation, discipline, rupture), et risques d’« arbitrage définitionnel » tant sur le statut du travailleur que sur la qualification d’« entreprise de plateforme ». En d’autres termes, le meilleur de la PWD réside dans ses interdictions franches ; son pari central — transparence et évaluation — demeure fragile dès lors que les systèmes sont mouvants et que l’asymétrie d’information reste institutionnalisée.

Deuxième partie : replacer les « lois de la donnée » dans l’économie politique du travail

Le cœur de l’argument tient en une critique de perspective. Les régimes de données envisagent les « personnes » comme des sujets autonomes susceptibles de consentir à des traitements moyennant information et possibilité de retrait. Or, au travail, les individus ne sont pas des consommateurs : ils sont économiquement dépendants, légalement subordonnés et exposés au pouvoir disciplinaire — en Europe comme aux États-Unis, la doctrine du « pouvoir de direction » (ou « managerial prerogative ») et les critères de contrôle propres à la qualification d’emploi consacrent cette asymétrie. Dans ce contexte, déplacer la charge de l’initiative vers le salarié — demander ses données, les interpréter, contester les biais, provoquer la consultation — est, selon l’auteur, un pari peu réaliste, surtout pour les travailleurs à bas salaire qui n’ont ni les ressources ni l’expertise pour s’y engager seuls.

L’essai avance ensuite une thèse plus technique : les AMS/ADS ne reproduisent pas simplement la rationalité du taylorisme en la rendant opaque ; ils substituent à des règles objectives et stables une logique de « comparaison relationnelle » permanente. L’évaluation n’est plus la conformité d’un individu à une norme fixe mais sa position dynamique par rapport aux autres, avec des seuils mouvants et des objectifs itératifs. Cette architecture modifie le sens du « bon comportement » et pousse, une fois connue, à des comportements d’auto-exploitation qui alimentent une course vers le bas. L’autrice donne des exemples concrets : rémunérations horaires qui diminuent avec la durée travaillée, quotas et seuils de productivité ajustés au dernier quartile, bonus distribués de manière asynchrone entre les travailleurs, « updates » algorithmiques pour reconfigurer incitations et répartition des tâches. Le résultat est une incertitude systémique qui érode les liens classiques entre conformité aux règles, fidélité, effort et sécurité économique.

Troisième partie : le « test naturel » — contentieux WIE/ADCU contre Ola et Uber sous le RGPD

Contexte et stratégie procédurale

L’auteur retrace la genèse d’une stratégie de conquête des droits par la donnée : un contentieux de qualification au Royaume-Uni (Aslam/Farrar c. Uber) qui révèle l’ampleur du contrôle exercé par l’application et convainc les militants de la nécessité de « reprendre la main » sur la donnée. James Farrar fonde Worker Info Exchange (WIE), ONG qui dépose des demandes d’accès, de portabilité et d’explication/d’intervention humaine pour des chauffeurs au Royaume-Uni, aux Pays-Bas et au Portugal, souvent avec l’appui du syndicat App Drivers and Couriers Union (ADCU). L’objectif : comprendre les fondements des suspensions/« deactivations », recomposer l’historique de rémunération et débusquer la logique d’allocation et d’évaluation.

Affaire Ola : faire la lumière sur la « fraude » et la rupture

En 2020, WIE et l’ADCU agissent pour trois chauffeurs licenciés par Ola. Ils réclament, entre autres, les « fraud probability scores », les « earning profiles » et les règles d’allocation des courses. En appel, la cour d’Amsterdam leur donne largement raison : ces systèmes « affectent de manière significative » les travailleurs, relèvent de l’article 22 et appellent une véritable intervention humaine, non symbolique. La cour insiste sur l’authenticité du « human in the loop » et refuse l’argument consistant à requalifier les décisions comme « assistées » pour échapper au régime de l’article 22. Néanmoins, même après cette victoire, l’utilité concrète reste limitée : les documents produits (y compris la politique de confidentialité d’Ola, qui liste une kyrielle de facteurs — historiques d’acceptation/annulation, distance, préférences, type de véhicule, « fraude », etc.) ne permettent pas aux chauffeurs de reconstruire la pondération effective ni la dynamique des modèles ; ils ne fournissent pas, non plus, les moyens de distinguer la cause précise du préjudice vécu.

 Affaire Uber : comprendre l’allocation et la rémunération

Toujours avec WIE, huit chauffeurs réclament des explications sur le « batched matching system » (appariement conducteur-passager) et l’« upfront pricing system » (détermination différenciée du prix de base), afin de comprendre la fixation de la rémunération et la distribution des courses. Uber oppose le secret des affaires et le risque de contournement. La cour d’Amsterdam rejette cette ligne de défense : l’ampleur des effets sur les chauffeurs justifie la divulgation. Pourtant, malgré la décision d’avril 2023, Uber ne fournit pas l’information attendue et préfère payer des astreintes substantielles, ce qui illustre, selon l’auteur, les limites d’une réponse fondée sur la seule transparence lorsqu’elle se heurte à des avantages concurrentiels massifs et à des systèmes hautement évolutifs.

Enseignements tirés du contentieux : puissance probatoire, faiblesse réparatrice

L’auteur tire un double enseignement de ce qui précède. Sur le plan probatoire, ces affaires ont une grande valeur : elles rendent visible un degré de contrôle algorithmique difficilement contestable et nourrissent, en retour, les débats sur le statut d’emploi. Sur le plan réparateur, elles déçoivent : l’accès aux données et à certaines explications n’a ni stoppé les suspensions jugées arbitraires, ni atténué l’instabilité et l’iniquité des rémunérations individualisées. L’argument d’Uber — connaître les règles permettrait aux chauffeurs de « jouer » le système — révèle la nature relationnelle du contrôle : même si un travailleur retire un avantage individuel de l’information, la règle se reconfigure au niveau collectif et l’avantage s’évanouit. Ce constat milite pour une régulation substantielle des effets et non une simple « lumière » sur les processus.

Propositions normatives : de la transparence à la proscription

Au terme de l’analyse, l’auteur formule des orientations pratiques pour une « deuxième vague » de lois sur la donnée au travail, en restant dans le périmètre de l’essai.

Première orientation : recentrer les obligations sur l’employeur-déployeur. La transparence doit devenir une obligation positive et permanente du « déployeur » (employeur), et non un droit procédural que le salarié doit activer au risque de s’exposer à des représailles. Les DPIA devraient être régulières et publiques (ou au minimum auditables par un tiers indépendant), portées par l’entité qui utilise le système sur le lieu de travail. Les manquements devraient ouvrir non seulement à des actions publiques mais aussi à des voies d’action privées.

Deuxième orientation : étendre la surface des données et leur utilisabilité. Les définitions légales devraient englober explicitement les « données sociales » dérivées des données personnelles (banding/grouping) dès lors qu’elles gouvernent les décisions individuelles ; les livraisons devraient être en formats lisibles par machine ; les exceptions type « secret des affaires » devraient être encadrées pour ne pas vider les droits de leur substance.

Troisième orientation — la plus décisive : proscrire certaines pratiques et viser les résultats. L’auteur plaide pour renouer avec la grammaire matérielle du droit du travail : plutôt que d’exiger qu’une machine dangereuse soit expliquée, on fixe des standards de sécurité et on interdit certaines configurations ; plutôt que de « rendre transparentes » des rémunérations variables, on borne juridiquement l’amplitude et l’imprévisibilité ; plutôt que de requérir un « humain dans la boucle » sans critère de qualité, on prohibe l’usage exclusif d’ADS pour des décisions de rupture ou d’accès au travail et on densifie les garanties de procédure contradictoire. L’idée, clairement assumée, est de déplacer le centre de gravité vers l’interdiction des « wage manipulators » et des dispositifs d’allocation/évaluation dont les effets sont systématiquement incompatibles avec la sécurité d’emploi, la prévisibilité salariale et la dignité.

Portée et intérêt pour la pratique suisse

Même si la Suisse n’est pas membre de l’UE, l’alignement de la pratique des grandes plateformes, la circulation des technologies de gestion et l’influence normative européenne sur les chaînes transnationales rendent ces analyses directement pertinentes pour la pratique helvétique. Pour des employeurs actifs en Suisse qui déploient des AMS/ADS conçus dans l’UE, pour des travailleurs mobiles ou exposés à des systèmes transfrontières, et pour les autorités qui réfléchissent à l’adaptation des garanties de la LPD et des normes de droit du travail, la grille de lecture proposée aide à orienter le diagnostic : la transparence est nécessaire mais non suffisante ; les obligations doivent être placées sur le déployeur ; les analyses d’impact doivent être opérationnalisées par des référentiels de risques propres au travail ; et certaines pratiques doivent être encadrées, voire interdites, au nom d’objectifs matériels classiques en droit du travail.

Conclusion

L’essai de Veena Dubal propose une critique cohérente des « lois de la donnée » appliquées au travail dans leur état actuel. Il ne rejette ni la transparence ni l’évaluation d’impact ; il en expose la limite intrinsèque dans un univers de subordination juridique et d’algorithmes relationnels et évolutifs. En restituant précisément la lettre des régimes européens et en confrontant leur efficacité à un test contentieux réel, l’auteur esquisse une feuille de route pragmatique : transformer des droits procéduraux en obligations positives pour les employeurs-déployeurs ; élargir la définition et l’utilisabilité des données ; et, surtout, réintroduire des interdictions matérielles centrées sur les effets — rémunération imprévisible, intensification délétère, évaluations opaques, ruptures automatisées — afin de réaligner le gouvernement numérique du travail avec les finalités propres droit du travail : sécurité, prévisibilité, dignité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit collectif du travail, intelligence artificielle, nouvelle LPD, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

Les données des employés comme capital capté par les employeurs

Quelques réflexions tirées d’Ifeoma Ajunwa, AI and Captured Capital, Yale Law Journal (2025), pp. 372-404 (https://www.yalelawjournal.org/collection/reimagining-and-empowering-the-contemporary-workforce):

L’auteur analyse la manière dont l’intelligence artificielle et les systèmes automatisés transforment la relation de travail en instaurant une collecte et une exploitation systématiques des données issues de l’activité des travailleurs. Elle désigne ce phénomène par le terme de « captured capital », c’est-à-dire un capital prélevé sur les travailleurs par l’extraction de données qu’ils produisent, souvent sans consentement véritable, et qui est ensuite exploité pour optimiser les processus, former des systèmes automatisés et, à terme, remplacer ces mêmes travailleurs. Ce capital est « capté » ([je dirais plutôt confisqué…]) car il est recueilli dans un contexte de dépendance économique qui laisse peu de marge de refus, et il est un « capital » car il possède à la fois une valeur inhérente – en permettant l’amélioration de la productivité ou l’innovation organisationnelle – et une valeur d’échange – par sa revente à des courtiers en données pour des usages divers.

Pour illustrer ce phénomène, Ajunwa évoque d’abord le recours à des travailleurs kényans chargés de labelliser du contenu toxique destiné à l’entraînement d’un LLM. Leur rémunération, dérisoire au regard de la valeur créée, contraste avec la valorisation considérable du donneur d’ordre. Elle décrit également la situation des acteurs et figurants d’Hollywood, soumis à des scans corporels détaillés par les studios en vue de créer des doubles numériques dont l’usage futur n’est pas précisé, ce qui suscite la crainte d’une substitution pure et simple de leur travail par des avatars. Ces exemples, bien que très différents, traduisent la même logique : la valeur issue du travail humain est transformée en données réutilisables qui enrichissent le capital informationnel des entreprises et renforcent leur capacité à automatiser.

Ajunwa souligne que cette dynamique s’inscrit dans un contexte général de développement accéléré de l’IA, encouragé par une approche de laissez-faire et par la course mondiale aux technologies. Cette compétition, à la fois entre États et entre entreprises, privilégie la rapidité et l’efficacité, relègue au second plan les considérations de justice sociale et laisse se développer des formes de taylorisme algorithmique où chaque aspect de l’activité – rendement, gestes, états physiques et émotionnels – est mesuré et quantifié. L’absence de régulation internationale contraignante [ce qui est à nuancer…] et l’existence d’un marché du travail globalisé permettent de délocaliser des tâches intensives en main-d’œuvre dans des pays à faible protection sociale, tout en exploitant les données ainsi produites pour automatiser ailleurs.

L’auteur insiste sur le fait que les données générées par les travailleurs doivent être envisagées comme un actif durable et réutilisable, comparable à un facteur de production au même titre que les machines ou le capital financier. Sans l’apport de leur travail, il n’existerait pas de matière première informationnelle pour entraîner les systèmes automatisés ou améliorer les processus. Elle mobilise plusieurs fondements juridiques pour soutenir que les travailleurs devraient disposer de droits sur ces données. D’un point de vue de droit naturel, la théorie lockéenne de l’appropriation par le travail justifie que le fruit de l’activité appartienne à celui qui l’a produite. Des textes récents, comme le California Consumer Privacy Act et son amendement par le California Privacy Rights Act, reconnaissent aux travailleurs des droits d’information, d’accès, de rectification et d’opposition concernant leurs données, ce qui implique une forme de reconnaissance de leur légitimité. L’analogie avec la notion de « fiduciaire de l’information » suggère également que l’employeur, dépositaire de ces données, devrait avoir des obligations de loyauté et de diligence envers leurs producteurs.

Ajunwa répond aux objections inspirées du droit de la propriété intellectuelle, notamment la doctrine du « work for hire » ou l’obligation implicite de cession de brevets, en rappelant que ces régimes visent des œuvres ou inventions achevées, et non les données brutes ou intermédiaires issues du processus de production. Elle estime que le droit des sociétés, qui reconnaît la contribution des parties prenantes en capital humain et intellectuel, soutient l’idée que les données produites constituent un investissement des travailleurs dans l’entreprise, lequel ne devrait pas les priver de tout droit de propriété ou de contrôle.

L’analyse est élargie par une approche en termes de droit, de politique et d’économie. Le mouvement Law and Political Economy met en évidence que la neutralité proclamée des pouvoirs publics a en réalité permis aux entreprises de structurer leurs activités dans un sens défavorable aux travailleurs, et que l’argument de l’efficience masque des déséquilibres de pouvoir croissants. Dans le cas de la captation de capital-données, l’absence d’intervention publique favorise une optimisation des structures pour extraire le maximum de valeur des données, sans redistribution ni mécanismes correctifs.

Les effets sur l’emploi sont multiples et concernent désormais des métiers qualifiés et créatifs, comme l’illustre la capacité de LLMs à générer du code, qui a conduit certaines entreprises à réduire leurs effectifs de développeurs. Les prévisions de cabinets comme Goldman Sachs ou McKinsey annoncent des taux d’automatisation élevés d’ici 2030, notamment dans les professions scientifiques, techniques, juridiques ou commerciales. Par ailleurs, les technologies de suivi de productivité, incluant des capteurs et des dispositifs portés par les travailleurs, servent à la fois à optimiser le travail en temps réel et à collecter des données pour entraîner les systèmes qui, à terme, remplaceront ces mêmes travailleurs.

Face à ce constat, Ajunwa formule trois pistes de réforme. La première consiste à traiter les données des travailleurs comme une mise de capital dans les processus d’automatisation, leur donnant droit à une part des gains générés. La deuxième vise à instaurer un régime de licences permettant aux travailleurs de concéder l’usage de leurs données à des conditions négociées, individuellement ou collectivement, à l’image des contrats encadrant l’exploitation de l’image ou de la voix d’un artiste. La troisième prévoit de contraindre les entreprises utilisant ces données à contribuer à un fonds finançant un revenu garanti pour les travailleurs déplacés, fonds qui pourrait être administré par l’Organisation internationale du travail ou par une autre structure internationale.

L’auteur ne nie pas les difficultés pratiques de ces modèles, qu’il s’agisse de mesurer la valeur exacte des données, de coordonner les régimes juridiques nationaux ou d’assurer une gouvernance efficace. Elle soutient néanmoins qu’ils ont en commun de redonner aux travailleurs un contrôle et un bénéfice sur les actifs qu’ils génèrent, de corriger en partie le déséquilibre de pouvoir et de limiter les effets négatifs de l’automatisation rapide. Elle conclut en avertissant que, sans encadrement légal, la trajectoire actuelle mène vers un modèle de gestion scientifique exacerbé par l’IA, où les travailleurs sont réduits à des sources de données exploitables, sans retour sur la valeur qu’ils produisent, et où cette valeur sert à construire les outils qui finiront par les évincer.

Ifeoma Ajunwa est aussi l’auteur du très intéressant The Quantified Worker : Law and Technologiy in the Modern Workplace, Cambridge 2023.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit collectif du travail, droit d'auteur, Droit US, Protection des données | Tagué , , , | Laisser un commentaire

Intelligence artificielle et propriété intellectuelle : un point de situation

Quelques éléments de réflexion tirés de A. Guadamuz, Revisiting copyright infringement in AI inputs and outputs (https://www.technollama.co.uk/revisiting-copyright-infringement-in-ai-inputs-and-outputs – publié le 30 juillet 2025 sur son excellent blog :

L’auteur commence par expliquer que son objectif est de mettre à jour un panorama des problématiques de droit d’auteur à l’ère de l’IA générative après trois années d’expérimentation intensive. Il entend se concentrer sur « l’image d’ensemble » plutôt que sur l’exégèse au fil de l’eau des litiges en cours, afin de dégager des lignes de force juridiques qui se cristallisent autour des phases d’entrée (inputs) et de sortie (outputs) des systèmes d’IA. Son point de départ est pragmatique : beaucoup d’analyses antérieures lui semblent datées, tant les pratiques et la jurisprudence naissante ont évolué, et il propose donc un cadre conceptuel actualisé pour apprécier la licéité des copies réalisées lors de l’entraînement et la licéité des contenus générés.

Pour circonscrire le débat, il définit les « inputs » comme la phase d’entraînement d’un modèle sur d’immenses corpus de données, et les « outputs » comme les résultats produits par un modèle entraîné en réponse à des instructions de l’utilisateur (texte, image, son, vidéo, voix, ou combinaisons). Cette distinction structure toute l’analyse : le contentieux s’est d’abord focalisé sur l’amont (les copies réalisées lors de l’ingestion et du traitement des données d’entraînement), mais l’auteur anticipe que l’aval – la reproduction par les modèles d’éléments protégés – deviendra déterminant à mesure que les systèmes s’améliorent.

S’agissant des inputs, l’auteur insiste sur la réalité technique des procédés d’entraînement : constituer des jeux de données d’une taille vertigineuse suppose inévitablement des actes de reproduction à un moment ou un autre. Une partie des contenus est libre de droits ou non protégeable (données brutes), mais une proportion substantielle est protégée par le droit d’auteur, si bien que la collecte et la préparation des données impliquent des copies relevant prima facie de l’exclusivité de l’auteur. Il rappelle toutefois que, dans un jeu de données massif, la valeur individuelle d’une œuvre donnée tend vers le négligeable, l’intérêt étant la représentativité du corpus, puis son « nettoyage/prétraitement » (élimination de doublons, erreurs et éléments non pertinents, conversion dans un format calculable). À l’issue de ces opérations, les œuvres ne sont plus reconnaissables comme telles : elles sont transposées en données utilisées pour ajuster les paramètres internes du modèle. Cela complique la qualification juridique d’une « utilisation » d’une œuvre particulière, même si l’existence d’un acte de reproduction lors de l’ingestion demeure difficile à nier.

L’auteur vulgarise ensuite, sans entrer dans la technicité excessive, le cœur de l’apprentissage statistique : on « alimente » un réseau de neurones et on ajuste ses poids en minimisant une fonction de perte par des algorithmes d’optimisation répétés des millions de fois. Le résultat est un modèle paramétré qui encode des corrélations, motifs et relations statistiques – et non, en principe, des copies persistantes des œuvres sources. Cette idée – le modèle n’« embarque » pas les œuvres, il en « apprend » des régularités – constitue l’un des éléments qui brouillent les intuitions juridiques classiques : on peine à aligner la perception intuitive d’un « copieur » sur la réalité d’un système qui extrait des régularités puis « oublie » les œuvres individuelles. En pratique, l’« incrimination originelle » des inputs reste l’existence d’une copie à un moment du pipeline ; toute la question est alors de savoir si cette copie peut être juridiquement justifiée.

Sur ce terrain, l’auteur observe qu’aux États-Unis les juridictions semblent, à ce stade, s’orienter vers une appréciation favorable à la défense du fair use pour certains usages de formation de modèles, tout en rappelant qu’un facteur contextuel pèse lourd : la provenance des données. Recourir à des « shadow libraries » ou à des contenus manifestement piratés fragilise substantiellement la défense du fair use, en particulier au regard des facteurs relatifs à la nature de l’utilisation et à son caractère transformatif ou équitable. Autrement dit, la même opération de formation peut basculer d’un côté ou de l’autre selon la source des données : aspirer des contenus licitement accessibles et techniquement balisés n’est pas équivalent à entraîner à partir de corpus acquis par des moyens illégitimes.

Côté Union européenne, l’auteur décrit une mer réglementaire agitée mais en voie d’accalmie autour de l’IA Act et du « Code of Practice » pour les modèles d’IA à usage général présentant un risque systémique (GPAI), défini notamment par un seuil de puissance de calcul dépassant 10^25 FLOPs. Il souligne le caractère volontaire du Code, qui ne s’applique qu’aux fournisseurs de modèles GPAI, tout en relevant la dynamique de conformité qu’il induit : plusieurs grands acteurs ont indiqué leur intention de s’y soumettre, tandis que d’autres s’en démarquent. Le Code, critiqué par certains titulaires de droits, consolide selon lui deux orientations importantes : la confirmation d’un régime d’opt-out en matière de droit d’auteur dans l’UE, et l’interdiction de contourner des mesures techniques de protection par les signataires. Ces éléments, combinés à des premières décisions américaines, laissent entrevoir un début de convergence transatlantique : une forme d’entraînement pourrait être admise – via le fair use aux États-Unis et via l’opt-out en Europe – mais l’utilisation de contenus obtenus par torrents, bibliothèques clandestines ou mis à disposition sans l’aval des titulaires resterait irrecevable.

En filigrane, l’auteur estime que les reproductions opérées à l’étape input pourraient se révéler moins problématiques qu’imaginé initialement si des garde-fous adéquats existent. Il n’exclut pas toutefois une intervention régulatoire plus « financière » sous forme de prélèvements ou redevances sur l’entraînement, évoquant en particulier une proposition portée au Parlement européen. L’idée serait de compenser en amont les titulaires sans brider la recherche et l’innovation, mais il n’entre pas dans une évaluation économique détaillée ; il situe simplement cette piste dans l’arsenal des réponses politiques possibles à la tension entre accès massif aux données et rémunération des créateurs.

Après ce cadrage sur l’amont, l’auteur se tourne vers les outputs, qu’il considère comme le prochain foyer majeur de contentieux en droit d’auteur. Pendant la phase initiale de l’IA générative, la reproduction en sortie d’œuvres reconnaissables était difficile à établir de façon spontanée. Les rares démonstrations de « régurgitation » textuelle ou visuelle reposaient souvent sur des sollicitations extrêmement ciblées, parfois orchestrées par les titulaires eux-mêmes, si bien que les premières plaintes se sont surtout rabattues sur les copies d’entraînement. Cette situation évolue avec l’amélioration rapide des modèles, en particulier visuels, désormais capables de reproduire avec une relative facilité des personnages, styles et univers de la culture populaire lorsque l’utilisateur les y pousse.

Le tournant, selon lui, se manifeste par des actions judiciaires centrées presque exclusivement sur les outputs, dont la plus emblématique est la plainte déposée par Disney (aux côtés d’autres studios) contre Midjourney. Le grief tient à la capacité du générateur d’images à produire, à la demande, des représentations substantielles de personnages protégés. L’auteur, qui s’est déjà exprimé sur des cas analogues, anticipe une défense difficile pour le fournisseur visé, précisément parce que la sortie générée ressemble de très près à des éléments protégés identifiables. C’est moins la question « que s’est-il passé à l’entraînement ? » que « que produit effectivement la machine ? » qui devient centrale.

Ce glissement de l’amont vers l’aval réactive inévitablement le débat sur les responsabilités. Lorsque l’utilisateur est, techniquement, l’agent qui déclenche la génération d’un visuel contrefaisant un personnage (Mario, Pikachu, etc.), on peut être tenté d’y voir une contrefaçon primaire à sa charge. Mais l’auteur prévoit un accroissement des argumentaires fondés sur les formes de responsabilité indirecte ou secondaire du fournisseur de modèle. Les juridictions seront conduites à apprécier si le modèle peut, de manière fiable et prévisible, reproduire du contenu protégé à la demande et si, face à cette prévisibilité, le fournisseur a mis en œuvre des mesures suffisantes pour prévenir l’atteinte. Cette appréciation pourrait porter sur l’efficacité des filtres, le rôle d’un réglage fin (fine-tuning) encadré, les garde-fous intégrés dans l’interface et, plus largement, sur la conception du service et les signaux qu’il envoie aux utilisateurs. Les analogies avec les doctrines existantes relatives à la responsabilité des intermédiaires (hébergeurs, moteurs) éclairent en partie le raisonnement, mais l’auteur souligne leurs limites : un générateur ne se contente pas d’indexer ou d’héberger des contenus, il synthétise du nouveau matériau à partir de données d’entraînement, ce qui rend la transposition des cadres existants imparfaite.

Pour l’auteur, les litiges « outputs » pourraient s’avérer plus structurants que ceux « inputs ». Ils touchent à ce que le public et les titulaires perçoivent de manière la plus concrète : l’aptitude d’un modèle à produire quelque chose qui « a l’air » d’une œuvre protégée. Si des juridictions venaient à qualifier ces sorties d’atteintes, et si des fournisseurs étaient reconnus responsables d’avoir rendu ces atteintes possibles, on verrait probablement des transformations profondes du secteur : contrôles plus stricts des invites, filtrage plus agressif des requêtes et des résultats, préférence pour des ensembles de formation fermés et faisant l’objet de licences, et, partant, un déplacement du curseur entre ouverture des modèles et sécurisation juridique. La capacité des fournisseurs à légitimer socialement l’IA générative se jouerait, pour une large part, sur la façon dont ils préviennent et gèrent la production de sorties problématiques.

L’auteur n’ignore pas la technicité des enjeux sous-jacents, comme la « mémorisation » au sens de l’apprentissage automatique, c’est-à-dire la tendance d’un modèle à conserver des fragments du jeu d’entraînement qu’il peut ensuite « réciter ». Il relève que les comportements de régurgitation avaient été, au début, peu fréquents dans les modèles de texte, sauf incitation ou injection de l’œuvre même dans le prompt, alors qu’ils se sont multipliés avec la progression des modèles d’images. Il mentionne aussi l’existence de mécanismes de filtrage a priori qui s’efforcent d’empêcher la reproduction de noms de personnages ou d’éléments identifiables, tout en constatant qu’ils peuvent être contournés si la génération de ressemblance est techniquement aisée. Ce faisceau d’éléments technique-juridiques est au cœur des litiges en gestation autour des outputs.

De ce panorama, l’auteur tire plusieurs enseignements provisoires. D’une part, la perception publique de l’entraînement comme « copie illicite massive » est en décalage avec la pratique : l’entraînement transforme et agrège, et le modèle n’est pas une base de données d’œuvres. Cela ne neutralise pas le fait qu’une copie a bien lieu, mais cela influe sur l’ampleur du préjudice et, par ricochet, sur l’analyse juridique, notamment en fair use ou dans les régimes européens d’exceptions et de TDM assortis d’opt-out. D’autre part, à mesure que la reproduction en sortie devient aisée et probante, l’équilibre du contentieux se déplace vers l’aval, où les questions de ressemblance substantielle, d’originalité des sorties et de responsabilité du fournisseur face aux usages prévisibles priment sur la pure provenance des données. Enfin, il suggère que la régulation pourrait combiner des signaux « conformité » au niveau de l’entraînement et des exigences de « sécurité de génération » en aval, en y adjoignant potentiellement des mécanismes de compensation financière.

L’article se clôt sur une note personnelle : l’auteur souligne à la fois l’excitation intellectuelle et la complexité croissante du champ « IA et droit d’auteur ». Il annonce la poursuite de ses travaux, en reconnaissant que l’état du droit demeure en formation et que l’observation des pratiques – autant que des décisions de justice – sera décisive pour stabiliser des standards. Cette conclusion n’apporte pas de solution normative tranchée ; elle réaffirme l’idée que nous sommes à un moment charnière où l’émergence d’un consensus minimal (sur la licéité de certaines formes d’entraînement et l’illicéité d’outputs manifestement contrefaisants) pourrait guider la recomposition des doctrines autour de la responsabilité et des régimes d’autorisations.

Pour le praticien suisse, ce texte est intéressant à double titre. D’abord, il éclaire le décalage entre l’intuition juridique du « copier-coller » et la réalité statistique de l’entraînement des modèles, ce qui nourrit l’analyse de la « reproduction » au sens du droit d’auteur. Ensuite, il met en évidence la montée en puissance des litiges centrés sur les outputs et la façon dont les tribunaux pourraient tester la diligence des fournisseurs : efficacité des filtres, encadrement des prompts, choix de données licenciées, et politique de modération des usages. Même si l’article se focalise sur le droit américain et l’écosystème européen, sa grille d’analyse – inputs licites sous conditions, outputs sous haute surveillance – s’exporte aisément.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

Lire le Pacte fédéral

Alor que nous fêterons demain notre Fête Nationale, un peu de lecture : le pacte de 1291 !

On a peu l’occasion de lire ce beau texte, riche de contenus.

C’est aussi l’occasion de mentionner le très beau Bundesbrief Museum, à Schwyz, où il est exposé (https://www.bundesbrief.ch/) et l’exégèse qu’en donne le site de la Confédération (https://www.admin.ch/gov/fr/accueil/conseil-federal/histoire-du-conseil-federal/pacte-federal-1er-aout-1291.html).

PACTE FÉDÉRAL :

(traduction – https://www.lexilogos.com/declaration/suisse_pacte_tableau.htm)

AU NOM DU SEIGNEUR, AMEN. C’est accomplir une action honorable et profitable au bien public que de confirmer, selon les formes consacrées, les mesures prises en vue de la sécurité et de la paix.

Que chacun sache donc que, considérant la malice des temps et pour être mieux à même de défendre et maintenir dans leur intégrité leurs vies et leurs biens, les gens de la vallée d’Uri, la landsgemeinde de la vallée de Schwytz et celle des gens de la vallée inférieure d’Unterwald se sont engagés, sous serment pris en toute bonne foi, à se prêter les uns aux autres n’importe quel secours, appui et assistance, de tout leur pouvoir et de tous leurs efforts, sans ménager ni leurs vies ni leurs biens, dans leurs vallées et au dehors, contre celui et contre tous ceux qui, par n’importe quel acte hostile, attenteraient à leurs personnes ou à leurs biens (ou à un seul d’entre eux), les attaqueraient ou leur causeraient quelque dommage. Quoi qu’il arrive, chacune des communautés promet à l’autre d’accourir à son secours en cas de nécessité, à ses propres frais, et de l’aider autant qu’il le faudra pour résister à l’agression des méchants et imposer réparation du tort commis.

C’est ce que, par le geste consacré, ils ont juré d’observer en toute loyauté, renouvelant par le présent traité le texte de l’ancien pacte corroboré par un serment ; sous réserve que chacun, selon sa condition personnelle, reste soumis, comme il convient, à son seigneur et lui rende les prestations auxquelles il est tenu.

De même, après commune délibération et d’un accord unanime, nous avons juré, statué et décidé que nous n’accepterons et ne reconnaîtrons en aucun cas dans lesdites vallées un juge qui aurait payé sa charge de quelque manière, soit en argent soit à quelque autre prix, ou qui ne serait pas de chez nous et membre de nos communautés. Si d’autre part un conflit surgit entre quelques-uns, les plus sages des confédérés doivent intervenir en médiateurs pour apaiser le différend de la façon qui leur paraîtra efficace ; et les autres confédérés doivent se tourner contre la partie qui repousserait leur sentence.

Outre tout cela, ils ont établi un statut commun, stipulant que celui qui, criminellement et sans provocation, commettra un meurtre, sera, si on a pu se saisir de lui, puni de mort comme son crime infâme l’exige; à moins qu’il ne puisse prouver qu’il est innocent; et s’il réussit à s’échapper, il lui est à jamais interdit de revenir au pays. Ceux qui accorderaient abri ou protection au dit malfaiteur doivent être expulsés des vallées, aussi longtemps qu’ils n’auront pas été expressément rappelés par les confédérés.

Si quelqu’un, de jour ou dans le silence de la nuit, met criminellement le feu aux biens d’un confédéré, on ne doit plus jamais le considérer comme membre d’une de nos communautés. Et celui qui, dans nos vallées, prendrait le parti du dit malfaiteur et le protégerait devra indemniser la victime.

De plus, si l’un des confédérés en dépouille un autre de ses biens ou lui cause n’importe quel autre dommage, les biens du coupable que l’on pourra saisir dans les vallées doivent être mis sous séquestre pour dédommager la victime conformément au droit.

En outre, nul n’a le droit de saisie envers un autre confédéré, à moins que celui-ci ne soit notoirement son débiteur ou ne se soit porté caution envers lui; et il ne doit le faire qu’en vertu d’un prononcé spécial du juge.

Outre cela, chacun est tenu d’obéir à son juge et doit, s’il est besoin, indiquer de quel juge il relève dans la vallée. Et si quelqu’un refuse de se soumettre au jugement rendu, et que l’un des confédérés subisse quelque dommage du fait de son obstination, tous les confédérés sont tenus de contraindre à réparation le récalcitrant.

Et surgisse une querelle ou une discorde entre quelques confédérés, si l’une des parties se refuse à tout arrangement par voie judiciaire ou par accommodement, les confédérés sont tenus de prendre fait et cause pour l’autre partie.

Les décisions ci-dessus consignées, prises dans l’intérêt et au profit de tous, doivent, si Dieu y consent, durer à perpétuité; en témoignage et confirmation de quoi le présent acte, dressé à la requête des prénommés, a été muni des sceaux des trois communautés et vallées susdites.

Fait en l’an du Seigneur 1291 au début du mois d’août.

Joyeuse Fête Nationale à tous !

Me Philippe Ehrenström, avocat, LLLM

Publié dans Divers | Tagué , , | Laisser un commentaire

L’intelligence artificielle qui transcrit et analyse les appels téléphoniques

La « Class Action Complaint and Demand for Jury Trial » déposée par Megan Lisota contre Heartland Dental LLC et RingCentral Inc devant l’United District Court for the Northern District of Illinois, Eastern Division, Case No. 25-cv-7518 traite de la question de l’usage d’outils d’intelligence artificielle pour l’analyse en temps réel des appels téléphoniques, sans le consentement préalable des interlocuteurs concernés. Le litige met en cause des pratiques de surveillance discrète par des outils d’IA dans un contexte médical.

La lecture du document, et du commentaire de Me James Gatto (https://www.ailawandpolicy.com/wp-content/uploads/sites/65/2025/07/AI-Recording-Issues-Article-0725.pdf) susciteles réflexions suivantes :

Heartland Dental, un « Dental Support Organization » (DSO), fournit des services de gestion non cliniques à plus de 1’700 cliniques dentaires affiliées. Dans ce cadre, elle a mis en œuvre une solution téléphonique unifiée fournie par RingCentral, laquelle intègre un outil d’intelligence artificielle, « RingCentral AI ». Cette solution comprend la transcription automatique des appels, des résumés générés par IA, l’extraction de mots-clés, et une analyse du sentiment visant à évaluer le ton émotionnel du patient. L’IA opère en tâche de fond, écoute en temps réel les appels passés entre les patients et les cliniques dentaires, et traite ces données à des fins à la fois fonctionnelles (amélioration de la relation client) et commerciales (entraînement des modèles d’IA de RingCentral).

Le cœur du litige repose sur l’absence de consentement éclairé des patients appelant les cliniques affiliées à Heartland. Selon la plainte, les patients n’avaient aucun moyen raisonnable de savoir que leurs appels étaient enregistrés et analysés en temps réel par une entité tierce – RingCentral – qui n’était ni annoncée comme partie à la communication, ni autorisée expressément par les patients à intervenir dans ces échanges. Cette situation, selon la plaignante, constitue une violation du Federal Wiretap Act (18 U.S.C. § 2511), qui interdit l’interception intentionnelle de communications orales, électroniques ou téléphoniques sans le consentement de toutes les parties (ou dans certaines juridictions, d’au moins une partie).

À cela s’ajoute une dimension plus délicate : la nature médicale des appels. En tant qu’organisation de soutien dentaire, Heartland intervient dans un contexte où les communications téléphoniques contiennent inévitablement des données de santé identifiables (« Individually Identifiable Health Information » ou IIHI), protégées par la loi fédérale HIPAA (Health Insurance Portability and Accountability Act). Cette loi interdit l’obtention ou la divulgation non autorisée de telles données. RingCentral, en écoutant et analysant ces appels à des fins propres (développement de ses produits et entraînement de ses modèles), aurait donc, toujours selon la plaignante, enfreint les règles de confidentialité définies par HIPAA.

L’article rédigé par James Gatto, avocat expert en droit de l’IA, met en exergue l’importance, pour toute entreprise utilisant des outils d’enregistrement ou de prise de notes basés sur l’IA, d’anticiper les risques juridiques associés. Il identifie plusieurs points critiques : d’abord, la nécessité de mettre en place une politique interne claire couvrant notamment les aspects du consentement, la gestion des cas où un interlocuteur refuse d’être enregistré, la précision des transcriptions générées par IA, les risques en matière de confidentialité et de secret professionnel, les politiques de rétention ou de suppression des données, la vérification de la conformité des fournisseurs et des outils utilisés, ainsi que l’usage secondaire des données collectées. L’auteur insiste aussi sur l’impératif d’une due diligence renforcée à l’égard des solutions IA déployées, notamment lorsque les fournisseurs réutilisent les données à des fins d’amélioration de leurs services.

James Gatto attire très justement l’attention des praticiens sur les outils d’enregistrement et de transcription (speech to text), dont l’usage peut entraîner quantité de questions pratiques liées à l’information, au consentement ou au secret médical. Or le problème de ces outils est souvent d’être relativement discrets, tapis dans des solutions parfois éprouvées et « bien pratiques » – dont on a simplement oublié de mesurer la conformité.

Par ailleurs le litige illustre un changement de paradigme dans la perception de la voix comme donnée personnelle. L’arrivée de l’intelligence artificielle dans la boucle transforme la voix en une source de données sémantiques, émotionnelles et comportementales. L’IA ne se contente pas d’écouter : elle interprète, elle classe, elle devine, elle prédit. Dès lors, tout traitement de la voix doit désormais être évalué non seulement sous l’angle technique ou fonctionnel, mais à la lumière des principes juridiques fondamentaux : autonomie de la personne, droit à la transparence, maîtrise sur ses propres données, et proportionnalité du traitement.

Morale de cette histoire : connaissez vos outils, analysez-les, critiquez-les – ce n’est pas parce qu’ils sont pratiques qu’ils sont sans danger.

Comme est en train de le montrer la Class Action contre Workday (https://droitdutravailensuisse.com/2025/06/01/recrutement-intelligence-artificielle-ia-et-discrimination-class-action/), toute désinvolture à cet égard peut avoir des conséquences tout à fait ravageuses…

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , | Laisser un commentaire

Intelligence artificielle et préjudice herméneutique

Quelques réflexions tirées de A.REBERA/L.LAUWAERT/A.-K.OIMANN, Hidden Risks: Artificial Intelligence and Hermeneutic Harm, Minds and Machines (2025) 35:33, (https://doi.org/10.1007/s11023-025-09733-0), que l’on lira notamment en lien avec les décisions discriminatoires en matière de recrutement automatisé – sujet dont je vous reparlerai bientôt:

L’étude met en lumière une forme de préjudice encore peu explorée dans la littérature juridique et éthique sur l’intelligence artificielle (IA) : le préjudice herméneutique. Contrairement aux biais algorithmiques ou aux discriminations, déjà bien documentés, ce type de préjudice repose sur l’impossibilité pour les individus de comprendre ou de donner un sens à certains événements qui les affectent — notamment lorsqu’ils sont causés par des systèmes d’IA.

Les auteurs définissent le préjudice herméneutique comme une douleur psychologique ou émotionnelle résultant de l’incapacité prolongée à comprendre ce qui s’est passé, en particulier dans des contextes où l’événement est inattendu ou douloureux. Il ne s’agit pas d’un problème nouveau ou propre à l’IA. Des traumatismes comme le deuil, la trahison ou l’injustice peuvent déjà laisser des individus dans une forme d’incompréhension paralysante. Toutefois, l’IA introduit de nouveaux obstacles à la capacité humaine de « faire sens » des événements, notamment à travers son opacité, sa complexité technique ou son insensibilité aux normes sociales.

La section introductive souligne que ce préjudice peut survenir même en l’absence de mauvaise intention ou de dysfonctionnement du système. Un algorithme peut parfaitement fonctionner selon les standards techniques tout en laissant une personne incapable de comprendre pourquoi elle a été écartée d’un processus de sélection ou visée par une décision automatisée.

Les auteurs développent ensuite la notion de « faire sens » (ou « sense-making ») comme processus herméneutique fondamental dans la gestion des événements de la vie. Ce processus consiste à aligner notre compréhension immédiate d’un événement (ce qu’ils appellent la signification situationnelle) avec nos attentes plus profondes (la signification globale). Lorsqu’un écart entre ces deux niveaux de sens se produit et ne peut être résorbé, un préjudice herméneutique peut émerger.

Dans les chapitres suivants, l’étude examine plusieurs exemples concrets de ce type de préjudice.

Le premier concerne un candidat à un emploi rejeté par un système de recrutement automatisé. Il est hautement qualifié mais ne reçoit aucune explication compréhensible à son rejet. Ni le système ni les responsables RH ne sont capables de lui fournir des raisons claires. Ce vide informationnel empêche tout processus de compréhension : il ne sait pas s’il doit revoir son CV, sa stratégie ou simplement accepter une injustice opaque. L’absence de transparence crée ici une souffrance cognitive.

Un deuxième cas décrit une cheffe d’entreprise à qui l’on refuse un prêt bancaire, bien que son dossier semble solide. Elle reçoit un fichier technique JSON comme seule explication, incompréhensible sans formation spécialisée. Même après une réunion avec les techniciens de la banque, elle repart sans avoir compris les critères exacts du rejet. Là encore, ce n’est pas l’absence d’explication brute qui crée le préjudice, mais l’inadéquation entre la forme de l’explication fournie et les capacités ou attentes de la personne concernée.

Ces deux cas révèlent un problème de transparence épistémique : l’IA, notamment dans ses formes dites de « boîte noire » (black box), empêche les individus de comprendre comment une décision a été prise. Des efforts sont faits dans le domaine de l’« IA explicable » (ou XAI, pour Explainable AI), qui vise à rendre les algorithmes plus interprétables. Mais selon les auteurs, ces outils ne suffisent pas à résoudre tous les cas de préjudice herméneutique. Parfois, même une explication techniquement correcte ne suffit pas si elle est inadaptée à son destinataire.

Un point central du texte est que les exigences d’explication ne sont pas uniquement cognitives mais aussi sociales et normatives. Une bonne explication n’est pas seulement juste : elle doit aussi être délivrée dans un cadre qui respecte l’interlocuteur, qui prend en compte ses attentes, ses émotions, et qui témoigne d’une forme de reconnaissance humaine. Les auteurs comparent alors une interaction réussie entre une cliente et une directrice de banque, qui explique avec tact et clarté pourquoi une demande de prêt a été refusée. Ce type d’interaction, profondément humaine, atténue le risque de préjudice herméneutique, même en cas de désaccord sur le fond.

Or, les systèmes d’IA, par nature, manquent de cette intelligence sociale. Ils ne perçoivent ni les signaux sociaux ni les émotions, et ne savent pas adapter leur communication à des attentes implicites. C’est là que réside une limite fondamentale de l’explicabilité automatisée. Même si un système pouvait générer une explication textuelle acceptable, le fait qu’il ne soit pas un agent humain prive cette explication d’une forme essentielle de légitimité relationnelle.

Les auteurs abordent ensuite des situations encore plus graves, notamment des décisions prises par des IA dans des contextes vitaux, comme les véhicules autonomes ou les systèmes d’armes létales autonomes (LAWS). Ils citent des exemples hypothétiques mais réalistes où une voiture autonome décide de heurter un piéton pour éviter un carambolage, ou encore un drone armé attaque une foule, croyant viser un chef militaire. Dans ces cas, l’agentivité de l’IA — même partielle — perturbe profondément nos attentes morales. On comprend comment la machine a « raisonné », mais cela ne permet pas de faire sens sur le plan moral.

Ce que les auteurs mettent en évidence ici, c’est la différence entre la compréhension rationnelle d’un événement et l’acceptation morale de ce dernier. Même si la victime ou ses proches comprennent pourquoi une IA a pris une décision, cela ne les aide pas forcément à l’accepter si cette décision contredit des principes fondamentaux (comme la dignité humaine, la non-instrumentalisation des personnes, ou encore l’interdiction de tuer des innocents). Dans ces situations, le préjudice herméneutique résulte du heurt entre les normes morales profondes et l’action de la machine, même parfaitement « justifiable » sur le plan utilitariste.

Ce type de tension renvoie à un problème d’alignement des valeurs. L’IA, même bien conçue, n’incarne pas nos principes moraux universels. Si elle agit de manière contraire à nos attentes morales, elle risque de provoquer des blessures subjectives durables chez ceux qu’elle affecte.

En conclusion, les auteurs insistent sur le fait que le préjudice herméneutique est une conséquence possible — mais souvent négligée — de l’essor des systèmes d’IA dans nos sociétés. Il n’est pas réservé à des cas extrêmes ou à des pannes. Il peut émerger dans des interactions ordinaires, à cause d’un manque d’explication, d’un manque de reconnaissance, ou d’un heurt entre valeurs humaines et logique algorithmique.

Ils appellent à une réflexion éthique plus large sur l’explicabilité, qui ne se limite pas à la transparence technique mais intègre les dimensions sociales et normatives de nos attentes. Ils suggèrent également la mise en place de mécanismes d’atténuation du préjudice herméneutique, allant de l’accompagnement psychologique au soutien juridique, en passant par des médiateurs humains capables de contextualiser les décisions des machines.

Enfin, les auteurs rappellent que si les systèmes d’IA peuvent accroître la puissance de décision et l’efficacité, ils comportent aussi des risques d’aliénation cognitive et morale, parce qu’ils opèrent en dehors du tissu relationnel humain.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Droit, intelligence artificielle et automatisation du langage

Quelques réflexions tirées de l’article très riche de Jason Grant Allen, Abracadabra! Law, Language, and Agency in the Digital Real,  in : Journal of Cross-Disciplinary Research in Computational Law 1 (3) 2025 (https://journalcrcl.org/crcl/article/view/28):

L’article propose une réflexion sur les transformations que le droit est appelé à connaître à l’ère de lintelligence artificielle générative et de lautomatisation du langage. Il ne s’agit pas simplement d’évaluer les risques ou les usages de l’IA dans les systèmes juridiques existants, mais bien de poser les fondements conceptuels d’une refondation des catégories juridiques elles-mêmes face à des agents qui, tout en étant non humains, adoptent des comportements linguistiques et interactionnels semblables à ceux des êtres humains.

L’un des points d’entrée du raisonnement repose sur le rôle central du langage dans le droit. Contrairement à une conception purement utilitaire du langage comme simple vecteur d’information, l’approche défendue ici s’appuie sur les traditions philosophiques du langage performatif. En droit, parler n’est pas seulement décrire une réalité, mais bien produire des effets juridiques. Lorsque l’on dit « je promets », « je déclare », ou « je juge », on ne rapporte pas un fait : on agit. Le langage juridique est donc, par nature, performatif et instituant. Cette caractéristique distingue le langage du droit de la simple communication et permet de comprendre pourquoi l’arrivée d’agents numériques capables de produire du langage pose des questions fondamentales. Ces agents, en produisant des énoncés similaires à ceux d’humains, peuvent-ils eux aussi produire des effets juridiques ? Peuvent-ils être tenus pour responsables de leurs paroles ? Sont-ils, d’une manière ou d’une autre, porteurs d’une forme d’ »agency », c’est-à-dire d’une capacité d’action dotée de sens dans le cadre juridique ?

La notion d’agency est précisément au cœur de la réflexion. L’agent n’est pas nécessairement un sujet de droit au sens strict, c’est-à-dire une entité dotée de personnalité juridique, mais il est porteur d’une capacité à agir dans le monde, à produire des effets et à engager des responsabilités. Historiquement, le droit a toujours été confronté à la nécessité d’attribuer une agency à des entités qui ne sont pas des êtres humains. Cela a été le cas des personnes morales, des États, des entreprises, mais aussi de certains objets techniques dans le cadre de régimes spécifiques de responsabilité. Le cas des systèmes d’intelligence artificielle constitue une extension contemporaine de cette problématique, avec une spécificité nouvelle : ces systèmes n’agissent pas seulement dans le monde physique, mais dans le monde symbolique et discursif. Ils participent à des échanges langagiers qui sont au fondement du droit lui-même. Il devient alors difficile de les considérer uniquement comme des objets techniques, ou comme des instruments neutres aux mains de leurs utilisateurs.

Ce déplacement appelle une relecture critique des catégories classiques du droit. Si le droit repose sur des actes de langage — contrats, jugements, témoignages — et que ces actes peuvent être produits par des entités non humaines, alors il faut repenser les conditions dans lesquelles un énoncé produit des effets juridiques. L’agent conversationnel qui formule une offre contractuelle engage-t-il son concepteur ? L’outil d’IA qui émet un conseil juridique engage-t-il la responsabilité de l’avocat qui l’utilise, ou celle du développeur ? Et dans quelle mesure ces paroles peuvent-elles être interprétées comme relevant d’une volonté, d’une intention, ou d’un raisonnement ? Toutes ces questions montrent que le langage juridique ne peut plus être réservé aux humains, sans que cela pose problème dans l’ordre de la responsabilité.

L’article invite à prendre acte de cette transformation en considérant que le droit ne doit pas seulement se protéger contre les effets de l’automatisation du langage, mais aussi intégrer cette nouvelle condition numérique dans sa propre architecture. Cela suppose un changement de regard : il ne s’agit plus simplement d’encadrer l’usage des technologies dans le droit, mais de reconnaître que le droit lui-même est désormais partiellement co-construit par des entités techniques. Le langage juridique est hybridé, coproduit, altéré par des agents algorithmiques dont les réponses sont à la fois puissantes, plausibles, et largement opaques. Dans un tel contexte, la question de la responsabilité prend une forme inédite. Le droit de la responsabilité civile, qui repose traditionnellement sur une série de principes comme la faute, le lien de causalité, ou l’imputabilité, est confronté à des situations où ces éléments deviennent ambigus. Qui est fautif lorsque l’IA génère un contenu trompeur ou diffamatoire ? Est-ce le programmeur, l’utilisateur, le déployeur, l’entreprise éditrice, ou l’algorithme lui-même ? Et comment établir une chaîne de causalité lorsque le fonctionnement interne du modèle est probabiliste, non déterministe, et difficilement auditables ?

Ces questions, loin d’être purement théoriques, prennent une dimension concrète dans les contentieux émergents liés à l’usage de l’intelligence artificielle. Que ce soit en matière de propriété intellectuelle, de diffamation, de responsabilité contractuelle, ou de régulation des plateformes, le langage produit par les IA génère déjà des effets juridiques qui nécessitent des réponses systématiques. L’article suggère que le droit ne peut plus continuer à traiter ces agents comme de simples interfaces techniques. Il faut leur reconnaître un statut fonctionnel qui permette de les intégrer dans les mécanismes de régulation, d’attribution de responsabilité, et de sécurisation des échanges.

Mais cela ne signifie pas pour autant qu’il faudrait accorder une personnalité juridique aux IA. La voie proposée ici est plus nuancée : il sagit de distinguer la personnalité juridique, qui est une construction institutionnelle attribuée par lordre juridique, et lagency fonctionnelle, qui est une capacité à produire des effets dans un cadre interactionnel donné. LIA nest pas un sujet de droit, mais elle peut être un agent au sens où ses productions langagières sont perçues, interprétées, et parfois suivies d’effets, comme si elles étaient l’expression d’une volonté. Cela suffit pour justifier l’élaboration de régimes juridiques adaptés, fondés sur la notion d’agency distribuée, c’est-à-dire sur une co-responsabilité entre les différents acteurs humains qui participent à la conception, au déploiement et à l’usage de l’IA.

Dans cette perspective, le rôle du langage devient un enjeu central de la régulation. Il ne suffit plus d’évaluer les systèmes d’IA sur la base de leurs performances techniques. Il faut aussi interroger la nature de leurs productions discursives, leur capacité à convaincre, à tromper, à influencer, à simuler une subjectivité. Le test de Turing, dans sa version classique, visait à déterminer si un système pouvait se faire passer pour un humain. Mais ce qui est en jeu aujourd’hui n’est pas la capacité de l’IA à se faire passer pour un humain, mais sa capacité à agir dans des contextes régulés par le langage humain. Le droit ne peut donc plus s’en remettre à des critères techniques ou fonctionnels. Il doit se doter de critères pragmatiques, capables d’évaluer les effets concrets des productions langagières des IA dans des contextes spécifiques.

Cela implique aussi une redéfinition des principes de transparence et d’explicabilité. Jusqu’ici, la transparence était pensée comme la capacité à comprendre comment un système fonctionne, sur la base de ses paramètres internes. Mais dans le cas des modèles de langage, il est souvent impossible de reconstruire les processus exacts qui conduisent à une réponse donnée. Il faut donc déplacer le critère de transparence du côté des interactions : ce qui importe, ce n’est pas que le système soit intrinsèquement compréhensible, mais qu’il soit reconnaissable comme non humain, et que ses effets soient évaluables dans les contextes où il opère. Cela rejoint les exigences d’explicabilité posées par les règlements récents, comme le Règlement général sur la protection des données (RGPD) ou l’AI Act européen. Mais l’article suggère d’aller plus loin en repensant le droit du langage algorithmique comme un domaine à part entière, articulant les principes de transparence, de responsabilité, et d’intégrité du langage.

La Suisse, dans ce contexte, se trouve à la croisée des chemins. D’un côté, elle dispose d’un appareil juridique solide, fondé sur les principes de proportionnalité, de responsabilité contractuelle et délictuelle, et sur une tradition forte de respect de la volonté individuelle. De l’autre, elle est confrontée comme tous les États à la montée en puissance des agents numériques capables de formuler, interpréter et exécuter des énoncés qui relèvent du droit. Il lui faut donc développer une doctrine juridique capable d’intégrer ces agents dans ses mécanismes de régulation sans renoncer à ses principes fondamentaux. Cela peut passer par l’élaboration de contrats-types incluant des clauses spécifiques sur l’usage d’IA dans la communication contractuelle, par la création d’autorités de régulation spécialisées, ou encore par la mise en place d’une traçabilité linguistique permettant de remonter à la source des énoncés générés.

Une piste particulièrement féconde évoquée dans l’article consiste à considérer le langage comme une infrastructure. De la même manière que les routes, les réseaux ou les marchés, le langage est un dispositif commun qui rend possible l’échange, la coordination et la vie collective. Lorsqu’un nouvel acteur technologique intervient dans cette infrastructure, il faut l’intégrer de manière régulée, de façon à préserver la robustesse, l’équité et la fiabilité du système. Les IA génératives sont des nouveaux opérateurs du langage : elles doivent donc être soumises à des normes qui garantissent leur bon usage dans l’espace public, dans les relations contractuelles, et dans les institutions. Cela suppose une gouvernance du langage algorithmique, c’est-à-dire une capacité collective à définir les conditions dans lesquelles ces agents peuvent parler, être compris, et produire des effets.

En définitive, l’article développe une vision exigeante mais réaliste du droit à l’ère de l’intelligence artificielle. Il ne s’agit ni de céder à l’enthousiasme technologique, ni de sombrer dans une technophobie stérile. Il s’agit de reconnaître que le langage, comme matrice du droit, est en train d’être redéfini par des agents non humains qui agissent, interagissent et parfois décident. Ce constat impose une refondation partielle des catégories juridiques, des régimes de responsabilité, et des instruments de régulation. Pour les avocats suisses, cela implique un double mouvement. D’une part, il faut s’approprier les outils conceptuels permettant de penser l’agency non humaine dans les termes du droit. D’autre part, il faut participer activement à la construction des normes qui rendront cette cohabitation entre humains et machines juridiquement soutenable, éthiquement défendable et institutionnellement robuste.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , , | Un commentaire