La protection des œuvres créées avec l’assistance de l’IA

Quelques réflexions tirées de P. Bernt Hugenholtz, Copyright and the Expression Engine : Idea and Expression in AI-Assisted Creations, Chi.-Kent L. Rev. Vol. 100, issue 1 (https://scholarship.kentlaw.iit.edu/cklawreview/vol100/iss1/11/):

L’article « Copyright and the Expression Engine: Idea and Expression in AI-Assisted Creations » de P. Bernt Hugenholtz, publié en 2025 dans la Chicago-Kent Law Review, revisite, à l’ère des modèles génératifs, les conclusions d’une étude de 2020 commandée par la Commission européenne à l’Institut de droit de l’information de l’Université d’Amsterdam (IViR).

L’auteur se concentre sur les questions doctrinales relatives à la titularité et à l’étendue de la protection des œuvres assistées par l’IA, en les confrontant aux lignes directrices récentes du Copyright Office américain (USCO) et aux premières décisions nationales, avec l’ambition de montrer que le cadre européen existant reste apte à appréhender la plupart des situations et que, même avec les systèmes génératifs, la marque de l’auteur humain peut et doit être identifiée dans l’œuvre finale.

Il rappelle d’abord le contexte de 2019-2020 : mandaté pour évaluer la nécessité d’une intervention législative, l’IViR a conclu que le droit de l’UE, tel qu’interprété par la Cour de justice (CJUE), offrait déjà des outils suffisants pour traiter les productions assistées par l’IA. La Commission a repris cette conclusion dans son Plan d’action PI de 2020.

La méthodologie retenue reposait sur quatre critères cumulés pour qualifier une « oeuvre » : appartenance au domaine littéraire, scientifique ou artistique au sens de la Convention de Berne, apport intellectuel humain, existence de choix créatifs humains, et expression de ces choix dans le résultat. En pratique, le débat se cristallise sur les troisième et quatrième critères. Pour structurer l’analyse, l’étude distinguait trois moments du processus créatif : la conception (spécifications, choix de style et de moyens), l’exécution (production des brouillons) et la rédaction/finalisation (sélection, montage, corrections, finalisation). L’exécution peut être largement automatisée, mais la conception et la rédaction restent des espaces d’expression humaine. À titre illustratif, « The Next Rembrandt » pouvait, selon ce cadre, être protégé, alors qu’un compte rendu sportif généré automatiquement sans retouches substantielles ne le serait pas ; l’auteur serait en principe l’utilisateur du système, le développeur ne devenant co-auteur qu’en cas de collaboration spécifique.

Puis l’article situe ce cadre face au « tournant » de l’automne 2022 : l’explosion des IA génératives a radicalisé les débats, surtout aux États-Unis, où l’USCO limite fortement l’enregistrement d’œuvres assistées par IA et exige de « dé-revendiquer » les segments jugés « générés ». En Europe, on compte peu de contentieux, ce que l’auteur relie à l’absence de formalités d’enregistrement ; la question de la protection se règle en bout de chaîne devant les tribunaux nationaux. On relèvera une décision tchèque (Taubel Legal) qui refuse la protection à une image obtenue par un prompt générique, ainsi qu’un écho d’une décision de la Beijing Internet Court allant en sens inverse dans un cas plus élaboré.

La première objection doctrinale examinée est celle du « manque de contrôle créatif » du prompteur. L’USCO, s’appuyant notamment sur le dossier « Zarya of the Dawn », estime que les prompts se bornent à indiquer le but à une machine qui décide des éléments expressifs, si bien que l’utilisateur ne serait pas le « maître d’œuvre » de l’image finale. L’auteur concède que, si l’intervention humaine se limite à un prompt simple et isolé, l’œuvre finale n’exprimera pas nécessairement des choix créatifs humains identifiables. La décision tchèque illustre cette hypothèse : un prompt du type « montrer deux mains signant un contrat dans un bureau à Prague » relève davantage de l’idée que de l’expression et ne suffit pas. Mais il souligne que cette description est réductrice par rapport aux pratiques réelles : dans de nombreux flux de travail, l’utilisateur intervient de manière créative à l’amont (conception fine : genre, style, sujet, structure, contraintes) et à l’aval (rédaction : tri de sorties multiples, retouches, cadrage, recadrage, correction des couleurs, montage, réécriture), avec des allers-retours itératifs qui resserrent progressivement la « distance créative » entre prompts et expression finale. Dans ces conditions, les « empreintes » de l’auteur humain sont omniprésentes dans le résultat, au point de rencontrer l’exigence d’originalité telle que conçue par la CJUE (à l’instar de Painer pour la photographie), même si la phase d’exécution est déléguée à la machine.

Il développe ensuite que la « redaction» (finalisation / adaptation etc.) est décisive mais souvent sous-estimée : sélectionner parmi des brouillons, accepter une version comme étant la sienne, la transformer et la finaliser sont autant de choix esthétiques et techniques susceptibles, selon les cas, de suffire à caractériser l’originalité de l’ensemble. Cette lecture, déjà admise pour des œuvres où l’appareil joue un rôle structurant (photographie, cinéma), demeure pertinente lorsque la génération intermédiaire est assurée par un système d’IA. Ainsi, si un simple amateur qui se contente d’un prompt unique risque de ne rien revendiquer, mais un créateur qui enchaîne des centaines de prompts, affine la direction artistique et remanie l’output réalise une contribution personnelle reconnaissable.

La deuxième grande controverse est la place de la distinction idée/expression dans un « système de droits fondé sur les prompts ». Mark Lemley soutient que l’IA générative déplace l’originalité vers des « idées et concepts de haut niveau » et ébranle le test d’atteinte fondé sur la similarité d’expression. Hugenholtz admet que l’IA met au défi ce clivage fondamental, mais il rappelle que l’« expression » ne se réduit pas à la couche syntaxique visible produite par la machine. L’expression juridiquement protégée inclut, depuis longtemps, des niveaux plus abstraits et structurels : intrigue d’un récit, sélection et arrangement d’éléments, architecture d’un logiciel. La doctrine allemande décrit une « forme externe » et une « forme interne » (Gewebe) où réside l’essence de l’œuvre ; transposée à l’IA, la forme interne peut résulter d’itérations de prompts, tandis que la forme externe est partiellement machinique. Entre l’idée pure et l’expression matérialisée, il existe un continuum, plus difficile à baliser dans les arts visuels et la musique que dans l’écrit informatif. Pour des créations fortement conceptuelles (art conceptuel, ready-mades), le droit admet déjà des protections « minces » qui se concentrent sur la reproduction à l’identique ; de même, des œuvres issues de prompts minimaux pourraient n’emporter qu’une protection étroite, quand des productions itératives et « rédigées » se rapprocheraient de l’ampleur de protection des œuvres traditionnelles.

Ce raisonnement s’accompagne d’une mise en garde pratique : il ne s’agit pas de transformer toute intention artistique en monopole large au stade de l’idée, mais de reconnaître, selon l’intensité et la localisation de l’apport humain, une protection proportionnée. Là où l’intervention s’arrête à une intention générique et à un choix parmi quelques variantes, la protection doit rester mince ; là où l’auteur a véritablement façonné l’œuvre par une direction conceptuelle précise et un travail de rédaction substantiel, la protection peut couvrir des variantes plus éloignées, comme c’est le cas pour la photographie d’auteur ou le montage filmique. Cette approche évite d’étouffer le domaine public d’idées tout en ne désarmant pas les créateurs face à des appropriations opportunistes.

La troisième question porte sur la contrefaçon et la preuve de la copie. L’argument de Lemley est que la similarité n’indiquerait plus la copie, puisqu’un tiers pourrait, par d’autres prompts, aboutir à un résultat ressemblant. Hugenholtz distingue : si l’œuvre reprochée provient d’un prompt simple et non retouché, la probabilité d’une « double création » indépendante n’est pas négligeable et, de toute manière, la protection devrait être faible ou inexistante faute d’originalité suffisante. En revanche, plus le processus est itératif et rédigé, plus la probabilité d’une recréation indépendante chute, comme pour les œuvres classiques. Par ailleurs, les outils génératifs conservent souvent des historiques de prompts, ce qui peut objectiver l’enquête sur l’indépendance. Enfin, les obligations de transparence de l’AI Act de l’UE relatives au marquage des contenus synthétiques et à la conformité au droit d’auteur peuvent faciliter, à l’avenir, l’instruction et la prévention, de même que la mise en place de garde-fous techniques par les fournisseurs.

Sur la méthode d’attribution et la titularité, l’article maintient la présomption en faveur de l’utilisateur humain qui a contribué de manière créative ; le fournisseur de modèle n’est pas auteur par défaut, sauf contribution créative au cas d’espèce justifiant une co-auteurité. Ce positionnement répond autant à la logique juridique qu’aux réalités commerciales : il serait dissuasif pour les marchés que les développeurs revendiquent systématiquement des droits en aval sur chaque sortie. Pour un praticien suisse, familier des principes de la Convention de Berne, cette clé de répartition est intelligible : on identifie l’apport humain original exprimé dans le résultat et on rattache la paternité à celui qui l’a fixé dans la forme, en appréciant les faits du dossier.

Dans ses remarques finales, Hugenholtz critique la politique américaine de « dé-revendication » systématique de toute part « plus que de minimis » générée par IA : si l’œuvre mature porte la marque de l’auteur à tous les stades, exiger de séparer une fraction « machine » devient irréaliste et anachronique. L’analogie avec la photographie est parlante : l’appareil a toujours « généré » des aspects essentiels de l’image sans que l’on exige des photographes qu’ils déclarent ces éléments comme non protégeables. Or l’IA s’intègre désormais aux appareils (par exemple, dans les smartphones), automatisant des choix techniques et esthétiques ; il serait absurde d’obliger les créateurs à désosser ces contributions intégrées. L’auteur anticipe aussi une évolution de l’interface créateur-machine : les prompts génériques céderont le pas à des « moteurs d’expression » permettant un contrôle plus direct et plus fin, renforçant encore la traçabilité de l’apport humain.

Au total, le raisonnement se déroule en plusieurs étapes cohérentes. D’abord, les critères et la grille « conception–exécution–rédaction » issus de l’étude IViR restent utiles pour apprécier l’originalité et l’attribution à l’ère de l’IA, autant en Europe qu’aux États-Unis si l’on accepte l’analogie avec la photographie et le cinéma. Ensuite, l’objection du « manque de contrôle » ne tient pas lorsque l’on observe les pratiques itératives, où le rôle humain façonne effectivement l’œuvre à l’amont et à l’aval, même si l’exécution est automatisée. Puis, la dichotomie idée/expression, loin d’être détruite, doit être raffinée : l’expression comprend aussi des couches internes, abstraites et structurelles, déjà admises par la doctrine et la jurisprudence, ce qui autorise une protection proportionnée selon l’intensité de l’apport humain. Enfin, du côté de la contrefaçon, la similarité redevient probante dès lors que l’œuvre revendique une trajectoire créative riche, appuyée demain par des journaux de prompts et des marquages imposés ; les rares cas de double création apparaîtront surtout dans la zone des prompts simples, où la protection devrait de toute façon être limitée. L’ensemble conduit à recommander, pour les contentieux et pour les politiques publiques, d’évaluer la contribution humaine là où elle se trouve réellement, c’est-à-dire dans la direction créative et la mise en forme finale, plutôt que d’ériger une frontière abstraite entre « machine » et « humain » que ni l’histoire des techniques ni la pratique artistique ne justifient.

(L’article est paru dans les actes du colloque AI Disrupting, sous la direction du Professeur Edward Lee, Chicago – Kent Law Revie, vol.  100, Issue 1 (2025), en libre accès ici : https://scholarship.kentlaw.iit.edu/cklawreview/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , | Laisser un commentaire

Travailleurs de l’IA: une rémunération à la tâche ?

Le salaire à la pièce ou à la tâche se caractérise par le fait que le travailleur est rémunéré en fonction de la quantité de travail fournie, et non en rapport au temps mis à disposition de l’employeur. Il ne s’agit pas pour autant d’une situation qui pourrait se voir qualifiée de contrat d’entreprise, car le salarié reste pris dans un rapport de subordination économique et de dépendance juridique envers l’employeur, et il n’est pas tenu non plus par une obligation de moyens mais bien de résultats.

Les dispositions relatives au travail aux pièces ou à la tâche apparaissent vieillies, ou réservées à certains secteurs économiques très particuliers (certaines spécialités dans l’horlogerie par exemple, pour des raisons surtout historiques). C’est oublier que les art. 326-326a CO peuvent aussi tout à fait s’appliquer à des travaux de la nouvelle économie numérique, par exemple dans l’entraînement de l’intelligence artificielle, et qui prévoirait des rémunérations au nombre de « clics », d’évaluations, d’annotations de données, etc. (cf. A.WITZIG, « Art. 326 CO », in L. THEVENOZ/ F. WERRO (édit.), Commentaire romand : Code des obligations I, Bâle 2021, N 4.)

On a souvent soutenu, à raison, que ces tâches sont essentiellement sous-traitées dans le tiers monde, à des conditions souvent contestables. C’était vrai, et cela le demeure largement, mais les modèles d’entrainement ont aussi besoin de prestataires plus sophistiqués ou plus formés, et cela entraîne que ces tâches peuvent aussi, même si dans une moindre mesure, être pratiquées dans les pays développés concernant des questions techniques ou faisant appel à des savoirs particuliers.

Les art. 326 et 326a CO traitent donc spécifiquement des situations où le travailleur est rémunéré aux pièces ou à la tâche.

L’art. 326 CO traite d’abord de la fourniture de travail en cas de travail aux pièces ou à la tâche.

Le risque d’un tel type contrat repose précisément dans l’absence de travail confié, et donc dans l’absence de rémunération et dans l’insécurité qi en résulte pour le travailleur. A teneur de l’art. 326 al. 1 CO, lorsqu’en vertu du contrat le travailleur travaille exclusivement aux pièces ou à la tâche pour un seul employeur, celui-ci doit donc lui fournir du travail en quantité suffisante. Cela signifie que le travailleur doit se voir confier de quoi pouvoir réaliser un revenu pendant toute la durée du temps de travail contractuel.

L’employeur peut charger le travailleur d’un travail payé au temps lorsque les conditions de l’exploitation l’exigent momentanément ou qu’il se trouve, sans faute de sa part, dans l’impossibilité de fournir le travail aux pièces ou à la tâche prévue par le contrat (art. 326 al. 2 CO). Cette disposition rappelle que le salaire au temps est la norme, à laquelle il est possible de revenir nonobstant les dispositions contractuelles dans certaines hypothèses.  Si le salaire payé au temps n’est pas fixé dans un accord, un contrat-type de travail ou une convention collective, l’employeur doit verser au travailleur l’équivalent du salaire moyen aux pièces ou à la tâche qu’il gagnait jusqu’alors (art. 326 al. 3 CO). Enfin, l’employeur qui ne peut pas fournir suffisamment de travail aux pièces ou à la tâche ni de travail payé au temps, n’en reste pas moins tenu, conformément aux dispositions sur la demeure, de payer le salaire qu’il devrait verser pour du travail payé au temps (art. 326 al. 4 CO).

L’art. 326 CO est applicable par analogie au travail sur appel. L’idée est la même : l’employeur ne doit pas pouvoir, unilatéralement, décider en fonction de ses seuls besoins, de la durée du travail et de la rémunération du travailleur. (ATF 125 III 65 consid. 5, p. 70)

L’art. 326a CO traite quant à lui de l’information relative au taux de rémunération.

Lorsqu’en vertu du contrat le travailleur travaille aux pièces ou à la tâche, l’employeur doit donc lui indiquer le taux du salaire avant le début de chaque travail (art. 326a al. 1 CO). Si l’employeur omet de donner ces indications, il paye le salaire selon le taux fixé pour un travail identique ou analogue (art. 326a al. 2 CO).

L’idée est d’éviter que le travailleur ne puisse estimer sa rémunération, et soit empêché de prendre les décisions de la vie quotidienne en rapport.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Qualification du contrat, Salaire | Tagué , , , , , , | Laisser un commentaire

IA : la diffamation par hallucination des Large Language Models

Quelques réflexions tirées de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models (forthcoming in the Journal of Free Speech Law 2025) 25 juillet 2025 (texte disponible ici : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5362314):

L’étude s’ouvre sur un constat: les modèles de langage (LLM) progressent vite et s’installent comme outils de recherche, d’analyse et de rédaction. Les auteurs rappellent l’ambivalence du débat public — utopie d’abondance contre crainte d’accidents sociétaux — mais notent surtout l’usage déjà massif des LLM dans des tâches précises où ils rivalisent par endroits avec l’humain. Ils insistent toutefois sur une propriété clef : ces systèmes génèrent du texte probabiliste, non une « vérité », et produisent inévitablement des contenus « plausibles mais faux », les fameuses « hallucinations ». Celles-ci peuvent prendre la forme de biographies inventées, de citations juridiques apocryphes ou d’écrits judiciaires fictifs. Les éditeurs de modèles peuvent réduire la fréquence de ces sorties, mais pas les éliminer, et les données disponibles suggèrent des taux non négligeables d’erreur selon les contextes. De là naît le problème spécifique de la « diffamation par hallucination » : que faire quand un modèle, répondant à un prompt, « affirme » un fait déshonorant et faux sur une personne ?

Les auteurs soutiennent que le droit de la diffamation, déjà façonné par des siècles d’adaptation aux médias successifs, doit évoluer encore, mais de manière à préserver l’utilité des outils tout en indemnisant les atteintes démontrables.

Pour mettre ce défi en perspective, la Partie I analyse l’affaire Walters v. OpenAI, première décision américaine substantielle sur la diffamation par LLM. En mai 2023, un journaliste interroge ChatGPT à propos d’un litige réel, mais la conversation dévie : le modèle se met à fabriquer un « document » judiciaire accusant le présentateur radio Mark Walters de fraude et de détournement de fonds au détriment d’une association. Le journaliste, qui dispose de documents contredisant cette version, sollicite plusieurs réponses, essuie des excuses et avertissements répétés du modèle sur ses limites, puis contacte Walters ; aucune autre personne ne reçoit la sortie litigieuse. Walters poursuit néanmoins OpenAI en diffamation. Le 19 mai 2025, la juridiction d’État en Géorgie accorde un jugement sommaire à OpenAI. L’ordonnance retient essentiellement que la sortie n’était pas raisonnablement « compréhensible comme factuelle » dans ce contexte truffé de dénégations, d’incohérences et d’indices et que les éléments produits ne confirment pas un préjudice réputationnel effectif. Les auteurs, tout en approuvant l’issue au regard des faits, en pointent les limites conceptuelles et pédagogiques pour les dossiers à venir.

Sur le premier point, la décision estime que, lue « dans son ensemble », la conversation ne pouvait être prise pour un énoncé factuel crédible sur Walters. L’importance pratique est double : d’une part, les avertissements, refus d’obtempérer et contradictions internes du modèle comptent dans l’analyse ; d’autre part, la croyance subjective du récipiendaire (ici le journaliste) — qui n’y a pas cru et a immédiatement vérifié — renforce l’idée d’une absence de « déclaration factuelle » aux yeux d’un lecteur raisonnable. Les auteurs approuvent cette approche pour ce cas précis, tout en avertissant qu’on ne peut en déduire une règle générale neutralisant toute responsabilité des LLM : dans d’autres circonstances, des mises en garde génériques ne suffiraient pas, surtout si des éditeurs vantent parallèlement la fiabilité de leurs produits ou si les usages anthropomorphisent la machine. L’élément clef reste l’examen concret du contexte de publication et de réception.

Sur la faute (« scienter »), l’arrêt rappelle les jalons constitutionnels américains : pour un demandeur public, la preuve d’une connaissance de la fausseté ou d’une indifférence téméraire est exigée. Appliquée à un fournisseur de LLM, cette exigence devient épineuse : une machine n’a pas d’« état d’esprit », et la « décision » d’émettre l’énoncé ne peut être qualifiée d’imprudence humaine. Le tribunal a donc déplacé l’analyse vers la conduite des humains en amont — conception, entraînement, tests, avertissements — et, sur pièces, a jugé ces diligences suffisantes. Les auteurs y voient une première translation de la diffamation vers une logique de « produit » : si faute il y a, elle se prouverait par une expertise sur les choix de design et de gouvernance du modèle, non par une intention éditoriale au moment de « publier » un propos sur un individu. Cela soulève la question pratique du coût de la preuve pour des plaignants individuels et de la volatilité des versions de modèles, ce qui rend fragile la transposition directe des standards classiques du Premier Amendement.

La décision Walters évoque aussi la question des dommages. En droit américain, certaines catégories de diffamation autorisent des dommages « présumés », en reconnaissance de l’insaisissabilité de certaines atteintes relationnelles. Mais quand les éléments établissent que personne d’autre n’a reçu la sortie, que le destinataire n’y a pas cru et que le plaignant n’a pas subi de conséquences concrètes, la base d’une présomption s’effrite. Ici, la capacité d’OpenAI à produire l’historique exact des prompts a joué un rôle probant : elle a permis de démontrer l’absence de diffusion et, partant, la faiblesse du dommage. Les auteurs y voient une piste de politique publique : imposer la conservation proportionnée des logs de requêtes pendant une durée limitée pour objectiver l’étendue d’une diffusion et la réalité du tort.

Enfin, la Partie I aborde un « chemin non pris » par le juge : l’angle de la « publication ». En diffamation, il faut qu’au moins un tiers reçoive l’énoncé. Mais au-delà de ce minimum, le régime de responsabilité varie selon que l’acteur est « éditeur » (publisher) ou « distributeur » : bibliothèques, kiosques et télégraphes ont historiquement bénéficié d’un régime atténué tant qu’ils n’avaient pas connaissance effective du caractère diffamatoire. Les auteurs proposent d’assimiler les producteurs de LLM à des « distributeurs » : ils fournissent un outil qui, à la demande d’un usager, recompose de l’information, sans exercer un contrôle éditorial classique ni garantir la vérité du contenu. Par analogie avec la jurisprudence télégraphique, le droit commun a su exonérer des intermédiaires non passifs quand l’examen ex ante du flux serait impraticable et quand l’intervenant le plus efficace est l’émetteur initial — ici, souvent, l’utilisateur qui « relaye » ensuite le propos. Cette qualification guiderait un équilibre plus juste entre liberté de communiquer et protection de la réputation.

La Partie II délaisse les « fondation models » pour décrire l’essor des « reasoning models », notamment ceux qui exposent une « chaîne de pensée » (chain-of-thought, CoT). Ces systèmes entreprennent une résolution pas-à-pas, parfois avec « double vérification » interne, et promettent des résultats finaux plus exacts. Mais ils introduisent une nouvelle zone de risque : des hallucinations potentiellement diffamatoires peuvent apparaître non pas dans la réponse finale, mais dans les étapes intermédiaires affichées à l’utilisateur, par exemple en nommant des personnes à tort comme auteurs de faits répréhensibles au stade de la « vérification », puis en corrigeant finalement le tir. D’un point de vue responsabilité, ces « micro-hallucinations » exposées créent des vecteurs supplémentaires d’atteinte si elles sont vues, conservées ou réutilisées. Les auteurs citent même des cas où ces CoT auraient aidé le modèle à éviter une erreur finale, ce qui complique davantage le diagnostic juridique : faut-il censurer l’affichage des CoT pour éviter les diffamations intermédiaires au risque de perdre un puissant mécanisme d’audit et d’amélioration de la sûreté ? Leur réponse est prudente : une censure systématique des CoT réduirait la capacité de contrôle et pourrait dégrader la sécurité globale, même si des garde-fous s’imposent.

La même Partie II introduit une taxonomie utile pour les praticiens : des chercheurs de Yale distinguent trois types d’hallucinations — celles infidèles au prompt de l’utilisateur, celles non dérivables du corpus d’entraînement, et celles contraires aux faits du monde. Chacune pose des problèmes différents en diffamation. Quand le modèle résume un document fourni et « déforme » un passage au détriment d’une personne, l’utilisateur a souvent en main la source permettant de vérifier ; fonder une responsabilité lourde du fournisseur de LLM pour une « infidélité au prompt » alors que l’usager pouvait contrôler paraît discutable. À l’inverse, les hallucinations « hors-corpus » peuvent être, paradoxalement, une source de créativité utile, l’outil « pensant autrement » en recombinatoire, mais deviennent dangereuses si elles attribuent des faits pénaux. Enfin, les hallucinations « contra factum » sont les plus délicates : elles produisent de fausses assertions identifiantes sur des personnes — le terrain classique de la diffamation. Les auteurs insistent que, techniquement, la combinaison de probabilité linguistique, de biais et d’incomplétudes de données, et de « volonté » du modèle de « faire plaisir » en comblant les trous explique l’inévitabilité des erreurs. Vouloir les éradiquer totalement reviendrait à sacrifier des fonctions créatives et, en définitive, l’utilité du médium.

Cette inévitabilité a des corollaires normatifs importants. D’abord, l’amélioration continue est réelle — avec la récupération augmentée (RAG), les modèles « montrent leurs sources » et permettent des vérifications en ligne, tandis que les chaînes de pensée offrent une forme d’auto-contrôle — mais elle n’est ni linéaire ni définitive. Ensuite, la transparence de conception et l’ouverture de la recherche favorisent l’innovation sûre ; enfin, certaines hallucinations peuvent être « précieuses » dans des usages créatifs ou heuristiques, y compris pour la pratique juridique, pourvu que l’utilisateur adopte une discipline de « trust but verify ». Ces éléments invitent à calibrer la réponse juridique : punir indistinctement chaque hallucination diffamatoire du modèle risquerait de « geler » un médium informationnel prometteur, sans pour autant mieux protéger les victimes.

La Partie III propose alors des objectifs de politique de communication pour guider l’adaptation du droit de la diffamation à ces systèmes. Le premier est d’indemniser les victimes pour des préjudices prouvables ; le second, de faciliter la correction de l’« ardoise numérique » ; le troisième, d’encourager la transparence et l’innovation en matière de sécurité et d’exactitude ; le quatrième, d’exiger une diligence raisonnable à tous les stades de la chaîne — développeurs, intégrateurs et utilisateurs finaux. Les auteurs insistent sur la nécessité d’un équilibre : ces buts sont en tension et ne relèvent pas tous de la common law de la diffamation. Pour certains, des instruments législatifs ou réglementaires sont plus adaptés, d’autant que la diffamation n’est pas l’outil optimal pour réguler les systèmes d’IA à haut risque extra-informationnels. Mais s’agissant des atteintes réputationnelles issues de sorties textuelles, il est possible d’avancer sans sacrifier la « respiration » du débat public.

Dans cette veine, une proposition concrète concerne l’obligation d’informer : en tort (responsabilité civile) pure, imposer uniformément un devoir d’avertir tous les utilisateurs sur l’ampleur et la nature des hallucinations est peu efficace et fragile. Une voie plus droite passe par la loi : instaurer un devoir statutaire de transparence et d’éducation des utilisateurs, potentiellement articulé à une immunité corrélative, pour généraliser des mises en garde claires sur la vérification indispensable des sorties. Une autre proposition est la conservation limitée des données de requêtes, afin de permettre aux victimes de prouver l’existence et surtout l’étendue de la diffusion d’une sortie diffamatoire ; cette mesure devrait être calibrée temporellement pour limiter les risques de sécurité et de confidentialité. Ces leviers législatifs ont un avantage : ils renforcent la prévention et l’administration de la preuve, plutôt que de compter ex post sur des dommages « présumés » difficilement justifiables lorsque la diffusion est nulle ou marginale.

La Partie IV articule le cadre normatif proposé. Les auteurs suggèrent de traiter les hallucinations diffamatoires — qu’elles surviennent dans la réponse finale ou dans la chaîne de pensée — comme des « erreurs inévitables », à la manière dont la Cour suprême américaine, dans New York Times v. Sullivan, a reconnu que certaines erreurs journalistiques doivent être tolérées pour garantir un débat public « vigoureux et sans entraves ». À partir de là, ils plaident pour une transposition prudente des catégories de responsabilité : assimiler les producteurs de LLM à des « distributeurs » d’information, non à des éditeurs, afin d’éviter d’exiger d’eux un contrôle préalable impossible et de placer la charge principale sur les acteurs les mieux placés pour éviter le tort — souvent l’utilisateur qui répète la fausse allégation sans vérifier. Cette position est cohérente avec l’histoire du droit de la diffamation face au télégraphe : les tribunaux ont reconnu des privilèges larges aux opérateurs, sauf connaissance effective de la malice du message. Dans le monde des LLM, où le fournisseur propose un outil algorithmique qui « remixe » des informations à l’initiative d’un usager, une responsabilité de « distributeur » avec régime de connaissance est, selon les auteurs, adaptée aux objectifs de politique de communication.

Ce basculement s’accompagne de trois pièces complémentaires. Premièrement, un devoir légal de mise en garde et d’éducation des utilisateurs, visible et opérationnel, pour ancrer la norme d’usage « vérifier avant de relayer ». Deuxièmement, une obligation de conservation proportionnée des historiques de requêtes, afin d’objectiver la diffusion et d’éclairer l’évaluation du dommage — mesure qui bénéficierait autant aux demandeurs qu’aux défendeurs en clarifiant rapidement les faits. Troisièmement, une réactivation sans complexe de la responsabilité de l’utilisateur-relais : celui qui reprend une sortie diffamatoire sans diligence est souvent le « cheapest cost avoider », c’est-à-dire l’acteur au moindre coût d’évitement, et doit répondre, comme on le fait déjà pour des journalistes relayant sans vérification une source non fiable. Autrement dit, le droit de la diffamation garderait sa vocation à discipliner les comportements humains fautifs, tandis que la conception, l’entraînement et l’opération d’outils intrinsèquement faillibles seraient régulés par des devoirs d’information, de gouvernance et de traçabilité.

Un élément particulièrement fin du cadre concerne les chaînes de pensée. Les auteurs mettent en garde contre une tentation compréhensible : supprimer l’affichage des CoT pour éviter les diffamations « intermédiaires ». Ce remède, expliquent-ils, saperait un mécanisme déterminant de monitoring de sûreté et de compréhension des erreurs. Pour que les CoT servent à la détection et à la correction des comportements indésirables, elles doivent être « fidèles » au processus décisionnel du modèle. Autrement, on perd l’information nécessaire pour auditer, et on réduit la possibilité de corriger les risques systématiques. L’optimum, suggéré par l’article, réside plutôt dans des garde-fous ciblés et des politiques utilisateur claires, combinés à la qualification « distributeur » et au recentrage de la responsabilité sur la republication non vérifiée par des humains.

La conclusion récapitule la philosophie générale. À chaque révolution médiatique — presse, télégraphe, radio, télévision, internet — le droit américain de la diffamation a modulé ses outils pour ne pas étouffer le médium tout en protégeant la dignité et la réputation. Les LLM raisonnants imposent une nouvelle adaptation : reconnaître que des erreurs diffamatoires surgiront malgré toutes les précautions, les traiter comme des « erreurs inévitables » inhérentes au média, placer sur les producteurs un devoir d’alerte et de traçabilité qui améliore la prévention et la preuve, puis traiter juridiquement les éditeurs de modèles comme des « distributeurs » plutôt que des « éditeurs ». Corrélativement, faire peser la responsabilité principale sur les usagers qui, en connaissance des limites, relaient des allégations graves sans vérification raisonnable. Les auteurs revendiquent une approche modeste et ciblée : il ne s’agit pas d’un programme général de régulation de l’IA, mais d’un ajustement de la diffamation à une classe d’atteintes réputationnelles spécifiques, afin d’allier réparation, correction de l’espace informationnel et maintien d’un espace d’expérimentation sûr et auditable pour un médium appelé à rester.

En définitive, la proposition des auteurs n’invite pas à l’impunité des modèles, mais à un partage des responsabilités conforme à l’économie du risque : des devoirs ex ante d’information et de traçabilité pour les fournisseurs ; une responsabilité de droit commun ciblant l’usager qui publie ou republie ; et, au-dessus, un droit de la diffamation ajusté pour tolérer les « erreurs inévitables » sans renoncer à la réparation des torts prouvés ni à la correction de l’espace numérique. C’est une voie médiane pragmatique, informée par l’histoire des médias et par l’état réel des technologies, qui fournit aux avocats un cadre opérationnel pour conseiller, prévenir et plaider dans un champ appelé à croître.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit pénal, Droit US, intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Droit d’accès au dossier : exception en cas d’évaluation d’un dossier de candidature par des pairs (peer review)

A.________ est professeure associée à la Faculté des sciences de la vie de l’École Polytechnique Fédérale (EPF) de Lausanne (EPFL) depuis 2012.

Le 23 juillet 2019, elle a déposé une demande de promotion auprès de la Doyenne de la Faculté afin d’accéder au statut de professeure ordinaire. Après avoir fait l’objet d’un examen par la présidence des affaires académiques, sa candidature n’a pas été soumise au Conseil des EPF, ce qui a été confirmé par la Commission de recours interne des EPF (ci-après: CRIEPF) le 25 août 2022.

Le 24 octobre 2022, A.________ a demandé à pouvoir consulter son dossier d’évaluation en lien avec sa demande de promotion. Cette demande d’accès a été rejetée par le Président de l’EPFL, le 23 novembre 2022. Il lui a néanmoins communiqué les informations disponibles sur l’origine des données, le but et les bases juridiques du traitement, les catégories de données traitées et de participants au fichier ainsi que les catégories de destinataires des données.

Le recours interjeté contre cette décision a été admis par la CRIEPF, le 15 juin 2023, qui a renvoyé l’affaire à l’EPFL pour qu’elle statue à nouveau dans le sens de ses considérants. L’EPFL a recouru contre cette décision auprès du Tribunal administratif fédéral (ci-après: TAF).

Par arrêt du 12 février 2024, le TAF a admis le recours au sens des considérants et annulé la décision de la CRIEPF. Il a considéré en substance que l’autorité inférieure n’avait pas tenu compte de l’intérêt public au maintien de la confidentialité dans le système d’évaluation par les pairs, que certains documents du dossier de promotion ne pouvaient pas être transmis alors que d’autres pouvaient l’être sans restriction ou moyennant une anonymisation. Il a renvoyé l’affaire à l’EPFL pour nouvelle décision dans le sens des considérants.

Le recours formé par A.________ par acte du 22 mars 2024 contre cet arrêt a été déclaré irrecevable par le Tribunal fédéral dans la cause 1C_182/2024 du 4 avril 2024, au motif que la décision incidente de renvoi ne causait aucun préjudice irréparable à la recourante. Cette dernière conservait en effet la possibilité de recourir contre la nouvelle décision de l’EPFL.

Par décision du 23 mai 2024, l’EPFL a accordé à A.________ l’accès, conformément à l’arrêt du TAF, au dossier de promotion faisant partie de la « Bibliométrie », au document intitulé « Profil de A.________ », à son dossier de candidature, ainsi qu’aux éléments compris dans le « Dossier d’enseignement complet ».

Agissant à nouveau le 22 juin 2024 par recours en matière de droit public, A.________ demande au Tribunal fédéral d’annuler l’arrêt du TAF du 12 février 2024 et de lui accorder un accès complet à son dossier d’évaluation de l’EPFL.

(…)

2.  La recourante fait grief au TAF d’avoir violé la législation sur la protection des données en lui ayant refusé l’accès à son dossier de demande de promotion, plus spécifiquement aux rapports des experts externes et internes qui se sont prononcés sur sa candidature. (…)

2.1. Le droit d’accès en matière de protection des données et le droit de consulter un dossier dans le cadre d’une procédure (cf. art. 26 al. 1 de la loi fédérale du 20 décembre 1968 sur la procédure administrative [PA; RS 172.021]) sont des droits indépendants qui ne sont pas identiques en termes de portée et de conditions. Bien que ces droits peuvent se chevaucher en partie, ils ont chacun leur champ d’application particulier qui n’est pas couvert par l’autre droit (ATF 125 II 473 consid. 4a et 123 II 534 consid. 2e). Le droit de consulter un dossier peut aussi s’appliquer en dehors d’une procédure formelle, pour autant qu’il existe un intérêt particulier digne de protection (ATF 113 Ia 1 consid. 4a et 4d). Quant au droit d’accès à des données personnelles, il peut être invoqué en dehors d’une procédure administrative sans qu’il soit nécessaire de justifier d’un intérêt, mais ne s’étend cependant qu’aux données de la personne concernée (cf. ATF 123 II 543 consid. 2e avec les références). 

Dans le cas d’espèce, la recourante a demandé à l’EPFL de pouvoir accéder à son dossier de candidature en invoquant les dispositions légales de la protection des données personnelles. Le TAF et avant lui la CRIEPF ont ainsi traité cette requête sur la base de ces dispositions, considérant notamment que la procédure d’examen de la demande de promotion était terminée de sorte que l’art. 26 al. 1 PA n’était pas applicable (cf. décision du 15 juin 2023 de la CRIEPF, BK 2022 53 consid. 5). Bien que ce motif avancé ne saurait être décisif, la recourante n’a pas remis en cause l’application des dispositions de la loi sur la protection des données et fonde d’ailleurs son recours sur celles-ci. Elle demande en l’occurrence l’accès à des données personnelles la concernant, de sorte que la cause peut être examinée à l’aune des dispositions régissant l’accès à des données personnelles (cf. ATF 123 II 543 consid. 2f).

2.2. Au 1er septembre 2023, une révision totale de la loi fédérale du 25 septembre 2020 sur la protection des données (LPD; RS 235.1) est entrée en vigueur. Celle-ci ne s’applique pas aux recours pendants contre les décisions de première instance rendues avant son entrée en vigueur (cf. art. 70 LPD), ce qui est le cas des décisions de l’EPFL et de la CRIEPF, de sorte que l’ancien droit demeure applicable. 

 2.2.1. En vertu de l’ancien art. 8 de la loi fédérale du 19 juin 1992 sur la protection des données en vigueur jusqu’au 31 août 2023 (aLPD; RO 1993 1945), toute personne peut demander au maître d’un fichier si des données la concernant sont traitées (al. 1). Le maître du fichier doit lui communiquer: toutes les données la concernant qui sont contenues dans le fichier, y compris les informations disponibles sur l’origine des données (al. 2 let. a); le but et éventuellement la base juridique du traitement, les catégories de données personnelles traitées, de participants au fichier et de destinataires des données (al. 2 let. b). Ce droit de consultation existe indépendamment de tout intérêt; ce n’est qu’en cas de refus de la part du maître du fichier, qu’une pesée d’intérêts doit avoir lieu. La prise en compte de l’intérêt du requérant joue également un rôle lorsque se pose la question d’un éventuel abus de droit (ATF 141 III 119 consid. 7.1.1). 

 2.2.2. Selon l’art. 9 al. 1 aLPD, le maître du fichier peut refuser ou restreindre la communication des renseignements demandés, voire en différer l’octroi, dans la mesure où: une loi au sens formel le prévoit (let. a); les intérêts prépondérants d’un tiers l’exigent (let. b). L’alinéa 2 ajoute qu’un organe fédéral peut refuser ou restreindre la communication des renseignements demandés, voire en différer l’octroi, dans la mesure où: un intérêt public prépondérant, en particulier la sûreté intérieure ou extérieure de la Confédération, l’exige (let. a); la communication des renseignements risque de compromettre une instruction pénale ou une autre procédure d’instruction (let. b). Dès que le motif justifiant le refus, la restriction ou l’ajournement disparaît, l’organe fédéral est tenu de communiquer les renseignements demandés, pour autant que cela ne s’avère pas impossible ou ne nécessite pas un travail disproportionné (al. 3). Il convient de procéder à une mise en balance des intérêts (ATF 138 III 425 consid. 6.1). En principe, si l’anonymisation des documents concernés suffit à protéger les tiers, le droit d’accès du titulaire des données ne devrait pas, sous peine d’une violation du principe de la proportionnalité (cf. art. 4 al. 2 LPD), faire l’objet d’une plus grande restriction (ATF 141 III 119 consid. 6.2). 

2.3. Les rapports de travail du corps professoral de l’EPFL font l’objet d’une ordonnance du Conseil des EPF (cf. art. 17 al. 2 loi fédérale du 4 octobre 1991 sur les écoles polytechniques fédérales [Loi sur les EPF; RS 414.110]). Aux termes de l’art. 3 al. 1 de cette ordonnance du 18 septembre 2003 sur le corps professoral des EPF (RS 172.220.113.40), les deux EPF prennent les mesures nécessaires pour nommer au poste de professeur des scientifiques suisses ou étrangers qui travaillent au plus haut niveau de qualité mesuré aux normes internationalement reconnues dans leurs activités de formation, de recherche et de fourniture de services et qui assurent la continuité et l’excellence de l’enseignement et de la recherche. L’art. 11 règle la promotion au rang de professeur ordinaire qui doit avoir lieu sur la base d’une évaluation. Le processus et les critères de cette évaluation sont définis dans un règlement de la direction de l’EPFL du 4 mai 2004 sur la nomination de professeur associé à professeur ordinaire (règlement de nomination; LEX 4.2.2). 

2.4. Il est indéniable que la recourante dispose d’un intérêt légitime à pouvoir accéder à son dossier de candidature et comprendre les raisons ayant conduit au refus de sa promotion en tant que professeure ordinaire. Étroitement lié à sa liberté personnelle, ce droit d’accès doit lui permettre de contrôler l’exactitude des données qui la concernent et vérifier si leur traitement est conforme au droit (cf. ATF 138 III 425 consid. 5.3 et 122 I 153 consid. 6 b/aa). Dans la mesure où la recourante est identifiée par les rapports litigieux des experts, les informations qu’ils contiennent sont des données personnelles au sens de l’art. 3 let. a aLPD qui doivent en principe lui être communiquées. 

 2.5. Il convient par conséquent d’examiner si un intérêt public ou privé prépondérant justifiait une restriction au droit d’accès. Le TAF a considéré que l’intérêt public au maintien de la confidentialité dans le système d’évaluation par les pairs ( » peer review « ) l’emportait sur l’intérêt de la recourante à accéder aux rapports des experts. 

 2.5.1. Les Hautes écoles suisses, y compris les écoles polytechniques fédérales, représentent l’un des secteurs les plus importants de la recherche, dont les objectifs sont de former des étudiants avancés, d’élargir et maintenir un haut niveau de compétence du corps enseignant, et de mettre à disposition le savoir acquis au profit de la collectivité (cf. Message du 18 novembre 1981 concernant la loi sur la recherche [actuellement loi fédérale du 14 décembre 2012 sur l’encouragement de la recherche et de l’innovation, LERI; RS 420.1], FF 1981 III 989, p. 1005). Il est attendu des EPF qu’elles créent des centres d’excellence et collaborent intensivement avec d’autres hautes écoles, les milieux économiques et l’administration (Message du 14 décembre 1987 concernant la loi sur les EPF, FF 1988 I 697, p. 713). L’assurance de la qualité de l’enseignement, qui est l’une des tâches principales des EPF (cf. art. 10b loi sur les EPF), inclut l’évaluation de la qualité des prestations des professeurs (cf. Message du 27 février 2002 concernant la révision partielle de la loi sur les EPF, FF 2002 3251, p. 3267). 

La nomination à l’EPFL au poste de professeur ordinaire doit répondre à des critères exigeants définis directement par les établissements (cf. art. 3 al. 1 de l’ordonnance sur le corps professoral des EPF). Saisi d’une demande de promotion, le Comité d’évaluation académique de la Faculté (CEA) de l’EPFL exige notamment des lettres de référence de six personnalités reconnues sur le plan international et charge six experts externes de haut niveau de rendre des rapports afin d’évaluer la qualité de la candidature. Les personnes référentes et les rapporteurs doivent faire preuve d’indépendance par rapport au candidat (cf. art. 2 du règlement de nomination). Intitulé « Protection des informations et accès au dossier d’évaluation », l’art. 10 du règlement de nomination indique que le dossier d’évaluation n’est pas accessible au candidat dans un but de protéger ce dernier ainsi que d’assurer la qualité et la véracité des avis émis par les experts. Depuis le 1er septembre 2023, le principe de la confidentialité des documents réunis dans le cadre de la procédure de nomination et d’évaluation des membres du corps professoral, en particulier les évaluations par des pairs et les lettres de référence, est mentionné à l’art. 15 de l’ordonnance du Conseil des EPF du 8 décembre 2022 concernant la protection des données personnelles du personnel du domaine des EPF (OPD-EPF; RS 172.220.113.42). Cette dernière disposition n’est toutefois pas applicable au présent litige dont la décision de première instance a été rendue avant l’entrée en vigueur de la réforme de la LPD (cf. art. 70 LPD).

 2.5.2. Le système de promotion mis en place par l’EPFL se base sur la méthode d’évaluation collective de chercheurs sur l’activité d’un autre chercheur d’une même discipline scientifique (évaluation par les pairs; « peer review »). Ce système, largement éprouvé dans le domaine scientifique, est à la fois utilisé dans la publication de travaux techniques et dans le recrutement ou la promotion de chercheurs. La recourante fait remarquer que seuls les noms des rapporteurs sont traditionnellement anonymisés et non leurs appréciations. 

L’évaluation effectuée par les pairs de la recourante a cependant été menée dans un processus de promotion. Si la publication des avis et critiques d’experts sur les travaux de leurs confrères s’avère justifiée par une optique d’alimenter le débat scientifique et de faire progresser la recherche, ces finalités ne sont pas poursuivies dans le cadre d’une procédure de promotion. Dans une telle procédure, le bon fonctionnement du système impose de garder l’identité des experts et des rapporteurs confidentielle afin de garantir leur totale indépendance. Si leur identité était connue des candidats, ils pourraient être tentés de rédiger leurs mémoires de façon à éviter toute situation conflictuelle et ne seraient ainsi pas en mesure de rendre leur appréciation en toute objectivité. Sans anonymat, il pourrait également exister un risque que les experts refusent tout simplement de se prononcer, rendant leur sélection plus difficile. L’activité de recherche expérimentale du cancer du sein de la recourante porte, au demeurant, sur un domaine spécialisé, impliquant nécessairement des relations mutuelles étroites entre les différents chercheurs de ce secteur, dans lequel des rapporteurs qualifiés susceptibles d’émettre des avis neutres seraient d’autant plus difficile à trouver. La confidentialité est par ailleurs aussi la règle dans le cadre de l’institution londonienne que la recourante cite, laquelle interdit expressément de divulguer toute information qui permettrait d’identifier les personnes de référence. Il n’est de même pas dénué d’intérêt de vouloir garder l’identité des experts internes (membres du CEA de l’EPFL et de la faculté) confidentielle afin de maintenir une ambiance de travail sereine au sein de l’institution. Enfin, compte tenu de l’art. 10 du règlement de nomination, les personnes impliquées en qualité de rapporteur dans la procédure d’évaluation des candidats pouvaient s’attendre à ce que leurs appréciations et déclarations ne soient pas révélées à la personne concernée. Ils ont pris position sur la candidature de la recourante, en se fondant sur des critères objectifs et à l’initiative du CEA de l’intimée, de sorte que leur intérêt à la confidentialité doit également être pris en considération dans la pesée des intérêts (cf. ATF 122 I 153 consid. 6 c/bb; cf. aussi arrêt 1C_74/2015 du 2 décembre 2015 consid. 4, in ZBI 118/2014 94, en particulier par rapport à l’intérêt, qui peut s’opposer à la transparence, de la protection des données des personnes évaluées).

Au vu de ces éléments, le TAF pouvait sans violer le droit fédéral retenir que la mise en balance des intérêts penchait, en l’occurrence, en faveur du maintien de la confidentialité.

 2.6. La restriction au droit d’accès de la recourante étant justifiée par des intérêts prépondérants, il convient encore d’examiner si une mesure moins incisive aurait pu être ordonnée. 

Le TAF a considéré qu’une mesure d’anonymisation des rapports ne serait pas suffisante et que l’intégralité des documents ne pouvait pas être transmise à la recourante. Un caviardage limité aux noms des experts ne permettrait en effet pas de garantir leur identité confidentielle, dès lors qu’ils indiquaient la nature de leurs relations professionnelles passées ou présentes avec la recourante, ainsi que leur domaine de compétence. La recourante soutient qu’une anonymisation limitée au nom des experts serait suffisante, mais ne remet cependant pas en cause le fait qu’elle pourrait les identifier sur la base de leurs explications dans les rapports. Dans ces conditions, un caviardage limité aux noms des experts ne serait effectivement pas apte à garder leur identité secrète. Afin de maintenir ces rapports intelligibles, une anonymisation des autres informations susceptibles d’identifier les experts n’entre également pas en ligne de compte. Le TAF pouvait ainsi considérer que les documents litigieux ne pouvaient pas faire l’objet d’une mesure moins incisive qu’un refus complet de transmission. Le refus d’accès aux documents litigieux respecte dans ces conditions le principe de la proportionnalité.

(TF 1C_375/2024 du 1er mai 2025, consid. 2)

Me Philippe Ehrenström, avocat, LLM

Publié dans nouvelle LPD, Protection des données | Tagué , , , , , , | Laisser un commentaire

Abandon d’emploi : droit de l’employeur à une indemnité ?

Le recourant [= l’employeur] soutient ensuite que la cour cantonale a violé le droit en rejetant sa prétention au titre de dommage-intérêts pour les conséquences du congé immédiat injustifié donné par la travailleuse. Il invoque une violation de l’art. 337d CO.

Le recourant se prévaut de l’art. 337d al. 1 CO et de l’ATF 118 II 277 qui, selon lui, lui donneraient droit à une indemnité forfaitaire sans devoir apporter la preuve d’un dommage.

 Il y a abandon d’emploi selon l’art. 337d CO lorsque le travailleur quitte son poste abruptement sans justes motifs. L’application de cette disposition présuppose un refus du travailleur de poursuivre l’exécution du travail confié. Dans ce cas, le contrat de travail prend fin immédiatement, sans que l’employeur doive adresser au salarié une résiliation immédiate de son contrat.

L’employeur a droit, aux conditions fixées par l’art. 337d CO, à une indemnité et, le cas échéant, à la réparation du dommage supplémentaire (arrêt 4A_35/2017 du 31 mai 2017 consid. 4.2; ATF 121 V 277 consid. 3a).

Lorsque l’abandon d’emploi ne résulte pas d’une déclaration expresse du salarié, il faut examiner s’il découle du comportement adopté par l’intéressé, c’est-à-dire d’actes concluants. Dans cette hypothèse, on se demandera si, compte tenu de toutes les circonstances, l’employeur pouvait, objectivement et de bonne foi, comprendre que le salarié entendait quitter son emploi (arrêts 4A_454/2022 du 17 novembre 2022 consid. 4.1; 4C.303/2005 du 1er décembre 2005 consid. 2.2; 4C.370/2001 du 14 mars 2002 consid. 2a). 

Le juge peut réduire l’indemnité selon sa libre appréciation si l’employeur ne subit aucun dommage ou si le dommage est inférieur à l’indemnité prévue à l’art. 337d al. 1 CO (art. 337d al. 2 CO).

 Il n’est plus contesté à ce stade que la travailleuse a abandonné son emploi en signifiant son congé immédiat de façon injustifiée, dans la mesure où les faits de harcèlement subis par elle ne suffisaient pas à justifier une résiliation immédiate. 

La cour cantonale a retenu que l’employeur n’avait subi aucun dommage du fait de l’abandon de poste de la travailleuse. En effet, lorsque la travailleuse a abandonné son poste le 28 juin 2021, elle était en incapacité de travail depuis le 7 juin 2021. L’employeur devait déjà avoir pris des mesures organisationnelles dès cette date. De plus, la travailleuse étant toujours en incapacité de travail le 28 juin 2021, l’employeur aurait de toute façon dû trouver une solution de repli, de sorte qu’il n’avait pas démontré avoir subi un quelconque dommage au titre de congé immédiat injustifié.

Faisant application de l’art. 337d al. 2 CO, la cour cantonale a considéré que l’employeur n’avait pas démontré avoir subi un quelconque dommage et a ainsi rejeté l’indemnisation forfaitaire de l’art. 337d al. 1 CO.

Le recourant, qui soutient que la faculté de réduire le montant alloué en vertu de l’art. 337d al. 2 CO ne permet pas pour autant au juge de supprimer toute indemnité forfaitaire, ne saurait être suivi. 

Par la fixation d’une indemnité forfaitaire prévue à l’art. 337d al. 1 CO, le législateur a pris en compte le fait qu’en cas de départ injustifié de l’employé, la preuve du dommage est souvent difficile à établir pour l’employeur (ATF 118 II 312 consid. 2a). Néanmoins, l’art. 337d al. 2 CO dispose que le juge peut réduire l’indemnité au-dessous de ce qui est prévu à l’al. 1 si le travailleur prouve que l’employeur ne subit aucun dommage ou qu’un dommage plus faible. La preuve en est fournie notamment s’il est démontré que l’employeur a omis de prendre immédiatement les dispositions nécessaires pour empêcher ou réduire le dommage (Message du Conseil fédéral concernant la révision des titres dixième et dixième bis du code des obligations [Du contrat de travail], du 25 août 1967, FF 1967 II, p. 401).

Or, en l’espèce, la cour cantonale a retenu, au stade de la constatation des faits, que l’employeur aurait dû prendre immédiatement les dispositions nécessaires pour empêcher le dommage, dès le 7 juin 2021, ou en tout cas avant le 28 juin 2021. En conséquence, elle a réduit à néant l’indemnité à l’employeur, en application de l’art. 337d al. 2 CO. Le recourant, qui soutient que l’art. 337d al. 2 CO n’accorde pas au juge la marge de manœuvre permettant de supprimer toute indemnité, se trompe. Le Message mentionne expressément le cas où l’employeur ne subit aucun dommage. Or la loi ne prévoit pas le paiement d’une indemnité en l’absence de tout dommage. Tout au plus, l’art. 337d al. 1 CO prévoit-il un allègement de la preuve pour l’employeur, mais pas une indemnité forfaitaire indépendante de l’existence d’un dommage. Lorsque le travailleur prouve que l’employeur ne subit aucun dommage du fait de son abandon de poste, le juge peut supprimer toute indemnité en vertu de l’art. 337d al. 2 CO.

Le caractère impératif de l’art. 337d CO (dans son ensemble, selon l’art. 361 al. 1 CO) invoqué par le recourant n’y change rien dans la mesure où les parties n’y ont pas dérogé.

Quant à sa dernière remarque concernant le fardeau de la preuve de l’absence de dommage, le recourant perd de vue que lorsque l’appréciation des preuves convainc le juge que le fait litigieux est établi, la répartition du fardeau de la preuve (art. 8 CC) n’a plus d’objet (ATF 141 III 241 consid. 3.2 et les références).

 Par conséquent, le grief de violation de l’art. 337d al. 1 et 2 CO et de l’art. 8 CC doit être rejeté. 

(TF 4A_533/2024 du 24 juin 2025, consid. 4)

Me Philippe Ehrenström, avocat, LLM

Publié dans Fin des rapports de travail, Responsabilité du travailleur | Tagué , , , , , , | Laisser un commentaire

L’avocat et le risque de l’intelligence artificielle cachée

A propos d’un « Order » du Juge Alison S. Bachus du 14 août 2025 dans Argelia Esther Mavy v. Commissioner of Social Security Administration, United States District Court for the District of Arizona (No. CV-25-00689-PHX-KML (ASB)) :

L’affaire naît d’un litige de sécurité sociale aux États-Unis. La demanderesse, représentée par une avocate admise dans le district fédéral d’Arizona, avait introduit une action en février 2025. Comme c’est l’usage, un mémoire introductif fut déposé pour défendre la position de la cliente. L’administration de la sécurité sociale a répondu, mais aucune réplique n’a été déposée.

C’est lors de l’examen du premier mémoire de la demanderesse que la cour a constaté un problème d’une ampleur inhabituelle. En effet, la grande majorité des références jurisprudentielles citées dans ce mémoire étaient soit inexistantes, soit erronées, soit tronquées ou présentées de manière trompeuse. Certaines semblaient avoir toutes les caractéristiques de ce que l’on appelle des « hallucinations » générées par des outils d’intelligence artificielle, c’est-à-dire des décisions inventées de toutes pièces mais rédigées avec l’apparence du réel : noms de parties plausibles, juridictions valables, dates crédibles.

Face à ce constat, la cour a ordonné à l’avocate de s’expliquer. Celle-ci a répondu qu’elle prenait l’entière responsabilité du mémoire, tout en expliquant le fonctionnement interne de son cabinet. Elle a décrit une chaîne de préparation des écritures en quatre étapes : une sélection préalable des affaires, une délégation de la rédaction à un avocat externe, une révision par un avocat superviseur au sein du cabinet, puis enfin une relecture personnelle avant signature. Elle a ajouté qu’elle s’était fiée au professionnalisme de la rédactrice externe, qu’elle avait en outre transmis à cette dernière une note officielle émanant d’un tribunal fédéral rappelant la vigilance requise face à l’usage de l’IA et la nécessité de vérifier les citations, et que la rédactrice avait accusé réception de cet avertissement. Malgré cela, le mémoire déposé contenait de très nombreux passages problématiques.

Dans sa réponse, l’avocate a insisté sur le fait qu’elle n’avait jamais eu l’intention de tromper le tribunal et qu’elle avait depuis lors rompu toute relation contractuelle avec la rédactrice externe. Elle a proposé de corriger le mémoire, de déposer une version amendée et de mettre en place de nouvelles procédures internes. Mais elle a aussi demandé à la cour de ne pas la sanctionner, ni de révoquer son admission, en invoquant l’importance de son cabinet pour l’accès à la justice des assurés sociaux à travers le pays.

Le tribunal a replacé l’affaire dans le cadre de la règle 11 des Federal Rules of Civil Procedure.

Cette règle impose à tout avocat signataire d’un acte de procédure de certifier qu’à sa connaissance, après enquête raisonnable, les arguments avancés sont fondés en droit. La jurisprudence américaine a souligné que cette obligation est personnelle et non délégable : l’avocat qui signe doit avoir vérifié lui-même que ce qu’il avance est juridiquement défendable. Il ne peut s’abriter derrière le travail d’un subordonné, d’un associé ou d’un prestataire externe. Ce point est fondamental, car il met en lumière le risque caché d’un usage incontrôlé de l’IA : l’avocat qui signe un document généré, même partiellement, par une machine, reste entièrement responsable de son contenu.

Le juge a procédé à une analyse minutieuse du mémoire en question. Dix-neuf citations y figuraient. À peine cinq à sept pouvaient être considérées comme exactes et pertinentes. Les autres étaient inexactes, sorties de leur contexte, attribuées à la mauvaise juridiction, voire totalement inventées. Trois décisions citées n’existaient tout simplement pas, alors même qu’elles étaient attribuées à des juges fédéraux bien réels. Ce procédé est grave, car il associe faussement le nom d’un magistrat à une opinion fictive, ce qui risque de nuire à la réputation de la justice et de semer la confusion.

L’avocate n’a pas reconnu expressément avoir eu recours à un outil d’intelligence artificielle, mais son propre tableau correctif qualifie certaines références de « probablement fabriquées par l’IA ». La cour a estimé que peu importait, au fond, de savoir si le recours à l’IA était avéré. Le problème réside dans le fait que des décisions inexistantes ou mal citées ont été présentées comme vraies au tribunal. C’est là une fausse déclaration de droit, peu importe que l’origine de l’erreur soit humaine ou algorithmique.

Le juge a rappelé que plusieurs cours fédérales avaient déjà été confrontées à ce type de problème et avaient dégagé une ligne claire : citer un arrêt inexistant ou déformer son contenu constitue une violation de la règle 11, indépendamment de la bonne ou mauvaise foi de l’avocat. L’obligation est objective et repose sur une vérification raisonnable. Or, en l’espèce, la vérification n’avait pas eu lieu. L’avocate avait délégué et signé sans contrôler. Cette omission équivaut à une violation manifeste de son devoir procédural.

S’agissant des sanctions, le juge a noté que la règle 11 permet une grande latitude, à condition que la mesure soit proportionnée et vise à prévenir la répétition du comportement. La jurisprudence montre une gradation : amendes, obligations de suivre des formations, interdiction temporaire, transmission au barreau, voire radiation. Dans certains cas récents, la sévérité a été renforcée parce que les sanctions plus légères ne suffisaient pas à endiguer le phénomène. La cour d’appel fédérale a même déjà frappé d’irrecevabilité un mémoire truffé de références fictives, en considérant que le reliquat valide n’était d’aucune utilité.

Dans cette affaire, le juge a retenu plusieurs éléments aggravants. D’abord, l’ampleur du problème : ce n’était pas une citation isolée, mais la majorité des références. Ensuite, la conscience préalable du risque : l’avocate avait elle-même diffusé à ses collaborateurs l’avertissement d’un autre tribunal sur l’usage de l’IA. Malgré cela, elle n’avait pris aucune mesure pour vérifier elle-même la conformité du mémoire. De plus, le dépôt de ce mémoire a désorganisé le cours normal de la procédure et obligé le tribunal à consacrer un temps précieux à une enquête disciplinaire au lieu d’examiner le fond du litige. Enfin, le fait d’avoir attribué des arrêts fictifs à des juges réels est particulièrement grave pour l’intégrité du système judiciaire.

Certes, l’avocate avait exprimé des regrets et proposé de corriger ses pratiques. Mais le juge a estimé que de simples excuses ne suffisaient pas, et que le dépôt d’un mémoire corrigé ne pouvait effacer le tort causé, ni restaurer le temps perdu, ni compenser le risque d’atteinte à la confiance du public. Laisser passer un tel incident reviendrait à encourager un usage laxiste de l’IA : les avocats pourraient se dire que, s’ils tombent, il leur suffira de corriger ensuite. Or, la leçon doit être claire : signer un écrit sans l’avoir vérifié engage personnellement et immédiatement la responsabilité de l’avocat.

En conséquence, la cour a prononcé un ensemble de sanctions. Le statut pro hac vice (admission pour la procédure dans ce ressort) de l’avocate a été révoqué et elle a été retirée du dossier. Le mémoire introductif a été écarté du dossier comme frappé de nullité. La demanderesse a été informée de la situation et a reçu un délai pour désigner un nouvel avocat ou se défendre seule. L’avocate sanctionnée a été obligée d’écrire personnellement aux trois juges auxquels elle avait faussement attribué des arrêts inexistants, pour les en informer et leur présenter la décision. Elle a été tenue également de notifier la présente ordonnance à tous les juges devant lesquels elle plaide dans d’autres affaires à travers le pays, afin de prévenir d’éventuelles irrégularités similaires. Enfin, le tribunal a décidé de transmettre le dossier au barreau de l’État de Washington, où l’avocate est inscrite, afin que l’autorité disciplinaire statue sur d’éventuelles conséquences supplémentaires.

En guise de note finale, le juge a souligné que l’affaire illustre de manière criante les risques cachés que recèle l’usage de l’IA par les avocats. L’outil peut générer du contenu apparemment crédible mais juridiquement faux, et si l’avocat signe sans vérifier, il se rend coupable de présenter de fausses affirmations de droit au tribunal. Ce danger est d’autant plus grand que l’IA est désormais banalisée et facilement accessible. La tentation est réelle de gagner du temps, mais elle ne dispense en rien du devoir de contrôle. Le juge a insisté : l’utilisation responsable de l’IA n’est pas interdite, mais elle impose un double devoir de vigilance et de vérification. Ne pas s’assurer de la fiabilité des citations, c’est abdiquer sa fonction d’avocat et contribuer à la perte de confiance dans la justice.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

L’introduction de l’intelligence artificielle générative dans l’économie et ses effets

Quelques réflexions du MIT tirées de A. CHALLAPALLY et al., The Great GenAI Divide. State of AI in Business 2025, MIT Nanda Group, juillet 2025 (https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf):

Introduction

Le rapport dresse un constat étonnant : malgré 30 à 40 milliards de dollars d’investissements cumulés dans la GenAI (intelligence artificielle générative) par les entreprises, environ 95 % des organisations n’en tirent aucun rendement mesurable. Seule une minorité — environ 5 %— génère des gains de plusieurs millions, tandis que la vaste majorité reste bloquée sans impact sur le compte d’exploitation. Selon les auteurs, l’explication n’est ni la qualité des modèles ni la régulation, mais l’« approche » suivie par acheteurs et fournisseurs.

Autrement dit, l’écart de performance — la « GenAI Divide » — procède d’un différentiel de méthode et d’exécution. Les outils grand public type ChatGPT ou Copilot sont massivement testés et partiellement déployés, mais ils élèvent surtout la productivité individuelle sans transformer les comptes de pertes et profits (P&L).

À l’inverse, les systèmes « entreprise », qu’ils soient sur mesure ou fournis par des éditeurs, sont largement rejetés : beaucoup sont évalués, peu passent en pilote, et une infime fraction atteint la production. Les causes récurrentes sont des flux de travail fragiles, un déficit d’apprentissage contextuel et un faible alignement avec l’opérationnel. Le véritable obstacle n’est pas l’infrastructure, la pénurie de talents ou la conformité ; c’est l’absence de « learning » continu : la plupart des systèmes ne retiennent pas le feedback, ne s’adaptent pas au contexte, ne s’améliorent pas au fil du temps.

À l’opposé, un petit groupe d’acheteurs et de vendeurs obtient des résultats en exigeant des solutions centrées sur les processus, capables d’intégration profonde et d’apprentissage persistant. Là où des impacts RH existent, ils demeurent sélectifs (support client, ingénierie logicielle, fonctions administratives) et s’accompagnent d’économies claires sur les BPO (Business Practice Outsourcing)  et agences externes, ainsi que d’améliorations de rétention et de conversion commerciale, autant d’indices que des systèmes apprenants et ciblés peuvent délivrer de la valeur sans bouleversement organisationnel majeur.

Le « mauvais côté » de la GenAI Divide : adoption élevée, transformation faible

Les auteurs objectivent la fracture au niveau sectoriel via un indice composite de disruption (volatilité des parts de marché, croissance d’acteurs nés après 2020, nouveaux modèles IA, changements d’usage attribuables à la GenAI, réorganisations exécutives liées aux outils IA). Verdict : seule la technologie et, dans une moindre mesure, les médias & télécoms montrent des signes probants de mutation structurelle ; sept autres secteurs restent dominés par des pilotes sans transformation. Cette hiérarchie résiste aux variations de pondération des critères. De nombreuses entreprises pilotent, très peu industrialisent ; les outils génériques plaisent pour des tâches ponctuelles, les solutions sur mesure se heurtent à l’intégration, au manque de mémoire et à l’inadéquation aux usages. Notamment, les grands groupes multiplient les pilotes mais « scalent » moins que les entreprises de taille intermédiaire plus agiles, lesquelles réussissent parfois à passer du pilote au déploiement en 90 jours, quand les grandes entreprises dépassent fréquemment neuf mois. Les auteurs réfutent cinq idées reçues : pas de remplacements massifs de postes à court terme ; l’adoption ne vaut pas transformation ; les grandes entreprises sont en réalité très actives en exploration ; le principal frein n’est pas la qualité de modèle ou le juridique mais l’absence d’apprentissage et l’intégration déficiente ; enfin, les « meilleurs » ne sont pas forcément ceux qui construisent en interne, car ces projets échouent deux fois plus souvent que les partenariats externes.

Pourquoi les pilotes s’enlisent : le « learning gap »

Le chapitre centralise les causes d’échec de montée en charge. Un sondage auprès de sponsors exécutifs et d’utilisateurs place la résistance au changement au premier rang, mais juste derrière apparaissent des facteurs liés à la qualité perçue des modèles, au manque d’UX (User Experience) et surtout à l’absence d’apprentissage contextuel. Paradoxe : les mêmes professionnels qui utilisent avec enthousiasme des interfaces grand public comme ChatGPT se montrent circonspects face aux outils internes qui, bien que basés sur des modèles analogues, ne s’adaptent pas, ne mémorisent pas et ne s’améliorent pas. Les outils génériques gagnent pour la rédaction et l’idéation car ils sont flexibles, rapides et familiers ; ils perdent pour les activités critiques, où 90 % des répondants préfèrent l’humain en raison d’un besoin de mémoire des préférences, de persistance du contexte et de personnalisation des workflows. Le « gap » est donc structurel : sans mémoire, sans apprentissage et sans adaptation, l’IA reste cantonnée aux tâches simples. Les auteurs introduisent ici la notion d’« Agentic AI » : des systèmes conçus avec mémoire persistante, apprentissage itératif et orchestration autonome, capables de prendre en charge des processus de bout en bout (support, finance transactionnelle, pipeline commercial) et de combler précisément les lacunes mises au jour.

Une dynamique éclairante complète ce diagnostic : l’« économie de l’ombre » de l’IA.

Bien que peu d’organisations achètent des abonnements officiels, l’usage personnel des LLM par les employés est massif et quotidien, avec des gains visibles — souvent supérieurs aux initiatives officielles —, tout en restant non intégré, non gouverné et non cumulatif pour l’entreprise. Les organisations qui savent capitaliser sur ces usages en les cartographiant puis en achetant des équivalents entreprise dotés de mémoire et d’intégrations, se donnent les moyens de franchir la Divide.

Franchir la Divide côté « builders » : ce que font les meilleurs fournisseurs

Les éditeurs et startups qui réussissent se différencient par trois traits : focalisation sur des cas étroits mais à forte valeur, enracinement profond dans les workflows, et apprentissage continu pour « scaler » par l’amélioration et non par l’empilement de fonctionnalités. Les acheteurs plébiscitent les solutions qui retiennent le contexte, apprennent des feedbacks et se personnalisent au processus — des capacités explicitement demandées par près des deux tiers des dirigeants interrogés. Les critères d’achat réels, tels que décrits par les décideurs, sont la confiance dans le fournisseur, l’intimité avec le métier, le minimum de perturbation des outils en place, des frontières de données claires et la capacité démontrée à s’améliorer dans le temps. Dans les marchés de confiance (juridique, santé, finance), la défiance envers les jeunes pousses reste élevée : les partenariats via des intégrateurs, les recommandations de pairs, de conseils d’administration ou d’écosystèmes jouent un rôle décisif dans l’accès et la conversion. Les segments gagnants aujourd’hui sont pragmatiques : voix/centre d’appels (synthèse et routage), automatisation documentaire (contrats, formulaires), génération de code répétitif. À l’inverse, les offres qui prétendent piloter des logiques internes complexes ou de l’optimisation « boîte noire » se heurtent aux frictions d’adoption.

Franchir la Divide côté « buyers » : ce que font les meilleurs acheteurs

Les organisations efficaces achètent et co-développent davantage qu’elles ne construisent seules, et traitent les fournisseurs IA comme des prestataires de services opérationnels plutôt que comme des éditeurs SaaS génériques. Elles exigent des personnalisations profondes alignées sur leurs données et procédures, évaluent sur des résultats « métier » et pas des benchmarks de modèles, acceptent des itérations de mise au point, et décentralisent l’initiative vers les responsables de proximité — souvent des « power users » qui ont déjà rodé les cas d’usage via des outils grand public. Sur l’échantillon étudié, les partenariats externes aboutissent environ deux fois plus souvent que les constructions internes ; ils procurent un time-to-value plus court, un coût total plus faible et une meilleure adoption utilisateur, sous réserve des limites méthodologiques admises par les auteurs. Le design d’organisation est crucial : la délégation d’autorité pour expérimenter, combinée à une responsabilisation claire sur les résultats, explique davantage la réussite que la taille du budget ou du dispositif central.

Les auteurs renversent aussi un biais d’allocation. Bien que la moitié des budgets GenAI se dirige vers les ventes et le marketing — en partie parce que les indicateurs y sont plus immédiats et « board-friendly » —, les retours tangibles les plus nets apparaissent souvent au « back-office » : élimination partielle de BPO, réduction de 30 % des dépenses d’agence, économies substantielles en contrôle de risques, accélération des clôtures comptables et de la conformité documentaire. Ces gains surviennent généralement sans plans de licenciements internes massifs : l’IA accélère et relocalise, elle substitue des dépenses externes et libère des capacités.

Impact sur l’emploi : une réalité nuancée, des trajectoires divergentes

Les effets sur l’emploi, observés chez les adopteurs avancés et dans les secteurs réellement disruptés, se concentrent là où les activités sont déjà standardisées et souvent externalisées : support client, traitement administratif, développement logiciel répétitif. Les réductions évoquées dans ces périmètres oscillent entre 5 % et 20 % chez les entreprises concernées, mais il n’existe pas de tendance de licenciements généralisés. À l’horizon 24 mois, technologie et médias pourraient réduire les volumes de recrutement, alors que santé, énergie et industries de base ne projettent pas de contraction, même si certains dirigeants anticipent une modération des embauches lorsque les systèmes deviendront pleinement apprenants. En recrutement, l’« IA literacy » devient un critère déterminant, parfois plus répandu chez les jeunes diplômés que chez des profils expérimentés. En toile de fond, l’analyse « Project Iceberg » du MIT estime l’automatisation actuelle possible à environ 2,27 % de la valeur du travail américain, pour une exposition latente de 2,3 trillions de dollars et 39 millions de postes potentiellement affectés si — et seulement si — les systèmes gagnent en mémoire, apprentissage et autonomie d’outillage. Pour l’instant, la transformation passe davantage par l’optimisation des coûts externes que par des restructurations internes.

Au-delà des agents : vers un « Agentic Web »

Les auteurs esquissent la prochaine étape : un « agentic web » où des systèmes autonomes découvrent, négocient et coordonnent à l’échelle d’Internet. Grâce à des protocoles comme MCP, A2A et NANDA, des agents spécialisés coopèrent sans architecture monolithique, composent des intégrations dynamiques sans connecteurs préconstruits, déclenchent des transactions de manière fiable (jusqu’à des smart contracts) et optimisent des chaînes de valeur qui traversent les frontières organisationnelles. Des expérimentations laissent entrevoir des agents d’achats capables d’identifier de nouveaux fournisseurs et de négocier des termes, des services client qui orchestrent plusieurs plateformes, et des chaînes de création de contenu dotées d’assurance qualité et de paiements automatisés. La thèse est que le passage de « prompts » isolés à une coordination protocolisée décentralisée transformera la façon dont les entreprises découvrent, intègrent et transigent, et qu’il creusera l’écart entre ceux qui auront ancré des capacités apprenantes et les autres.

Conclusion : comment combler la GenAI Divide

Pour « passer de l’autre côté », trois décisions semblent s’imposer.

Premièrement, privilégier l’achat-partenariat au « tout construire » afin d’accéder plus vite à des briques qui apprennent dans le contexte propre à l’entreprise.

Deuxièmement, responsabiliser les managers de terrain — souvent à l’origine des cas utiles — plutôt que d’attendre une validation centralisée exhaustive.

Troisièmement, sélectionner des systèmes qui s’intègrent profondément aux flux existants, retiennent le contexte, se bonifient avec l’usage et rendent des comptes sur des métriques business.

Les organisations qui persisteront à investir dans des outils statiques et « prompt-dépendants » resteront piégées dans la phase pilote. Celles qui co-développent des agents dotés de mémoire et d’orchestration, adossés à des protocoles d’interopérabilité, verrouilleront des avantages cumulatifs difficiles à rattraper.

Méthodologie et limites

Le rapport s’appuie sur une recherche multi-méthodes conduite entre janvier et juin 2025 : analyse systématique de plus de 300 initiatives publiques, 52 entretiens structurés auprès d’organisations variées et 153 réponses de dirigeants collectées sur quatre conférences sectorielles. La « réussite » est définie comme un déploiement au-delà du pilote avec des KPI mesurables, l’impact ROI étant évalué six mois après le pilote et ajusté à la taille des départements. Les auteurs précisent les limites : échantillonnage non exhaustif, auto-sélection des répondants, hétérogénéité des métriques de succès, observation parfois trop courte pour juger des projets complexes. Les scores de disruption, fondés sur des signaux publics et des appréciations d’entretiens, peuvent ignorer des développements privés. Les pourcentages « build vs buy » et les distributions d’investissements fonctionnels doivent être lus comme directionnels. Pour autant, les tendances — écart pilote-production, avantage des partenariats, ROI back-office, centralité du « learning » — sont robustes sur l’échantillon et convergentes avec les témoignages recueillis.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Les références fournies par l’employeur à propos d’un ancien employé

Quelques réflexions tirées de TF 4A_493/2024 du 17 juin 2025 consid. 3 et 4 :

L’art. 330a CO prévoit expressément le droit du travailleur à un certificat de travail complet ou à une simple attestation. En revanche, aucune disposition ne mentionne les références fournies par l’employeur à propos d’un ancien employé.

Toutefois, la doctrine et la pratique admettent que les références relèvent de la post-contractual duty of care de l’employeur, dérivée de la protection de la personnalité du travailleur (art. 328b CO) et de l’obligation d’assurer son avenir économique.

En effet l’art. 330a CO n’épuise pas la question. Certes, seule la remise du certificat est expressément prévue, mais la jurisprudence et la doctrine reconnaissent que l’employeur doit, en vertu de son devoir de protection postcontractuel, donner des références lorsqu’elles sont demandées et que cela ne lui occasionne pas de difficultés insurmontables. Ce devoir n’est pas absolu mais il existe en principe, et il est renforcé par l’idée que le certificat et la référence poursuivent le même but : faciliter la réinsertion du travailleur et protéger sa réputation.

Les références sont un traitement de données personnelles. Elles tombent donc sous le coup de l’art. 328b CO et de la LPD. Cela signifie que l’employeur ne peut délivrer de références qu’avec le consentement du travailleur, ou si un motif justificatif existe (art. 31 LPD). En pratique, l’usage veut que l’ancien employeur n’agisse que sur demande expresse du travailleur ou avec son accord, ce qui était le cas ici, puisque l’employé avait expressément sollicité la référence pour son nouvel engagement.

Le Tribunal fédéral insiste sur le fait que la référence doit compléter le certificat sans le contredire ni l’élargir de manière abusive. Elle peut préciser des points, donner un éclairage, mais elle ne doit pas miner la confiance placée par le travailleur et les tiers dans le certificat. Si l’employeur sort de ce cadre, en avançant des appréciations qui contredisent ou relativisent le certificat, il porte atteinte à la personnalité du travailleur et engage sa responsabilité. À l’inverse, refuser de donner toute référence sans motif valable peut également constituer une violation du devoir de protection.

L’employeur engage sa responsabilité civile s’il fournit une référence inexacte, mensongère ou dénigrante, ou s’il refuse arbitrairement de répondre à un potentiel employeur. Le dommage consiste notamment dans la perte d’une chance professionnelle ou d’un salaire futur. Cette responsabilité est impérative.

Concernant le délai de délivrance, la loi ne fixe pas de délai précis. Par analogie avec l’art. 75 CO, l’exécution doit être immédiate, mais cela doit s’entendre conformément à la bonne foi, donc en tenant compte de la complexité des informations, de la taille de l’entreprise et de la durée des rapports de travail. La doctrine est partagée : certains estiment qu’un certificat doit être fourni en quelques jours, d’autres admettent un délai de deux à trois semaines. Le Tribunal fédéral se garde de trancher définitivement, mais il souligne que dans le cas d’espèce, un délai de dix jours observé par une grande entreprise internationale confrontée à une demande délicate n’est pas critiquable.

L’arrêt souligne plusieurs points pour la pratique :

Existence du devoir de donner des références : il découle de la protection de la personnalité et de la finalité du certificat de travail, même s’il n’est pas prévu expressément dans le CO.

Qualification en termes de données personnelles : toute référence est un traitement de données personnelles soumis à l’art. 328b CO et à la LPD-

Fonction de la référence : elle complète le certificat, sans le contredire ni l’élargir de manière abusive.

Responsabilité de l’employeur : un refus arbitraire ou une référence trompeuse engage sa responsabilité.

Délai de délivrance : il doit être immédiat au sens de l’art. 75 CO, mais modulé selon les circonstances. Un délai de dix jours peut être admis dans une grande entreprise pour une demande complexe.

Me Philippe Ehrenström, avocat, LLM

Publié dans Certificat de travail, nouvelle LPD, Protection de la personnalité, Protection des données | Tagué , , , , , , | Laisser un commentaire

Mémorisation et droit d’auteur dans les modèles d’IA

Quelques réflexions tirées de James Grimmelmann & A. F. Cooper, The Files are in the Computer: On Copyright, Memorization, and Generative AI, 100 Chi.-Kent L. Rev. 141 (2025)  (Available at: https://scholarship.kentlaw.iit.edu/cklawreview/vol100/iss1/9):

L’article est consacré à la notion de « mémorisation » dans les modèles d’intelligence artificielle générative et à ses implications en droit d’auteur.

À travers un examen approfondi des concepts, des mécanismes techniques et des controverses judiciaires en cours, les auteurs cherchent à donner aux juristes une base technique solide leur permettant de saisir la nature exacte de la mémorisation et de la distinguer d’autres notions proches, afin d’éviter que le droit ne repose sur des approximations.

L’analyse prend comme point de départ l’affaire initiée par le New York Times contre OpenAI et Microsoft à la fin de l’année 2023. Le journal reprochait à ChatGPT et à Bing Copilot d’avoir « mémorisé » des articles publiés dans ses colonnes, de telle sorte qu’en fournissant un extrait d’un article comme amorce, le modèle produisait un texte restituant presque mot pour mot la suite de l’article. Pour le Times, il s’agissait d’une reproduction illicite et donc d’une violation flagrante du droit d’auteur. OpenAI, au contraire, soutenait que de tels résultats étaient obtenus uniquement par des manipulations particulières de l’outil, constitutives d’un usage dit « adversarial », et qu’ils ne représentaient pas le fonctionnement normal du système. Ainsi s’opposaient deux visions : celle d’un modèle qui aurait en lui-même intégré et stocké illégalement des contenus protégés, et celle d’un simple outil statistique neutre dont les sorties dépendent essentiellement de l’usage qu’en font les utilisateurs.

Les auteurs montrent que ce désaccord tient en réalité à une confusion conceptuelle autour de la notion de mémorisation. Ils insistent sur le fait que l’on ne peut se contenter de métaphores vagues telles que « corrélations statistiques » ou « motifs », qui masquent ce qui se passe réellement dans les paramètres du modèle. Une approche juridique sérieuse doit s’appuyer sur une compréhension technique précise. C’est dans ce but que l’essai propose une définition rigoureuse : un modèle a mémorisé une donnée d’entraînement lorsqu’il est possible d’en reconstruire une copie exacte ou quasi exacte d’une portion substantielle.

Cette définition met en évidence plusieurs conséquences importantes.

Premièrement, la mémorisation n’est pas synonyme de l’ensemble des processus d’apprentissage : la plupart des capacités des modèles génératifs relèvent de la généralisation et de la recombinaison créative des données, mais cela n’exclut pas l’existence ponctuelle de mémorisation brute.

Deuxièmement, la mémorisation intervient lors de la phase d’entraînement et non au moment de la génération. Lorsqu’un modèle restitue mot pour mot un passage, il ne crée pas la mémorisation sur le moment : il manifeste simplement un état latent déjà acquis.

Troisièmement, en droit d’auteur, un modèle contenant des données mémorisées peut être considéré comme une copie de ces données, même si elles ne sont pas immédiatement visibles.

Quatrièmement, à la différence d’un magnétoscope ou d’un outil de copie neutre, le modèle ne se contente pas de reproduire mécaniquement : il incorpore certains éléments plus que d’autres, et ces choix tiennent à la manière dont il a été entraîné.

Cinquièmement, la mémorisation existe indépendamment de l’intention des utilisateurs. Ce n’est pas seulement le fruit de sollicitations malveillantes, mais une propriété inhérente du modèle.

Sixièmement, l’ampleur de la mémorisation dépend des choix techniques des développeurs : taille et nature du jeu de données, méthode d’entraînement, ajustements fins.

Septièmement, même une fois la mémorisation intégrée, il est possible d’en limiter l’apparition dans les sorties en ajoutant des garde-fous au niveau du système global, comme des filtres d’entrée et de sortie ou des comparaisons avec des bases de données externes.

Pour illustrer ces mécanismes, l’article consacre une première partie à l’explication technique des modèles génératifs et des chaînes de production dans lesquelles ils s’insèrent. Les auteurs rappellent que, derrière la diversité des applications — chatbots, générateurs d’images, de musique, de vidéos ou d’assistants de programmation — se cache une architecture commune. Les modèles sont entraînés sur des ensembles massifs de données, découpés en unités appelées « tokens », et cherchent à en dégager des distributions statistiques. Contrairement à des modèles discriminatifs qui se contentent de classer, les modèles génératifs produisent de nouvelles données du même type que celles de l’entraînement. Le processus repose sur des réseaux neuronaux qui ajustent des milliards de paramètres, puis génèrent des sorties par une procédure de prédiction itérative des prochains tokens.

Cette approche statistique permet une créativité apparente, en recomposant des corrélations de styles, de concepts ou de structures. Mais elle comporte aussi la possibilité de reproduire textuellement des fragments du corpus.

Les auteurs insistent également sur la complexité de la chaîne de valeur. Le modèle n’est qu’un maillon dans un ensemble plus large comprenant la collecte et la curation des données, la phase de pré-entraînement sur des bases générales, l’éventuel affinement sur des données spécifiques, l’intégration du modèle dans un système logiciel avec interface et filtres, puis l’alignement par renforcement sur des préférences humaines. Chaque étape implique des acteurs différents et des choix techniques ou économiques ayant des incidences juridiques. C’est pourquoi une approche juridique globale doit tenir compte de l’ensemble de la chaîne plutôt que de se focaliser sur un seul moment.

La deuxième partie, cœur de l’article, développe une typologie précise des notions de mémorisation et de ses manifestations. Trois termes doivent être distingués. L’« extraction » désigne le cas où un utilisateur, par un prompt ciblé, obtient volontairement la copie exacte d’un élément d’entraînement. La « régurgitation » correspond à la génération spontanée par le modèle d’une telle copie, indépendamment de l’intention de l’utilisateur. Enfin, la « reconstruction » vise la capacité à obtenir la copie par n’importe quel moyen, pas nécessairement via le processus habituel de génération.

Ces distinctions permettent de mieux comprendre les débats judiciaires : lorsqu’un modèle régurgite un article, c’est la preuve qu’il l’avait mémorisé, et non la cause de la mémorisation. La présence d’une œuvre dans le modèle suffit à caractériser la reproduction, peu importe le degré de difficulté à l’extraire.

Les auteurs s’attardent ensuite sur la manière dont la mémorisation s’inscrit dans les paramètres du modèle. Les « motifs » et « corrélations » abstraits que décrivent les entreprises incluent en réalité aussi des formes de copie quasi textuelle. La mémorisation peut être vue comme une compression extrême, où certains fragments sont conservés tels quels. Le caractère non déterministe de la génération — le fait qu’un même prompt puisse donner des résultats différents — ne change pas cette réalité : même si la reproduction n’apparaît pas systématiquement, la donnée mémorisée demeure stockée dans les poids du modèle.

La question de la quantité mémorisée est plus délicate. Les chercheurs tentent de la mesurer par des expériences d’extraction, mais les résultats varient selon la taille et la nature des modèles. Il est impossible de réduire cela à un chiffre unique, comme « un pour cent du corpus ». Il faut plutôt admettre une variabilité importante. En outre, les modèles ne se limitent pas à mémoriser : ils généralisent aussi, produisant des contenus nouveaux. La coexistence de ces deux capacités brouille les analogies trop simples. Les auteurs critiquent par exemple l’analogie avec les magnétoscopes, avancée pour minimiser la responsabilité des développeurs. Un magnétoscope ne contient pas en lui-même des copies d’œuvres ; un modèle qui a mémorisé des données, si. Cette différence est essentielle pour le droit d’auteur.

L’article aborde aussi la figure de l’« utilisateur adversarial », mise en avant par les défendeurs pour rejeter la faute sur des usagers abusifs. Les auteurs estiment que cette approche est trompeuse : la possibilité d’extraction découle des propriétés intrinsèques du modèle, non de comportements marginaux. Si un utilisateur peut obtenir une copie, c’est que la donnée est présente. La responsabilité ne saurait être évacuée aussi simplement.

Enfin, les auteurs replacent le modèle dans l’écosystème plus large du système d’IA générative. Même si la mémorisation est inévitable, il existe des moyens de réduire le risque de régurgitation publique : limiter les prompts acceptés, filtrer les sorties, comparer avec des bases de données de références, voire réentraîner le modèle. Ces choix techniques montrent que la responsabilité juridique pourrait se distribuer à plusieurs niveaux : la conception du jeu de données, l’entraînement, mais aussi la mise en œuvre des garde-fous.

La conclusion de l’article, formulée dans un style plus réflexif, souligne que le débat autour de la mémorisation est encore jeune et parfois parasité par des incompréhensions conceptuelles. Les auteurs ne prennent pas position sur les solutions juridiques à adopter ni sur l’issue des procès en cours, mais insistent sur la nécessité de bâtir les raisonnements sur une base technique correcte. Ils rappellent que la définition de la copie en droit d’auteur, centrée sur la fixation matérielle d’une œuvre, doit être éclairée par la compréhension du fonctionnement réel des modèles. Les enjeux dépassent le seul copyright et touchent aussi à la vie privée et à l’éthique de l’IA, mais l’urgence actuelle est de clarifier le vocabulaire et de ne pas laisser les tribunaux décider à partir de concepts flous. En définitive, l’article invite les juristes à se détourner des analogies simplistes et des débats rhétoriques pour regarder ce qui se passe « dans l’ordinateur », là où résident les fichiers, c’est-à-dire dans les paramètres des modèles.

La mémorisation est réelle, mesurable, et distincte de la généralisation. Elle est inscrite dans la structure même des modèles. Elle peut être limitée, mais non effacée par une simple dénégation. C’est sur cette réalité que doit se construire toute réflexion juridique sur le droit d’auteur à l’ère de l’intelligence artificielle générative.

(L’article est paru dans les actes du colloque AI Disrupting, sous la direction du Professeur Edward Lee, Chicago – Kent Law Revie, vol.  100, Issue 1 (2025), en libre accès ici : https://scholarship.kentlaw.iit.edu/cklawreview/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, Droit US, intelligence artificielle | Tagué , , | Laisser un commentaire

Intelligence artificielle et effondrement du droit

Quelques réflexions tirées de Solow-Niederman, Alicia, AI and Doctrinal Collapse (August 08, 2025). 78 Stanford Law Review __ (forthcoming 2026), Available at SSRN: https://ssrn.com/abstract=5384965):

L’article s’ouvre sur un constat qui déplace la manière habituelle d’analyser le rapport entre intelligence artificielle et droit. Contrairement à l’idée répandue selon laquelle les technologies iraient trop vite et que le droit serait en retard, l’auteure soutient que le véritable problème n’est pas la vitesse mais la structure même des régimes juridiques existants. Ce sont les choix historiques de construction des règles de propriété intellectuelle et de protection de la vie privée qui créent aujourd’hui un terrain propice à ce qu’elle appelle un « effondrement doctrinal  inter-régime». L’expression désigne la situation où deux régimes de droit distincts, chacun avec sa logique propre, en viennent à se chevaucher sur le même objet – en l’occurrence les données – jusqu’à perdre leur lisibilité et leur cohérence. L’intelligence artificielle agit comme un catalyseur de cette instabilité, car elle dépend massivement de l’accès aux données, qui se trouvent régies simultanément par le droit d’auteur et par le droit de la protection des données. Lorsque les frontières se brouillent, les entreprises technologiques peuvent exploiter les contradictions pour justifier des comportements qui échappent au contrôle effectif de la loi.

La problématique est illustrée par l’exemple des grandes entreprises d’IA qui, selon les circonstances, qualifient les données de « publiques » pour se soustraire aux restrictions de copyright ou de vie privée, mais qui dans le même temps les revendiquent comme « propriétaires » et confidentielles pour échapper à la transparence. Cette oscillation entre deux cadres normatifs contradictoires révèle une défaillance plus profonde : l’incapacité du droit à maintenir ses catégories distinctes et à assigner de manière stable des droits et obligations. Pour l’auteure, cette déstabilisation n’est pas seulement un problème technique ou sectoriel. Elle menace le principe de l’État de droit, car elle rend la règle imprévisible et manipulable par les acteurs les mieux dotés en ressources juridiques.

I. Définir l’effondrement doctrinal

Le premier chapitre s’attache à préciser le concept. L’auteure rappelle que l’on a déjà beaucoup étudié les effondrements internes à un régime juridique donné, par exemple l’érosion progressive de certaines doctrines en droit de la responsabilité civile ou en droit constitutionnel. Dans ces cas, un corpus de règles perd sa cohérence interne, soit parce que les juges en confondent les éléments, soit parce qu’ils les appliquent à des situations nouvelles qui en révèlent les limites. Ces évolutions sont parfois décrites comme des dérives doctrinales ou idéologiques. Mais ici, l’objet est différent : il s’agit d’un effondrement inter-régime, c’est-à-dire entre deux domaines du droit qui coexistent et se recouvrent.

Pour qu’il y ait effondrement, il faut d’abord que deux régimes s’appliquent au même objet de régulation. C’est le cas des données, qui peuvent être vues à la fois comme des informations protégées par la vie privée et comme des œuvres ou contenus soumis au droit d’auteur. Ensuite, il faut que les frontières doctrinales s’estompent, de sorte qu’il devienne difficile de déterminer quel régime prévaut et selon quelle logique. Enfin, il faut que les logiques sous-jacentes soient irréconciliables : le droit d’auteur repose sur une logique de propriété et d’incitation à la création, alors que le droit de la vie privée repose sur une logique de contrôle individuel et d’autonomie. Lorsque ces logiques s’entremêlent sans cohérence, la structure juridique s’effondre.

L’auteure insiste pour distinguer cet effondrement d’autres phénomènes. Ce n’est pas une simple lacune, où la loi manquerait. Ce n’est pas non plus de l’arbitrage réglementaire, où une entreprise choisit stratégiquement une juridiction ou une qualification favorable. L’effondrement est plus fondamental : il se situe dans la structure même des catégories juridiques, qui deviennent incohérentes et donc exploitables.

L’effondrement n’est pas toujours négatif en soi. Il peut parfois permettre des innovations, des mélanges de régimes plus adaptés, ou une flexibilité accrue. Mais il devient problématique lorsqu’il ouvre la voie à une exploitation systématique par des acteurs dominants, aux dépens de la clarté et de la légitimité du droit. C’est précisément ce qui se produit aujourd’hui avec l’intelligence artificielle et la collecte de données.

II. L’effondrement doctrinal dans la pratique : l’acquisition de données pour l’IA

La deuxième partie applique cette grille de lecture à la réalité du développement de l’intelligence artificielle. Les modèles actuels, et notamment les modèles génératifs, ont besoin d’immenses quantités de données pour être entraînés. Cette nécessité les place immédiatement dans une zone de chevauchement entre droit d’auteur et droit de la vie privée.

L’auteure rappelle que chacun de ces domaines a une logique distincte. Le droit d’auteur confère des droits exclusifs sur les œuvres afin d’encourager la création et l’investissement, mais il admet des exceptions comme le fair use pour préserver l’accès du public. Le droit de la vie privée (privacy), tel qu’il s’est développé aux États-Unis, repose sur le paradigme du consentement individuel et de l’autonomie, avec des règles sectorielles et le contrôle de la Federal Trade Commission contre les pratiques déloyales. Les deux régimes ne poursuivent donc pas les mêmes objectifs ni ne mobilisent les mêmes tests.

Or, dans la pratique, les entreprises d’IA naviguent entre ces logiques pour justifier leurs comportements. Lorsqu’il s’agit d’utiliser massivement des données disponibles en ligne, elles invoquent leur caractère « public » pour nier à la fois les droits d’auteur et les droits de vie privée. Mais lorsqu’elles sont sommées de révéler quelles données ont effectivement servi à l’entraînement, elles se retranchent derrière la notion de secret commercial ou de propriété intellectuelle pour refuser la divulgation. Cette double posture illustre le brouillage des catégories.

L’auteure montre aussi que ce brouillage ne reste pas théorique mais se traduit dans des litiges en cours. De nombreux procès aux États-Unis opposent auteurs, artistes, éditeurs ou journalistes aux développeurs d’IA, avec des arguments juridiques fluctuants selon les cas. Les juges sont confrontés à des demandes contradictoires et peinent à trancher de manière cohérente, ce qui accentue le sentiment d’effondrement.

L’auteure identifie ensuite deux grandes stratégies d’exploitation, qu’elle appelle le « buy » et le « ask ». La première consiste à acheter des données via des accords commerciaux entre entreprises, ce qui permet de contourner les droits individuels des personnes concernées. Les grandes plateformes concluent des contrats avec des bases de données, des éditeurs ou des réseaux sociaux pour accéder à des contenus massifs, souvent sans que les individus sachent que leurs données sont ainsi transférées. La seconde stratégie consiste à demander directement le consentement des utilisateurs par le biais de conditions générales d’utilisation ou de politiques de confidentialité. Dans ce cas, l’entreprise obtient une autorisation très large, en s’appuyant sur le paradigme du consentement éclairé, même si celui-ci est en pratique illusoire. Ces deux tactiques, acheter ou demander, aboutissent au même résultat : consolider le pouvoir des acteurs disposant des moyens financiers et techniques de mettre en œuvre ces stratégies, au détriment des individus et de la concurrence.

III. Les conséquences de l’effondrement doctrinal

Cette partie analyse les effets politiques et institutionnels de l’effondrement doctrinal.

Le premier effet est une concentration accrue du pouvoir économique. Seules les entreprises riches peuvent acheter des bases de données ou déployer des infrastructures juridiques et techniques pour exploiter le consentement des utilisateurs. Les start-up ou les chercheurs indépendants se retrouvent désavantagés, ce qui freine l’innovation et renforce la domination des géants technologiques.

Le deuxième effet est un coût de gouvernance pour l’État de droit. Lorsque la loi perd sa lisibilité, il devient impossible de savoir quelle règle s’applique. Les tribunaux ne peuvent plus identifier clairement quel régime juridique régit une situation donnée. La conséquence est une perte de prévisibilité et de cohérence. Or, la prévisibilité est une valeur fondamentale du droit, car elle garantit que les citoyens et les entreprises peuvent organiser leurs comportements en fonction de règles stables.

Le troisième effet est un déficit de légitimité. Si les décisions juridiques apparaissent comme le résultat d’un opportunisme des acteurs puissants plutôt que de l’application de principes cohérents, la confiance dans le système diminue. L’auteure met en garde contre une dérive où le droit ne serait plus qu’un instrument manipulable par les plus forts, ce qui minerait sa fonction de régulation et de protection.

IV. Faire face à l’effondrement

L’auteure ne propose pas de résoudre l’effondrement en restaurant artificiellement des frontières étanches entre les régimes. Elle considère plutôt qu’il faut reconnaître la dynamique du collapse et apprendre à la gérer. Elle emprunte deux pistes théoriques : le droit international privé et le pluralisme juridique.

Du droit international privé, elle retient l’idée que lorsque plusieurs régimes s’appliquent à un même objet, il faut élaborer des règles de conflit qui organisent la hiérarchie ou la coordination entre eux. De la même manière, il conviendrait de développer des principes permettant de décider, dans le cas des données utilisées par l’IA, si la logique de la vie privée ou celle du droit d’auteur doit prévaloir, selon des critères prévisibles et stables.

Du pluralisme juridique, elle retient l’idée qu’il peut exister plusieurs systèmes normatifs qui coexistent, sans qu’il soit nécessaire de les réduire à une unité artificielle. L’enjeu est alors de préserver la lisibilité et la cohérence globale, tout en permettant une certaine flexibilité. L’effort doit porter sur la capacité des institutions à reconnaître la pluralité des logiques et à arbitrer sans se laisser enfermer dans les contradictions exploitées par les acteurs privés.

Ces pistes supposent une intervention législative ou réglementaire consciente de la spécificité du problème. Il ne s’agit pas seulement de combler des lacunes ou de renforcer les sanctions, mais de créer un véritable droit de l’effondrement, c’est-à-dire un ensemble de mécanismes institutionnels pour gérer les chevauchements et éviter qu’ils ne deviennent des instruments de domination.

V. Conclusion

En conclusion, l’auteure souligne que le développement de l’intelligence artificielle révèle de manière aiguë les failles structurelles du droit tel qu’il a été construit dans les décennies passées. Le problème ne se réduit pas à une question de vitesse ou de retard. C’est une crise de cohérence doctrinale. Si elle n’est pas prise au sérieux, elle risque de transformer le droit en outil malléable aux mains des entreprises les plus puissantes, au détriment de l’intérêt public. Reconnaître et gérer l’effondrement doctrinal est donc indispensable pour préserver la capacité du droit à encadrer l’innovation technologique dans un cadre démocratique.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire