L’ordonnance rendue par le Tribunal de commerce de Saint-Étienne le 10 juin 2025 (RG no 2025R00128) traite de faits de dénigrement en ligne dans un contexte professionnel. Elle met en lumière les conditions d’intervention du juge des référés face à des publications potentiellement attentatoires à la réputation d’une société.
Le litige oppose la SAS K, un cabinet d’expertise comptable en ligne, à la SARL M et à son gérant, Monsieur [C], lequel avait sollicité K pour la création de son entreprise et son suivi administratif. Des retards administratifs liés aux exigences de la Chambre des Métiers et de l’Artisanat (CMA), et la communication tendue qui s’en est suivie, ont conduit K à mettre un terme à sa mission. Par la suite, Monsieur [C] a publié une série d’avis très virulents, parfois sous pseudonyme, sur différentes plateformes numériques (Google, Facebook, Instagram, LinkedIn, WhatsApp, YouTube), visant explicitement le cabinet et certains de ses collaborateurs.
K a estimé que ces publications ne relevaient pas d’une critique objective ou d’un intérêt général, mais s’apparentaient à un chantage à la réputation, Monsieur [C] ayant clairement affirmé qu’il poursuivrait ses publications tant qu’il ne serait pas remboursé. Constatant que les mises en demeure étaient restées sans effet et que les propos continuaient, K a saisi le juge des référés afin d’obtenir la suppression des contenus litigieux et l’interdiction de toute publication future du même type.
L’ordonnance du juge s’ouvre sur un exposé factuel. Elle rappelle que la procédure a été engagée régulièrement, que les défendeurs ont été valablement assignés mais n’ont pas comparu, rendant la décision réputée contradictoire.
Dans son analyse de recevabilité, le juge constate que l’action est conforme à l’article 472 du Code de procédure civile : la demande est recevable, régulière et non entachée d’irrecevabilité.
Concernant le fond, le juge se réfère à l’article 873 du Code de procédure civile, qui autorise le juge des référés à ordonner des mesures conservatoires ou de remise en état pour faire cesser un trouble manifestement illicite ou prévenir un dommage imminent. Il rappelle d’emblée qu’une publication négative ne constitue pas en soi un trouble manifestement illicite, dans la mesure où elle relève du droit à la liberté d’expression. Toutefois, pour être licite, une critique doit reposer sur une base factuelle suffisante et être exprimée avec mesure.
En l’espèce, le juge note que les pièces produites — notamment les courriels échangés entre K et le client — témoignent d’une relation dégradée et d’une communication agressive de la part de Monsieur [C]. Cependant, la question de savoir si les critiques publiées sont fondées ne peut être tranchée de manière certaine au vu du dossier. En revanche, le juge observe que la quantité et la tonalité des messages, leur répétition sur plusieurs canaux et l’usage de pseudonymes simulant des avis multiples démontrent un manque manifeste de mesure. Il constate en outre la mise en cause directe de certains collaborateurs du cabinet, ce qui confère à ces publications un caractère particulièrement agressif et personnel.
Ces éléments caractérisent un trouble manifestement illicite que le juge estime devoir faire cesser. Il accueille donc favorablement la demande d’injonction de suppression des contenus visés, avec une extension à toute autre publication similaire. Le délai initialement sollicité (24 heures) est jugé trop court et est étendu à 48 heures à compter de la signification de la décision, sous astreinte de 1 000 euros par jour de retard. De même, pour éviter toute réitération, le juge interdit toute nouvelle publication de contenu concernant K, sous la même astreinte.
Concernant la demande indemnitaire de 5 000 euros au titre du préjudice subi, le juge l’écarte, estimant que la preuve du préjudice réel n’est pas apportée. Bien qu’un client potentiel ait indiqué avoir été influencé par les avis négatifs, la société reste bien notée sur Trustpilot et maintient une position favorable dans les classements professionnels. Le juge conclut que le préjudice allégué n’est pas démontré, d’autant plus que l’ensemble des avis négatifs ne peut être imputé au seul défendeur.
S’agissant des frais de procédure, la juridiction accorde à KEOBIZ une indemnité de 500 euros au titre de l’article 700 du Code de procédure civile, pour couvrir une partie des frais engagés. Les défendeurs sont condamnés solidairement à cette somme, ainsi qu’aux dépens.
La décision se conclut en rejetant les autres demandes et rappelle que la liquidation de l’astreinte relèvera du juge de l’exécution.
Cette ordonnance, bien que rendue dans le cadre d’une procédure en référé, apporte plusieurs enseignements pratiques importants pour la pratique du droit en matière de réputation numérique. Elle illustre les exigences de proportionnalité dans l’expression critique sur internet, même dans le cadre d’un différend commercial. Le juge pose clairement une frontière entre la liberté d’opinion et le harcèlement numérique, en se fondant non seulement sur le contenu des publications, mais aussi sur leur volume, leur tonalité et leur caractère répétitif et personnalisé. Il souligne également que la preuve d’un préjudice concret, et non simplement ressenti ou présumé, reste indispensable pour justifier une indemnisation.
Pour les praticiens suisses, cette décision met en relief une approche rigoureuse de la jurisprudence française en matière de gestion contentieuse de l’e-réputation. Elle illustre l’usage du référé comme outil rapide de protection de la réputation commerciale, tout en respectant l’équilibre entre droit à la critique et atteinte injustifiée.
[La décision a été mise en avant par Me Alexandre Archambault sur Linkedin]
14. Aux termes du point (1) de l’article 4 du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD), on entend par « données à caractère personnel » toute information se rapportant à une personne physique identifiée ou identifiable (ci-après dénommée « personne concernée »), est réputée être une « personne physique identifiable » une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale.
15. Selon l’article 15, §§ 3 et 4, du RGPD relatif au « Droit d’accès de la personne concernée », la personne concernée a le droit d’obtenir du responsable du traitement la confirmation que des données à caractère personnel la concernant sont ou ne sont pas traitées et, lorsqu’elles le sont, l’accès auxdites données à caractère personnel. Le responsable du traitement fournit une copie des données à caractère personnel faisant l’objet d’un traitement, sous réserve que le droit d’obtenir une copie ne porte pas atteinte aux droits et libertés d’autrui.
16. Il en résulte, d’une part, que les courriels émis ou reçus par le salarié grâce à sa messagerie électronique professionnelle sont des données à caractère personnel au sens de l’article 4 du RGPD et, d’autre part, que le salarié a le droit d’accéder à ces courriels, l’employeur devant lui fournir tant les métadonnées (horodatage, destinataires) que leur contenu, sauf si les éléments dont la communication est demandée sont de nature à porter atteinte aux droits et libertés d’autrui.
17. La cour d’appel, après avoir relevé que le salarié avait demandé la communication des courriels émis ou reçu par lui dans le cadre de l’exécution de son contrat de travail, a constaté, procédant à la recherche prétendument omise, que la société s’était bornée à lui transmettre divers documents (de fin de contrat, bulletins de paie, prévoyance, documents relatifs à une place de parking, une voiture, documents contractuels, avis d’arrêt de travail, suivi individuel de santé, R.I.B, documents relatifs au licenciement) mais ne justifiait pas avoir communiqué ni les métadonnées ni le contenu des courriels émis ou reçus par lui, et n’invoquait aucun motif pour expliquer cette abstention.
18. La cour d’appel a pu en déduire que cette abstention était fautive et a constaté qu’elle avait causé à l’intéressé un préjudice dont elle a souverainement apprécié le montant. 19. Le moyen n’est donc pas fondé.
Extrait de Cass. soc. 18 juin 2025, pourvoi n° B 23-19.022 (repéré, présenté et commenté par Me Lucille Detwiler sur linkedin)
Quelques notes à partie de S. Bensal et al., Reflect, Retry, Reward: Self-Improving LLMs via Reinforcement Learning, arXiv : 2505.24726v1 [cs.CL], 30 mai 2025 (lien : https://arxiv.org/abs/2505.24726):
Les progrès récents de l’intelligence artificielle, en particulier ceux portés par les modèles de langage de grande taille, appelés LLM (Large Language Models), ont bouleversé notre rapport à l’information, à la logique et à la rédaction. Ces modèles sont capables de comprendre, générer, résumer, traduire ou encore commenter des textes avec une finesse croissante. Cependant, malgré leur puissance apparente, ils restent fondamentalement faillibles. Leur fonctionnement repose sur des probabilités statistiques plutôt que sur une compréhension profonde, ce qui les expose à des erreurs de logique, de fait ou de cohérence, même lorsqu’ils semblent tout à fait sûrs d’eux.
C’est dans ce contexte que s’inscrit l’étude ici présentée. Elle explore une approche originale, quasi métacognitive, pour améliorer les modèles de langage en les incitant à apprendre de leurs erreurs. Cette amélioration ne repose pas sur l’ajout de nouvelles données, ni sur une supervision humaine intensive, mais sur l’exploitation d’un mécanisme interne : l’autoréflexion. L’idée est de faire en sorte qu’un modèle, lorsqu’il se trompe, tente de comprendre pourquoi, puis utilise cette compréhension pour proposer une meilleure réponse. Et surtout, qu’il apprenne, avec le temps, à mieux réfléchir. Cette méthode s’appuie sur un algorithme d’apprentissage par renforcement appelé GRPO (Group Relative Policy Optimization), qui permet de guider cette amélioration à partir d’un simple signal binaire indiquant si la réponse produite est correcte ou non.
L’intérêt de cette méthode est notamment de montrer que l’intelligence artificielle n’est pas figée dans une logique d’automatisation brute, mais peut intégrer des processus cognitifs proches de la réflexion humaine, ouvrant la voie à des usages plus fins, plus explicables, et peut-être plus fiables dans les processus décisionnels sensibles.
Le raisonnement des auteurs commence par poser un constat. Les LLM sont performants, mais leur performance reste imprévisible. Un modèle qui réussit une tâche donnée peut échouer lamentablement sur une tâche similaire. Ce manque de généralisation rend leur usage délicat dans des domaines où l’exactitude est cruciale. Si l’on souhaite corriger ce problème, la voie la plus évidente consiste à réentraîner le modèle en lui fournissant des exemples représentatifs de ses échecs. Or, cela n’est pas toujours possible. Il se peut qu’aucun corpus d’exemples pertinents n’existe, ou que les meilleurs modèles eux-mêmes ne soient pas capables de générer des exemples de qualité suffisante. Dans de telles situations, l’approche classique de l’apprentissage supervisé montre ses limites.
Face à cette impasse, les chercheurs proposent une alternative : faire appel à la capacité de réflexion du modèle lui-même. Ce principe n’est pas entièrement nouveau. La méthode du « Chain-of-Thought » (chaîne de raisonnement), déjà connue, a montré que demander explicitement à un modèle de détailler ses étapes de raisonnement améliore souvent ses performances. L’auto-réflexion pousse cette logique plus loin : il ne s’agit plus seulement d’expliquer pourquoi une réponse est correcte, mais de comprendre pourquoi elle ne l’est pas.
Ce changement de perspective est fondamental. Il transforme l’échec d’un modèle en opportunité d’apprentissage. Lorsqu’un modèle donne une mauvaise réponse, on lui demande de réfléchir à ce qui a pu clocher. Cette réflexion est ensuite intégrée à une seconde tentative de réponse. Si cette nouvelle tentative réussit, c’est la qualité de la réflexion intermédiaire qui est récompensée. Ainsi, le modèle apprend progressivement à produire des réflexions plus pertinentes, plus concises, plus efficaces, indépendamment du type de tâche qu’il accomplit.
L’implémentation concrète de cette idée repose sur un mécanisme de vérification binaire. Il faut pouvoir dire, de manière automatique et fiable, si une réponse est correcte ou non. Cela est envisageable dans des tâches où le résultat peut être validé par un test objectif : par exemple, un appel d’API est correct si la fonction appelée renvoie la bonne réponse, une équation est correcte si elle donne bien le résultat attendu, un bloc de code est valide s’il s’exécute sans erreur. Ce principe de validation minimaliste permet d’élargir le champ d’application de la méthode à des situations où l’on ne dispose pas de jeux d’apprentissage labellisés.
La méthodologie adoptée par les chercheurs se déroule en trois phases. D’abord, le modèle tente de résoudre une tâche. Si sa réponse est correcte, on n’intervient pas. En revanche, s’il échoue, il est invité à rédiger une auto-réflexion : un court texte dans lequel il explique les raisons possibles de son échec. Ensuite, muni de cette réflexion, il tente à nouveau de résoudre la tâche. Si cette seconde tentative est un succès, l’algorithme GRPO récompense spécifiquement les mots produits dans la phase de réflexion. Cette récompense vise à renforcer le type de raisonnement qui a permis de corriger l’erreur initiale.
Deux cas d’étude ont été utilisés pour tester cette méthode. Le premier concerne la génération automatique d’appels de fonctions API à partir de requêtes en langage naturel. Ce type de tâche implique de comprendre la demande, de choisir la bonne fonction informatique et de remplir correctement ses paramètres. Le second cas d’étude porte sur la génération d’équations arithmétiques, où il s’agit de combiner quelques nombres donnés pour atteindre une cible numérique, en respectant des règles strictes. Dans les deux cas, les résultats sont évalués automatiquement, ce qui permet d’appliquer la méthode sans supervision humaine.
Les résultats sont frappants. Les modèles ayant été entraînés avec cette méthode surpassent nettement leurs versions originales, parfois même dès la première tentative. Dans certaines situations, un petit modèle entraîné devient meilleur qu’un très grand modèle non entraîné, ce qui suggère que la qualité du raisonnement importe autant, sinon plus, que la puissance brute. De plus, les réflexions produites après entraînement sont plus courtes, plus claires et mieux structurées. Elles ressemblent à de véritables raisonnements synthétiques, analogues à ceux que produiraient des êtres humains entraînés à la concision et à la logique.
Un point particulièrement important est la question de la stabilité du modèle. Lorsqu’on modifie un modèle pour améliorer ses performances dans une tâche donnée, on craint souvent qu’il oublie ce qu’il savait faire auparavant. C’est ce qu’on appelle la perte catastrophique. Les auteurs de l’étude ont vérifié que leur méthode ne produit pas cet effet indésirable. Après l’entraînement, les modèles conservent leurs performances sur des tâches standards de compréhension du langage, de raisonnement logique ou de mathématiques. Dans certains cas, ils s’améliorent même légèrement. Cela montre que l’apprentissage de l’auto-réflexion ne spécialise pas trop le modèle, mais améliore plutôt sa capacité générale à raisonner.
Une analyse fine des erreurs confirme cette impression. Dans le cas des appels de fonctions, les petits modèles font souvent des erreurs de choix d’outil. L’entraînement les aide à affiner leur sélection. Les modèles plus grands font moins d’erreurs initiales, mais peinent parfois à bien remplir les paramètres ; là encore, l’entraînement améliore leur précision. Dans les tâches mathématiques, l’erreur la plus fréquente est l’utilisation de nombres non autorisés. L’entraînement permet de réduire fortement cette erreur. Cela montre que le modèle apprend à mieux respecter les contraintes de la tâche, ce qui est essentiel dans des contextes sensibles comme le droit.
En apprenant à mieux réfléchir à ses erreurs, un modèle peut donc devenir plus performant, plus fiable et plus autonome. Cette amélioration ne dépend pas de données spécifiques à une tâche, mais d’un mécanisme général de réflexion critique. Le potentiel d’une telle approche pour le droit est évident : elle permettrait de créer des modèles capables de repérer leurs incohérences, de les corriger, et donc d’assister les professionnels de manière plus efficace.
Les limites de la méthode sont néanmoins réelles. Elle suppose l’existence d’un validateur binaire fiable, ce qui n’est pas toujours le cas, notamment dans des situations juridiques complexes où la validité d’une réponse est elle-même sujette à interprétation. Elle suppose également que le modèle ait un minimum de compétence de départ : on ne peut pas apprendre à réfléchir sur un sujet qu’on ne comprend pas du tout. Enfin, elle repose sur l’idée que la réflexion est elle-même évaluée uniquement par ses conséquences (la réussite finale), ce qui peut conduire à négliger des raisonnements intéressants mais inefficaces.
Malgré ces limites, la direction ouverte par cette recherche suggère que les modèles de langage pourraient devenir des partenaires de raisonnement plus robustes, plus transparents et plus autonomes. L’IA ne se contenterait plus d’imiter un savoir statique, mais s’approcherait, modestement, d’un raisonnement évolutif.
Il note qu’historiquement, l’apprentissage par renforcement dans les LLM était utilisé à l’étape finale de l’entraînement pour aligner le comportement du modèle sur les préférences humaines. Cela a aidé les modèles à paraître plus utiles ou polis, mais cela n’a pas élargi leur capacité à résoudre des problèmes complexes. L’apprentissage par renforcement est maintenant appliqué plus tôt et plus profondément, non seulement pour ajuster les résultats, mais aussi pour aider les modèles à apprendre à penser, à s’adapter et à généraliser à différents types de défis de raisonnement.
Dans ce contexte, l’article susmentionné suggère de mettre en place une boucle d’auto-amélioration dans le modèle. Lorsque le modèle échoue à une tâche, il génère une réflexion, une nouvelle tentative et n’est récompensé que si la nouvelle tentative réussit. Au fil du temps, le modèle apprend ainsi à écrire de meilleures réflexions et s’améliore même au premier essai. Parce qu’il ne repose que sur un signal de réussite binaire et ne nécessite aucune donnée étiquetée par l’homme, il fournit un moyen évolutif pour les modèles de s’autocorriger.
Cette publication, avec d’autres dont nous parlerons ces prochains jours, semblent montrer que l’apprentissage par renforcement est maintenant en train de devenir un mécanisme permettant d’accroître la capacité du modèle à réfléchir, à généraliser et à résoudre des problèmes sur lesquels il n’a pas été explicitement formé.
Elle montre aussi qu’au lieu de compresser plus de connaissances dans un modèle figé, nous commençons à former des systèmes qui peuvent apprendre à s’améliorer en cours de processus. Les modèles de l’avenir ne seront ainsi pas forcément plus grands, mais des modèles qui apprennent mieux grâce à la rétroaction, à l’autoréflexion et aux essais et erreurs structurés.
Quelques notes à partir de M. Liu et al., ProRL : Prolonged Reinforcement Learning Expands Reasoning Boudaries in Large Language Models, arXiv :2505.24864v1 [cs.CL], 30 mai 2025 (lien : https://arxiv.org/abs/2505.24864):
Les Large Language Models (LLM) sont conçus pour manipuler du langage de façon quasi humaine, grâce à un entraînement massif sur d’énormes corpus textuels. Cependant, au-delà de la capacité à générer du texte fluide ou cohérent, un enjeu majeur pour ces modèles est désormais leur capacité à raisonner. Autrement dit, peut-on vraiment enseigner à ces machines à « penser », à produire des raisonnements structurés, logiques, complexes – similaires à ceux qu’un humain peut formuler dans des contextes juridiques, scientifiques ou techniques ?
Pour répondre à cette question, l’équipe de recherche de NVIDIA interroge une hypothèse largement débattue dans la communauté scientifique : l’apprentissage par renforcement, qui consiste à ajuster un modèle en fonction de récompenses précises attribuées à ses réponses, permet-il d’élargir ses capacités de raisonnement, ou ne fait-il qu’exacerber ses compétences déjà existantes? En d’autres termes, est-ce que l’on apprend quelque chose de nouveau au modèle, ou l’aide-t-on simplement à répéter, de manière plus efficace, ce qu’il savait déjà, parfois inconsciemment, à partir de son entraînement initial ?
Les auteurs de l’article proposent une nouvelle méthode d’entraînement, baptisée ProRL – pour « Prolonged Reinforcement Learning » – c’est-à-dire un apprentissage par renforcement prolongé dans le temps, beaucoup plus long que ce qui était traditionnellement pratiqué jusqu’ici. Cette méthode repose sur la conviction que, si on laisse suffisamment de temps au modèle, et si on l’expose à une variété de tâches bien choisies, alors il peut sortir des sentiers battus, inventer de nouveaux raisonnements, et ainsi véritablement repousser les frontières de sa compréhension.
Le point de départ de l’étude repose sur une critique des méthodes antérieures, qui tendaient à tirer des conclusions trop hâtives quant à l’efficacité du renforcement. En général, les expériences de renforcement précédentes s’effectuaient sur un nombre limité d’itérations (quelques centaines tout au plus), sur des tâches très spécialisées (souvent en mathématiques), et dans des conditions peu propices à l’exploration. Ce manque de diversité, combiné à des durées d’entraînement trop courtes, ne permettait pas aux modèles d’explorer suffisamment leur espace de solution. ProRL, au contraire, se donne pour objectif de maximiser cette exploration, en augmentant le temps d’apprentissage, en diversifiant les tâches, et en stabilisant le processus de renforcement avec des mécanismes techniques spécifiques.
La méthode repose sur une base algorithmique appelée GRPO – Group Relative Policy Optimization – qui permet d’ajuster les politiques du modèle (c’est-à-dire les règles selon lesquelles il génère ses réponses) non pas à partir de valeurs absolues, mais en comparant ses performances relatives au sein d’un groupe de tentatives. Cette approche permet de se passer d’un modèle de valeur externe et réduit les biais d’optimisation. Cependant, prolonger un apprentissage par renforcement sur des milliers d’étapes pose des problèmes de stabilité. Un phénomène typique dans ce contexte est ce que l’on appelle l’« effondrement de l’entropie » : le modèle se met à privilégier quelques réponses bien notées, au point d’ignorer totalement les autres, ce qui bloque l’exploration. Pour contrer cela, les chercheurs introduisent une régularisation fondée sur la divergence de Kullback-Leibler (KL), qui empêche le modèle de s’éloigner trop d’un point de référence, et ils réinitialisent régulièrement cette référence pour éviter l’enlisement.
Ils introduisent également des éléments empruntés à une méthode antérieure nommée DAPO, tels que l’ajustement dynamique des exemples utilisés (en supprimant ceux trop faciles ou trop durs) et le découplage des paramètres de « clipping », qui détermine dans quelle mesure les probabilités de certaines réponses sont amplifiées ou atténuées. Ces ajustements permettent de maintenir un niveau de diversité suffisant dans les réponses générées, condition indispensable pour que de nouvelles formes de raisonnement émergent.
Les chercheurs mettent à profit cette méthode pour entraîner un nouveau modèle, baptisé Nemotron-Research-Reasoning-Qwen-1.5B. Ce modèle est basé sur un modèle existant, DeepSeek-R1-1.5B, qu’il dépasse largement dans toutes les dimensions évaluées. L’entraînement a été réalisé sur un corpus de 136 000 tâches soigneusement sélectionnées, couvrant les domaines des mathématiques, de la programmation, des sciences, de la logique et des instructions complexes. Toutes ces tâches ont la particularité de pouvoir être évaluées automatiquement par des récompenses vérifiables, ce qui est crucial pour l’apprentissage par renforcement.
Les résultats allégués sont impressionnants. Le modèle Nemotron surpasse le modèle de base de 14,7 % en mathématiques, de 13,9 % en code, de 25,1 % en raisonnement scientifique, de 18,1 % dans les tâches d’exécution d’instructions, et de 54,8 % dans les puzzles logiques complexes. Il rivalise même avec des modèles bien plus grands, comme DeepSeek-R1-7B. Mais plus encore, ce que les auteurs montrent, c’est que ces gains sont encore possibles après 2 000 étapes de renforcement – une durée sans précédent. Cela démontre que le modèle continue à progresser même lorsque les approches traditionnelles cessent d’être efficaces.
L’article va plus loin en étudiant la capacité du modèle à généraliser. Il s’intéresse à des tâches dites « hors distribution » (out-of-distribution), c’est-à-dire des problèmes qui ne ressemblent pas à ceux vus pendant l’entraînement. Or, dans plusieurs cas, le modèle Nemotron parvient à les résoudre avec succès, alors que le modèle de base échoue systématiquement. Un exemple marquant est celui de la tâche boxnet, où le modèle initial n’arrive jamais à donner une bonne réponse, tandis que le modèle entraîné par ProRL atteint un taux de réussite de 100 %. Cela démontre que le modèle n’a pas seulement appris à mieux répondre aux problèmes qu’il connaissait, mais qu’il a véritablement développé une capacité d’adaptation à des contextes nouveaux.
Les auteurs analysent également l’évolution des distributions de performance au fil du temps. Ils observent que la proportion de réponses correctes en première tentative (pass@1) augmente de manière significative, mais surtout, que la distribution des performances se déplace dans son ensemble, c’est-à-dire que le modèle devient globalement plus fiable. Il ne s’agit donc pas simplement d’un tri plus intelligent des meilleures réponses, mais bien d’une transformation profonde des capacités de raisonnement du système.
Les auteurs catégorisent les tâches en trois types selon leur réaction au renforcement. Certaines voient leurs performances diminuer légèrement en raison d’une spécialisation excessive – c’est le cas notamment pour des problèmes mathématiques très connus, où le modèle devient trop confiant dans des solutions standards. D’autres atteignent rapidement un plateau, ce qui signifie que le renforcement les améliore au début, puis cesse d’avoir un effet. Mais enfin, et c’est le plus important, un grand nombre de tâches bénéficient de gains continus et progressifs tout au long de l’entraînement, ce qui indique que le modèle explore effectivement de nouveaux territoires conceptuels.
L’article conclut que l’apprentissage par renforcement prolongé permet aux grands modèles de langage de dépasser leurs limitations initiales, non seulement en termes de performance brute, mais aussi en termes de diversité, d’adaptabilité et de créativité. Les chercheurs introduisent un indicateur qu’ils nomment « indice de créativité », qui mesure dans quelle mesure une réponse ressemble à ce que le modèle a vu pendant son pré-entraînement. Un indice élevé indique que le modèle a produit quelque chose de nouveau, de non banal. Or, cet indice augmente avec ProRL, ce qui tend à confirmer que le modèle développe des raisonnements originaux.
Dans un contexte juridique, cela signifie que des modèles d’intelligence artificielle peuvent, par apprentissage structuré prolongé, développer des capacités de raisonnement inédites, même sur des données qu’ils n’ont jamais vues. Cela ouvre sans doute la porte à des applications nouvelles dans le domaine du droit, mais cela pose aussi des questions de responsabilité : quelle est la responsabilité d’un système qui invente une solution que ses concepteurs n’avaient pas anticipée ? Jusqu’à quel point un raisonnement généré peut-il être considéré comme fiable, explicable, ou conforme au droit ? Et surtout, peut-on déléguer une part de la fonction de jugement à un système qui apprend à raisonner de manière autonome ?
L’article montre donc que l’apprentissage par renforcement prolongé n’est pas simplement une technique d’optimisation, mais un levier pour faire émerger une forme de raisonnement artificiel évolutif.
Il note qu’historiquement, l’apprentissage par renforcement dans les LLM était utilisé à l’étape finale de l’entraînement pour aligner le comportement du modèle sur les préférences humaines. Cela a aidé les modèles à paraître plus utiles ou polis, mais cela n’a pas élargi leur capacité à résoudre des problèmes complexes. L’apprentissage par renforcement est maintenant appliqué plus tôt et plus profondément, non seulement pour ajuster les résultats, mais aussi pour aider les modèles à apprendre à penser, à s’adapter et à généraliser à différents types de défis de raisonnement.
Dans ce contexte, l’article susmentionné suggère que l’apprentissage par renforcement, lorsqu’il est structuré et soutenu, peut débloquer de nouvelles capacités de raisonnement que le pré entraînement seul n’atteint pas.
Cette publication, avec d’autres dont nous parlerons ces prochains jours, semblent montrer que l’apprentissage par renforcement est maintenant en train de devenir un mécanisme permettant d’accroître la capacité du modèle à réfléchir, à généraliser et à résoudre des problèmes sur lesquels il n’a pas été explicitement formé.
Elle montre aussi qu’au lieu de compresser plus de connaissances dans un modèle figé, nous commençons à former des systèmes qui peuvent apprendre à s’améliorer en cours de processus. Les modèles de l’avenir ne seront ainsi pas forcément plus grands, mais des modèles qui apprennent mieux grâce à la rétroaction, à l’autoréflexion et aux essais et erreurs structurés.
L’article de Hutson, Jevan ; Whitney, Cedric and Conrad, Jay, Forget Me Not? Machine Unlearning’s Implications for Privacy Law (May 09, 2025) (Available at SSRN: https://ssrn.com/abstract=5291500) explore les implications juridiques du désapprentissage machine (machine unlearning), une technique émergente au croisement du droit de la protection des données et des technologies de l’intelligence artificielle, en particulier dans le contexte des modèles génératifs.
L’article s’ouvre sur un constat de tension croissante entre l’architecture des modèles d’intelligence artificielle modernes et les attentes normatives du droit à la vie privée. Alors que le droit impose aux responsables de traitement d’effacer les données personnelles à la demande des personnes concernées — conformément à des droits tels que ceux énoncés à l’article 17 du RGPD ou aux équivalents américains comme le California Consumer Privacy Act —, les modèles d’IA, eux, ne fonctionnent plus comme des bases de données classiques dans lesquelles il serait simple de supprimer une ligne. Une fois les données personnelles « digérées » par le modèle au cours de l’entraînement, elles sont intégrées de façon diffuse dans ses milliards de paramètres. L’effacement ne revient donc pas à supprimer une entrée mais à tenter d’éliminer une trace désormais inscrite dans les dynamiques internes du modèle lui-même. C’est dans cette zone grise que s’insère le concept d’unlearning.
La première partie de l’article est consacrée à la synthèse des travaux en informatique sur l’unlearning. Il s’agit d’un ensemble de méthodes qui visent, chacune à leur manière, à réduire ou annuler l’influence d’un point de données spécifique dans un modèle déjà entraîné. Trois grandes familles de techniques sont présentées. La première regroupe les méthodes dites structurelles. Leur logique consiste à modifier la structure du modèle ou à le réentraîner partiellement, de manière à ce que le modèle final fonctionne comme s’il n’avait jamais vu les données à effacer. Un exemple paradigmatique en est la méthode SISA, qui divise les données en « shards » — des sous-ensembles isolés — et entraîne sur chacun d’eux un sous-modèle. Lorsqu’une demande de suppression est faite, seul le sous-modèle ayant traité les données concernées est réentraîné, ce qui limite considérablement les coûts. Une autre méthode, ARCANE, pousse plus loin l’idée en répartissant les données selon leur nature sémantique, confiant chaque domaine à un réseau d’experts spécifique, facilitant ainsi une suppression ciblée. Ces approches sont solides mais lourdes à mettre en œuvre, tant en termes de puissance de calcul que de gouvernance de l’architecture du système.
La deuxième famille rassemble les méthodes dites approximatives. Elles interviennent après l’entraînement complet du modèle et cherchent à « effacer » l’influence d’un jeu de données par des ajustements ciblés des poids internes. C’est un compromis entre efficacité juridique et coût opérationnel. La méthode Descent-to-Delete, par exemple, applique des gradients inversés pour désapprendre des données particulières sans tout reconstruire. Une autre approche, connue sous le nom de Fisher-scrubbing, identifie les poids les plus influencés par les données à oublier et y injecte du bruit aléatoire calibré. Ces méthodes sont attrayantes pour les prestataires de services qui n’ont plus accès aux données d’origine ou qui souhaitent éviter un nouveau cycle d’entraînement complet. Elles sont aussi bien adaptées aux cas d’usage modestes, mais leur robustesse en matière de conformité reste incertaine : elles ne garantissent pas l’absence totale de résidus exploitables par des attaques statistiques.
La troisième catégorie est celle des méthodes de suppression d’output. Celles-ci ne modifient pas le modèle en lui-même mais restreignent ce qu’il peut produire. C’est la stratégie des modèles qui répondent « je ne peux pas vous aider » lorsqu’une requête pose un risque de divulgation. Cette forme de suppression repose soit sur l’apprentissage par renforcement avec retour humain (RLHF), soit sur des règles logiques intégrées dans le prompt système. Des filtres externes, comme ceux utilisés dans les API de modération, permettent également de bloquer certaines sorties avant qu’elles n’atteignent l’utilisateur final. Cette méthode est très utilisée dans les systèmes commerciaux car elle est rapide, peu coûteuse et facilement déployable. Toutefois, elle ne répond en rien à la question juridique de la suppression effective de la donnée source, car l’information reste présente dans les poids du modèle. Elle constitue donc une forme de contournement pragmatique qui peut, dans certains contextes réglementaires, être perçue comme insuffisante.
La fin de cette première partie compare les trois approches selon plusieurs critères : conformité aux normes juridiques (notamment le droit à l’effacement), coût computationnel, scalabilité, et robustesse aux attaques adversariales. Il en ressort que seul le désapprentissage structurel permettrait — dans les hypothèses les plus favorables — de satisfaire les exigences du droit à l’effacement tel que formulé par le RGPD. Les méthodes approximatives sont utiles dans un contexte de compliance partielle, mais ne permettent pas de garantir l’absence de résidus. Enfin, les techniques de suppression d’output sont faciles à mettre en place, mais n’ont pas de valeur juridique probante en matière d’effacement.
La deuxième partie de l’article analyse comment ces techniques d’unlearning s’articulent, ou non, avec les exigences substantielles des régimes de protection des données. Les auteurs commencent par rappeler les grands principes du droit de la vie privée : la collecte licite et loyale, la limitation des finalités, la minimisation des données, la qualité et exactitude des données, ainsi que les droits individuels à l’accès, à la rectification, à l’opposition, au retrait du consentement et à l’effacement. Ces principes sont exprimés dans divers textes comme le RGPD (en Europe), le CCPA (aux États-Unis) ou la LPD suisse. Mais les modèles d’IA générative, par leur nature, entrent en tension avec ces exigences. Un modèle génératif ne se contente pas de stocker des données : il apprend des régularités, les généralise, et produit de nouvelles occurrences à partir de ces abstractions. Ainsi, supprimer un document source ne garantit pas que le modèle ne pourra plus générer une réponse inspirée par ce document.
L’article souligne plusieurs tensions conceptuelles majeures. Premièrement, la suppression post-hoc d’un point de données n’efface pas nécessairement ses effets latents. Deuxièmement, l’influence de ces données peut avoir été diffusée dans l’espace des représentations internes du modèle et ne peut donc pas être tracée de manière précise. Troisièmement, les attaques d’inférence, qui comparent les comportements d’un modèle avant et après un processus de suppression, peuvent paradoxalement révéler qu’un point a été supprimé, exposant ainsi la personne concernée à un nouveau risque de réidentification. L’unlearning, loin de garantir une protection absolue, peut devenir un vecteur d’exposition supplémentaire. Cette perspective soulève une question épineuse : dans quelle mesure un modèle qui conserve la capacité de reproduire un contenu — même de manière approximative — peut-il être considéré comme conforme à une obligation d’effacement ?
Dans sa troisième partie, l’article s’efforce de dépasser le diagnostic critique pour proposer des pistes opérationnelles. Les auteurs articulent un cadre d’action pour intégrer le machine unlearning dans les pratiques réglementaires. Ce cadre repose sur une combinaison de mesures préventives et réactives. Parmi les mesures préventives, ils recommandent la mise en place d’architectures respectueuses de la vie privée dès la conception du modèle, le recours à l’apprentissage différentiel ou à des méthodes de partition des données qui facilitent leur traçabilité et leur suppression ultérieure. Du côté des mesures correctives, l’article évoque le modèle de la « destruction algorithmique » (algorithmic disgorgement), concept déjà mobilisé par la FTC dans certaines décisions récentes, qui impose la suppression des modèles eux-mêmes lorsqu’ils ont été construits sur la base de données illégitimement acquises. À cela s’ajoutent les protocoles de suppression ciblée ou d’effacement sélectif, notamment dans le cadre de règlements amiables ou d’injonctions administratives.
Le cadre proposé inclut également des mécanismes d’enquête, des audits réguliers, et une meilleure gouvernance de la traçabilité des données. Les auteurs insistent particulièrement sur la nécessité d’éviter les approches technocratiques qui transformeraient la protection de la vie privée en simple problème d’ingénierie, au détriment des objectifs substantiels. Ils plaident pour un équilibre entre réalisme opérationnel, efficacité juridique et lisibilité réglementaire. Dans cette perspective, le rôle des autorités de protection des données devient central. Celles-ci doivent non seulement fixer des normes techniques minimales pour l’unlearning, mais aussi renforcer leurs outils d’enquête afin de pouvoir vérifier la réalité des processus de suppression invoqués par les responsables de traitement.
Enfin, la conclusion réaffirme que le machine unlearning ne saurait constituer à lui seul une réponse adéquate aux exigences du droit à l’effacement. Il ne s’agit ni d’une panacée, ni d’un substitut aux autres garanties de la protection des données. En revanche, lorsqu’il est intégré dans un cadre de gouvernance plus large, reposant sur la combinaison de plusieurs mesures (minimisation, consentement explicite, suppression ex-ante, auditabilité, etc.), l’unlearning peut jouer un rôle utile dans la protection des personnes. Il devient un outil parmi d’autres dans la boîte à outils de la régulation algorithmique.
Le « Standing Order Regarding Use of Artificial Intelligence » édicté le 15 mai 2025 par le juge David L. Horan (United States District Court, Northern District of Texas, Dallas Division) dans l’affaire Cedric Willis v/ U.S. Bank national Associations (No. 3 : 25-cv-516-BN) traite de la révélation, par l’avocat, de son usage de l’intelligence artificielle en procédure.
Contexte général
Le juge Horan rappelle d’abord que la recherche juridique a connu une évolution progressive, des recueils imprimés jusqu’aux bases de données numériques comme Lexis ou Westlaw. Aujourd’hui, la transition vers l’IA générative constitue une nouvelle étape. Si l’IA peut améliorer l’accès au droit et faciliter le travail des avocats comme des justiciables plaidant en personne, elle n’est pas sans risques. L’enthousiasme pour ces outils doit être tempéré par une vigilance accrue, en particulier face aux dangers des hallucinations de l’IA, soit la production de contenu fictif mais présenté de manière crédible.
Portée de la décision
La décision se présente sous forme d’un « standing order », c’est-à-dire une ordonnance générale applicable à toutes les parties au litige. Elle ne constitue pas une interdiction d’utiliser l’IA, mais impose des obligations précises en matière de transparence et de vérification. Le juge souligne qu’une utilisation prudente et intelligente de l’IA peut être bénéfique pour la justice, notamment pour les parties non représentées et plaidant en personnes.
Obligation de divulgation
L’élément central de la décision – et le plus pertinent pour les praticiens du droit – est l’obligation de divulguer toute utilisation d’intelligence artificielle générative dans la rédaction des écritures. Cette obligation découle directement de la règle locale 7.2(f) (Local Civil Rule) du district :
Si une partie dépose un mémoire partiellement ou totalement rédigé à l’aide d’IA générative, elle doit le signaler dès la première page du document, sous la mention explicite « Use of Generative Artificial Intelligence ».
Le juge peut aussi exiger que la partie indique précisément quelles sections ont été rédigées à l’aide d’IA.
À défaut de mention, la partie certifie implicitement qu’aucune portion du document n’a été produite à l’aide d’un tel outil.
La définition retenue de l’IA générative inclut tout programme informatique capable de produire du texte ou des images en réponse à une requête, comme ChatGPT ou d’autres modèles similaires.
Règle 11 Federal Rules of Civil Procedure
L’obligation de divulgation s’inscrit dans le cadre plus large du respect de la règle 11 des Federal Rules of Civil Procedure. Cette règle impose à tout avocat ou justiciable de certifier que les contenus juridiques avancés dans une procédure sont fondés sur le droit existant et que les faits évoqués sont soutenus par des éléments probants. Ce devoir de diligence s’applique de manière identique aux avocats et aux justiciables agissant en personne.
Le juge rappelle que soumettre un mémoire qui cite des jurisprudences inventées par une IA, sans avoir vérifié leur validité, constitue une violation de la règle 11. Ce manquement expose les parties à des sanctions, parfois sévères, allant jusqu’à l’annulation des demandes ou des amendes.
Dangers liés à l’IA générative
Le juge consacre une large partie de sa décision à l’explication des « hallucinations » des IA génératives. Il s’agit de cas où l’IA crée de toutes pièces des décisions judiciaires inexistantes, avec un niveau de détail tel qu’elles paraissent crédibles à un œil non averti. Plusieurs affaires récentes ont vu des avocats ou des justiciables déposer des mémoires contenant des citations fictives, sans avoir vérifié leur existence. Ces pratiques, même si elles découlent d’une utilisation imprudente et non malveillante de l’IA, sont considérées comme abusives.
Le juge insiste sur le fait que l’outil n’est pas responsable : c’est à l’utilisateur – l’avocat ou la partie – de faire preuve d’intelligence humaine dans l’usage de l’IA. La tentation de produire rapidement des documents juridiques est compréhensible, mais elle fait peser un risque déséquilibré sur le système judiciaire, qui doit ensuite consacrer un temps précieux à vérifier la véracité des sources invoquées.
Conséquences pratiques
D’un point de vue procédural, les mémoires qui contiennent des références juridiques erronées ou fictives peuvent être rejetés. La partie fautive peut être sanctionnée. Le juge cite plusieurs affaires dans lesquelles des sanctions ont été prononcées à l’encontre de parties pour avoir cité de fausses décisions judiciaires générées par IA.
Toutefois, la décision fait preuve de nuance : le juge reconnaît les limitations des parties non représentées, notamment en termes d’accès à des bases juridiques payantes. Ainsi, l’absence de vérification peut être comprise dans certains cas, mais elle ne sera pas excusée à répétition.
Enjeux pour les avocats suisses
Même si cette ordonnance provient d’un tribunal américain, elle résonne avec les défis que rencontrent les avocats suisses face à l’essor des outils d’IA dans la pratique juridique. Elle illustre l’attente d’une transparence complète sur le recours à l’IA, ainsi qu’un devoir de contrôle rigoureux quant à l’exactitude des contenus produits.
En Suisse, la législation ne prévoit pas encore une obligation explicite de déclarer l’usage de l’IA dans les écritures judiciaires. Cependant, la logique sous-jacente de la règle 11 – à savoir le devoir de diligence, la loyauté envers le tribunal et la véracité des faits et du droit allégués – est pleinement transposable à notre système.
La décision du juge Horan ne prohibe pas l’usage de l’IA dans les procédures judiciaires. Elle impose par contre une transparence obligatoire et un contrôle humain rigoureux. Pour les avocats suisses, cela souligne l’importance de ne pas déléguer leur jugement professionnel à des outils automatisés, aussi performants soient-ils. L’intelligence artificielle ne remplace pas l’intelligence humaine ; elle la complète, à condition d’en connaître les limites et d’en assumer l’usage.
Dans un arrêt CACI 16 novembre 2025/180, consid. 4.3.2, la Cour d’appel civile du Tribunal cantonal vaudois s’est penchée sur le cas d’un courtier, dont l’employeur estimait que son travail était de très faible qualité, ce qui aurait induit des clients en erreur sur la nature et la portée des documents soumis à leur signature. Son comportement vis-à-vis de la clientèle avait été dénué de toute forme d’éthique et de professionnalisme. L’employeur soutient donc que les violations précitées lui ont causé un dommage équivalant aux commissions annulées par les clients mécontents de ses prestations. Pour la Cour, on doit admettre, avec l’employeuse, que les éléments au dossier sont suffisants pour démontrer que l’employé ne s’est pas toujours comporté correctement vis-à-vis des clients. Ainsi, plusieurs clients du courtier ont écrit avoir été dupés par ce dernier. Ce faisant, l’employé a donc violé ses obligations contractuelles, son contrat prévoyant expressément, comme tâche principale, le fait de développer et d’entretenir des relations de confiance avec la clientèle. Tel n’a apparemment pas été le cas à la lecture des multiples courriers de clients produits. Mais le raisonnement ne s’arrête pas à ce constat. On doit en effet se demander si les allégués et moyens de preuve offerts sont suffisants pour établir un lien de causalité entre les violations contractuelles précitées et le dommage invoqué par l’employeuse. En effet, celle-ci a chiffré son dommage à 11’051 fr., correspondant aux ristournes dues par l’intimé en application du contrat de travail. Elle a produit, pour établir son dommage, des tableaux Excel établis par ses soins. Ces documents indiquent les prénoms, noms, dates de naissance et adresses des assurés, les assurances concernées, les type d’assurance, les produits concernés et les états des contrats d’assurance conclus, à savoir le montant ristourné. Ces pièces, établies par l’employeuse elle-même, sont insuffisantes pour établir le lien de causalité et le dommage subi. D’une part, il est impossible de conclure que l’employé a violé son devoir de diligence pour chaque cas dans lequel une ristourne a été sollicitée. En effet, les contrats d’assurance peuvent être annulés pour divers motifs et des annulations peuvent ainsi également être le fait de la compagnie d’assurance, par exemple en cas de fausses déclarations du client ou de délai trop long entre la date de conclusion du contrat et son entrée en vigueur. D’autre part, les règlements de commissionnement des compagnies partenaires de l’employeuse ne figurent pas au dossier. Il en va de même des demandes d’extournes des commissions des assurances concernées. On ne connaît pas non plus les dates de résiliation des contrats conclus par l’employé, ni les éventuelles commissions réellement extournées par l’employeuse. Les éléments sont par conséquent insuffisants pour statuer sur le lien de causalité et le dommage.
L’article de Z. Yao et al., The DCR Delusion: Measuring the Privacy Risk of Synthetic Data, arXiv :2505.01524vl [cs.CR], 2 mai 2025 (https://arxiv.org/pdf/2505.01524), remet en question un ensemble de pratiques largement répandues dans le domaine de la génération de données synthétiques, en particulier celles liées à l’évaluation de la confidentialité des données.
Il aborde un problème devenu central dans les secteurs traitant des données personnelles sensibles, tels que la santé, la finance ou les administrations publiques : comment s’assurer que les données synthétiques produites à partir de jeux de données réels n’exposent pas d’informations identifiables sur les individus ? Pour y répondre, de nombreux praticiens et éditeurs de solutions font appel à des indicateurs simples et peu coûteux à calculer, comme la métrique de distance au plus proche enregistrement, désignée par le sigle DCR (Distance to Closest Record).
L’idée sous-jacente à l’usage de la DCR est intuitive : si les données synthétiques sont, dans leur ensemble, aussi éloignées des données d’origine qu’un jeu de contrôle séparé, elles sont considérées comme « privées », c’est-à-dire ne permettant pas la réidentification d’individus. Dans la pratique, ce raisonnement se traduit par un test binaire de confidentialité. Si les distances calculées entre les données synthétiques et les données réelles sont plus grandes que celles mesurées entre les données réelles et un jeu de validation, alors le test est dit réussi. On peut également agréger ces distances pour produire une mesure continue de la confidentialité.
Les auteurs de l’article mettent cependant en évidence, de manière systématique, que ce raisonnement est trompeur. Pour cela, ils comparent les résultats de la DCR à ceux obtenus par des attaques dites d’inférence d’appartenance, ou MIAs (Membership Inference Attacks), qui sont aujourd’hui reconnues comme l’approche empirique la plus fiable pour évaluer les fuites d’informations dans des jeux de données. Une MIA simule le comportement d’un attaquant capable de déterminer si un individu donné a été inclus dans le jeu d’apprentissage d’un modèle, uniquement en observant les données synthétiques générées par ce modèle. En d’autres termes, elle mesure le risque réel de réidentification à l’échelle individuelle.
Les auteurs mènent leurs expérimentations sur plus de 10 000 jeux de données synthétiques, générés à partir de plusieurs modèles, tant classiques que modernes. Les données utilisées sont issues de sources publiques bien connues dans la communauté scientifique. Ils ciblent aussi bien des enregistrements jugés a priori comme vulnérables que l’ensemble des enregistrements d’un jeu donné, afin de généraliser leurs conclusions.
Les résultats sont nets. Dans une majorité de cas, les tests DCR et les autres métriques similaires qualifient les jeux de données synthétiques de « privés », alors même que ceux-ci se révèlent massivement vulnérables aux MIAs. Les attaques montrent des taux de succès particulièrement élevés, atteignant parfois des scores de probabilité d’identification proches de 1, ce qui signifie qu’un attaquant pourrait identifier avec une très grande précision les individus ayant servi à l’entraînement du modèle. Ce constat reste valable aussi bien pour les modèles classiques que pour les modèles de diffusion, pourtant réputés plus performants sur le plan de la confidentialité.
Les auteurs vont plus loin en démontrant qu’il n’existe aucune corrélation statistique significative entre les scores DCR et le risque réel mesuré par les MIAs. Autrement dit, les jeux de données jugés plus « distants » de l’original ne sont pas moins exposés à la réidentification. Même en ajustant les paramètres internes du test DCR (par exemple, en modifiant le seuil de percentile utilisé pour la comparaison), le test échoue à détecter des fuites d’information pourtant manifestes. Une analyse de cas particulièrement révélatrice est présentée : un enregistrement unique dans un jeu contient une valeur extrêmement rare (« Holland-Netherlands » dans le champ pays d’origine). Lorsqu’il est inclus dans l’entraînement du modèle, celui-ci génère des données synthétiques contenant cette même valeur dans 92 % des cas. Lorsqu’il est exclu, la valeur ne réapparaît jamais. Cela montre une fuite d’information claire et directe. Pourtant, les métriques de distance ne la détectent pas, car elles traitent tous les attributs de manière égale et ne sont pas sensibles à la singularité potentiellement identifiante d’un champ.
Ce cas illustre une limite structurelle des métriques de distance : elles ne sont pas conçues pour capturer les combinaisons de caractéristiques rares ou uniques, qui sont souvent à l’origine des réidentifications. Elles supposent que l’anonymisation est une propriété globale d’un jeu de données, alors que le risque de réidentification est, par nature, individuel. C’est précisément ce que les MIAs mesurent : la probabilité que l’inclusion d’un individu dans un jeu de données puisse être détectée par un tiers malveillant.
Les auteurs insistent sur le fait que cette méconnaissance du risque n’est pas seulement théorique. Elle a des conséquences pratiques importantes, notamment dans les contextes réglementés. Une entreprise ou une institution qui publierait un jeu de données synthétiques en se basant uniquement sur des scores de distance comme DCR pourrait croire de bonne foi qu’elle a respecté les obligations légales en matière d’anonymisation. En réalité, elle pourrait exposer les personnes concernées à un risque élevé de réidentification, et s’exposer elle-même à des responsabilités juridiques. Dans le contexte suisse, où le concept d’anonymisation repose sur l’impossibilité raisonnable d’identifier une personne, ce type d’erreur de diagnostic pourrait être lourd de conséquences.
Les auteurs concluent en appelant les praticiens, les chercheurs et les décideurs réglementaires à abandonner l’usage des métriques de distance comme preuve suffisante de confidentialité. Selon eux, seules les attaques empiriques, comme les MIAs, permettent d’évaluer avec sérieux le niveau de risque réel. Ils reconnaissent que ces méthodes sont plus coûteuses à mettre en œuvre, notamment en raison de la nécessité d’entraîner de nombreux modèles de substitution, mais considèrent que ce coût est le prix d’une évaluation crédible. À défaut, on risque de certifier comme « anonymes » des données qui ne le sont pas, avec toutes les conséquences que cela implique sur les plans juridique, éthique et réputationnel.
On lève de plus en plus le voile de ce qui passe dans la « boîte noir » de l’intelligence artificielle.
Quelques notes (sans prétendre être exhaustif) sur A. Feder Cooper et James Grimmelmann, The Files Are in the Computer: Copyright, Memorization, and Generative AI, à paraître dans la Chicago Kent Law Review, 2025 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4803118):
Introduction
Que signifie « mémoriser » dans le contexte des modèles génératifs d’intelligence artificielle (IA) tels que les grands modèles de langage (LLMs) ? Cette interrogation est cruciale notamment pour évaluer si les sorties générées par ces systèmes violent le droit d’auteur.
1. Learning and Memorizing
Cette première section distingue deux mécanismes fondamentaux dans les modèles d’IA : l’apprentissage (learning) et la mémorisation (memorizing). Contrairement à ce qu’on pourrait croire, un modèle n’apprend pas « comme un humain ». Il n’a pas de mémoire explicite mais encode des millions d’exemples en les compressant dans ses paramètres.
Cependant, il arrive que des modèles récitent textuellement des passages de leurs données d’entraînement. Ces reproductions exactes sont rares mais réelles. Les auteurs les appellent des cas de « memorization events ». L’enjeu ici est de déterminer si une telle reproduction relève du fonctionnement statistique normal d’un modèle ou d’un défaut susceptible d’engager la responsabilité juridique.
Les auteurs défendent l’idée que la mémorisation n’est pas un bug mais une conséquence naturelle du surapprentissage (overfitting). Cette propriété technique devient problématique lorsqu’elle conduit à restituer des éléments protégés par le droit d’auteur.
2. Copyright and Memorization
Dans cette section, les auteurs examinent ce que le droit d’auteur dit de la mémorisation, en particulier en common law, mais avec des échos qui peuvent intéresser le droit suisse.
Ils commencent par rappeler que la loi protège l’expression originale d’une œuvre, pas les idées ou les faits. Cela signifie que pour établir une violation du droit d’auteur, il faut montrer qu’il y a eu une copie de l’expression, pas seulement une reproduction de style ou de structure.
Or, les modèles génératifs comme GPT ne conservent pas les données d’entraînement comme dans une base de données ; ils apprennent des représentations statistiques. Ce qui pose problème, c’est lorsqu’un modèle génère une sortie identique ou substantiellement similaire à une œuvre protégée. Les auteurs rappellent les critères du droit d’auteur pour évaluer la copie : accès, similarité substantielle, et causalité.
La difficulté ici vient de l’autonomie des modèles : ils ne « choisissent » pas de copier. Ils fonctionnent sur la base de probabilité. Peut-on alors tenir les concepteurs ou utilisateurs pour responsables ? Cette question appelle une réponse nuancée.
3. Types of Memorization
Les auteurs proposent une typologie des formes de mémorisation pour éclairer le débat juridique. Ils en identifient trois principales :
Training Data Memorization : le modèle restitue exactement une séquence issue de son jeu d’entraînement. C’est la forme la plus évidente de reproduction problématique.
Prompt-Specific Memorization : un contenu est restitué uniquement si une requête très spécifique est formulée. Cela soulève la question de la responsabilité de l’utilisateur plutôt que du concepteur du modèle.
Broad Generalization : le modèle intègre des styles, thèmes ou motifs sans reproduire une œuvre spécifique. Cette généralisation est souvent licite, mais peut parfois frôler la contrefaçon si elle imite trop fidèlement une œuvre protégée.
Cette classification permet de mieux articuler les responsabilités potentielles selon les cas.
4. Memorization as a Design Problem
Les auteurs abordent ici la mémorisation non pas comme une simple conséquence technique, mais comme un enjeu de conception. Les ingénieurs peuvent limiter la mémorisation par diverses techniques : régularisation, dédupliquation des données, filtrage, etc.
Ils soulignent cependant que l’industrie ne s’accorde pas sur un seuil ou une norme de mémorisation acceptable. Certains cas sont considérés comme tolérables pour des raisons de performance ou de sécurité (comme la mémorisation de définitions médicales), alors que d’autres posent un risque juridique majeur.
Ce flou crée une zone d’insécurité juridique : jusqu’où un développeur doit-il aller pour éviter que son modèle mémorise ? L’article insiste sur la nécessité d’une évaluation casuistique fondée sur les usages et les contextes spécifiques.
5. Memorization as a Legal Problem
Cette section approfondit les conséquences juridiques de la mémorisation. Les auteurs reviennent sur la notion de copie « substantielle » et soulignent que les juges ont déjà tranché des affaires de mémorisation non intentionnelle dans le passé (notamment dans la musique).
Ils proposent de penser la mémorisation comme une reproduction involontaire, mais néanmoins juridiquement pertinente. Ils insistent sur le rôle de l’accès aux données, la proximité textuelle et l’effet de marché. Une IA qui récite un poème protégé, même sans intention, peut nuire à l’exploitation de l’œuvre.
Ils appellent à une jurisprudence plus attentive aux spécificités techniques de l’IA, afin d’éviter deux écueils : accorder une immunité trop large aux concepteurs, ou à l’inverse imposer des normes irréalistes à des technologies probabilistes.
6. Should Copyright Law Prohibit Memorization?
La question finale posée est provocante : faut-il interdire purement et simplement la mémorisation par les IA ? Les auteurs répondent non, en principe. La mémorisation, dans une certaine mesure, est une conséquence inévitable de l’apprentissage.
Cependant, ils plaident pour une approche équilibrée : définir des critères clairs pour identifier les cas problématiques, exiger de la transparence sur les données utilisées, et prévoir des mécanismes correctifs (comme le retrait d’œuvres sur demande).
Ils soulignent aussi l’importance de distinguer entre formation, déploiement et usage. La responsabilité ne devrait pas être unique, mais distribuée selon les étapes et les acteurs impliqués.
Conclusion
En conclusion, l’article appelle à une réflexion plus nuancée sur la notion de mémorisation dans l’IA générative. Les modèles ne copient pas comme des photocopieuses, mais leur comportement peut parfois s’apparenter à une reproduction illégale. Pour les juristes, il s’agit d’adapter les concepts classiques à des mécanismes techniques nouveaux, sans céder aux simplifications.
Le rapport s’ouvre sur une synthèse générale du concept d’apprentissage fédéré (Federated Learning, ou FL), une approche d’apprentissage automatique qui permet à plusieurs sources de données de coopérer dans l’entraînement d’un modèle commun, tout en conservant les données dans des environnements décentralisés. Cette méthode, bénéfique pour la protection des données personnelles (les données restent auprès de l’utilisateur), s’inscrit dans les principes de minimisation des données et de limitation des finalités. Elle est particulièrement adaptée aux cas où la centralisation des données serait illégale, impraticable ou trop risquée (ex. données médicales ou sensibles). Toutefois, bien que le FL réduise le risque d’exposition directe des données, il n’élimine pas totalement les menaces, notamment les risques d’extraction d’informations via les gradients ou les poids du modèle. Une analyse approfondie est donc nécessaire pour déterminer si les informations échangées ou les modèles résultants contiennent des données personnelles ou non.
Dans un second temps, l’étude s’inscrit dans le contexte plus large de l’intelligence artificielle (IA) et des technologies de renforcement de la vie privée (PETs – Privacy Enhancing Technologies). Elle rappelle que les systèmes d’IA, en particulier ceux fondés sur le machine learning (ML), nécessitent d’importants volumes de données pour s’entraîner et évoluer. Dans ce cadre, la conformité aux exigences réglementaires de protection des données devient cruciale. Le FL est ici présenté comme une PET prometteuse, notamment lorsqu’il est combiné à d’autres techniques.
Le cœur du document s’attarde ensuite sur le fonctionnement précis du FL. Il s’agit d’un processus où chaque participant (appareil ou organisation) entraîne localement un modèle sur ses données propres, puis partage uniquement les mises à jour du modèle (et non les données brutes) avec un serveur central, ou parfois en pair-à-pair dans des architectures totalement décentralisées. Deux variantes principales sont distinguées : l’apprentissage horizontal (données similaires sur différentes entités) et vertical (données complémentaires sur les mêmes entités), ainsi que la distinction entre FL inter-appareils (cross devices, impliquant des utilisateurs individuels) et inter-silos (cross silos, entre institutions).
Trois cas d’usage illustrent le potentiel du FL : d’abord dans le secteur médical, où il permet aux hôpitaux de collaborer sans échanger directement les données sensibles des patients, ce qui est utile notamment pour des pathologies rares ; ensuite dans le traitement vocal, avec des modèles déployés sur les smartphones sans remonter les voix vers les serveurs ; enfin, dans les systèmes de transport autonome, où chaque véhicule contribue à l’amélioration du modèle global sans compromettre la vie privée des conducteurs.
Sur le plan technique, la mise en œuvre du FL implique plusieurs défis : les ressources limitées des appareils participants, la complexité de coordination, la variabilité des environnements, la difficulté d’atteindre une convergence rapide du modèle, et la nature asynchrone ou non identiquement distribuée des données. Ces éléments exigent des mécanismes sophistiqués de synchronisation, d’équilibrage des charges et de gestion des pannes.
Le chapitre suivant examine les points où les données personnelles peuvent être traitées dans une architecture FL. Trois zones critiques sont identifiées : les données locales sur chaque appareil (où l’entraînement a lieu), les échanges de poids et gradients entre participants, et enfin le modèle final, qui peut potentiellement révéler des informations sur les données d’apprentissage. Si l’extraction de données personnelles à partir des gradients est difficile, elle n’est pas impossible, notamment via des attaques d’inférence ou de mémorisation. Il convient donc d’évaluer ces risques au cas par cas, selon les recommandations de l’EDPB.
L’analyse des bénéfices et des défis du FL en matière de protection des données occupe une place centrale. D’un côté, les avantages sont nombreux : réduction des transferts de données (principe de minimisation), meilleure responsabilisation des acteurs (accountability), traitement plus sûr des données sensibles, simplification de la gestion du consentement, et sécurité accrue grâce à l’absence de centralisation des données brutes. En somme, le FL permet une meilleure conformité aux principes du RGPD, en particulier dans les environnements à haut risque.
Cependant, le FL présente aussi plusieurs problèmes. La gestion de la qualité des données d’entraînement devient plus complexe, car les données ne sont pas centralisées. Des méthodes statistiques ou des techniques comme l’intersection privée d’ensembles (PSI) peuvent aider, mais restent imparfaites. L’exactitude du modèle et l’atténuation des biais doivent également être garanties à travers des processus de normalisation locale ou de rééquilibrage statistique. L’intégrité du modèle est une autre préoccupation, en raison des risques de « data poisoning » ou de manipulation malveillante des paramètres. Enfin, la confidentialité doit être assurée sur toute la chaîne : stockage local, communication des paramètres, sécurité du serveur central. Cela nécessite la mise en œuvre de mesures diverses.
La conclusion du rapport est sans équivoque : bien que le FL ne soit pas une solution miracle, il constitue un pas important vers des systèmes d’IA plus respectueux des droits fondamentaux. Il exige néanmoins une vigilance constante, des évaluations d’impact rigoureuses et l’adoption conjointe de plusieurs techniques de protection pour atteindre un niveau de conformité et de sécurité satisfaisant. Ce cadre technique et juridique rigoureux permet d’envisager des collaborations inédites entre institutions, entreprises et individus, tout en respectant les exigences les plus strictes en matière de protection des données.
Dénigrement d’une société en ligne, e-réputation et mesures urgentes
L’ordonnance rendue par le Tribunal de commerce de Saint-Étienne le 10 juin 2025 (RG no 2025R00128) traite de faits de dénigrement en ligne dans un contexte professionnel. Elle met en lumière les conditions d’intervention du juge des référés face à des publications potentiellement attentatoires à la réputation d’une société.
Le litige oppose la SAS K, un cabinet d’expertise comptable en ligne, à la SARL M et à son gérant, Monsieur [C], lequel avait sollicité K pour la création de son entreprise et son suivi administratif. Des retards administratifs liés aux exigences de la Chambre des Métiers et de l’Artisanat (CMA), et la communication tendue qui s’en est suivie, ont conduit K à mettre un terme à sa mission. Par la suite, Monsieur [C] a publié une série d’avis très virulents, parfois sous pseudonyme, sur différentes plateformes numériques (Google, Facebook, Instagram, LinkedIn, WhatsApp, YouTube), visant explicitement le cabinet et certains de ses collaborateurs.
K a estimé que ces publications ne relevaient pas d’une critique objective ou d’un intérêt général, mais s’apparentaient à un chantage à la réputation, Monsieur [C] ayant clairement affirmé qu’il poursuivrait ses publications tant qu’il ne serait pas remboursé. Constatant que les mises en demeure étaient restées sans effet et que les propos continuaient, K a saisi le juge des référés afin d’obtenir la suppression des contenus litigieux et l’interdiction de toute publication future du même type.
L’ordonnance du juge s’ouvre sur un exposé factuel. Elle rappelle que la procédure a été engagée régulièrement, que les défendeurs ont été valablement assignés mais n’ont pas comparu, rendant la décision réputée contradictoire.
Dans son analyse de recevabilité, le juge constate que l’action est conforme à l’article 472 du Code de procédure civile : la demande est recevable, régulière et non entachée d’irrecevabilité.
Concernant le fond, le juge se réfère à l’article 873 du Code de procédure civile, qui autorise le juge des référés à ordonner des mesures conservatoires ou de remise en état pour faire cesser un trouble manifestement illicite ou prévenir un dommage imminent. Il rappelle d’emblée qu’une publication négative ne constitue pas en soi un trouble manifestement illicite, dans la mesure où elle relève du droit à la liberté d’expression. Toutefois, pour être licite, une critique doit reposer sur une base factuelle suffisante et être exprimée avec mesure.
En l’espèce, le juge note que les pièces produites — notamment les courriels échangés entre K et le client — témoignent d’une relation dégradée et d’une communication agressive de la part de Monsieur [C]. Cependant, la question de savoir si les critiques publiées sont fondées ne peut être tranchée de manière certaine au vu du dossier. En revanche, le juge observe que la quantité et la tonalité des messages, leur répétition sur plusieurs canaux et l’usage de pseudonymes simulant des avis multiples démontrent un manque manifeste de mesure. Il constate en outre la mise en cause directe de certains collaborateurs du cabinet, ce qui confère à ces publications un caractère particulièrement agressif et personnel.
Ces éléments caractérisent un trouble manifestement illicite que le juge estime devoir faire cesser. Il accueille donc favorablement la demande d’injonction de suppression des contenus visés, avec une extension à toute autre publication similaire. Le délai initialement sollicité (24 heures) est jugé trop court et est étendu à 48 heures à compter de la signification de la décision, sous astreinte de 1 000 euros par jour de retard. De même, pour éviter toute réitération, le juge interdit toute nouvelle publication de contenu concernant K, sous la même astreinte.
Concernant la demande indemnitaire de 5 000 euros au titre du préjudice subi, le juge l’écarte, estimant que la preuve du préjudice réel n’est pas apportée. Bien qu’un client potentiel ait indiqué avoir été influencé par les avis négatifs, la société reste bien notée sur Trustpilot et maintient une position favorable dans les classements professionnels. Le juge conclut que le préjudice allégué n’est pas démontré, d’autant plus que l’ensemble des avis négatifs ne peut être imputé au seul défendeur.
S’agissant des frais de procédure, la juridiction accorde à KEOBIZ une indemnité de 500 euros au titre de l’article 700 du Code de procédure civile, pour couvrir une partie des frais engagés. Les défendeurs sont condamnés solidairement à cette somme, ainsi qu’aux dépens.
La décision se conclut en rejetant les autres demandes et rappelle que la liquidation de l’astreinte relèvera du juge de l’exécution.
Cette ordonnance, bien que rendue dans le cadre d’une procédure en référé, apporte plusieurs enseignements pratiques importants pour la pratique du droit en matière de réputation numérique. Elle illustre les exigences de proportionnalité dans l’expression critique sur internet, même dans le cadre d’un différend commercial. Le juge pose clairement une frontière entre la liberté d’opinion et le harcèlement numérique, en se fondant non seulement sur le contenu des publications, mais aussi sur leur volume, leur tonalité et leur caractère répétitif et personnalisé. Il souligne également que la preuve d’un préjudice concret, et non simplement ressenti ou présumé, reste indispensable pour justifier une indemnisation.
Pour les praticiens suisses, cette décision met en relief une approche rigoureuse de la jurisprudence française en matière de gestion contentieuse de l’e-réputation. Elle illustre l’usage du référé comme outil rapide de protection de la réputation commerciale, tout en respectant l’équilibre entre droit à la critique et atteinte injustifiée.
[La décision a été mise en avant par Me Alexandre Archambault sur Linkedin]
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle
Partager: