L’avocat doit-il révéler au juge l’utilisation qu’il fait de l’intelligence artificielle ?

Le « Standing Order Regarding Use of Artificial Intelligence » édicté le 15 mai 2025 par le juge David L. Horan (United States District Court, Northern District of Texas, Dallas Division) dans l’affaire Cedric Willis v/ U.S. Bank national Associations (No. 3 : 25-cv-516-BN) traite de la révélation, par l’avocat, de son usage de l’intelligence artificielle en procédure.

Contexte général

Le juge Horan rappelle d’abord que la recherche juridique a connu une évolution progressive, des recueils imprimés jusqu’aux bases de données numériques comme Lexis ou Westlaw. Aujourd’hui, la transition vers l’IA générative constitue une nouvelle étape. Si l’IA peut améliorer l’accès au droit et faciliter le travail des avocats comme des justiciables plaidant en personne, elle n’est pas sans risques. L’enthousiasme pour ces outils doit être tempéré par une vigilance accrue, en particulier face aux dangers des hallucinations de l’IA, soit la production de contenu fictif mais présenté de manière crédible.

Portée de la décision

La décision se présente sous forme d’un « standing order », c’est-à-dire une ordonnance générale applicable à toutes les parties au litige. Elle ne constitue pas une interdiction d’utiliser l’IA, mais impose des obligations précises en matière de transparence et de vérification. Le juge souligne qu’une utilisation prudente et intelligente de l’IA peut être bénéfique pour la justice, notamment pour les parties non représentées et plaidant en personnes.

Obligation de divulgation

L’élément central de la décision – et le plus pertinent pour les praticiens du droit – est l’obligation de divulguer toute utilisation d’intelligence artificielle générative dans la rédaction des écritures. Cette obligation découle directement de la règle locale 7.2(f) (Local Civil Rule) du district :

Si une partie dépose un mémoire partiellement ou totalement rédigé à l’aide d’IA générative, elle doit le signaler dès la première page du document, sous la mention explicite « Use of Generative Artificial Intelligence ».

Le juge peut aussi exiger que la partie indique précisément quelles sections ont été rédigées à l’aide d’IA.

À défaut de mention, la partie certifie implicitement qu’aucune portion du document n’a été produite à l’aide d’un tel outil.

La définition retenue de l’IA générative inclut tout programme informatique capable de produire du texte ou des images en réponse à une requête, comme ChatGPT ou d’autres modèles similaires.

Règle 11 Federal Rules of Civil Procedure

L’obligation de divulgation s’inscrit dans le cadre plus large du respect de la règle 11 des Federal Rules of Civil Procedure. Cette règle impose à tout avocat ou justiciable de certifier que les contenus juridiques avancés dans une procédure sont fondés sur le droit existant et que les faits évoqués sont soutenus par des éléments probants. Ce devoir de diligence s’applique de manière identique aux avocats et aux justiciables agissant en personne.

Le juge rappelle que soumettre un mémoire qui cite des jurisprudences inventées par une IA, sans avoir vérifié leur validité, constitue une violation de la règle 11. Ce manquement expose les parties à des sanctions, parfois sévères, allant jusqu’à l’annulation des demandes ou des amendes.

Dangers liés à l’IA générative

Le juge consacre une large partie de sa décision à l’explication des « hallucinations » des IA génératives. Il s’agit de cas où l’IA crée de toutes pièces des décisions judiciaires inexistantes, avec un niveau de détail tel qu’elles paraissent crédibles à un œil non averti. Plusieurs affaires récentes ont vu des avocats ou des justiciables déposer des mémoires contenant des citations fictives, sans avoir vérifié leur existence. Ces pratiques, même si elles découlent d’une utilisation imprudente et non malveillante de l’IA, sont considérées comme abusives.

Le juge insiste sur le fait que l’outil n’est pas responsable : c’est à l’utilisateur – l’avocat ou la partie – de faire preuve d’intelligence humaine dans l’usage de l’IA. La tentation de produire rapidement des documents juridiques est compréhensible, mais elle fait peser un risque déséquilibré sur le système judiciaire, qui doit ensuite consacrer un temps précieux à vérifier la véracité des sources invoquées.

Conséquences pratiques

D’un point de vue procédural, les mémoires qui contiennent des références juridiques erronées ou fictives peuvent être rejetés. La partie fautive peut être sanctionnée. Le juge cite plusieurs affaires dans lesquelles des sanctions ont été prononcées à l’encontre de parties pour avoir cité de fausses décisions judiciaires générées par IA.

Toutefois, la décision fait preuve de nuance : le juge reconnaît les limitations des parties non représentées, notamment en termes d’accès à des bases juridiques payantes. Ainsi, l’absence de vérification peut être comprise dans certains cas, mais elle ne sera pas excusée à répétition.

Enjeux pour les avocats suisses

Même si cette ordonnance provient d’un tribunal américain, elle résonne avec les défis que rencontrent les avocats suisses face à l’essor des outils d’IA dans la pratique juridique. Elle illustre l’attente d’une transparence complète sur le recours à l’IA, ainsi qu’un devoir de contrôle rigoureux quant à l’exactitude des contenus produits.

En Suisse, la législation ne prévoit pas encore une obligation explicite de déclarer l’usage de l’IA dans les écritures judiciaires. Cependant, la logique sous-jacente de la règle 11 – à savoir le devoir de diligence, la loyauté envers le tribunal et la véracité des faits et du droit allégués – est pleinement transposable à notre système.

La décision du juge Horan ne prohibe pas l’usage de l’IA dans les procédures judiciaires. Elle impose par contre une transparence obligatoire et un contrôle humain rigoureux. Pour les avocats suisses, cela souligne l’importance de ne pas déléguer leur jugement professionnel à des outils automatisés, aussi performants soient-ils. L’intelligence artificielle ne remplace pas l’intelligence humaine ; elle la complète, à condition d’en connaître les limites et d’en assumer l’usage.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans Avocats (règles professionnelles), intelligence artificielle | Tagué , , , , | Laisser un commentaire

Responsabilité de l’employé: lien de causalité entre les actes et le dommage (art. 321e CO)

Dans un arrêt CACI 16 novembre 2025/180, consid. 4.3.2, la Cour d’appel civile du Tribunal cantonal vaudois s’est penchée sur le cas d’un courtier, dont l’employeur estimait que son travail était de très faible qualité, ce qui aurait induit des clients en erreur sur la nature et la portée des documents soumis à leur signature. Son comportement vis-à-vis de la clientèle avait été dénué de toute forme d’éthique et de professionnalisme. L’employeur soutient donc que les violations précitées lui ont causé un dommage équivalant aux commissions annulées par les clients mécontents de ses prestations. Pour la Cour, on doit admettre, avec l’employeuse, que les éléments au dossier sont suffisants pour démontrer que l’employé ne s’est pas toujours comporté correctement vis-à-vis des clients. Ainsi, plusieurs clients du courtier ont écrit avoir été dupés par ce dernier. Ce faisant, l’employé a donc violé ses obligations contractuelles, son contrat prévoyant expressément, comme tâche principale, le fait de développer et d’entretenir des relations de confiance avec la clientèle. Tel n’a apparemment pas été le cas à la lecture des multiples courriers de clients produits. Mais le raisonnement ne s’arrête pas à ce constat. On doit en effet se demander si les allégués et moyens de preuve offerts sont suffisants pour établir un lien de causalité entre les violations contractuelles précitées et le dommage invoqué par l’employeuse. En effet, celle-ci a chiffré son dommage à 11’051 fr., correspondant aux ristournes dues par l’intimé en application du contrat de travail. Elle a produit, pour établir son dommage, des tableaux Excel établis par ses soins. Ces documents indiquent les prénoms, noms, dates de naissance et adresses des assurés, les assurances concernées, les type d’assurance, les produits concernés et les états des contrats d’assurance conclus, à savoir le montant ristourné. Ces pièces, établies par l’employeuse elle-même, sont insuffisantes pour établir le lien de causalité et le dommage subi. D’une part, il est impossible de conclure que l’employé a violé son devoir de diligence pour chaque cas dans lequel une ristourne a été sollicitée. En effet, les contrats d’assurance peuvent être annulés pour divers motifs et des annulations peuvent ainsi également être le fait de la compagnie d’assurance, par exemple en cas de fausses déclarations du client ou de délai trop long entre la date de conclusion du contrat et son entrée en vigueur. D’autre part, les règlements de commissionnement des compagnies partenaires de l’employeuse ne figurent pas au dossier. Il en va de même des demandes d’extournes des commissions des assurances concernées. On ne connaît pas non plus les dates de résiliation des contrats conclus par l’employé, ni les éventuelles commissions réellement extournées par l’employeuse. Les éléments sont par conséquent insuffisants pour statuer sur le lien de causalité et le dommage.

Publié dans Responsabilité du travailleur | Tagué , , , , , , , , , | Laisser un commentaire

Données synthétiques et confidentialité : appréciation de la métrique de distance (DCR)

L’article de Z. Yao et al., The DCR Delusion: Measuring the Privacy Risk of Synthetic Data, arXiv :2505.01524vl [cs.CR], 2 mai 2025 (https://arxiv.org/pdf/2505.01524), remet en question un ensemble de pratiques largement répandues dans le domaine de la génération de données synthétiques, en particulier celles liées à l’évaluation de la confidentialité des données.

Il aborde un problème devenu central dans les secteurs traitant des données personnelles sensibles, tels que la santé, la finance ou les administrations publiques : comment s’assurer que les données synthétiques produites à partir de jeux de données réels n’exposent pas d’informations identifiables sur les individus ? Pour y répondre, de nombreux praticiens et éditeurs de solutions font appel à des indicateurs simples et peu coûteux à calculer, comme la métrique de distance au plus proche enregistrement, désignée par le sigle DCR (Distance to Closest Record).

L’idée sous-jacente à l’usage de la DCR est intuitive : si les données synthétiques sont, dans leur ensemble, aussi éloignées des données d’origine qu’un jeu de contrôle séparé, elles sont considérées comme « privées », c’est-à-dire ne permettant pas la réidentification d’individus. Dans la pratique, ce raisonnement se traduit par un test binaire de confidentialité. Si les distances calculées entre les données synthétiques et les données réelles sont plus grandes que celles mesurées entre les données réelles et un jeu de validation, alors le test est dit réussi. On peut également agréger ces distances pour produire une mesure continue de la confidentialité.

Les auteurs de l’article mettent cependant en évidence, de manière systématique, que ce raisonnement est trompeur. Pour cela, ils comparent les résultats de la DCR à ceux obtenus par des attaques dites d’inférence d’appartenance, ou MIAs (Membership Inference Attacks), qui sont aujourd’hui reconnues comme l’approche empirique la plus fiable pour évaluer les fuites d’informations dans des jeux de données. Une MIA simule le comportement d’un attaquant capable de déterminer si un individu donné a été inclus dans le jeu d’apprentissage d’un modèle, uniquement en observant les données synthétiques générées par ce modèle. En d’autres termes, elle mesure le risque réel de réidentification à l’échelle individuelle.

Les auteurs mènent leurs expérimentations sur plus de 10 000 jeux de données synthétiques, générés à partir de plusieurs modèles, tant classiques que modernes. Les données utilisées sont issues de sources publiques bien connues dans la communauté scientifique. Ils ciblent aussi bien des enregistrements jugés a priori comme vulnérables que l’ensemble des enregistrements d’un jeu donné, afin de généraliser leurs conclusions.

Les résultats sont nets. Dans une majorité de cas, les tests DCR et les autres métriques similaires qualifient les jeux de données synthétiques de « privés », alors même que ceux-ci se révèlent massivement vulnérables aux MIAs. Les attaques montrent des taux de succès particulièrement élevés, atteignant parfois des scores de probabilité d’identification proches de 1, ce qui signifie qu’un attaquant pourrait identifier avec une très grande précision les individus ayant servi à l’entraînement du modèle. Ce constat reste valable aussi bien pour les modèles classiques que pour les modèles de diffusion, pourtant réputés plus performants sur le plan de la confidentialité.

Les auteurs vont plus loin en démontrant qu’il n’existe aucune corrélation statistique significative entre les scores DCR et le risque réel mesuré par les MIAs. Autrement dit, les jeux de données jugés plus « distants » de l’original ne sont pas moins exposés à la réidentification. Même en ajustant les paramètres internes du test DCR (par exemple, en modifiant le seuil de percentile utilisé pour la comparaison), le test échoue à détecter des fuites d’information pourtant manifestes. Une analyse de cas particulièrement révélatrice est présentée : un enregistrement unique dans un jeu contient une valeur extrêmement rare (« Holland-Netherlands » dans le champ pays d’origine). Lorsqu’il est inclus dans l’entraînement du modèle, celui-ci génère des données synthétiques contenant cette même valeur dans 92 % des cas. Lorsqu’il est exclu, la valeur ne réapparaît jamais. Cela montre une fuite d’information claire et directe. Pourtant, les métriques de distance ne la détectent pas, car elles traitent tous les attributs de manière égale et ne sont pas sensibles à la singularité potentiellement identifiante d’un champ.

Ce cas illustre une limite structurelle des métriques de distance : elles ne sont pas conçues pour capturer les combinaisons de caractéristiques rares ou uniques, qui sont souvent à l’origine des réidentifications. Elles supposent que l’anonymisation est une propriété globale d’un jeu de données, alors que le risque de réidentification est, par nature, individuel. C’est précisément ce que les MIAs mesurent : la probabilité que l’inclusion d’un individu dans un jeu de données puisse être détectée par un tiers malveillant.

Les auteurs insistent sur le fait que cette méconnaissance du risque n’est pas seulement théorique. Elle a des conséquences pratiques importantes, notamment dans les contextes réglementés. Une entreprise ou une institution qui publierait un jeu de données synthétiques en se basant uniquement sur des scores de distance comme DCR pourrait croire de bonne foi qu’elle a respecté les obligations légales en matière d’anonymisation. En réalité, elle pourrait exposer les personnes concernées à un risque élevé de réidentification, et s’exposer elle-même à des responsabilités juridiques. Dans le contexte suisse, où le concept d’anonymisation repose sur l’impossibilité raisonnable d’identifier une personne, ce type d’erreur de diagnostic pourrait être lourd de conséquences.

Les auteurs concluent en appelant les praticiens, les chercheurs et les décideurs réglementaires à abandonner l’usage des métriques de distance comme preuve suffisante de confidentialité. Selon eux, seules les attaques empiriques, comme les MIAs, permettent d’évaluer avec sérieux le niveau de risque réel. Ils reconnaissent que ces méthodes sont plus coûteuses à mettre en œuvre, notamment en raison de la nécessité d’entraîner de nombreux modèles de substitution, mais considèrent que ce coût est le prix d’une évaluation crédible. À défaut, on risque de certifier comme « anonymes » des données qui ne le sont pas, avec toutes les conséquences que cela implique sur les plans juridique, éthique et réputationnel.

Me Philippe Ehrenström, avocat, LLM, CAS Droit et intelligence artificielle

Publié dans intelligence artificielle, Protection des données | Tagué , , , , , , | Laisser un commentaire

Ce qui se passe dans la boîte noire (ii)  : la mémorisation dans les Large Language Models

On lève de plus en plus le voile de ce qui passe dans la « boîte noir » de l’intelligence artificielle.

Quelques notes (sans prétendre être exhaustif) sur A. Feder Cooper et James Grimmelmann, The Files Are in the Computer: Copyright, Memorization, and Generative AI, à paraître dans la Chicago Kent Law Review, 2025 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4803118):

Introduction

Que signifie « mémoriser » dans le contexte des modèles génératifs d’intelligence artificielle (IA) tels que les grands modèles de langage (LLMs) ? Cette interrogation est cruciale notamment pour évaluer si les sorties générées par ces systèmes violent le droit d’auteur.

1. Learning and Memorizing

Cette première section distingue deux mécanismes fondamentaux dans les modèles d’IA : l’apprentissage (learning) et la mémorisation (memorizing). Contrairement à ce qu’on pourrait croire, un modèle n’apprend pas « comme un humain ». Il n’a pas de mémoire explicite mais encode des millions d’exemples en les compressant dans ses paramètres.

Cependant, il arrive que des modèles récitent textuellement des passages de leurs données d’entraînement. Ces reproductions exactes sont rares mais réelles. Les auteurs les appellent des cas de « memorization events ». L’enjeu ici est de déterminer si une telle reproduction relève du fonctionnement statistique normal d’un modèle ou d’un défaut susceptible d’engager la responsabilité juridique.

Les auteurs défendent l’idée que la mémorisation n’est pas un bug mais une conséquence naturelle du surapprentissage (overfitting). Cette propriété technique devient problématique lorsqu’elle conduit à restituer des éléments protégés par le droit d’auteur.

2. Copyright and Memorization

Dans cette section, les auteurs examinent ce que le droit d’auteur dit de la mémorisation, en particulier en common law, mais avec des échos qui peuvent intéresser le droit suisse.

Ils commencent par rappeler que la loi protège l’expression originale d’une œuvre, pas les idées ou les faits. Cela signifie que pour établir une violation du droit d’auteur, il faut montrer qu’il y a eu une copie de l’expression, pas seulement une reproduction de style ou de structure.

Or, les modèles génératifs comme GPT ne conservent pas les données d’entraînement comme dans une base de données ; ils apprennent des représentations statistiques. Ce qui pose problème, c’est lorsqu’un modèle génère une sortie identique ou substantiellement similaire à une œuvre protégée. Les auteurs rappellent les critères du droit d’auteur pour évaluer la copie : accès, similarité substantielle, et causalité.

La difficulté ici vient de l’autonomie des modèles : ils ne « choisissent » pas de copier. Ils fonctionnent sur la base de probabilité. Peut-on alors tenir les concepteurs ou utilisateurs pour responsables ? Cette question appelle une réponse nuancée.

3. Types of Memorization

Les auteurs proposent une typologie des formes de mémorisation pour éclairer le débat juridique. Ils en identifient trois principales :

Training Data Memorization : le modèle restitue exactement une séquence issue de son jeu d’entraînement. C’est la forme la plus évidente de reproduction problématique.

Prompt-Specific Memorization : un contenu est restitué uniquement si une requête très spécifique est formulée. Cela soulève la question de la responsabilité de l’utilisateur plutôt que du concepteur du modèle.

Broad Generalization : le modèle intègre des styles, thèmes ou motifs sans reproduire une œuvre spécifique. Cette généralisation est souvent licite, mais peut parfois frôler la contrefaçon si elle imite trop fidèlement une œuvre protégée.

Cette classification permet de mieux articuler les responsabilités potentielles selon les cas.

4. Memorization as a Design Problem

Les auteurs abordent ici la mémorisation non pas comme une simple conséquence technique, mais comme un enjeu de conception. Les ingénieurs peuvent limiter la mémorisation par diverses techniques : régularisation, dédupliquation des données, filtrage, etc.

Ils soulignent cependant que l’industrie ne s’accorde pas sur un seuil ou une norme de mémorisation acceptable. Certains cas sont considérés comme tolérables pour des raisons de performance ou de sécurité (comme la mémorisation de définitions médicales), alors que d’autres posent un risque juridique majeur.

Ce flou crée une zone d’insécurité juridique : jusqu’où un développeur doit-il aller pour éviter que son modèle mémorise ? L’article insiste sur la nécessité d’une évaluation casuistique fondée sur les usages et les contextes spécifiques.

5. Memorization as a Legal Problem

Cette section approfondit les conséquences juridiques de la mémorisation. Les auteurs reviennent sur la notion de copie « substantielle » et soulignent que les juges ont déjà tranché des affaires de mémorisation non intentionnelle dans le passé (notamment dans la musique).

Ils proposent de penser la mémorisation comme une reproduction involontaire, mais néanmoins juridiquement pertinente. Ils insistent sur le rôle de l’accès aux données, la proximité textuelle et l’effet de marché. Une IA qui récite un poème protégé, même sans intention, peut nuire à l’exploitation de l’œuvre.

Ils appellent à une jurisprudence plus attentive aux spécificités techniques de l’IA, afin d’éviter deux écueils : accorder une immunité trop large aux concepteurs, ou à l’inverse imposer des normes irréalistes à des technologies probabilistes.

6. Should Copyright Law Prohibit Memorization?

La question finale posée est provocante : faut-il interdire purement et simplement la mémorisation par les IA ? Les auteurs répondent non, en principe. La mémorisation, dans une certaine mesure, est une conséquence inévitable de l’apprentissage.

Cependant, ils plaident pour une approche équilibrée : définir des critères clairs pour identifier les cas problématiques, exiger de la transparence sur les données utilisées, et prévoir des mécanismes correctifs (comme le retrait d’œuvres sur demande).

Ils soulignent aussi l’importance de distinguer entre formation, déploiement et usage. La responsabilité ne devrait pas être unique, mais distribuée selon les étapes et les acteurs impliqués.

Conclusion

En conclusion, l’article appelle à une réflexion plus nuancée sur la notion de mémorisation dans l’IA générative. Les modèles ne copient pas comme des photocopieuses, mais leur comportement peut parfois s’apparenter à une reproduction illégale. Pour les juristes, il s’agit d’adapter les concepts classiques à des mécanismes techniques nouveaux, sans céder aux simplifications.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , | Laisser un commentaire

Intelligence artificielle et protection des données : avantages et risques de l’apprentissage fédéré

Dans la pile des lectures, un rapport didactique du TechDispatch intitulée « Federated Learning », publiée conjointement par l’EDPS et l’autorité espagnole de protection des données en 2025 (https://www.edps.europa.eu/system/files/2025-06/techdispatch_federated-learning_en.pdf):

Le rapport s’ouvre sur une synthèse générale du concept d’apprentissage fédéré (Federated Learning, ou FL), une approche d’apprentissage automatique qui permet à plusieurs sources de données de coopérer dans l’entraînement d’un modèle commun, tout en conservant les données dans des environnements décentralisés. Cette méthode, bénéfique pour la protection des données personnelles (les données restent auprès de l’utilisateur), s’inscrit dans les principes de minimisation des données et de limitation des finalités. Elle est particulièrement adaptée aux cas où la centralisation des données serait illégale, impraticable ou trop risquée (ex. données médicales ou sensibles). Toutefois, bien que le FL réduise le risque d’exposition directe des données, il n’élimine pas totalement les menaces, notamment les risques d’extraction d’informations via les gradients ou les poids du modèle. Une analyse approfondie est donc nécessaire pour déterminer si les informations échangées ou les modèles résultants contiennent des données personnelles ou non.

Dans un second temps, l’étude s’inscrit dans le contexte plus large de l’intelligence artificielle (IA) et des technologies de renforcement de la vie privée (PETs – Privacy Enhancing Technologies). Elle rappelle que les systèmes d’IA, en particulier ceux fondés sur le machine learning (ML), nécessitent d’importants volumes de données pour s’entraîner et évoluer. Dans ce cadre, la conformité aux exigences réglementaires de protection des données devient cruciale. Le FL est ici présenté comme une PET prometteuse, notamment lorsqu’il est combiné à d’autres techniques.

Le cœur du document s’attarde ensuite sur le fonctionnement précis du FL. Il s’agit d’un processus où chaque participant (appareil ou organisation) entraîne localement un modèle sur ses données propres, puis partage uniquement les mises à jour du modèle (et non les données brutes) avec un serveur central, ou parfois en pair-à-pair dans des architectures totalement décentralisées. Deux variantes principales sont distinguées : l’apprentissage horizontal (données similaires sur différentes entités) et vertical (données complémentaires sur les mêmes entités), ainsi que la distinction entre FL inter-appareils (cross devices, impliquant des utilisateurs individuels) et inter-silos (cross silos, entre institutions).

Trois cas d’usage illustrent le potentiel du FL : d’abord dans le secteur médical, où il permet aux hôpitaux de collaborer sans échanger directement les données sensibles des patients, ce qui est utile notamment pour des pathologies rares ; ensuite dans le traitement vocal, avec des modèles déployés sur les smartphones sans remonter les voix vers les serveurs ; enfin, dans les systèmes de transport autonome, où chaque véhicule contribue à l’amélioration du modèle global sans compromettre la vie privée des conducteurs.

Sur le plan technique, la mise en œuvre du FL implique plusieurs défis : les ressources limitées des appareils participants, la complexité de coordination, la variabilité des environnements, la difficulté d’atteindre une convergence rapide du modèle, et la nature asynchrone ou non identiquement distribuée des données. Ces éléments exigent des mécanismes sophistiqués de synchronisation, d’équilibrage des charges et de gestion des pannes.

Le chapitre suivant examine les points où les données personnelles peuvent être traitées dans une architecture FL. Trois zones critiques sont identifiées : les données locales sur chaque appareil (où l’entraînement a lieu), les échanges de poids et gradients entre participants, et enfin le modèle final, qui peut potentiellement révéler des informations sur les données d’apprentissage. Si l’extraction de données personnelles à partir des gradients est difficile, elle n’est pas impossible, notamment via des attaques d’inférence ou de mémorisation. Il convient donc d’évaluer ces risques au cas par cas, selon les recommandations de l’EDPB.

L’analyse des bénéfices et des défis du FL en matière de protection des données occupe une place centrale. D’un côté, les avantages sont nombreux : réduction des transferts de données (principe de minimisation), meilleure responsabilisation des acteurs (accountability), traitement plus sûr des données sensibles, simplification de la gestion du consentement, et sécurité accrue grâce à l’absence de centralisation des données brutes. En somme, le FL permet une meilleure conformité aux principes du RGPD, en particulier dans les environnements à haut risque.

Cependant, le FL présente aussi plusieurs problèmes. La gestion de la qualité des données d’entraînement devient plus complexe, car les données ne sont pas centralisées. Des méthodes statistiques ou des techniques comme l’intersection privée d’ensembles (PSI) peuvent aider, mais restent imparfaites. L’exactitude du modèle et l’atténuation des biais doivent également être garanties à travers des processus de normalisation locale ou de rééquilibrage statistique. L’intégrité du modèle est une autre préoccupation, en raison des risques de « data poisoning » ou de manipulation malveillante des paramètres. Enfin, la confidentialité doit être assurée sur toute la chaîne : stockage local, communication des paramètres, sécurité du serveur central. Cela nécessite la mise en œuvre de mesures diverses.

La conclusion du rapport est sans équivoque : bien que le FL ne soit pas une solution miracle, il constitue un pas important vers des systèmes d’IA plus respectueux des droits fondamentaux. Il exige néanmoins une vigilance constante, des évaluations d’impact rigoureuses et l’adoption conjointe de plusieurs techniques de protection pour atteindre un niveau de conformité et de sécurité satisfaisant. Ce cadre technique et juridique rigoureux permet d’envisager des collaborations inédites entre institutions, entreprises et individus, tout en respectant les exigences les plus strictes en matière de protection des données.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Compétence des tribunaux des prud’hommes: les faits de double pertinence

Le 19 mai 2025, la Ire Cour d’appel civil du Tribunal cantonal de Fribourg a rendu un arrêt 101 2025 12 portant sur la compétence ratione materiae de la juridiction spécialisée en matière de conflits du travail dans un litige concernant l’usage de données personnelles à des fins professionnelles, et plus particulièrement sur l’application de la théorie des faits de double pertinence.

L’affaire oppose A.________ à B.________ SA, société active dans le placement de personnel et le conseil en ressources humaines. En 2019, A., alors travailleur indépendant, a répondu à une annonce publiée par la succursale genevoise de B. SA. Il a transmis plusieurs documents contenant des données personnelles, dont un curriculum vitae. Sa candidature n’a pas été retenue. Toutefois, quelques mois plus tard, B.________ SA a proposé son profil, sans son accord, dans le cadre d’une soumission à un appel d’offres de l’entreprise C., à Genève. Le projet concernait la migration d’un système de téléphonie. Ce n’est que par la suite, en août 2019, que la société a contacté A. pour lui proposer une mission chez C., proposition qu’il a acceptée. La mission a cependant été annulée en octobre 2019. Malgré cela, le projet a été exécuté par B. SA, qui en a retiré des revenus.

A.________ a introduit une procédure devant le Président du Tribunal civil de la Glâne, par requête de conciliation du 5 décembre 2023, suivie d’une demande datée du 6 mai 2024, après l’échec de la conciliation. Il a conclu au paiement de CHF 20’000.– à titre de remise de gain obtenu par l’utilisation illicite de ses données et de CHF 10’000.– en réparation du tort moral. Il fondait ses prétentions sur une atteinte à sa personnalité et l’usage non autorisé de ses données personnelles. B.________ SA, dans sa réponse du 6 juillet 2024, a soulevé l’irrecevabilité de la demande, considérant que le litige relevait du droit du travail, étant donné qu’un contrat-cadre et un contrat de mission avaient été envoyés à A.________ en octobre 2019. Elle a ainsi invoqué l’incompétence du Président du Tribunal civil et soutenu que la cause devait relever de la juridiction des prud’hommes.

Après un double échange d’écritures (réplique du 19 août et duplique du 19 novembre 2024), le Président a décidé, le 5 décembre 2024, de limiter la procédure à la question de la recevabilité, en informant les parties qu’une décision serait rendue sur la base du dossier. A.________ s’est déterminé le 12 décembre 2024. Le 19 décembre 2024, le Président a déclaré la demande irrecevable pour incompétence à raison de la matière. Il a jugé que la cause, en lien avec un contrat de travail, devait relever du droit du travail au sens de l’article 34 CPC, notion à interpréter largement, même si les prétentions sont extracontractuelles. Il a aussi estimé que les faits allégués relevaient d’une action fondée sur le droit du travail. Il a ainsi mis les frais judiciaires et les dépens à la charge de A.________.

Ce dernier a interjeté appel le 20 janvier 2025. Il a demandé que la demande soit déclarée recevable et que la cause soit renvoyée au tribunal compétent. Subsidiairement, il a requis la remise des frais judiciaires et la réduction des dépens. La défenderesse a conclu au rejet de l’appel par réponse du 28 mars 2025. A.________ n’a pas répliqué.

La Cour d’appel a d’abord vérifié la recevabilité formelle de l’appel. Le recours a été interjeté dans les délais, compte tenu de la suspension liée aux fêtes de fin d’année, et la valeur litigieuse de CHF 30’000.– était suffisante. Le mémoire d’appel était motivé, mais la partie intitulée « En fait », qui reprenait les allégués initiaux sans critiquer la décision de première instance, a été jugée irrecevable.

Au fond, la Cour s’est penchée sur la qualification juridique du litige à la lumière de la théorie des faits de double pertinence. Cette théorie, reconnue par la jurisprudence (ATF 141 III 294 notamment), prévoit que, lorsqu’un fait est déterminant à la fois pour la compétence du tribunal et pour le fond du litige, le juge doit se fonder uniquement sur les allégués du demandeur pour trancher la question de la compétence. Il ne peut pas tenir compte des contestations du défendeur ni administrer de preuves à ce stade. Si la compétence ne peut pas être exclue prima facie, il doit instruire le fond avant de trancher définitivement la compétence et le bien-fondé de la prétention.

En l’espèce, A.________ ne fondait pas ses prétentions sur un contrat de travail formellement achevé, mais sur l’utilisation non autorisée de ses données personnelles dans un contexte où le placement envisagé n’avait finalement pas eu lieu. Il mentionnait des pourparlers, mais n’alléguait pas qu’un contrat aurait été pleinement conclu et exécuté. La prétention visait à obtenir une indemnité fondée sur l’atteinte à la personnalité (art. 28 CC) et la protection des données (art. 328b CO). L’art. 20 CPC, invoqué par le demandeur, était donc pertinent pour établir la compétence du tribunal civil ordinaire.

La Cour a estimé que le premier juge avait méconnu la portée de la théorie des faits de double pertinence en se déclarant incompétent sans procéder à l’instruction du fond. Le caractère juridique du rapport entre les parties n’était pas limpide et ne permettait pas de trancher la question de compétence sur la seule base des allégations. D’autant plus que le Président avait lui-même ordonné un double échange d’écritures au fond avant de statuer, ce qui démontre que l’affaire n’était pas claire.

La Cour a donc annulé les points 2 à 4 de la décision du 19 décembre 2024, relatifs à l’irrecevabilité de la demande, à la requête de sûretés et à la répartition des frais et dépens. Elle a renvoyé la cause au Président du Tribunal civil de la Glâne pour suite de la procédure. Celui-ci devra désormais se prononcer sur la requête de sûretés, procéder à l’audition des parties et administrer les preuves, notamment celles portant sur les faits doublement pertinents, avant de rendre un jugement au fond.

Cet arrêt illustre l’application de la théorie des faits de double pertinence et rappelle que le juge saisi ne peut écarter sa compétence qu’en présence de faits clairs permettant d’exclure d’emblée la prétention alléguée. Lorsqu’il subsiste une incertitude sur la qualification juridique du rapport litigieux, l’instruction du fond est nécessaire pour trancher tant la compétence que le bien-fondé.

(Pour en savoir plus sur les faits de double pertinence :

Philippe Ehrenström, Les faits de double pertinence devant le Tribunal des prud’hommes du canton de Genève, IusNet DT-AS 24 juil. 2023 – accessible ici : https://droit-travail-assurances-sociales.iusnet.ch/de/kommentierung/suisse/tribunal-des-prudhommes/les-faits-de-double-pertinence-devant-le-tribunal-des)

Me Philippe Ehrenström, avocat, LLM

Publié dans Procédure | Tagué , , , , , , | Laisser un commentaire

La responsabilité de l’employé (art. 321e CO): causalité

La cour cantonale a retenu, en faits, que le défendeur [l’employé] avait transmis le 5 août 2014 à Z [journal]  des informations et notamment des courriels internes à la demanderesse, frappés du sceau de la confidentialité, dont le journal s’est servi pour les articles qu’il a publiés subséquemment. Il avait ainsi violé les devoirs de fidélité, de confidentialité et de diligence auxquels il était tenu en tant qu’employé et administrateur de la demanderesse (art. 321a al. 4 CO cum 717 CO). Il ne pouvait se prévaloir d’aucun motif justificatif, a estimé la Chambre patrimoniale cantonale, laquelle relevait en particulier que le défendeur n’avais jamais contacté aucune autorité pénale dans le but de faire part de comportements qu’il considérait comme pénalement répréhensibles ou immoraux, de sorte que la divulgation d’informations confidentielles commise alors qu’il n’était plus actif au sein de la demanderesse n’avait rien à voir avec du whistleblowinget ne s’apparentait à rien de licite. La cour cantonale a fondé le rejet de sa demande en paiement essentiellement sur l’absence de lien de causalité, de sorte que cet aspect ne lui a pas inspiré une ligne. Quoi qu’il en soit, dans sa réponse, l’employé ne dit mot de cette question, pas plus qu’il n’articule l’ombre d’un moyen qui tendrait à démontrer qu’une faute ne lui serait pas imputable. Partant, la violation fautive par l’employé de ses obligations contractuelles ne fait pas débat. 

C’est essentiellement sur le rapport de causalité entre cette violation et le dommage que se cristallise la contestation.

La cour cantonale a estimé que ce lien de causalité était inexistant. Selon son analyse, l’atteinte à la réputation de la demanderesse avait débuté avant le 5 août 2014. Ce n’étaient dès lors pas les informations fournies par le défendeur au journaliste de Z le jour en question qui l’avaient occasionnée. La demanderesse avait recouru aux services de communicants et d’avocats dès juillet 2014 déjà. Rien ne certifiait que les frais qu’elle avait continué à avoir après le 5 août 2014 ne seraient imputables qu’aux déclarations du défendeur et non à la continuation des problèmes qu’elle rencontrait déjà avant cette date ou à des informations fournies par d’autres personnes. Savoir à quel point la réputation de la demanderesse avait pâti des articles publiés après le 5 août 2014 n’était pas éclairci. Partant, a-t-elle conclu, la demanderesse avait échoué à démontrer l’existence d’un rapport de causalité naturelle et adéquate entre le dommage invoqué et le comportement du défendeur. Au demeurant, ajoute-t-elle encore, même à admettre qu’une partie de ce dommage serait en lien avec les informations divulguées par le défendeur, les éléments au dossier ne permettraient de toute manière pas d’en déterminer la quotité, l’art. 42 al. 2 CO n’étant pas applicable, faute pour la demanderesse d’avoir fait tout ce qu’elle pouvait pour en apporter la preuve.

En vertu de l’art. 321e CO, le travailleur répond du dommage qu’il cause à l’employeur intentionnellement ou par négligence. Pour que l’employeur puisse réclamer des dommages-intérêts au travailleur sur la base de cette disposition, les quatre conditions essentielles suivantes doivent être réalisées: l’existence d’un dommage subi par l’employeur; la violation, par le travailleur, d’une obligation contractuelle, soit l’exécution imparfaite ou l’inexécution du contrat; le rapport de causalité entre la violation et le dommage; enfin, la faute commise intentionnellement ou par négligence. L’employeur doit alléguer et prouver, conformément à l’art. 8 CC, les trois faits constitutifs de cette norme de responsabilité que sont la violation du contrat, le dommage et le rapport de causalité (naturelle et adéquate) entre la violation contractuelle et le dommage. En revanche, il incombe à l’employé de prouver qu’aucune faute ne lui est imputable (arrêts 4A_402/2021 du 14 mars 2022 consid. 5.1; 4C.196/1998 du 17 août 1998 consid. 3).

La recourante dénonce une violation des art. 97 et 321e CO. Selon elle, quand bien même sa réputation fût déjà écornée par des articles déjà publiés les 4 et 5 août 2014, ce sont les articles de presse étayés par les informations et documents transmis par le défendeur qui lui ont porté l’estocade. Il existait donc bien un lien de causalité entre la divulgation dont le défendeur s’était fait l’auteur et les frais engagés pour défendre sa réputation.

La causalité naturelle entre deux événements est réalisée lorsque, sans le premier, le second ne se serait pas produit. Il n’est pas nécessaire que l’événement considéré soit la cause unique ou immédiate du résultat. La constatation de la causalité naturelle relève du fait. 

Pour dire s’il y a causalité naturelle, le juge doit apprécier les preuves apportées et s’interroger, de manière purement factuelle, sur l’enchaînement des événements et le caractère indispensable, pour provoquer le résultat, du comportement invoqué à l’appui de la demande. Il appartient donc au juge d’apprécier les diverses preuves et de constater l’existence – ou l’inexistence – du rapport de causalité naturelle. Il lui incombe de savoir que la norme qu’il applique exige la causalité et de connaître le sens de cette notion.

 Un fait constitue la cause adéquate d’un résultat s’il est propre, d’après le cours ordinaire des choses et l’expérience générale de la vie, à entraîner un résultat du genre de celui qui s’est produit. Pour savoir si un fait est la cause adéquate d’un préjudice, le juge procède à un pronostic rétrospectif objectif: se plaçant au terme de la chaîne des causes, il lui appartient de remonter du dommage dont la réparation est demandée au chef de responsabilité invoqué et de déterminer si, dans le cours normal des choses et selon l’expérience générale de la vie humaine, une telle conséquence demeure dans le champ raisonnable des possibilités objectivement prévisibles. L’existence d’un rapport de causalité adéquate doit être appréciée de cas en cas par le juge selon les règles du droit et de l’équité, conformément à l’art. 4 CC. Il s’agit de déterminer si un dommage peut encore être équitablement imputé à l’auteur, eu égard au but de la norme de responsabilité applicable.

La causalité adéquate peut être interrompue par un événement extraordinaire ou exceptionnel auquel on ne pouvait s’attendre – la force majeure, la faute ou le fait (grave) d’un tiers et la faute ou le fait (grave) du lésé -, et qui revêt une importance telle qu’il s’impose comme la cause la plus immédiate du dommage et relègue à l’arrière-plan les autres facteurs ayant contribué à le provoquer, y compris le fait imputable à la partie recherchée. Autrement dit, l’intensité de chacune des causes en présence est déterminante: si la faute du lésé ou d’un tiers apparaît lourde au point de presque supplanter le fait imputable à la partie recherchée, alors le lien de causalité adéquate est rompu.

La faute ou le fait d’un tiers ne libère donc en principe pas l’auteur de sa responsabilité, à moins que cette faute ou ce fait ne soit si important qu’il apparaisse comme la seule cause du préjudice. Lorsque plusieurs personnes ont eu chacune de leur côté un comportement qui est à l’origine du même dommage, elles en répondent en vertu de causes différentes. Le lésé, dont la situation ne saurait être aggravée du fait de la pluralité de responsables, dispose d’un concours d’actions: il peut s’en prendre indifféremment à l’un ou à l’autre de ces responsables ou à tous et réclamer à chacun la réparation de l’entier de son dommage. Procéduralement, si le lésé ouvre action en même temps contre plusieurs responsables, on parle de cumul subjectif d’actions (art. 71 al. 1 CPC). Matériellement toutefois, le lésé ne pourra obtenir qu’une seule fois la réparation de son dommage; le paiement effectué par l’un des obligés libère les autres envers le lésé.

La preuve des faits relatifs aux facteurs interruptifs de la causalité adéquate incombe au débiteur.

En l’espèce, la cour cantonale a estimé que la réputation de la demanderesse était déjà « gravement atteinte » avant que le défendeur et le journaliste de Z ne se parlent; pour preuve, a-t-elle affirmé, la demanderesse avait déjà recouru le mois précédent à des avocats et des communicants; ergo, l’atteinte était déjà réalisée à ce moment-là. Ainsi, selon les faits constatés par l’instance précédente, le fait que l’intimé ait transmis des informations et des pièces confidentielles à Z n’avait pas causé l’atteinte à la réputation de la recourante et encore moins les frais déboursés pour les services des prestataires précités. Sans qu’elle ne l’explicite, c’est donc l’existence d’un lien de causalité naturelle entre l’acte illicite et le dommage allégué que la cour cantonale nie dans l’arrêt entrepris

Savoir si le dommage allégué par la recourante a été causé par la violation contractuelle de l’intimé relève du fait. En substance, la recourante fait grief à la cour cantonale d’avoir, de manière insoutenable, ignoré l’existence d’un lien de causalité naturelle; à juste titre. Certes, la réputation de la demanderesse était déjà ternie à compter des deux premiers articles de journal; ce qui ne permet toutefois pas de retenir qu’il n’y avait plus rien à préserver dès ce moment-là. En partant de la prémisse opposée, sans qu’aucun élément ne l’y autorise, la cour cantonale a versé dans l’arbitraire.

Dans les circonstances du cas d’espèce, que la recourante ait confié à ses consultants le soin de déterminer si et de quelle manière il fallait réagir à chaque nouvelle parution pour défendre sa réputation apparaît parfaitement dans l’ordre des choses. Les frais liés à leur intervention s’inscrivent dans une relation de cause à effet avec les divulgations du défendeur à . 

Sous l’angle de la causalité adéquate – qui est une question de droit -, il est incontestable que les faits et pièces confidentiels révélés à la presse internationale par l’intimé, ancien cadre de la société ciblée par les articles, étaient propres à provoquer une atteinte à la réputation de celle-ci et à entraîner des frais pour des services destinés à pallier cette atteinte.

Lorsque l’arrêt cantonal relève que l’atteinte pourrait tout aussi bien être imputée aux informations fournies par de tierces personnes, il perd de vue que la pluralité de sources des journalistes en cause ne libère pas le défendeur de sa responsabilité. On peut encore observer que, quand bien même le défendeur n’était pas la seule source des articles publiés à compter du 12 août 2014, il est patent que ceux-ci n’auraient pas eu un tel tranchant sans les éléments qu’il a dévoilés. En tout état de cause, l’intimé ne prétend pas – dans sa réponse au recours, dans laquelle il doit développer les moyens qu’il entend voir pris en compte pour le cas où les griefs de la recourante étaient fondés – que la causalité adéquate aurait été interrompue par la faute ou le fait (grave) d’un tiers. 

C’est donc à tort que la cour cantonale a considéré qu’il n’existait pas de lien de causalité (naturelle et adéquate) entre la violation par le défendeur de son devoir de fidélité, de confidentialité, de diligence et le dommage.

(Arrêt du Tribunal fédéral 4A_159/2024 du 23 avril 2025, consid. 5)

Me Philippe Ehrenström, avocat, LLM

Publié dans Responsabilité du travailleur | Tagué , , , , , | Laisser un commentaire

Ce qui se passe dans la boîte noire: généralisation et mémorisation dans les Large Language Models

On dit souvent que les Large Language Models sont des « boîtes noires » – on sait ce que l’on met dedans, les demandes qu’on leur fait, on lit et en apprécie les résultats – mais on ne sait pas ce qui se passe dedans. C’est un peu moins vrai depuis le début de ce pluvieux mois de juin:

Depuis plusieurs années, les modèles de langage (LLM – Large Language Models)  comme ceux de la famille GPT ont profondément transformé la manière dont les machines traitent et produisent du texte. Alimentés par des corpus gigantesques, ces systèmes atteignent désormais des capacités linguistiques impressionnantes. Mais derrière ces prouesses se cache une interrogation encore mal résolue : jusqu’à quel point ces modèles retiennent-ils les données sur lesquelles ils ont été entraînés ? La communauté scientifique emploie ici le terme de « mémorisation », qui recouvre en réalité deux dynamiques distinctes. D’une part, la mémorisation volontaire, autrement dit la généralisation, qui consiste pour le modèle à extraire des régularités ou des structures utiles pour produire des textes pertinents. D’autre part, la mémorisation involontaire, qui renvoie à la capacité du modèle à stocker, consciemment ou non, des données précises, parfois mot à mot, tirées du corpus d’entraînement.

L’article de J.X.MORRIS et al., How much do language models memorize ? (arXiv : 2505.24832v2 [cs.CL] 2 juin 2025 – https://arxiv.org/pdf/2505.24832), se penche notamment sur ce second phénomène : combien d’informations spécifiques les modèles conservent-ils, sans qu’on ne leur ait explicitement demandé ? Et comment peut-on le mesurer de manière rigoureuse, sans se contenter de tests empiriques flous ou de suppositions technologiques ? Pour ce faire, les auteurs – affiliés à Meta AI, Google DeepMind, Cornell et NVIDIA – proposent une méthode inédite permettant d’estimer de manière quantitative et formelle la quantité d’information mémorisée par un modèle de langage.

L’enjeu ne se limite pas à une question technique. Pour un juriste, cette capacité de mémorisation soulève des interrogations fondamentales. Si un modèle retient des passages entiers d’œuvres protégées, cela peut constituer une atteinte au droit d’auteur. S’il conserve des données personnelles, même de manière indirecte, la protection de la personnalité et des données peut être mise en danger. Et ce sans compter encore sur les données d’entraînement qui pourraient être couvertes par le secret professionnel.

Pour aborder ce problème, les auteurs commencent par rejeter les méthodes couramment utilisées pour évaluer la mémorisation. En effet, certaines recherches passées ont consisté à demander à un modèle de régurgiter un texte entier afin d’en déduire qu’il l’avait mémorisé. Or cette logique est trompeuse. D’une part, les modèles peuvent générer des séquences précises même si elles ne figurent pas dans les données d’entraînement, simplement parce qu’ils ont appris des règles générales qui y mènent. D’autre part, il est parfois possible de forcer un modèle à produire un contenu en le guidant habilement, sans que cela prouve qu’il en détenait la mémoire exacte.

Afin de contourner ces limitations, l’équipe de chercheurs propose une nouvelle définition de la mémorisation fondée sur des concepts issus de la théorie de l’information. Le cœur de leur approche repose sur une idée simple : si un modèle « connaît » une donnée, alors cette donnée est plus facile à compresser en sa présence. Autrement dit, un texte que le modèle a mémorisé pourra être représenté par un nombre réduit de bits – l’unité élémentaire d’information – comparé à un texte inconnu. En mesurant la différence entre la taille « brute » d’un texte et la manière dont le modèle le compresse, on peut estimer combien d’informations il contient réellement sur ce texte.

Pour garantir la solidité de leur démarche, les auteurs commencent par expérimenter sur des données totalement artificielles : des chaînes aléatoires de bits, sans structure ni sens. Dans ce contexte, il n’est pas possible de généraliser : seul un mécanisme de mémorisation brute peut expliquer les performances d’un modèle. Ces tests permettent alors de mesurer de manière pure la capacité d’un modèle à retenir des informations. Ils montrent que, quelle que soit la taille du corpus, un modèle a une limite au-delà de laquelle il ne peut pas stocker plus d’informations. Cette capacité est estimée à environ 3,6 bits par paramètre pour les modèles de type GPT. Ainsi, un modèle de 100 millions de paramètres pourrait stocker théoriquement jusqu’à 360 millions de bits, soit environ 45 mégaoctets d’information brute.

Lorsque les auteurs appliquent leur méthode à des textes réels, comme ceux présents dans les grands corpus publics, le tableau se complexifie. À mesure que l’on augmente la taille du jeu de données d’entraînement, le modèle cesse progressivement de mémoriser des textes mot pour mot, et commence à apprendre des motifs généraux, applicables à des exemples nouveaux. Ce phénomène, bien connu en apprentissage automatique, est appelé « généralisation ». Il est ici quantifié précisément, et apparaît comme une phase qui succède à celle de la mémorisation brute. Tant que la capacité du modèle n’est pas saturée, il mémorise de manière spécifique. Une fois cette capacité atteinte, il est contraint de dégager des régularités générales pour continuer à apprendre efficacement.

Ce constat donne lieu à un phénomène particulièrement intéressant, connu sous le nom de « double descente ». Dans un premier temps, lorsqu’on augmente la taille du jeu de données, la performance du modèle diminue, car il tente de mémoriser une trop grande quantité d’informations. Mais passé un certain seuil – celui où la généralisation prend le relais – les performances s’améliorent de manière spectaculaire. Ce point de bascule correspond précisément au moment où le modèle cesse de mémoriser chaque exemple individuellement et commence à partager l’information entre les exemples, découvrant ainsi des régularités sous-jacentes.

Les auteurs vont plus loin en proposant une loi d’échelle permettant de prédire la probabilité qu’un texte donné ait été vu par un modèle lors de son entraînement. Cette loi repose sur le rapport entre la capacité du modèle (mesurée en bits) et la taille du jeu de données. Plus ce rapport est faible – c’est-à-dire, plus il y a de données par bit de capacité – moins il est probable qu’un texte donné soit identifiable comme appartenant à l’entraînement. Autrement dit, un grand modèle entraîné sur un corpus très volumineux aura une probabilité très faible de trahir des informations spécifiques, du fait de sa dispersion mémorielle. Cela a des conséquences directes sur la possibilité de mener des attaques dites « d’inférence d’appartenance », où l’on cherche à déterminer si un texte donné faisait partie du jeu d’entraînement du modèle. Ces attaques deviennent de moins en moins efficaces à mesure que le corpus s’élargit.

Une autre conclusion majeure de l’article est que l’augmentation de la précision des calculs internes du modèle (passer de 16 à 32 bits par exemple) n’augmente que marginalement la capacité de mémorisation. Cela suggère que la limitation principale réside non pas dans les détails techniques de la représentation des paramètres, mais dans l’architecture même des modèles et leur capacité à encoder de l’information utile.

Dans leurs expérimentations sur des textes réels, les auteurs montrent également que certains exemples, notamment ceux qui sont très fréquents ou répétitifs, sont davantage mémorisés que d’autres. Cela soulève des questions éthiques et juridiques importantes : si un modèle retient mieux des extraits de livres populaires ou des textes juridiques souvent cités, cela pourrait accroître les risques de reproduction non autorisée [mais aussi entraîner un « gel » de l’information produite en bout de processus – les mêmes jurisprudences, toujours citées…].

Enfin, les chercheurs confrontent leur modèle théorique aux résultats empiriques obtenus sur des modèles de différentes tailles (de 500 000 à plus de 1,5 milliard de paramètres). Ils trouvent une concordance remarquable entre les prédictions théoriques de leur loi d’échelle et les résultats observés. Cela confère à leur méthodologie une robustesse qui en fait un outil potentiellement précieux pour les développeurs, mais aussi pour les régulateurs et les juristes souhaitant évaluer la conformité des modèles d’IA à des standards de protection de la vie privée ou de respect des droits d’auteur.

En définitive, cette recherche constitue une avancée intéressante dans la compréhension des mécanismes internes des modèles de langage. Elle établit, pour la première fois, une mesure objective de ce qu’un modèle « sait » réellement d’un corpus donné, en distinguant de manière claire la généralisation utile de la mémorisation brute. Pour les professionnels du droit, ce cadre analytique ouvre la voie à des évaluations plus fines des risques juridiques associés à l’usage de ces technologies. Il permet notamment d’identifier les cas où un modèle est susceptible de reproduire des données sensibles ou protégées, et d’évaluer la gravité de ces cas selon la taille du modèle, son type d’entraînement, et la nature des données utilisées.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Discrimination au travail : alourdissement du fardeau de la preuve pour des plaignants non membres de minorités ?

On a souvent parlé d’un allègement du fardeau de la preuve de discrimination dans le cadre des rapports de travail. La Cour suprême des États-Unis, dans l’affaire Ames v. Ohio Department of Youth Services (23–1039) (https://www.supremecourt.gov/opinions/24pdf/23-1039_c0n2.pdf), s’est penché sur un alourdissement du fardeau de la preuve pour les plaignants qui ne sont pas membres de minorités.

Introduction

Marlean Ames, une femme hétérosexuelle employée depuis 2004 par le département de la jeunesse de l’Ohio, a occupé plusieurs fonctions, dont celle de « program administrator ». En 2019, elle postule à un poste de direction nouvellement créé. L’agence choisit de nommer à ce poste une femme lesbienne. Peu après, Ames est rétrogradée à un poste de secrétaire, ce qui implique une baisse de salaire substantielle. Un homme homosexuel est engagé pour reprendre son poste précédent.

Ames intente une action fondée sur le Titre VII du Civil Rights Act (https://www.eeoc.gov/statutes/title-vii-civil-rights-act-1964), alléguant avoir été victime de discrimination fondée sur son orientation sexuelle hétérosexuelle. Les juridictions inférieures (le tribunal de district et la cour d’appel du Sixième Circuit) ont rejeté sa plainte, estimant qu’elle n’avait pas satisfait à des exigences accrues en rapport avec le fardeau de la preuve (cf. McDonnell Douglas Corp. v. Green, 411 U. S. 792).

Procédure et raisonnement des juridictions inférieures

Les tribunaux ont appliqué le test dit de McDonnell Douglas, un cadre jurisprudentiel tripartite utilisé lorsqu’un plaignant ne dispose pas de preuve directe de discrimination :

i. Établir une présomption de discrimination (prima facie case).

ii. Si cette présomption est établie, l’employeur doit fournir un motif légitime et non discriminatoire.

iii. Le plaignant peut alors tenter de démontrer que ce motif est un prétexte à la discrimination.

Dans le cas d’Ames, les juridictions ont introduit une exigence additionnelle en vertu d’une règle spécifique à certains circuits : les plaignants appartenant à un « groupe majoritaire » (ici, les hétérosexuels) doivent démontrer des « circonstances de fond » (background circumstances) laissant supposer que l’employeur est un cas atypique qui discrimine à l’encontre de la majorité. Selon elles, Ames n’a pas satisfait à cette exigence.

Décision de la Cour suprême

Question juridique centrale

La question était de savoir si, dans le cadre du test McDonnell Douglas, les plaignants issus de groupes majoritaires doivent fournir des preuves supplémentaires de circonstances de fond, ce qui reviendrait à imposer une charge de preuve accrue par rapport aux membres de groupes minoritaires.

Tenue de la Cour

Dans un arrêt unanime rédigé par la juge Ketanji Brown Jackson, la Cour rejette cette exigence supplémentaire : le Titre VII protège tout individu, sans distinction selon son appartenance majoritaire ou minoritaire, contre toute discrimination fondée sur les caractéristiques protégées (race, sexe, religion, origine nationale).

Elle conclut notamment que la règle du Sixième Circuit imposant un standard probatoire plus élevé aux membres de groupes majoritaires :

i. n’a aucun fondement textuel dans le Titre VII,

ii.  et va à l’encontre de la jurisprudence constante de la Cour.

La Cour souligne que le texte du Titre VII vise des individus, et non des groupes, en interdisant la discrimination envers « any individual ». Il n’y a donc aucune base légale permettant d’exiger davantage de preuves de la part d’un plaignant hétérosexuel, blanc, ou de toute autre majorité statistique.

Position de l’Ohio et réponse de la Cour

L’État de l’Ohio a soutenu que cette exigence ne représentait pas une charge supplémentaire, mais une simple reformulation du critère d’inférence raisonnable de discrimination. La Cour rejette cette tentative de requalification, soulignant que la cour d’appel a explicitement appliqué une norme plus stricte à Ames en raison de son orientation sexuelle.

L’Ohio a également invité la Cour à confirmer le rejet de la plainte pour d’autres motifs. La Cour refuse de se prononcer sur ces arguments subsidiaires, les renvoyant à la cour d’appel dans le cadre d’un nouvel examen conforme à la norme correcte.

Opinion concordante (Thomas, J., rej. Gorsuch)

Le juge Clarence Thomas, rejoint par le juge Neil Gorsuch, critique plus largement la tendance des juridictions à créer des doctrines sans fondement textuel. Il vise particulièrement deux constructions jurisprudentielles :

La règle des « circonstances de fond » : jugée arbitraire, difficile à appliquer, et propice à des distinctions raciales ou sexuelles artificielles.

Conclusion

La Cour suprême a annulé la décision de la cour d’appel et renvoyé l’affaire pour réexamen selon le cadre légal applicable à tous les plaignants, sans discrimination fondée sur leur appartenance à un groupe majoritaire. Cette décision consacre un principe central du droit anti-discrimination américain : le Titre VII protège tous les individus sur un pied d’égalité, sans distinction fondée sur la démographie ou l’histoire sociale.

Me Philippe Ehrenström, avocat LLM

Publié dans Droit US, Procédure | Tagué , , , , | Laisser un commentaire

Intelligence artificielle : agency, pas intelligence – l’altérité ontologique de l’IA

L’intelligence artificielle est-elle une intelligence?

L’article du professeur Luciano Floridi, Artificial Intelligence as a New Form of Agency (Not Intelligence), du 10 avril 2025 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5135645), entend reconfigurer la manière dont nous concevons l’intelligence artificielle (IA). Plutôt que de poursuivre l’idée que l’IA est une forme d’intelligence, l’auteur soutient qu’elle doit être comprise comme une forme radicalement nouvelle d’agentivité — ou d’agency —, fondée non sur la cognition mais sur des capacités opérationnelles, interactionnelles et adaptatives, manifestées notamment dans des systèmes automatisés de plus en plus présents dans les structures sociales et économiques.

Dans un premier temps, Floridi expose la nature du choix conceptuel auquel nous sommes confrontés. Soit nous élargissons notre conception de l’intelligence pour y intégrer les formes artificielles, ce qu’il appelle la thèse de la réalisabilité artificielle de l’intelligence (ARI), soit nous élargissons notre compréhension de l’agency afin d’inclure des formes non humaines, artificielles, sans conscience ni intentionnalité, ce qu’il nomme la thèse de la réalisabilité multiple de l’agency (MRA). Selon Floridi, cette seconde option est préférable, car elle évite les pièges de l’anthropomorphisme et du biais biologique. L’IA, affirme-t-il, ne doit pas être interprétée comme une tentative d’imitation ou de réplique de l’intelligence humaine, mais comme l’émergence d’un type d’agent radicalement nouveau, dont les propriétés doivent être analysées à travers une taxonomie spécifique.

Pour structurer cette analyse, Floridi mobilise la méthode des niveaux d’abstraction (LoA), issue de l’informatique théorique. Cette approche permet de modéliser un système en fonction des observables pertinents à un niveau d’analyse donné, sans s’attacher à sa réalité métaphysique. Ainsi, un même système, comme un thermostat, peut être analysé en tant que dispositif électrique, système de rétroaction, ou élément d’un réseau domotique, selon le niveau retenu. Cette méthode rend possible la comparaison rigoureuse de différentes formes d’agency — naturelles, biologiques, sociales ou artificielles — en s’appuyant sur des critères communs, définis au niveau fonctionnel pertinent.

Le débat philosophique contemporain autour de l’agency est ensuite présenté. D’un côté, la conception standard, héritée de la tradition humaniste, considère que seul un être doté d’états mentaux — désirs, croyances, intentions — peut être qualifié d’agent. De l’autre, la conception non-standard, que Floridi défend, propose de penser l’agency en termes interactionnels et systémiques : un agent est un système capable d’interagir avec son environnement, d’initier des changements et de s’adapter. Cette vision non anthropocentrée permet d’inclure les systèmes artificiels dans une taxonomie élargie de l’agency, sans leur prêter des propriétés cognitives qu’ils ne possèdent pas.

Sur cette base, Floridi identifie trois critères fondamentaux qui permettent d’attribuer une forme d’agency à un système. Le premier est l’interactivité, c’est-à-dire la capacité à interagir de manière bidirectionnelle avec un environnement. Le second est l’autonomie, qui renvoie à l’aptitude à produire des changements d’état sans stimulation directe et immédiate. Le troisième est l’adaptabilité, qui se manifeste dans la modification du comportement sur la base de l’expérience, des données ou des conditions extérieures. Ces trois critères, bien que contextualisés selon le niveau d’abstraction retenu, constituent la base d’une analyse comparative rigoureuse.

Sur cette base, Floridi entreprend une analyse détaillée des différentes formes d’agency existantes. Il commence par l’agency naturelle, caractéristique des systèmes non vivants comme les rivières ou les systèmes météorologiques, qui peuvent modifier leur environnement sans intention ni finalité. Il poursuit avec l’agency biologique individuelle, typique des organismes vivants, capables d’autonomie et d’adaptation pour assurer leur survie. Il examine ensuite l’agency sociale animale, fondée sur des comportements collectifs coordonnés mais non formalisés, comme dans le cas des colonies de fourmis. L’agency artefactuelle, ensuite, désigne les systèmes techniques conçus par l’humain pour accomplir des fonctions spécifiques, comme les thermostats intelligents. Floridi décrit ensuite l’agency humaine individuelle, la plus sophistiquée, qui inclut conscience, réflexivité, moralité et capacité à planifier. Enfin, il présente l’agency sociale humaine, réalisée à travers les institutions, les entreprises et les structures collectives, dotées d’une mémoire organisationnelle, de règles formelles et de mécanismes de coordination.

Ayant établi cette cartographie, Floridi est en mesure de situer l’IA dans cette taxonomie. L’IA ne reproduit ni l’intelligence humaine ni l’intentionnalité animale, mais incarne une forme nouvelle d’agency : l’agency artificielle. Elle repose sur des objectifs programmés, des capacités d’apprentissage statistique, une interactivité numérique et une autonomie limitée par les paramètres de conception. L’IA ne comprend pas, ne désire pas, ne ressent pas, mais elle agit dans son environnement de manière cohérente avec les finalités définies par ses concepteurs. Elle apprend à reconnaître des régularités, à ajuster ses réponses, à optimiser ses performances, tout en demeurant enfermée dans une agency purement syntaxique. Un exemple paradigmatique de cette forme d’agency est fourni par les grands modèles de langage, comme GPT, capables de produire des réponses adaptatives à partir de corpus massifs, sans compréhension sémantique véritable.

L’évolution la plus récente analysée par Floridi est celle de l’agency artificielle sociale, qu’il nomme Agentic AI. Il s’agit de réseaux d’agents artificiels interconnectés, capables de coordination, de partage d’informations, d’ajustement dynamique et d’opérations distribuées. Contrairement aux systèmes multi-agents classiques, l’Agentic AI intègre des capacités de raisonnement à l’échelle du système, reposant sur des modèles linguistiques avancés, des moteurs de planification et des modules de perception. Ces systèmes opèrent à différentes échelles temporelles, réagissent en temps réel, optimisent collectivement des stratégies et manifestent des comportements émergents qui ne sont pas nécessairement anticipés par leurs concepteurs. Ils posent de redoutables défis en termes de gouvernance, de sécurité, de responsabilité et de transparence, notamment lorsqu’ils prennent part à des processus décisionnels sensibles ou critiques.

En conclusion, Floridi affirme que l’IA doit être reconceptualisée non pas comme une intelligence, mais comme une forme distincte d’agency. Cette approche offre une compréhension plus précise des propriétés de ces systèmes, et permet de concevoir des cadres de régulation mieux adaptés. Il ne s’agit pas de calquer des normes humaines sur des artefacts techniques, mais de reconnaître l’altérité ontologique de ces agents et de leur offrir un encadrement juridique cohérent avec leur nature. Cela suppose de développer des architectures sensibles à l’agency des IA, d’inventer des régimes hybrides d’action et de responsabilité partagées entre humains et systèmes, et d’articuler les règles du droit avec les logiques opérationnelles propres à ces agents non biologiques. Floridi insiste sur le fait que l’avenir de l’IA ne réside pas dans l’imitation de l’humain, mais dans l’optimisation de ses propriétés propres, sous condition d’un alignement strict avec les valeurs humaines et les finalités collectives.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle | Tagué , , | Laisser un commentaire