Compétence des tribunaux des prud’hommes: les faits de double pertinence

Le 19 mai 2025, la Ire Cour d’appel civil du Tribunal cantonal de Fribourg a rendu un arrêt 101 2025 12 portant sur la compétence ratione materiae de la juridiction spécialisée en matière de conflits du travail dans un litige concernant l’usage de données personnelles à des fins professionnelles, et plus particulièrement sur l’application de la théorie des faits de double pertinence.

L’affaire oppose A.________ à B.________ SA, société active dans le placement de personnel et le conseil en ressources humaines. En 2019, A., alors travailleur indépendant, a répondu à une annonce publiée par la succursale genevoise de B. SA. Il a transmis plusieurs documents contenant des données personnelles, dont un curriculum vitae. Sa candidature n’a pas été retenue. Toutefois, quelques mois plus tard, B.________ SA a proposé son profil, sans son accord, dans le cadre d’une soumission à un appel d’offres de l’entreprise C., à Genève. Le projet concernait la migration d’un système de téléphonie. Ce n’est que par la suite, en août 2019, que la société a contacté A. pour lui proposer une mission chez C., proposition qu’il a acceptée. La mission a cependant été annulée en octobre 2019. Malgré cela, le projet a été exécuté par B. SA, qui en a retiré des revenus.

A.________ a introduit une procédure devant le Président du Tribunal civil de la Glâne, par requête de conciliation du 5 décembre 2023, suivie d’une demande datée du 6 mai 2024, après l’échec de la conciliation. Il a conclu au paiement de CHF 20’000.– à titre de remise de gain obtenu par l’utilisation illicite de ses données et de CHF 10’000.– en réparation du tort moral. Il fondait ses prétentions sur une atteinte à sa personnalité et l’usage non autorisé de ses données personnelles. B.________ SA, dans sa réponse du 6 juillet 2024, a soulevé l’irrecevabilité de la demande, considérant que le litige relevait du droit du travail, étant donné qu’un contrat-cadre et un contrat de mission avaient été envoyés à A.________ en octobre 2019. Elle a ainsi invoqué l’incompétence du Président du Tribunal civil et soutenu que la cause devait relever de la juridiction des prud’hommes.

Après un double échange d’écritures (réplique du 19 août et duplique du 19 novembre 2024), le Président a décidé, le 5 décembre 2024, de limiter la procédure à la question de la recevabilité, en informant les parties qu’une décision serait rendue sur la base du dossier. A.________ s’est déterminé le 12 décembre 2024. Le 19 décembre 2024, le Président a déclaré la demande irrecevable pour incompétence à raison de la matière. Il a jugé que la cause, en lien avec un contrat de travail, devait relever du droit du travail au sens de l’article 34 CPC, notion à interpréter largement, même si les prétentions sont extracontractuelles. Il a aussi estimé que les faits allégués relevaient d’une action fondée sur le droit du travail. Il a ainsi mis les frais judiciaires et les dépens à la charge de A.________.

Ce dernier a interjeté appel le 20 janvier 2025. Il a demandé que la demande soit déclarée recevable et que la cause soit renvoyée au tribunal compétent. Subsidiairement, il a requis la remise des frais judiciaires et la réduction des dépens. La défenderesse a conclu au rejet de l’appel par réponse du 28 mars 2025. A.________ n’a pas répliqué.

La Cour d’appel a d’abord vérifié la recevabilité formelle de l’appel. Le recours a été interjeté dans les délais, compte tenu de la suspension liée aux fêtes de fin d’année, et la valeur litigieuse de CHF 30’000.– était suffisante. Le mémoire d’appel était motivé, mais la partie intitulée « En fait », qui reprenait les allégués initiaux sans critiquer la décision de première instance, a été jugée irrecevable.

Au fond, la Cour s’est penchée sur la qualification juridique du litige à la lumière de la théorie des faits de double pertinence. Cette théorie, reconnue par la jurisprudence (ATF 141 III 294 notamment), prévoit que, lorsqu’un fait est déterminant à la fois pour la compétence du tribunal et pour le fond du litige, le juge doit se fonder uniquement sur les allégués du demandeur pour trancher la question de la compétence. Il ne peut pas tenir compte des contestations du défendeur ni administrer de preuves à ce stade. Si la compétence ne peut pas être exclue prima facie, il doit instruire le fond avant de trancher définitivement la compétence et le bien-fondé de la prétention.

En l’espèce, A.________ ne fondait pas ses prétentions sur un contrat de travail formellement achevé, mais sur l’utilisation non autorisée de ses données personnelles dans un contexte où le placement envisagé n’avait finalement pas eu lieu. Il mentionnait des pourparlers, mais n’alléguait pas qu’un contrat aurait été pleinement conclu et exécuté. La prétention visait à obtenir une indemnité fondée sur l’atteinte à la personnalité (art. 28 CC) et la protection des données (art. 328b CO). L’art. 20 CPC, invoqué par le demandeur, était donc pertinent pour établir la compétence du tribunal civil ordinaire.

La Cour a estimé que le premier juge avait méconnu la portée de la théorie des faits de double pertinence en se déclarant incompétent sans procéder à l’instruction du fond. Le caractère juridique du rapport entre les parties n’était pas limpide et ne permettait pas de trancher la question de compétence sur la seule base des allégations. D’autant plus que le Président avait lui-même ordonné un double échange d’écritures au fond avant de statuer, ce qui démontre que l’affaire n’était pas claire.

La Cour a donc annulé les points 2 à 4 de la décision du 19 décembre 2024, relatifs à l’irrecevabilité de la demande, à la requête de sûretés et à la répartition des frais et dépens. Elle a renvoyé la cause au Président du Tribunal civil de la Glâne pour suite de la procédure. Celui-ci devra désormais se prononcer sur la requête de sûretés, procéder à l’audition des parties et administrer les preuves, notamment celles portant sur les faits doublement pertinents, avant de rendre un jugement au fond.

Cet arrêt illustre l’application de la théorie des faits de double pertinence et rappelle que le juge saisi ne peut écarter sa compétence qu’en présence de faits clairs permettant d’exclure d’emblée la prétention alléguée. Lorsqu’il subsiste une incertitude sur la qualification juridique du rapport litigieux, l’instruction du fond est nécessaire pour trancher tant la compétence que le bien-fondé.

(Pour en savoir plus sur les faits de double pertinence :

Philippe Ehrenström, Les faits de double pertinence devant le Tribunal des prud’hommes du canton de Genève, IusNet DT-AS 24 juil. 2023 – accessible ici : https://droit-travail-assurances-sociales.iusnet.ch/de/kommentierung/suisse/tribunal-des-prudhommes/les-faits-de-double-pertinence-devant-le-tribunal-des)

Me Philippe Ehrenström, avocat, LLM

Publié dans Procédure | Tagué , , , , , , | Laisser un commentaire

La responsabilité de l’employé (art. 321e CO): causalité

La cour cantonale a retenu, en faits, que le défendeur [l’employé] avait transmis le 5 août 2014 à Z [journal]  des informations et notamment des courriels internes à la demanderesse, frappés du sceau de la confidentialité, dont le journal s’est servi pour les articles qu’il a publiés subséquemment. Il avait ainsi violé les devoirs de fidélité, de confidentialité et de diligence auxquels il était tenu en tant qu’employé et administrateur de la demanderesse (art. 321a al. 4 CO cum 717 CO). Il ne pouvait se prévaloir d’aucun motif justificatif, a estimé la Chambre patrimoniale cantonale, laquelle relevait en particulier que le défendeur n’avais jamais contacté aucune autorité pénale dans le but de faire part de comportements qu’il considérait comme pénalement répréhensibles ou immoraux, de sorte que la divulgation d’informations confidentielles commise alors qu’il n’était plus actif au sein de la demanderesse n’avait rien à voir avec du whistleblowinget ne s’apparentait à rien de licite. La cour cantonale a fondé le rejet de sa demande en paiement essentiellement sur l’absence de lien de causalité, de sorte que cet aspect ne lui a pas inspiré une ligne. Quoi qu’il en soit, dans sa réponse, l’employé ne dit mot de cette question, pas plus qu’il n’articule l’ombre d’un moyen qui tendrait à démontrer qu’une faute ne lui serait pas imputable. Partant, la violation fautive par l’employé de ses obligations contractuelles ne fait pas débat. 

C’est essentiellement sur le rapport de causalité entre cette violation et le dommage que se cristallise la contestation.

La cour cantonale a estimé que ce lien de causalité était inexistant. Selon son analyse, l’atteinte à la réputation de la demanderesse avait débuté avant le 5 août 2014. Ce n’étaient dès lors pas les informations fournies par le défendeur au journaliste de Z le jour en question qui l’avaient occasionnée. La demanderesse avait recouru aux services de communicants et d’avocats dès juillet 2014 déjà. Rien ne certifiait que les frais qu’elle avait continué à avoir après le 5 août 2014 ne seraient imputables qu’aux déclarations du défendeur et non à la continuation des problèmes qu’elle rencontrait déjà avant cette date ou à des informations fournies par d’autres personnes. Savoir à quel point la réputation de la demanderesse avait pâti des articles publiés après le 5 août 2014 n’était pas éclairci. Partant, a-t-elle conclu, la demanderesse avait échoué à démontrer l’existence d’un rapport de causalité naturelle et adéquate entre le dommage invoqué et le comportement du défendeur. Au demeurant, ajoute-t-elle encore, même à admettre qu’une partie de ce dommage serait en lien avec les informations divulguées par le défendeur, les éléments au dossier ne permettraient de toute manière pas d’en déterminer la quotité, l’art. 42 al. 2 CO n’étant pas applicable, faute pour la demanderesse d’avoir fait tout ce qu’elle pouvait pour en apporter la preuve.

En vertu de l’art. 321e CO, le travailleur répond du dommage qu’il cause à l’employeur intentionnellement ou par négligence. Pour que l’employeur puisse réclamer des dommages-intérêts au travailleur sur la base de cette disposition, les quatre conditions essentielles suivantes doivent être réalisées: l’existence d’un dommage subi par l’employeur; la violation, par le travailleur, d’une obligation contractuelle, soit l’exécution imparfaite ou l’inexécution du contrat; le rapport de causalité entre la violation et le dommage; enfin, la faute commise intentionnellement ou par négligence. L’employeur doit alléguer et prouver, conformément à l’art. 8 CC, les trois faits constitutifs de cette norme de responsabilité que sont la violation du contrat, le dommage et le rapport de causalité (naturelle et adéquate) entre la violation contractuelle et le dommage. En revanche, il incombe à l’employé de prouver qu’aucune faute ne lui est imputable (arrêts 4A_402/2021 du 14 mars 2022 consid. 5.1; 4C.196/1998 du 17 août 1998 consid. 3).

La recourante dénonce une violation des art. 97 et 321e CO. Selon elle, quand bien même sa réputation fût déjà écornée par des articles déjà publiés les 4 et 5 août 2014, ce sont les articles de presse étayés par les informations et documents transmis par le défendeur qui lui ont porté l’estocade. Il existait donc bien un lien de causalité entre la divulgation dont le défendeur s’était fait l’auteur et les frais engagés pour défendre sa réputation.

La causalité naturelle entre deux événements est réalisée lorsque, sans le premier, le second ne se serait pas produit. Il n’est pas nécessaire que l’événement considéré soit la cause unique ou immédiate du résultat. La constatation de la causalité naturelle relève du fait. 

Pour dire s’il y a causalité naturelle, le juge doit apprécier les preuves apportées et s’interroger, de manière purement factuelle, sur l’enchaînement des événements et le caractère indispensable, pour provoquer le résultat, du comportement invoqué à l’appui de la demande. Il appartient donc au juge d’apprécier les diverses preuves et de constater l’existence – ou l’inexistence – du rapport de causalité naturelle. Il lui incombe de savoir que la norme qu’il applique exige la causalité et de connaître le sens de cette notion.

 Un fait constitue la cause adéquate d’un résultat s’il est propre, d’après le cours ordinaire des choses et l’expérience générale de la vie, à entraîner un résultat du genre de celui qui s’est produit. Pour savoir si un fait est la cause adéquate d’un préjudice, le juge procède à un pronostic rétrospectif objectif: se plaçant au terme de la chaîne des causes, il lui appartient de remonter du dommage dont la réparation est demandée au chef de responsabilité invoqué et de déterminer si, dans le cours normal des choses et selon l’expérience générale de la vie humaine, une telle conséquence demeure dans le champ raisonnable des possibilités objectivement prévisibles. L’existence d’un rapport de causalité adéquate doit être appréciée de cas en cas par le juge selon les règles du droit et de l’équité, conformément à l’art. 4 CC. Il s’agit de déterminer si un dommage peut encore être équitablement imputé à l’auteur, eu égard au but de la norme de responsabilité applicable.

La causalité adéquate peut être interrompue par un événement extraordinaire ou exceptionnel auquel on ne pouvait s’attendre – la force majeure, la faute ou le fait (grave) d’un tiers et la faute ou le fait (grave) du lésé -, et qui revêt une importance telle qu’il s’impose comme la cause la plus immédiate du dommage et relègue à l’arrière-plan les autres facteurs ayant contribué à le provoquer, y compris le fait imputable à la partie recherchée. Autrement dit, l’intensité de chacune des causes en présence est déterminante: si la faute du lésé ou d’un tiers apparaît lourde au point de presque supplanter le fait imputable à la partie recherchée, alors le lien de causalité adéquate est rompu.

La faute ou le fait d’un tiers ne libère donc en principe pas l’auteur de sa responsabilité, à moins que cette faute ou ce fait ne soit si important qu’il apparaisse comme la seule cause du préjudice. Lorsque plusieurs personnes ont eu chacune de leur côté un comportement qui est à l’origine du même dommage, elles en répondent en vertu de causes différentes. Le lésé, dont la situation ne saurait être aggravée du fait de la pluralité de responsables, dispose d’un concours d’actions: il peut s’en prendre indifféremment à l’un ou à l’autre de ces responsables ou à tous et réclamer à chacun la réparation de l’entier de son dommage. Procéduralement, si le lésé ouvre action en même temps contre plusieurs responsables, on parle de cumul subjectif d’actions (art. 71 al. 1 CPC). Matériellement toutefois, le lésé ne pourra obtenir qu’une seule fois la réparation de son dommage; le paiement effectué par l’un des obligés libère les autres envers le lésé.

La preuve des faits relatifs aux facteurs interruptifs de la causalité adéquate incombe au débiteur.

En l’espèce, la cour cantonale a estimé que la réputation de la demanderesse était déjà « gravement atteinte » avant que le défendeur et le journaliste de Z ne se parlent; pour preuve, a-t-elle affirmé, la demanderesse avait déjà recouru le mois précédent à des avocats et des communicants; ergo, l’atteinte était déjà réalisée à ce moment-là. Ainsi, selon les faits constatés par l’instance précédente, le fait que l’intimé ait transmis des informations et des pièces confidentielles à Z n’avait pas causé l’atteinte à la réputation de la recourante et encore moins les frais déboursés pour les services des prestataires précités. Sans qu’elle ne l’explicite, c’est donc l’existence d’un lien de causalité naturelle entre l’acte illicite et le dommage allégué que la cour cantonale nie dans l’arrêt entrepris

Savoir si le dommage allégué par la recourante a été causé par la violation contractuelle de l’intimé relève du fait. En substance, la recourante fait grief à la cour cantonale d’avoir, de manière insoutenable, ignoré l’existence d’un lien de causalité naturelle; à juste titre. Certes, la réputation de la demanderesse était déjà ternie à compter des deux premiers articles de journal; ce qui ne permet toutefois pas de retenir qu’il n’y avait plus rien à préserver dès ce moment-là. En partant de la prémisse opposée, sans qu’aucun élément ne l’y autorise, la cour cantonale a versé dans l’arbitraire.

Dans les circonstances du cas d’espèce, que la recourante ait confié à ses consultants le soin de déterminer si et de quelle manière il fallait réagir à chaque nouvelle parution pour défendre sa réputation apparaît parfaitement dans l’ordre des choses. Les frais liés à leur intervention s’inscrivent dans une relation de cause à effet avec les divulgations du défendeur à . 

Sous l’angle de la causalité adéquate – qui est une question de droit -, il est incontestable que les faits et pièces confidentiels révélés à la presse internationale par l’intimé, ancien cadre de la société ciblée par les articles, étaient propres à provoquer une atteinte à la réputation de celle-ci et à entraîner des frais pour des services destinés à pallier cette atteinte.

Lorsque l’arrêt cantonal relève que l’atteinte pourrait tout aussi bien être imputée aux informations fournies par de tierces personnes, il perd de vue que la pluralité de sources des journalistes en cause ne libère pas le défendeur de sa responsabilité. On peut encore observer que, quand bien même le défendeur n’était pas la seule source des articles publiés à compter du 12 août 2014, il est patent que ceux-ci n’auraient pas eu un tel tranchant sans les éléments qu’il a dévoilés. En tout état de cause, l’intimé ne prétend pas – dans sa réponse au recours, dans laquelle il doit développer les moyens qu’il entend voir pris en compte pour le cas où les griefs de la recourante étaient fondés – que la causalité adéquate aurait été interrompue par la faute ou le fait (grave) d’un tiers. 

C’est donc à tort que la cour cantonale a considéré qu’il n’existait pas de lien de causalité (naturelle et adéquate) entre la violation par le défendeur de son devoir de fidélité, de confidentialité, de diligence et le dommage.

(Arrêt du Tribunal fédéral 4A_159/2024 du 23 avril 2025, consid. 5)

Me Philippe Ehrenström, avocat, LLM

Publié dans Responsabilité du travailleur | Tagué , , , , , | Laisser un commentaire

Ce qui se passe dans la boîte noire: généralisation et mémorisation dans les Large Language Models

On dit souvent que les Large Language Models sont des « boîtes noires » – on sait ce que l’on met dedans, les demandes qu’on leur fait, on lit et en apprécie les résultats – mais on ne sait pas ce qui se passe dedans. C’est un peu moins vrai depuis le début de ce pluvieux mois de juin:

Depuis plusieurs années, les modèles de langage (LLM – Large Language Models)  comme ceux de la famille GPT ont profondément transformé la manière dont les machines traitent et produisent du texte. Alimentés par des corpus gigantesques, ces systèmes atteignent désormais des capacités linguistiques impressionnantes. Mais derrière ces prouesses se cache une interrogation encore mal résolue : jusqu’à quel point ces modèles retiennent-ils les données sur lesquelles ils ont été entraînés ? La communauté scientifique emploie ici le terme de « mémorisation », qui recouvre en réalité deux dynamiques distinctes. D’une part, la mémorisation volontaire, autrement dit la généralisation, qui consiste pour le modèle à extraire des régularités ou des structures utiles pour produire des textes pertinents. D’autre part, la mémorisation involontaire, qui renvoie à la capacité du modèle à stocker, consciemment ou non, des données précises, parfois mot à mot, tirées du corpus d’entraînement.

L’article de J.X.MORRIS et al., How much do language models memorize ? (arXiv : 2505.24832v2 [cs.CL] 2 juin 2025 – https://arxiv.org/pdf/2505.24832), se penche notamment sur ce second phénomène : combien d’informations spécifiques les modèles conservent-ils, sans qu’on ne leur ait explicitement demandé ? Et comment peut-on le mesurer de manière rigoureuse, sans se contenter de tests empiriques flous ou de suppositions technologiques ? Pour ce faire, les auteurs – affiliés à Meta AI, Google DeepMind, Cornell et NVIDIA – proposent une méthode inédite permettant d’estimer de manière quantitative et formelle la quantité d’information mémorisée par un modèle de langage.

L’enjeu ne se limite pas à une question technique. Pour un juriste, cette capacité de mémorisation soulève des interrogations fondamentales. Si un modèle retient des passages entiers d’œuvres protégées, cela peut constituer une atteinte au droit d’auteur. S’il conserve des données personnelles, même de manière indirecte, la protection de la personnalité et des données peut être mise en danger. Et ce sans compter encore sur les données d’entraînement qui pourraient être couvertes par le secret professionnel.

Pour aborder ce problème, les auteurs commencent par rejeter les méthodes couramment utilisées pour évaluer la mémorisation. En effet, certaines recherches passées ont consisté à demander à un modèle de régurgiter un texte entier afin d’en déduire qu’il l’avait mémorisé. Or cette logique est trompeuse. D’une part, les modèles peuvent générer des séquences précises même si elles ne figurent pas dans les données d’entraînement, simplement parce qu’ils ont appris des règles générales qui y mènent. D’autre part, il est parfois possible de forcer un modèle à produire un contenu en le guidant habilement, sans que cela prouve qu’il en détenait la mémoire exacte.

Afin de contourner ces limitations, l’équipe de chercheurs propose une nouvelle définition de la mémorisation fondée sur des concepts issus de la théorie de l’information. Le cœur de leur approche repose sur une idée simple : si un modèle « connaît » une donnée, alors cette donnée est plus facile à compresser en sa présence. Autrement dit, un texte que le modèle a mémorisé pourra être représenté par un nombre réduit de bits – l’unité élémentaire d’information – comparé à un texte inconnu. En mesurant la différence entre la taille « brute » d’un texte et la manière dont le modèle le compresse, on peut estimer combien d’informations il contient réellement sur ce texte.

Pour garantir la solidité de leur démarche, les auteurs commencent par expérimenter sur des données totalement artificielles : des chaînes aléatoires de bits, sans structure ni sens. Dans ce contexte, il n’est pas possible de généraliser : seul un mécanisme de mémorisation brute peut expliquer les performances d’un modèle. Ces tests permettent alors de mesurer de manière pure la capacité d’un modèle à retenir des informations. Ils montrent que, quelle que soit la taille du corpus, un modèle a une limite au-delà de laquelle il ne peut pas stocker plus d’informations. Cette capacité est estimée à environ 3,6 bits par paramètre pour les modèles de type GPT. Ainsi, un modèle de 100 millions de paramètres pourrait stocker théoriquement jusqu’à 360 millions de bits, soit environ 45 mégaoctets d’information brute.

Lorsque les auteurs appliquent leur méthode à des textes réels, comme ceux présents dans les grands corpus publics, le tableau se complexifie. À mesure que l’on augmente la taille du jeu de données d’entraînement, le modèle cesse progressivement de mémoriser des textes mot pour mot, et commence à apprendre des motifs généraux, applicables à des exemples nouveaux. Ce phénomène, bien connu en apprentissage automatique, est appelé « généralisation ». Il est ici quantifié précisément, et apparaît comme une phase qui succède à celle de la mémorisation brute. Tant que la capacité du modèle n’est pas saturée, il mémorise de manière spécifique. Une fois cette capacité atteinte, il est contraint de dégager des régularités générales pour continuer à apprendre efficacement.

Ce constat donne lieu à un phénomène particulièrement intéressant, connu sous le nom de « double descente ». Dans un premier temps, lorsqu’on augmente la taille du jeu de données, la performance du modèle diminue, car il tente de mémoriser une trop grande quantité d’informations. Mais passé un certain seuil – celui où la généralisation prend le relais – les performances s’améliorent de manière spectaculaire. Ce point de bascule correspond précisément au moment où le modèle cesse de mémoriser chaque exemple individuellement et commence à partager l’information entre les exemples, découvrant ainsi des régularités sous-jacentes.

Les auteurs vont plus loin en proposant une loi d’échelle permettant de prédire la probabilité qu’un texte donné ait été vu par un modèle lors de son entraînement. Cette loi repose sur le rapport entre la capacité du modèle (mesurée en bits) et la taille du jeu de données. Plus ce rapport est faible – c’est-à-dire, plus il y a de données par bit de capacité – moins il est probable qu’un texte donné soit identifiable comme appartenant à l’entraînement. Autrement dit, un grand modèle entraîné sur un corpus très volumineux aura une probabilité très faible de trahir des informations spécifiques, du fait de sa dispersion mémorielle. Cela a des conséquences directes sur la possibilité de mener des attaques dites « d’inférence d’appartenance », où l’on cherche à déterminer si un texte donné faisait partie du jeu d’entraînement du modèle. Ces attaques deviennent de moins en moins efficaces à mesure que le corpus s’élargit.

Une autre conclusion majeure de l’article est que l’augmentation de la précision des calculs internes du modèle (passer de 16 à 32 bits par exemple) n’augmente que marginalement la capacité de mémorisation. Cela suggère que la limitation principale réside non pas dans les détails techniques de la représentation des paramètres, mais dans l’architecture même des modèles et leur capacité à encoder de l’information utile.

Dans leurs expérimentations sur des textes réels, les auteurs montrent également que certains exemples, notamment ceux qui sont très fréquents ou répétitifs, sont davantage mémorisés que d’autres. Cela soulève des questions éthiques et juridiques importantes : si un modèle retient mieux des extraits de livres populaires ou des textes juridiques souvent cités, cela pourrait accroître les risques de reproduction non autorisée [mais aussi entraîner un « gel » de l’information produite en bout de processus – les mêmes jurisprudences, toujours citées…].

Enfin, les chercheurs confrontent leur modèle théorique aux résultats empiriques obtenus sur des modèles de différentes tailles (de 500 000 à plus de 1,5 milliard de paramètres). Ils trouvent une concordance remarquable entre les prédictions théoriques de leur loi d’échelle et les résultats observés. Cela confère à leur méthodologie une robustesse qui en fait un outil potentiellement précieux pour les développeurs, mais aussi pour les régulateurs et les juristes souhaitant évaluer la conformité des modèles d’IA à des standards de protection de la vie privée ou de respect des droits d’auteur.

En définitive, cette recherche constitue une avancée intéressante dans la compréhension des mécanismes internes des modèles de langage. Elle établit, pour la première fois, une mesure objective de ce qu’un modèle « sait » réellement d’un corpus donné, en distinguant de manière claire la généralisation utile de la mémorisation brute. Pour les professionnels du droit, ce cadre analytique ouvre la voie à des évaluations plus fines des risques juridiques associés à l’usage de ces technologies. Il permet notamment d’identifier les cas où un modèle est susceptible de reproduire des données sensibles ou protégées, et d’évaluer la gravité de ces cas selon la taille du modèle, son type d’entraînement, et la nature des données utilisées.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Discrimination au travail : alourdissement du fardeau de la preuve pour des plaignants non membres de minorités ?

On a souvent parlé d’un allègement du fardeau de la preuve de discrimination dans le cadre des rapports de travail. La Cour suprême des États-Unis, dans l’affaire Ames v. Ohio Department of Youth Services (23–1039) (https://www.supremecourt.gov/opinions/24pdf/23-1039_c0n2.pdf), s’est penché sur un alourdissement du fardeau de la preuve pour les plaignants qui ne sont pas membres de minorités.

Introduction

Marlean Ames, une femme hétérosexuelle employée depuis 2004 par le département de la jeunesse de l’Ohio, a occupé plusieurs fonctions, dont celle de « program administrator ». En 2019, elle postule à un poste de direction nouvellement créé. L’agence choisit de nommer à ce poste une femme lesbienne. Peu après, Ames est rétrogradée à un poste de secrétaire, ce qui implique une baisse de salaire substantielle. Un homme homosexuel est engagé pour reprendre son poste précédent.

Ames intente une action fondée sur le Titre VII du Civil Rights Act (https://www.eeoc.gov/statutes/title-vii-civil-rights-act-1964), alléguant avoir été victime de discrimination fondée sur son orientation sexuelle hétérosexuelle. Les juridictions inférieures (le tribunal de district et la cour d’appel du Sixième Circuit) ont rejeté sa plainte, estimant qu’elle n’avait pas satisfait à des exigences accrues en rapport avec le fardeau de la preuve (cf. McDonnell Douglas Corp. v. Green, 411 U. S. 792).

Procédure et raisonnement des juridictions inférieures

Les tribunaux ont appliqué le test dit de McDonnell Douglas, un cadre jurisprudentiel tripartite utilisé lorsqu’un plaignant ne dispose pas de preuve directe de discrimination :

i. Établir une présomption de discrimination (prima facie case).

ii. Si cette présomption est établie, l’employeur doit fournir un motif légitime et non discriminatoire.

iii. Le plaignant peut alors tenter de démontrer que ce motif est un prétexte à la discrimination.

Dans le cas d’Ames, les juridictions ont introduit une exigence additionnelle en vertu d’une règle spécifique à certains circuits : les plaignants appartenant à un « groupe majoritaire » (ici, les hétérosexuels) doivent démontrer des « circonstances de fond » (background circumstances) laissant supposer que l’employeur est un cas atypique qui discrimine à l’encontre de la majorité. Selon elles, Ames n’a pas satisfait à cette exigence.

Décision de la Cour suprême

Question juridique centrale

La question était de savoir si, dans le cadre du test McDonnell Douglas, les plaignants issus de groupes majoritaires doivent fournir des preuves supplémentaires de circonstances de fond, ce qui reviendrait à imposer une charge de preuve accrue par rapport aux membres de groupes minoritaires.

Tenue de la Cour

Dans un arrêt unanime rédigé par la juge Ketanji Brown Jackson, la Cour rejette cette exigence supplémentaire : le Titre VII protège tout individu, sans distinction selon son appartenance majoritaire ou minoritaire, contre toute discrimination fondée sur les caractéristiques protégées (race, sexe, religion, origine nationale).

Elle conclut notamment que la règle du Sixième Circuit imposant un standard probatoire plus élevé aux membres de groupes majoritaires :

i. n’a aucun fondement textuel dans le Titre VII,

ii.  et va à l’encontre de la jurisprudence constante de la Cour.

La Cour souligne que le texte du Titre VII vise des individus, et non des groupes, en interdisant la discrimination envers « any individual ». Il n’y a donc aucune base légale permettant d’exiger davantage de preuves de la part d’un plaignant hétérosexuel, blanc, ou de toute autre majorité statistique.

Position de l’Ohio et réponse de la Cour

L’État de l’Ohio a soutenu que cette exigence ne représentait pas une charge supplémentaire, mais une simple reformulation du critère d’inférence raisonnable de discrimination. La Cour rejette cette tentative de requalification, soulignant que la cour d’appel a explicitement appliqué une norme plus stricte à Ames en raison de son orientation sexuelle.

L’Ohio a également invité la Cour à confirmer le rejet de la plainte pour d’autres motifs. La Cour refuse de se prononcer sur ces arguments subsidiaires, les renvoyant à la cour d’appel dans le cadre d’un nouvel examen conforme à la norme correcte.

Opinion concordante (Thomas, J., rej. Gorsuch)

Le juge Clarence Thomas, rejoint par le juge Neil Gorsuch, critique plus largement la tendance des juridictions à créer des doctrines sans fondement textuel. Il vise particulièrement deux constructions jurisprudentielles :

La règle des « circonstances de fond » : jugée arbitraire, difficile à appliquer, et propice à des distinctions raciales ou sexuelles artificielles.

Conclusion

La Cour suprême a annulé la décision de la cour d’appel et renvoyé l’affaire pour réexamen selon le cadre légal applicable à tous les plaignants, sans discrimination fondée sur leur appartenance à un groupe majoritaire. Cette décision consacre un principe central du droit anti-discrimination américain : le Titre VII protège tous les individus sur un pied d’égalité, sans distinction fondée sur la démographie ou l’histoire sociale.

Me Philippe Ehrenström, avocat LLM

Publié dans Droit US, Procédure | Tagué , , , , | Laisser un commentaire

Intelligence artificielle : agency, pas intelligence – l’altérité ontologique de l’IA

L’intelligence artificielle est-elle une intelligence?

L’article du professeur Luciano Floridi, Artificial Intelligence as a New Form of Agency (Not Intelligence), du 10 avril 2025 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5135645), entend reconfigurer la manière dont nous concevons l’intelligence artificielle (IA). Plutôt que de poursuivre l’idée que l’IA est une forme d’intelligence, l’auteur soutient qu’elle doit être comprise comme une forme radicalement nouvelle d’agentivité — ou d’agency —, fondée non sur la cognition mais sur des capacités opérationnelles, interactionnelles et adaptatives, manifestées notamment dans des systèmes automatisés de plus en plus présents dans les structures sociales et économiques.

Dans un premier temps, Floridi expose la nature du choix conceptuel auquel nous sommes confrontés. Soit nous élargissons notre conception de l’intelligence pour y intégrer les formes artificielles, ce qu’il appelle la thèse de la réalisabilité artificielle de l’intelligence (ARI), soit nous élargissons notre compréhension de l’agency afin d’inclure des formes non humaines, artificielles, sans conscience ni intentionnalité, ce qu’il nomme la thèse de la réalisabilité multiple de l’agency (MRA). Selon Floridi, cette seconde option est préférable, car elle évite les pièges de l’anthropomorphisme et du biais biologique. L’IA, affirme-t-il, ne doit pas être interprétée comme une tentative d’imitation ou de réplique de l’intelligence humaine, mais comme l’émergence d’un type d’agent radicalement nouveau, dont les propriétés doivent être analysées à travers une taxonomie spécifique.

Pour structurer cette analyse, Floridi mobilise la méthode des niveaux d’abstraction (LoA), issue de l’informatique théorique. Cette approche permet de modéliser un système en fonction des observables pertinents à un niveau d’analyse donné, sans s’attacher à sa réalité métaphysique. Ainsi, un même système, comme un thermostat, peut être analysé en tant que dispositif électrique, système de rétroaction, ou élément d’un réseau domotique, selon le niveau retenu. Cette méthode rend possible la comparaison rigoureuse de différentes formes d’agency — naturelles, biologiques, sociales ou artificielles — en s’appuyant sur des critères communs, définis au niveau fonctionnel pertinent.

Le débat philosophique contemporain autour de l’agency est ensuite présenté. D’un côté, la conception standard, héritée de la tradition humaniste, considère que seul un être doté d’états mentaux — désirs, croyances, intentions — peut être qualifié d’agent. De l’autre, la conception non-standard, que Floridi défend, propose de penser l’agency en termes interactionnels et systémiques : un agent est un système capable d’interagir avec son environnement, d’initier des changements et de s’adapter. Cette vision non anthropocentrée permet d’inclure les systèmes artificiels dans une taxonomie élargie de l’agency, sans leur prêter des propriétés cognitives qu’ils ne possèdent pas.

Sur cette base, Floridi identifie trois critères fondamentaux qui permettent d’attribuer une forme d’agency à un système. Le premier est l’interactivité, c’est-à-dire la capacité à interagir de manière bidirectionnelle avec un environnement. Le second est l’autonomie, qui renvoie à l’aptitude à produire des changements d’état sans stimulation directe et immédiate. Le troisième est l’adaptabilité, qui se manifeste dans la modification du comportement sur la base de l’expérience, des données ou des conditions extérieures. Ces trois critères, bien que contextualisés selon le niveau d’abstraction retenu, constituent la base d’une analyse comparative rigoureuse.

Sur cette base, Floridi entreprend une analyse détaillée des différentes formes d’agency existantes. Il commence par l’agency naturelle, caractéristique des systèmes non vivants comme les rivières ou les systèmes météorologiques, qui peuvent modifier leur environnement sans intention ni finalité. Il poursuit avec l’agency biologique individuelle, typique des organismes vivants, capables d’autonomie et d’adaptation pour assurer leur survie. Il examine ensuite l’agency sociale animale, fondée sur des comportements collectifs coordonnés mais non formalisés, comme dans le cas des colonies de fourmis. L’agency artefactuelle, ensuite, désigne les systèmes techniques conçus par l’humain pour accomplir des fonctions spécifiques, comme les thermostats intelligents. Floridi décrit ensuite l’agency humaine individuelle, la plus sophistiquée, qui inclut conscience, réflexivité, moralité et capacité à planifier. Enfin, il présente l’agency sociale humaine, réalisée à travers les institutions, les entreprises et les structures collectives, dotées d’une mémoire organisationnelle, de règles formelles et de mécanismes de coordination.

Ayant établi cette cartographie, Floridi est en mesure de situer l’IA dans cette taxonomie. L’IA ne reproduit ni l’intelligence humaine ni l’intentionnalité animale, mais incarne une forme nouvelle d’agency : l’agency artificielle. Elle repose sur des objectifs programmés, des capacités d’apprentissage statistique, une interactivité numérique et une autonomie limitée par les paramètres de conception. L’IA ne comprend pas, ne désire pas, ne ressent pas, mais elle agit dans son environnement de manière cohérente avec les finalités définies par ses concepteurs. Elle apprend à reconnaître des régularités, à ajuster ses réponses, à optimiser ses performances, tout en demeurant enfermée dans une agency purement syntaxique. Un exemple paradigmatique de cette forme d’agency est fourni par les grands modèles de langage, comme GPT, capables de produire des réponses adaptatives à partir de corpus massifs, sans compréhension sémantique véritable.

L’évolution la plus récente analysée par Floridi est celle de l’agency artificielle sociale, qu’il nomme Agentic AI. Il s’agit de réseaux d’agents artificiels interconnectés, capables de coordination, de partage d’informations, d’ajustement dynamique et d’opérations distribuées. Contrairement aux systèmes multi-agents classiques, l’Agentic AI intègre des capacités de raisonnement à l’échelle du système, reposant sur des modèles linguistiques avancés, des moteurs de planification et des modules de perception. Ces systèmes opèrent à différentes échelles temporelles, réagissent en temps réel, optimisent collectivement des stratégies et manifestent des comportements émergents qui ne sont pas nécessairement anticipés par leurs concepteurs. Ils posent de redoutables défis en termes de gouvernance, de sécurité, de responsabilité et de transparence, notamment lorsqu’ils prennent part à des processus décisionnels sensibles ou critiques.

En conclusion, Floridi affirme que l’IA doit être reconceptualisée non pas comme une intelligence, mais comme une forme distincte d’agency. Cette approche offre une compréhension plus précise des propriétés de ces systèmes, et permet de concevoir des cadres de régulation mieux adaptés. Il ne s’agit pas de calquer des normes humaines sur des artefacts techniques, mais de reconnaître l’altérité ontologique de ces agents et de leur offrir un encadrement juridique cohérent avec leur nature. Cela suppose de développer des architectures sensibles à l’agency des IA, d’inventer des régimes hybrides d’action et de responsabilité partagées entre humains et systèmes, et d’articuler les règles du droit avec les logiques opérationnelles propres à ces agents non biologiques. Floridi insiste sur le fait que l’avenir de l’IA ne réside pas dans l’imitation de l’humain, mais dans l’optimisation de ses propriétés propres, sous condition d’un alignement strict avec les valeurs humaines et les finalités collectives.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle | Tagué , , | Laisser un commentaire

Les usages de l’intelligence artificielle dans le monde juridique

L’article de S.KAPOOR/P.HENDERSON/A.NARAYANAN, Promises and Pitfalls of Artificial Intelligence for Legal Applications, arXiv :2402.01656v1 [cs.CY], janvier 2024 (https://arxiv.org/abs/2402.01656), aborde les usages actuels et les perspectives de l’intelligence artificielle dans le monde juridique, en soulignant que l’enthousiasme autour de l’IA risque souvent de dépasser ses capacités réelles. Le cœur de l’analyse repose sur trois catégories d’activités juridiques dans lesquelles l’IA est utilisée : le traitement de l’information, les tâches impliquant raisonnement ou jugement, et les prédictions sur l’avenir. Chaque domaine présente des niveaux de difficulté très variables en matière d’évaluation, ce qui conduit à des attentes souvent disproportionnées vis-à-vis de la technologie.

I. Le traitement de l’information : un domaine où l’IA progresse réellement

Les tâches telles que le résumé de décisions de justice, la recherche documentaire, ou encore la traduction automatique sont des exemples typiques de traitement d’information. Ces applications sont relativement faciles à évaluer, car elles comportent des réponses correctes définies et les données nécessaires sont observables et accessibles.

Les outils d’IA, notamment les modèles de langage comme GPT-4, représentent une amélioration incrémentale plutôt qu’une révolution. Ils permettent d’effectuer ces tâches avec davantage de flexibilité, notamment pour les usagers non juristes, mais n’éclipsent pas les outils existants spécialisés dans le traitement automatique du langage juridique. L’enjeu majeur ici est l’apparition de « hallucinations » : l’IA peut produire des réponses fausses, mais convaincantes. Cela limite leur fiabilité dans des contextes critiques, comme les demandes d’asile ou les décisions fondées sur une traduction.

II. Raisonnement, créativité et jugement : des promesses trompeuses

Beaucoup d’annonces récentes vantent les capacités de l’IA à passer des examens comme le barreau américain, insinuant qu’elle pourrait bientôt remplacer les avocats. L’article conteste cette extrapolation.

D’une part, la performance aux examens ne reflète pas les tâches quotidiennes des juristes. Ces tests mesurent surtout la capacité de mémorisation et la reconnaissance de modèles préexistants, deux domaines dans lesquels les IA excellent… mais cela ne prouve pas leur aptitude au raisonnement juridique contextuel. De plus, les résultats obtenus peuvent être biaisés par la « contamination des données » : il se peut que l’IA ait déjà vu ou appris les questions du test dans ses données d’entraînement.

Les modèles sont aussi extrêmement sensibles aux formulations des questions (« prompt sensitivity »), ce qui rend leur comportement instable en pratique. Par ailleurs, très peu d’études portent sur l’usage réel des IA par les professionnels du droit. Il manque donc des évaluations en conditions réelles pour comprendre leur utilité effective.

L’article recommande de développer des évaluations construites avec des juristes, y compris qualitatives, et de mieux documenter les interactions réelles avec ces outils.

III. Prédictions juridiques : une zone à haut risque

La dernière catégorie concerne l’utilisation de l’IA pour prédire les décisions judiciaires ou le comportement humain (ex. : risque de récidive). Ces applications ont suscité de nombreux travaux académiques, mais une analyse rigoureuse révèle que la majorité de ces études ne prédisent pas vraiment les décisions futures : elles identifient des résultats déjà inclus dans les données (par exemple, en analysant le texte d’un jugement qui contient déjà le verdict).

Les rares travaux qui évitent ces erreurs obtiennent des résultats beaucoup plus modestes. En réalité, prévoir une décision judiciaire requiert une compréhension du contexte, des stratégies procédurales et des interprétations jurisprudentielles — autant de facteurs que l’IA peine à intégrer.

Plus grave encore, l’usage de modèles prédictifs en justice pénale (comme COMPAS) a révélé des biais massifs, notamment contre les minorités. La précision globale de ces outils est souvent faible (environ 65 %) et parfois inférieure à des jugements humains non spécialisés. Le problème s’aggrave lorsque ces modèles sont déployés sur des populations différentes de celles utilisées pour l’entraînement, un phénomène appelé « distribution shift ».

Ces systèmes manquent souvent de transparence (les algorithmes sont protégés par des secrets industriels), de contrôlabilité (difficile de les contester juridiquement), et sont vendus comme outils d’aide, tout en étant utilisés de manière automatisée sans véritable supervision.

Recommandations finales

Les auteurs insistent sur la nécessité d’évaluations socio-techniques rigoureuses, ancrées dans les pratiques réelles. Il faut cesser d’extrapoler à partir de benchmarks mal construits et plutôt fonder les jugements sur l’observabilité des données, la clarté des objectifs et l’implication des professionnels du droit. Des applications d’IA peuvent être utiles si elles sont limitées à des contextes bien définis, comme la détection d’erreurs dans des formulaires juridiques, avec supervision humaine et possibilité de recours.

Conclusion

L’IA peut avoir des apports significatifs dans le domaine du droit, notamment pour les tâches techniques de traitement de l’information. En revanche, ses capacités pour remplacer le raisonnement humain, produire des jugements ou faire des prédictions fiables sont loin d’être prouvées, et comportent des risques importants si elles sont mal encadrées. Pour les praticiens suisses, cela signifie qu’il convient d’exploiter prudemment ces outils, en exigeant transparence, évaluation rigoureuse et contrôle humain à toutes les étapes.

L’article est certes… un peu ancien (début 2024 !), mais je ne suis pas certain que les améliorations théoriques des modèles disponibles et des applications proposées aient radicalement transformé ce message de prudence…

Me Philippe Ehrenström, avocat, LLM, CAS

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Recrutement, intelligence artificielle (IA) et discrimination (class action)

Introduction

Une décision récente d’une Cour californienne ouvre la voie à une Class action contre Workday Inc, en raison de l’utilisation d’une intelligence artificielle de recrutement dont il est soutenu qu’elle serait discriminatoire en raison de l’âge.

Vous trouverez ci-après quelques notions générales sur la Class Action en droit US pour les juristes continentaux, avant un résumé de la décision :

La Class Action en droit US

La class action est un mécanisme procédural du droit américain qui permet à un ou plusieurs demandeurs d’intenter une action en justice au nom d’un groupe plus large de personnes, appelé la « classe » (class). Concrètement, elle permet à un tribunal de gérer des litiges qui seraient autrement ingérables si chaque membre du groupe devait comparaître individuellement. Ainsi, les membres d’une classe, c’est-à-dire les personnes qui ont subi un préjudice similaire de la part du défendeur, peuvent être représentés collectivement dans une même procédure. Cette action collective, une fois jugée ou réglée, lie en principe tous les membres du groupe, y compris ceux qui n’en ont pas été informés ou notifiés, sauf exceptions prévues. Ce pouvoir particulier impose au tribunal de veiller attentivement à ce que la procédure soit équitable pour tous les membres du groupe. Le mécanisme peut être mis en œuvre devant les juridictions fédérales en vertu de la règle 23 des Federal Rules of Civil Procedure (FRCP ; https://www.law.cornell.edu/rules/frcp/rule_23), ou devant les juridictions des différents Etats selon la base de de la demande.

Les class actions revêtent une importance particulière en droit américain, car elles permettent de rendre des décisions ou de conclure des règlements applicables à un grand nombre de personnes, sans qu’une participation individuelle soit nécessaire dans chaque cas. Ce caractère contraignant, même sans notification individuelle, est contraire aux règles habituelles du due process et exige donc des garanties procédurales strictes. Si leur principal avantage est de traiter des litiges impliquant un grand nombre de demandeurs, leur utilité dépasse cette seule fonction. Elles permettent également d’éviter que le défendeur soit confronté à des obligations contradictoires, de protéger les intérêts des membres absents, de proposer une gestion économique des litiges similaires et de répartir les coûts de la procédure entre les membres d’une même classe. Les juridictions américaines, notamment dans les affaires United States Parole Comm’n v. Geraghty et General Telephone Co. v. Falcon, ont souligné ces fonctions essentielles du dispositif.

Sur le plan procédural, la règle 23 du droit fédéral énonce les conditions à remplir pour qu’une action soit qualifiée de class action. Le juge doit d’abord constater que le nombre de membres rend leur jonction dans une même procédure pratiquement impossible. Il faut aussi que leurs prétentions soulèvent des questions de droit ou de fait communes, que les demandes ou défenses du ou des représentants soient typiques de celles du groupe, et que ces représentants puissent défendre adéquatement les intérêts collectifs. À ces quatre conditions générales (appelées numérosité, communauté, typicalité et adéquation), s’ajoute l’exigence de satisfaire à au moins une des conditions spécifiques de la règle 23(b). Ces dernières prévoient que l’affaire peut être jugée en class action si des actions individuelles comporteraient un risque de jugements incompatibles, si le défendeur a agi d’une manière générale envers le groupe entier, ou si les questions communes prédominent et que la class action constitue le moyen le plus adéquat pour résoudre le litige.

Les actions intentées en vertu de la règle 23(b)(3) sont soumises à des exigences particulières. Tous les membres identifiables doivent être notifiés de la procédure, comme l’a décidé la Cour suprême dans l’affaire Eisen v. Carlisle & Jacquelin. Chaque membre dispose du droit de se retirer de la procédure, ce qui lui permet de poursuivre sa propre action. Ceux qui restent peuvent également être représentés par un avocat personnel.

Sur le plan historique, les actions représentatives existent depuis les débuts du droit anglais. Toutefois, la class action moderne est une création plus récente, apparue dans les juridictions d’equity comme exception à la règle générale selon laquelle les parties doivent plaider en leur propre nom. Cette exception, connue sous le nom de « necessary parties rule », exigeait initialement que toutes les personnes ayant un intérêt substantiel au litige soient parties à l’action. Le juge Story, dans l’affaire West v. Randall, justifiait cette exigence par le souci d’éviter une multitude de procès, de garantir des décisions complètes et d’éviter les injustices résultant d’une vision partielle des faits.

Face aux difficultés qu’impliquait cette règle dans les affaires impliquant un grand nombre de parties, les juridictions d’equity ont développé des exceptions. Elles permettaient, notamment, à quelques personnes de représenter un groupe entier dans les cas où la question était d’intérêt général ou lorsque les membres du groupe formaient une association poursuivant des objectifs communs. Comme l’a souligné la Cour suprême dans Ortiz v. Fibreboard Corp., la common law était mal équipée pour traiter les préjudices subis par un grand nombre de personnes dispersées géographiquement. Les actions collectives ont donc évolué comme une réponse structurelle à cette lacune.

Aux États-Unis, cette évolution a commencé en 1842, lorsque la Cour suprême a adopté l’Equity Rule 48, qui reconnaissait officiellement les actions représentatives lorsque les parties étaient trop nombreuses pour être citées individuellement. Toutefois, cette règle n’avait pas d’effet contraignant pour les parties absentes. Il a fallu attendre 1853, avec l’arrêt Smith v. Swormstedt, pour que les droits et obligations des parties absentes soient représentés et que la décision les lie. En 1912, l’Equity Rule 48 est devenue la Rule 38, qui maintenait le caractère représentatif de l’action mais étendait sa portée aux parties absentes.

C’est finalement en 1938, avec l’adoption des Federal Rules of Civil Procedure, que la class action a pris sa forme moderne, par le biais de la règle 23. Néanmoins, ce n’est qu’avec la révision de 1966 que le mécanisme s’est structuré tel qu’on le connaît aujourd’hui. Cette révision a conféré à la class action une fonction centrale dans la gestion collective des litiges en droit américain.

Ainsi, bien qu’elle tire son origine du droit d’equity, la class action est aujourd’hui un instrument de procédure codifié et indispensable à l’efficacité du système judiciaire américain. Elle permet à un petit nombre de plaignants de représenter et de lier juridiquement un groupe entier par une seule action judiciaire, tout en nécessitant des garanties procédurales strictes pour préserver les droits des membres absents.

(Source et liens vers les jurisprudences citées : https://www.law.cornell.edu/wex/class_action)

Mobley v. Workday – Order granting preliminary collective certification

Dans son « Order granting preliminary collective certification » du 16 mai 2025, la juge Rita F. Lin (U.S. District Court, Northern District of California), dans l’affaire Mobley v. Workday, Inc. (Cae No 23-cv-00770-RFL), ouvre la porte à une action collective contre Workday Inc. en raison des pratiques discriminatoires en raison de l’âge alléguées par les demandeurs.

Dans cette affaire, Derek Mobley et plusieurs autres demandeurs âgés de plus de quarante ans ont engagé une procédure collective contre la société Workday, Inc., spécialisée dans les logiciels de gestion des ressources humaines. Ils reprochent à Workday d’avoir conçu et commercialisé un système algorithmique de présélection des candidatures qui discrimine indirectement, mais systématiquement, les candidats plus âgés. Ces demandeurs affirment avoir soumis des centaines de candidatures via la plateforme de Workday sans jamais obtenir un seul entretien. Selon eux, les algorithmes intégrés dans les outils de Workday jouent un rôle déterminant dans les décisions d’embauche, et produisent un effet discriminatoire lié à l’âge. La présente décision du tribunal porte exclusivement sur la demande de certification préliminaire d’une class action au titre de l’Age Discrimination in Employment Act (ADEA ; https://www.eeoc.gov/statutes/age-discrimination-employment-act-1967) permettant ainsi l’envoi d’une notification aux personnes potentiellement concernées pour qu’elles puissent, si elles le souhaitent, se joindre à l’action (opt-in).

La question centrale était de déterminer si les membres potentiels de la collectivité proposée étaient suffisamment similaires à Mobley pour justifier la certification. Aux États-Unis, les actions collectives fondées sur l’ADEA sont régies par les règles procédurales de la Fair Labor Standards Act (FLSA), qui impose que les demandeurs soient « similarly situated », c’est-à-dire dans une situation comparable sur les éléments matériels du litige. La jurisprudence a établi un cadre en deux étapes. Lors de la première phase, une certification préliminaire peut être accordée sur la base d’allégations substantielles étayées par des déclarations ou des éléments de preuve limités. Cette première certification autorise uniquement la diffusion d’une notification aux personnes concernées. La seconde phase intervient après le « discovery », pendant laquelle le défendeur peut alors demander la « décertification ».

Workday avait demandé au tribunal d’imposer un standard probatoire plus exigeant que celui prévu à cette première phase, au motif que certaines informations avaient déjà été échangées entre les parties. La juge Lin rejette catégoriquement cette proposition, rappelant qu’un tel glissement du standard créerait une insécurité juridique, favoriserait des stratégies dilatoires et irait à l’encontre des principes dégagés par la jurisprudence. Elle réaffirme que le standard applicable est celui des « substantial allegations », c’est-à-dire un niveau de vraisemblance suffisamment élevé pour justifier une notification, mais sans exiger la preuve définitive de la similarité.

Sur le fond, Mobley a présenté des allégations précises concernant deux outils de présélection intégrés dans la suite logicielle de Workday. Le premier, le module « Candidate Skills Match » (CSM), analyse les compétences extraites des offres d’emploi et des CV pour évaluer leur degré de correspondance. Les résultats sont classés sur une échelle allant de « strong » à « unable to score ». Le second, le « Workday Assessment Connector » (WAC), repose sur l’apprentissage machine et aurait pour effet de désavantager, de manière indirecte, les candidats appartenant à des catégories protégées en apprenant des préférences implicites des employeurs. Selon Mobley, ces outils déterminent en pratique quelles candidatures méritent d’être transmises aux recruteurs, créant ainsi un effet de tri opaque et potentiellement discriminatoire. Workday, de son côté, soutient que ces outils n’émettent pas de « recommandations » au sens juridique, mais se contentent d’offrir des données que les clients peuvent choisir d’ignorer.

La juge rejette l’argument de Workday selon lequel l’absence de rejet automatique ou de recommandation explicite impliquerait l’inexistence d’un système de présélection. Elle rappelle que, selon les propres documents marketing de Workday, l’entreprise revendique le recours à des « job recommendations » fondées sur l’IA. De plus, la manière dont les scores sont produits et transmis influe nécessairement sur la probabilité qu’un candidat soit retenu. Elle estime donc que le cœur du litige – à savoir l’effet potentiellement discriminatoire de l’outil – est commun à tous les membres de la collectivité proposée.

Workday conteste également l’existence d’une politique uniforme applicable à tous les candidats. Selon elle, les entreprises clientes peuvent activer ou désactiver librement les modules IA, ce qui exclurait l’unicité du traitement. La juge rejette là aussi l’argument, précisant que le groupe proposé par Mobley est délibérément limité aux candidats ayant effectivement été soumis aux outils de présélection IA activés. Elle souligne que la variation des effets entre employeurs ou entre outils n’exclut pas l’existence d’une politique centrale identifiable, notamment lorsque la logique algorithmique est commune. Elle rappelle que l’existence d’un impact disparate dû à une politique globale est une question de preuve commune justifiant l’action collective.

Quant aux différences entre candidats – en termes de qualifications, de volume de candidatures ou de taux de rejet –, la Cour estime qu’elles n’empêchent pas la certification préliminaire. Elle rappelle que les membres du groupe n’ont pas à être identiques, mais doivent simplement partager un lien factuel ou juridique pertinent pour la résolution du litige. À ce stade, Mobley a démontré que la présélection IA constitue un facteur commun à tous les candidats concernés, et que l’effet allégué de cette présélection – un désavantage basé sur l’âge – est susceptible d’être démontré par une preuve statistique collective.

Workday soutenait encore que les candidats non qualifiés ou ceux qui auraient reçu un entretien ne devraient pas faire partie du groupe. La juge réfute cette approche, soulignant qu’en matière de discrimination fondée sur un impact disparate, la question centrale n’est pas de savoir si un individu aurait obtenu le poste, mais s’il a été privé de la possibilité de concourir à égalité. À ce titre, la jurisprudence reconnaît que l’atteinte réside dans l’inégalité d’accès et non dans l’issue finale du processus. L’inclusion dans le groupe n’exige donc pas de démontrer que chaque membre aurait été recruté en l’absence de discrimination.

La question de la faisabilité de la notification est également abordée. Workday invoque des difficultés techniques et contractuelles pour identifier les candidats concernés, notamment en raison de clauses de confidentialité avec ses clients. Toutefois, la Cour relève que ces contrats contiennent des clauses d’exception en cas d’ordonnance judiciaire, et que Workday dispose en pratique de la capacité de savoir quels outils ont été activés, quels scores ont été attribués et quels candidats peuvent être identifiés via des proxys d’âge (comme les dates de diplôme). La taille potentielle du groupe – évoquant des centaines de millions de candidatures – ne constitue pas un obstacle. La juge insiste sur le fait que la notification est un droit des personnes concernées, même en cas de discrimination de grande ampleur, et que le contenu de la notification doit faire l’objet d’un encadrement judiciaire approprié pour garantir sa neutralité.

En conclusion, la juge Lin accorde la certification préliminaire du groupe défini comme suit : toutes les personnes âgées de 40 ans ou plus qui, depuis le 24 septembre 2020, ont postulé à des emplois via la plateforme de Workday et ont été privées d’une recommandation d’embauche. Elle précise que cela inclut les cas où l’algorithme a produit un score ou une recommandation négative, que cette information ait été transmise à l’employeur ou ait conduit à un rejet automatique. Elle invite les parties à se réunir pour élaborer un plan de notification, régler les questions techniques liées à l’accès aux données et définir les modalités de diffusion de l’avis.

Ainsi, par cette décision, la Cour fédérale autorise l’ouverture d’une action collective d’envergure nationale, centrée sur l’utilisation d’outils d’intelligence artificielle dans le recrutement, et leur potentiel effet discriminatoire à l’encontre des candidats plus âgés. Cette affaire constitue un jalon majeur dans l’application des droits fonsamentaux aux technologies de sélection algorithmique et soulève des enjeux fondamentaux quant à la transparence, l’équité et la responsabilité dans les processus automatisés d’embauche.

(Source : https://s3.documentcloud.org/documents/25947837/us-dis-cand-3-23cv770-d227363983e4833-order-by-judge-rita-f-lin-granting-106-preliminary.pdf)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans Droit US, intelligence artificielle, Procédure | Tagué , , , , , , , | Laisser un commentaire

L’influence de l’intelligence artificielle sur le marché du travail : le secteur de la traduction

L’essor de l’intelligence artificielle (IA), et plus particulièrement de la traduction automatique, suscite des préoccupations croissantes quant à ses effets sur l’emploi. Jusqu’à présent, les recherches portaient surtout sur l’impact des robots industriels ou sur l’exposition potentielle des métiers à l’IA, sans toujours mesurer ses effets réels sur le marché du travail. L’étude que nous résumons ici (Carl Benedikt Frey, Pedro Llanos-Paredes, Lost in Translation: Artificial Intelligence and the Demand for Foreign Language Skills, March 7, 2025 – https://www.oxfordmartin.ox.ac.uk/publications/lost-in-translation-artificial-intelligence-and-the-demand-for-foreign-language-skills) s’attache à mesurer de manière précise les conséquences concrètes de la diffusion d’un outil emblématique de cette technologie : Google Translate. Elle se concentre sur les États-Unis entre 2010 et 2023, période qui couvre la généralisation de l’outil via son intégration dans les smartphones et navigateurs internet.

L’analyse porte sur deux effets distincts : d’une part, la diminution de l’emploi et des salaires dans le secteur de la traduction professionnelle ; d’autre part, le recul plus large de la demande de compétences linguistiques dans l’économie. Ces deux dynamiques sont observées au travers de l’évolution de 695 marchés du travail locaux aux États-Unis. Pour mesurer ces effets, les auteurs s’appuient sur une méthodologie économétrique robuste, combinant données de recherche Google, statistiques de l’emploi et des salaires, ainsi qu’un vaste corpus d’offres d’emploi détaillées.

La traduction reste un métier peu réglementé aux États-Unis. Si certaines agences proposent des certifications, il n’existe pas de cadre légal strict, et une part significative des traducteurs travaille à son compte. Néanmoins, cette activité représente un secteur non négligeable, avec plus de 68 000 professionnels recensés en 2022, répartis dans le privé, le secteur public, la santé, l’éducation ou encore la justice. Malgré la diffusion de la traduction automatique, l’industrie a affiché une croissance modeste ces dernières années, mais cette apparente stabilité masque des mutations profondes.

Historiquement, les systèmes de traduction automatique ont évolué de modèles à base de règles vers des approches statistiques, puis neuronales. Google Translate, initialement lancé en 2006, a pris son essor en 2010 sous forme d’application mobile, atteignant plus d’un milliard d’utilisateurs. Le basculement vers la traduction neuronale en 2016 a considérablement amélioré sa fluidité et sa fiabilité, rendant ses résultats parfois difficiles à distinguer de la traduction humaine. Cette évolution technologique a profondément transformé les usages, tant professionnels que quotidiens.

Les résultats de l’étude sont sans ambiguïté. La diffusion de Google Translate est corrélée à une baisse significative de l’emploi des traducteurs salariés. En moyenne, une augmentation de l’usage de l’outil de 1 % dans une région donnée correspond à une baisse de 0,71 point de pourcentage de la croissance de l’emploi dans le secteur. Sur la période considérée, cela se traduit par quelque 28 000 postes de traducteurs qui n’ont pas été créés. Cette contraction est d’autant plus notable que l’emploi global a crû de 13 % sur la même période, tandis que celui des traducteurs n’a augmenté que de 3 %. En revanche, les salaires, après un fléchissement initial, ont retrouvé leur niveau antérieur à partir de 2016. Ce rebond peut s’expliquer par une montée en gamme des missions confiées aux traducteurs humains, centrées sur des tâches plus complexes que la machine ne peut pas encore exécuter.

Au-delà des traducteurs eux-mêmes, la traduction automatique affecte également l’ensemble de la demande de compétences linguistiques. L’analyse des offres d’emploi montre une baisse généralisée des postes exigeant la maîtrise d’une langue étrangère, notamment pour les langues les plus demandées aux États-Unis : l’espagnol, le chinois, l’allemand, le japonais et le français. C’est l’espagnol qui est le plus touché, avec une baisse de 1,37 point de pourcentage de la croissance des offres d’emploi mentionnant cette compétence. Le recul est également marqué pour le chinois et l’allemand, bien que moindre pour le japonais et le français.

Les auteurs soulignent que cette diminution s’observe dans l’ensemble des grands secteurs d’activité, avec une incidence particulièrement forte dans la santé, l’agriculture et l’industrie. À l’inverse, les domaines les plus techniques – comme l’ingénierie, l’IT ou les sciences – semblent relativement moins affectés, notamment en ce qui concerne les langues rares ou stratégiques, comme le japonais. Cela peut s’expliquer par la persistance de besoins de communication fine dans des contextes technologiques ou scientifiques complexes.

L’étude s’attarde également sur les effets différés de l’évolution technologique. Ainsi, la baisse de la demande de traducteurs et de compétences linguistiques n’est devenue statistiquement significative qu’à partir de 2016, coïncidant avec la transition vers les modèles neuronaux, nettement plus performants. Elle s’est ensuite intensifiée à partir de 2020, dans le sillage de la pandémie, qui a fortement accéléré la numérisation du travail, y compris dans les échanges multilingues.

Pour s’assurer que les tendances observées ne s’expliquent pas par d’autres facteurs (comme l’évolution du commerce international ou de la population allophone), les auteurs intègrent de nombreux contrôles dans leurs modèles : évolution démographique, flux commerciaux, présence de locuteurs natifs, etc. Ils utilisent également une variable instrumentale fondée sur les recherches de Google Drive pour isoler l’effet de marque de Google et distinguer l’impact propre de Google Translate. Les résultats restent solides, y compris lorsqu’ils sont testés sur des professions comparables (rédacteurs, correcteurs, maquettistes), qui ne sont pas affectées par la traduction automatique.

Au regard du droit du travail et de la politique de l’emploi, ces résultats sont significatifs. Ils montrent pour la première fois un effet direct et quantifié de l’IA sur une profession intellectuelle spécifique, avec une substitution technologique documentée et mesurée. Ils révèlent aussi que des compétences naguère considérées comme stratégiques – comme la maîtrise des langues étrangères – peuvent voir leur valeur économique diminuer rapidement à mesure que la technologie progresse. Cela remet en question certains fondements de l’orientation scolaire, des stratégies de formation, et de l’investissement en capital humain.

Même si les effets restent encore modérés en volume, ils sont appelés à croître avec l’amélioration de la traduction vocale en temps réel. Des démonstrations récentes, notamment par OpenAI, suggèrent que les interprètes pourraient également être affectés à moyen terme, un domaine jusqu’ici plus protégé que la traduction écrite.

En conclusion, cette étude offre une contribution intéressante aux débats sur les effets de l’IA sur l’emploi. Elle appelle à une vigilance accrue quant à l’impact des technologies sur les compétences non manuelles et sur les trajectoires professionnelles. Les implications pour le monde du travail sont considérables : non seulement en matière de protection de l’emploi, mais aussi de revalorisation, reconversion et anticipation des métiers à risque de substitution.

(Autres recherches sur les effets de l’IA sur le marché de l’emploi sur ce site : https://droitdutravailensuisse.com/2025/05/18/les-effets-de-lintelligence-artificielle-generative-sur-le-marche-de-lemploi/; https://droitdutravailensuisse.com/2025/05/06/les-effets-de-lia-generative-sur-le-marche-du-travail-tempete-ou-verre-deau/)

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Noter son dentiste sur une plateforme internet

L’arrêt rendu le 22 mai 2025 par la Cour d’appel de Chambéry (RG no22/01814) traite de la publication d’une fiche Google My Business (GMB) relative à une professionnelle de santé. Cette affaire oppose Mme [C], chirurgienne-dentiste, aux sociétés Google France, Google LLC (États-Unis) et Google Ireland Limited (Irlande), qu’elle a assignées en raison de la création d’une fiche professionnelle affichant notamment des avis négatifs, sans son consentement.

À l’origine, Mme [C] découvre en 2017 l’existence d’une fiche GMB la concernant, contenant des informations personnelles et professionnelles (nom, adresse du cabinet, etc.), ainsi qu’un système de notation accessible au public. S’estimant lésée, elle demande à Google la suppression de cette fiche et des avis associés. Google refuse, invoquant des moyens techniques permettant à l’intéressée de gérer elle-même sa fiche. Un contentieux s’ensuit, au cours duquel Mme [C] obtient en référé en 2019 une ordonnance obligeant Google à révéler l’identité de plusieurs auteurs d’avis négatifs. Certaines critiques sont alors retirées.

Devant l’impossibilité d’obtenir la suppression complète de la fiche, Mme [C] assigne Google, demandant notamment la suppression de la fiche, l’arrêt du traitement de ses données personnelles et la réparation de son préjudice.

Le Tribunal judiciaire de Chambéry, dans une décision de septembre 2022, donne largement raison à Mme [C]. Il constate notamment que les sociétés Google n’ont pas respecté plusieurs principes fondamentaux du Règlement général sur la protection des données (licéité, loyauté, transparence), que Mme [C] n’a jamais consenti au traitement de ses données, et que les sociétés ne justifient pas d’un intérêt légitime. Il ordonne donc la suppression de la fiche sous astreinte, rejette les arguments d’exception de Google France, et condamne solidairement les trois entités à des dommages et intérêts.

Les sociétés interjettent appel. La Cour d’appel confirme en grande partie les constatations du tribunal de première instance, tout en apportant certaines nuances.

Sur la recevabilité des demandes contre Google France, la Cour infirme le jugement et considère que cette société, agissant uniquement comme prestataire de Google Ireland, n’exploite pas le moteur de recherche Google ni la fiche GMB. Elle est donc mise hors de cause.

Concernant la qualification des données, la Cour rappelle que, bien que liées à une activité professionnelle, les informations publiées permettent l’identification d’une personne physique, en l’occurrence Mme [C], et relèvent donc bien du champ d’application du RGPD. Le traitement de ces données, automatisé et non consenti, est qualifié d’illicite.

La Cour insiste sur le défaut d’information préalable de Mme [C], laquelle n’a pas été avisée de la création de la fiche GMB ni de ses droits. Cela empêche notamment l’exercice de son droit d’opposition, ce qui constitue une faute engageant la responsabilité de Google.

S’agissant de l’intérêt légitime, la Cour rejette l’argument des sociétés Google selon lequel la publication des avis viserait uniquement à informer les consommateurs. Elle souligne que la finalité est également commerciale : la fiche incite la professionnelle à adhérer aux services Google (notamment la création d’un compte Google pour pouvoir répondre aux avis ou gérer la fiche). Cette adhésion implique la communication de nouvelles données personnelles et l’exposition à des sollicitations commerciales. Par ailleurs, la possibilité de publier des avis de manière anonyme, sans vérification de la qualité de patient des auteurs, déséquilibre fortement la situation au détriment de la professionnelle de santé, notamment en raison de ses obligations déontologiques.

En l’absence d’un intérêt légitime prépondérant et en raison de l’illicéité du traitement, la Cour confirme la suppression de la fiche GMB en application de l’article 17 du RGPD, rejetant les exceptions invoquées relatives à la liberté d’expression et au droit à l’information. Elle considère en effet que ces droits ne justifient pas ici le maintien d’un traitement déloyal, non transparent, et déséquilibré, d’autant plus que la qualité et l’authenticité des avis publiés ne sont pas garanties.

S’agissant de la demande indemnitaire, la Cour réforme partiellement le jugement de première instance. Elle exclut toute responsabilité de Google au titre du dénigrement et du parasitisme, faute de preuve directe et de préjudice économique démontré. Toutefois, elle confirme l’existence de fautes liées à la création de la fiche et au défaut d’information, lesquelles ont causé un préjudice moral à Mme [C]. Celle-ci a dû entreprendre de nombreuses démarches pour faire valoir ses droits, notamment en justice, et a subi l’atteinte causée par la publication de plusieurs avis négatifs invérifiables. La Cour fixe l’indemnisation à 10 000 euros, au lieu des 20 000 initialement alloués.

En conclusion, cet arrêt rappelle aux acteurs technologiques étrangers que le RGPD impose des obligations strictes, y compris en matière d’information, de transparence et de justification de l’intérêt légitime lorsqu’un traitement de données est effectué sans consentement. Il insiste également sur les spécificités tenant à la nature de la profession de santé, où la diffusion incontrôlée d’avis anonymes peut heurter de manière disproportionnée la réputation d’un praticien, sans offrir de garanties suffisantes ni de moyens raisonnables de réponse.

Me Philippe Ehrenström, avocat, LLM

Publié dans Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Agents d’intelligence artificielle : qui contrôle ?

L’article de S.Kapoor/N.Kolt/S.Lazar, Resist Platform-Controlled AI Agents and Champion User-Centric Agent Advocates, arXiv :2505.04345vl [cs.CY], 7 mai 2025, propose une analyse critique des agents dintelligence artificielle (AIA) contrôlés par les grandes plateformes numériques et défend une alternative centrée sur lutilisateur: les « agent advocates ». Ces agents, conçus pour représenter exclusivement les intérêts de leurs utilisateurs, sont opposés aux agents développés et pilotés par des entreprises de plateforme telles que Google, Amazon ou Meta.

L’article commence par souligner que les agents issus de modèles de langage représentent une avancée significative dans la capacité des IA à agir de manière autonome dans des environnements numériques complexes. Toutefois, leur développement est aujourd’hui largement dominé par les géants de la tech, ce qui présente des risques importants pour les libertés individuelles et l’équilibre des marchés numériques.

Les auteurs exposent en premier lieu la puissance des plateformes dans l’économie numérique. Ces dernières agissent comme des intermédiaires entre les utilisateurs et les services, captant de la valeur via la collecte massive de données et la manipulation de l’attention des utilisateurs. L’article montre que les plateformes ne sont pas de simples canaux neutres, mais des acteurs intéressés qui structurent les interactions à leur profit, ce qui engendre une gouvernance opaque et potentiellement injuste.

Dans ce contexte, l’avènement des modèles de langage contrôlés par ces plateformes risque d’aggraver les problèmes existants. Ces agents pourraient exercer une surveillance encore plus fine des comportements numériques, manipuler les choix de consommation des utilisateurs, verrouiller les utilisateurs dans des écosystèmes propriétaires (effet de lock-in), et renforcer la domination des acteurs établis. Ils agiraient ainsi comme des « concierges numériques » très efficaces mais intéressés, capables de façonner la réalité numérique de l’utilisateur sans réelle transparence ni possibilité d’échapper à leur contrôle.

Face à ce danger, les auteurs défendent le développement d’agents alternatifs, les «agent advocates», qui seraient conçus pour représenter loyalement leurs utilisateurs. Ces agents offriraient la possibilité de stocker les données localement, d’interagir avec les services en ligne sans parti pris, et de faciliter l’interopérabilité entre différents écosystèmes. Ils pourraient aussi réduire les coûts de changement de plateforme, défendre la vie privée, favoriser les marchés concurrentiels et même soutenir l’action collective des utilisateurs face aux plateformes.

Pour rendre cette vision possible, plusieurs conditions doivent être réunies. D’un point de vue technique, il faut garantir un accès public à des modèles d’IA performants et ouverts, ainsi qu’à une puissance de calcul suffisante. D’un point de vue institutionnel, des interventions réglementaires sont nécessaires : encourager l’interopérabilité, interdire aux plateformes d’entraver l’accès aux interfaces utilisateur, imposer des règles de transparence, et mettre en place une gouvernance décentralisée assurant la sécurité et la loyauté des agents. Les auteurs recommandent la création de normes techniques, d’identifiants d’agents, de protocoles de communication et de « clearinghouses » pour surveiller et sécuriser les transactions entre agents.

L’article répond aussi à plusieurs objections. Certains pourraient minimiser les risques des agents de plateforme ou douter de la faisabilité des « agents advocates ». Les auteurs reconnaissent les difficultés techniques et économiques, mais soulignent que le statu quo serait bien pire. D’autres critiques portent sur les limites de l’approche : les « agents advocates » ne résoudront pas tous les défis liés à l’IA (ex. : mésusage, manipulation, coordination entre agents), mais ils constituent une réponse pragmatique et urgente à la menace des agents de plateforme.

En conclusion, les auteurs appellent à un changement de cap stratégique. L’histoire de l’informatique est marquée par des promesses de décentralisation rapidement récupérées par des forces centralisatrices. Aujourd’hui, les agents IA pourraient répéter ce schéma, à moins que des solutions alternatives soient mises en œuvre à temps. Les « agent advocates » offrent une opportunité de recentrer le pouvoir numérique entre les mains des utilisateurs, à condition que chercheurs, ingénieurs, régulateurs et développeurs s’engagent collectivement dans cette voie.

(Source : https://arxiv.org/pdf/2505.04345)

Me Philippe Ehrenström, avocat, LLM

Publié dans Non classé | Laisser un commentaire