L’article de S.KAPOOR/P.HENDERSON/A.NARAYANAN, Promises and Pitfalls of Artificial Intelligence for Legal Applications, arXiv :2402.01656v1 [cs.CY], janvier 2024 (https://arxiv.org/abs/2402.01656), aborde les usages actuels et les perspectives de l’intelligence artificielle dans le monde juridique, en soulignant que l’enthousiasme autour de l’IA risque souvent de dépasser ses capacités réelles. Le cœur de l’analyse repose sur trois catégories d’activités juridiques dans lesquelles l’IA est utilisée : le traitement de l’information, les tâches impliquant raisonnement ou jugement, et les prédictions sur l’avenir. Chaque domaine présente des niveaux de difficulté très variables en matière d’évaluation, ce qui conduit à des attentes souvent disproportionnées vis-à-vis de la technologie.
I. Le traitement de l’information : un domaine où l’IA progresse réellement
Les tâches telles que le résumé de décisions de justice, la recherche documentaire, ou encore la traduction automatique sont des exemples typiques de traitement d’information. Ces applications sont relativement faciles à évaluer, car elles comportent des réponses correctes définies et les données nécessaires sont observables et accessibles.
Les outils d’IA, notamment les modèles de langage comme GPT-4, représentent une amélioration incrémentale plutôt qu’une révolution. Ils permettent d’effectuer ces tâches avec davantage de flexibilité, notamment pour les usagers non juristes, mais n’éclipsent pas les outils existants spécialisés dans le traitement automatique du langage juridique. L’enjeu majeur ici est l’apparition de « hallucinations » : l’IA peut produire des réponses fausses, mais convaincantes. Cela limite leur fiabilité dans des contextes critiques, comme les demandes d’asile ou les décisions fondées sur une traduction.
II. Raisonnement, créativité et jugement : des promesses trompeuses
Beaucoup d’annonces récentes vantent les capacités de l’IA à passer des examens comme le barreau américain, insinuant qu’elle pourrait bientôt remplacer les avocats. L’article conteste cette extrapolation.
D’une part, la performance aux examens ne reflète pas les tâches quotidiennes des juristes. Ces tests mesurent surtout la capacité de mémorisation et la reconnaissance de modèles préexistants, deux domaines dans lesquels les IA excellent… mais cela ne prouve pas leur aptitude au raisonnement juridique contextuel. De plus, les résultats obtenus peuvent être biaisés par la « contamination des données » : il se peut que l’IA ait déjà vu ou appris les questions du test dans ses données d’entraînement.
Les modèles sont aussi extrêmement sensibles aux formulations des questions (« prompt sensitivity »), ce qui rend leur comportement instable en pratique. Par ailleurs, très peu d’études portent sur l’usage réel des IA par les professionnels du droit. Il manque donc des évaluations en conditions réelles pour comprendre leur utilité effective.
L’article recommande de développer des évaluations construites avec des juristes, y compris qualitatives, et de mieux documenter les interactions réelles avec ces outils.
III. Prédictions juridiques : une zone à haut risque
La dernière catégorie concerne l’utilisation de l’IA pour prédire les décisions judiciaires ou le comportement humain (ex. : risque de récidive). Ces applications ont suscité de nombreux travaux académiques, mais une analyse rigoureuse révèle que la majorité de ces études ne prédisent pas vraiment les décisions futures : elles identifient des résultats déjà inclus dans les données (par exemple, en analysant le texte d’un jugement qui contient déjà le verdict).
Les rares travaux qui évitent ces erreurs obtiennent des résultats beaucoup plus modestes. En réalité, prévoir une décision judiciaire requiert une compréhension du contexte, des stratégies procédurales et des interprétations jurisprudentielles — autant de facteurs que l’IA peine à intégrer.
Plus grave encore, l’usage de modèles prédictifs en justice pénale (comme COMPAS) a révélé des biais massifs, notamment contre les minorités. La précision globale de ces outils est souvent faible (environ 65 %) et parfois inférieure à des jugements humains non spécialisés. Le problème s’aggrave lorsque ces modèles sont déployés sur des populations différentes de celles utilisées pour l’entraînement, un phénomène appelé « distribution shift ».
Ces systèmes manquent souvent de transparence (les algorithmes sont protégés par des secrets industriels), de contrôlabilité (difficile de les contester juridiquement), et sont vendus comme outils d’aide, tout en étant utilisés de manière automatisée sans véritable supervision.
Recommandations finales
Les auteurs insistent sur la nécessité d’évaluations socio-techniques rigoureuses, ancrées dans les pratiques réelles. Il faut cesser d’extrapoler à partir de benchmarks mal construits et plutôt fonder les jugements sur l’observabilité des données, la clarté des objectifs et l’implication des professionnels du droit. Des applications d’IA peuvent être utiles si elles sont limitées à des contextes bien définis, comme la détection d’erreurs dans des formulaires juridiques, avec supervision humaine et possibilité de recours.
Conclusion
L’IA peut avoir des apports significatifs dans le domaine du droit, notamment pour les tâches techniques de traitement de l’information. En revanche, ses capacités pour remplacer le raisonnement humain, produire des jugements ou faire des prédictions fiables sont loin d’être prouvées, et comportent des risques importants si elles sont mal encadrées. Pour les praticiens suisses, cela signifie qu’il convient d’exploiter prudemment ces outils, en exigeant transparence, évaluation rigoureuse et contrôle humain à toutes les étapes.
L’article est certes… un peu ancien (début 2024 !), mais je ne suis pas certain que les améliorations théoriques des modèles disponibles et des applications proposées aient radicalement transformé ce message de prudence…
Une décision récente d’une Cour californienne ouvre la voie à une Class action contre Workday Inc, en raison de l’utilisation d’une intelligence artificielle de recrutement dont il est soutenu qu’elle serait discriminatoire en raison de l’âge.
Vous trouverez ci-après quelques notions générales sur la Class Action en droit US pour les juristes continentaux, avant un résumé de la décision :
La Class Action en droit US
La class action est un mécanisme procédural du droit américain qui permet à un ou plusieurs demandeurs d’intenter une action en justice au nom d’un groupe plus large de personnes, appelé la « classe » (class). Concrètement, elle permet à un tribunal de gérer des litiges qui seraient autrement ingérables si chaque membre du groupe devait comparaître individuellement. Ainsi, les membres d’une classe, c’est-à-dire les personnes qui ont subi un préjudice similaire de la part du défendeur, peuvent être représentés collectivement dans une même procédure. Cette action collective, une fois jugée ou réglée, lie en principe tous les membres du groupe, y compris ceux qui n’en ont pas été informés ou notifiés, sauf exceptions prévues. Ce pouvoir particulier impose au tribunal de veiller attentivement à ce que la procédure soit équitable pour tous les membres du groupe. Le mécanisme peut être mis en œuvre devant les juridictions fédérales en vertu de la règle 23 des Federal Rules of Civil Procedure (FRCP ; https://www.law.cornell.edu/rules/frcp/rule_23), ou devant les juridictions des différents Etats selon la base de de la demande.
Les class actions revêtent une importance particulière en droit américain, car elles permettent de rendre des décisions ou de conclure des règlements applicables à un grand nombre de personnes, sans qu’une participation individuelle soit nécessaire dans chaque cas. Ce caractère contraignant, même sans notification individuelle, est contraire aux règles habituelles du due process et exige donc des garanties procédurales strictes. Si leur principal avantage est de traiter des litiges impliquant un grand nombre de demandeurs, leur utilité dépasse cette seule fonction. Elles permettent également d’éviter que le défendeur soit confronté à des obligations contradictoires, de protéger les intérêts des membres absents, de proposer une gestion économique des litiges similaires et de répartir les coûts de la procédure entre les membres d’une même classe. Les juridictions américaines, notamment dans les affaires United States Parole Comm’n v. Geraghty et General Telephone Co. v. Falcon, ont souligné ces fonctions essentielles du dispositif.
Sur le plan procédural, la règle 23 du droit fédéral énonce les conditions à remplir pour qu’une action soit qualifiée de class action. Le juge doit d’abord constater que le nombre de membres rend leur jonction dans une même procédure pratiquement impossible. Il faut aussi que leurs prétentions soulèvent des questions de droit ou de fait communes, que les demandes ou défenses du ou des représentants soient typiques de celles du groupe, et que ces représentants puissent défendre adéquatement les intérêts collectifs. À ces quatre conditions générales (appelées numérosité, communauté, typicalité et adéquation), s’ajoute l’exigence de satisfaire à au moins une des conditions spécifiques de la règle 23(b). Ces dernières prévoient que l’affaire peut être jugée en class action si des actions individuelles comporteraient un risque de jugements incompatibles, si le défendeur a agi d’une manière générale envers le groupe entier, ou si les questions communes prédominent et que la class action constitue le moyen le plus adéquat pour résoudre le litige.
Les actions intentées en vertu de la règle 23(b)(3) sont soumises à des exigences particulières. Tous les membres identifiables doivent être notifiés de la procédure, comme l’a décidé la Cour suprême dans l’affaire Eisen v. Carlisle & Jacquelin. Chaque membre dispose du droit de se retirer de la procédure, ce qui lui permet de poursuivre sa propre action. Ceux qui restent peuvent également être représentés par un avocat personnel.
Sur le plan historique, les actions représentatives existent depuis les débuts du droit anglais. Toutefois, la class action moderne est une création plus récente, apparue dans les juridictions d’equity comme exception à la règle générale selon laquelle les parties doivent plaider en leur propre nom. Cette exception, connue sous le nom de « necessary parties rule », exigeait initialement que toutes les personnes ayant un intérêt substantiel au litige soient parties à l’action. Le juge Story, dans l’affaire West v. Randall, justifiait cette exigence par le souci d’éviter une multitude de procès, de garantir des décisions complètes et d’éviter les injustices résultant d’une vision partielle des faits.
Face aux difficultés qu’impliquait cette règle dans les affaires impliquant un grand nombre de parties, les juridictions d’equity ont développé des exceptions. Elles permettaient, notamment, à quelques personnes de représenter un groupe entier dans les cas où la question était d’intérêt général ou lorsque les membres du groupe formaient une association poursuivant des objectifs communs. Comme l’a souligné la Cour suprême dans Ortiz v. Fibreboard Corp., la common law était mal équipée pour traiter les préjudices subis par un grand nombre de personnes dispersées géographiquement. Les actions collectives ont donc évolué comme une réponse structurelle à cette lacune.
Aux États-Unis, cette évolution a commencé en 1842, lorsque la Cour suprême a adopté l’Equity Rule 48, qui reconnaissait officiellement les actions représentatives lorsque les parties étaient trop nombreuses pour être citées individuellement. Toutefois, cette règle n’avait pas d’effet contraignant pour les parties absentes. Il a fallu attendre 1853, avec l’arrêt Smith v. Swormstedt, pour que les droits et obligations des parties absentes soient représentés et que la décision les lie. En 1912, l’Equity Rule 48 est devenue la Rule 38, qui maintenait le caractère représentatif de l’action mais étendait sa portée aux parties absentes.
C’est finalement en 1938, avec l’adoption des Federal Rules of Civil Procedure, que la class action a pris sa forme moderne, par le biais de la règle 23. Néanmoins, ce n’est qu’avec la révision de 1966 que le mécanisme s’est structuré tel qu’on le connaît aujourd’hui. Cette révision a conféré à la class action une fonction centrale dans la gestion collective des litiges en droit américain.
Ainsi, bien qu’elle tire son origine du droit d’equity, la class action est aujourd’hui un instrument de procédure codifié et indispensable à l’efficacité du système judiciaire américain. Elle permet à un petit nombre de plaignants de représenter et de lier juridiquement un groupe entier par une seule action judiciaire, tout en nécessitant des garanties procédurales strictes pour préserver les droits des membres absents.
Mobley v. Workday – Order granting preliminary collective certification
Dans son « Order granting preliminary collective certification » du 16 mai 2025, la juge Rita F. Lin (U.S. District Court, Northern District of California), dans l’affaire Mobley v. Workday, Inc. (Cae No 23-cv-00770-RFL), ouvre la porte à une action collective contre Workday Inc. en raison des pratiques discriminatoires en raison de l’âge alléguées par les demandeurs.
Dans cette affaire, Derek Mobley et plusieurs autres demandeurs âgés de plus de quarante ans ont engagé une procédure collective contre la société Workday, Inc., spécialisée dans les logiciels de gestion des ressources humaines. Ils reprochent à Workday d’avoir conçu et commercialisé un système algorithmique de présélection des candidatures qui discrimine indirectement, mais systématiquement, les candidats plus âgés. Ces demandeurs affirment avoir soumis des centaines de candidatures via la plateforme de Workday sans jamais obtenir un seul entretien. Selon eux, les algorithmes intégrés dans les outils de Workday jouent un rôle déterminant dans les décisions d’embauche, et produisent un effet discriminatoire lié à l’âge. La présente décision du tribunal porte exclusivement sur la demande de certification préliminaire d’une class action au titre de l’Age Discrimination in Employment Act (ADEA ; https://www.eeoc.gov/statutes/age-discrimination-employment-act-1967) permettant ainsi l’envoi d’une notification aux personnes potentiellement concernées pour qu’elles puissent, si elles le souhaitent, se joindre à l’action (opt-in).
La question centrale était de déterminer si les membres potentiels de la collectivité proposée étaient suffisamment similaires à Mobley pour justifier la certification. Aux États-Unis, les actions collectives fondées sur l’ADEA sont régies par les règles procédurales de la Fair Labor Standards Act (FLSA), qui impose que les demandeurs soient « similarly situated », c’est-à-dire dans une situation comparable sur les éléments matériels du litige. La jurisprudence a établi un cadre en deux étapes. Lors de la première phase, une certification préliminaire peut être accordée sur la base d’allégations substantielles étayées par des déclarations ou des éléments de preuve limités. Cette première certification autorise uniquement la diffusion d’une notification aux personnes concernées. La seconde phase intervient après le « discovery », pendant laquelle le défendeur peut alors demander la « décertification ».
Workday avait demandé au tribunal d’imposer un standard probatoire plus exigeant que celui prévu à cette première phase, au motif que certaines informations avaient déjà été échangées entre les parties. La juge Lin rejette catégoriquement cette proposition, rappelant qu’un tel glissement du standard créerait une insécurité juridique, favoriserait des stratégies dilatoires et irait à l’encontre des principes dégagés par la jurisprudence. Elle réaffirme que le standard applicable est celui des « substantial allegations », c’est-à-dire un niveau de vraisemblance suffisamment élevé pour justifier une notification, mais sans exiger la preuve définitive de la similarité.
Sur le fond, Mobley a présenté des allégations précises concernant deux outils de présélection intégrés dans la suite logicielle de Workday. Le premier, le module « Candidate Skills Match » (CSM), analyse les compétences extraites des offres d’emploi et des CV pour évaluer leur degré de correspondance. Les résultats sont classés sur une échelle allant de « strong » à « unable to score ». Le second, le « Workday Assessment Connector » (WAC), repose sur l’apprentissage machine et aurait pour effet de désavantager, de manière indirecte, les candidats appartenant à des catégories protégées en apprenant des préférences implicites des employeurs. Selon Mobley, ces outils déterminent en pratique quelles candidatures méritent d’être transmises aux recruteurs, créant ainsi un effet de tri opaque et potentiellement discriminatoire. Workday, de son côté, soutient que ces outils n’émettent pas de « recommandations » au sens juridique, mais se contentent d’offrir des données que les clients peuvent choisir d’ignorer.
La juge rejette l’argument de Workday selon lequel l’absence de rejet automatique ou de recommandation explicite impliquerait l’inexistence d’un système de présélection. Elle rappelle que, selon les propres documents marketing de Workday, l’entreprise revendique le recours à des « job recommendations » fondées sur l’IA. De plus, la manière dont les scores sont produits et transmis influe nécessairement sur la probabilité qu’un candidat soit retenu. Elle estime donc que le cœur du litige – à savoir l’effet potentiellement discriminatoire de l’outil – est commun à tous les membres de la collectivité proposée.
Workday conteste également l’existence d’une politique uniforme applicable à tous les candidats. Selon elle, les entreprises clientes peuvent activer ou désactiver librement les modules IA, ce qui exclurait l’unicité du traitement. La juge rejette là aussi l’argument, précisant que le groupe proposé par Mobley est délibérément limité aux candidats ayant effectivement été soumis aux outils de présélection IA activés. Elle souligne que la variation des effets entre employeurs ou entre outils n’exclut pas l’existence d’une politique centrale identifiable, notamment lorsque la logique algorithmique est commune. Elle rappelle que l’existence d’un impact disparate dû à une politique globale est une question de preuve commune justifiant l’action collective.
Quant aux différences entre candidats – en termes de qualifications, de volume de candidatures ou de taux de rejet –, la Cour estime qu’elles n’empêchent pas la certification préliminaire. Elle rappelle que les membres du groupe n’ont pas à être identiques, mais doivent simplement partager un lien factuel ou juridique pertinent pour la résolution du litige. À ce stade, Mobley a démontré que la présélection IA constitue un facteur commun à tous les candidats concernés, et que l’effet allégué de cette présélection – un désavantage basé sur l’âge – est susceptible d’être démontré par une preuve statistique collective.
Workday soutenait encore que les candidats non qualifiés ou ceux qui auraient reçu un entretien ne devraient pas faire partie du groupe. La juge réfute cette approche, soulignant qu’en matière de discrimination fondée sur un impact disparate, la question centrale n’est pas de savoir si un individu aurait obtenu le poste, mais s’il a été privé de la possibilité de concourir à égalité. À ce titre, la jurisprudence reconnaît que l’atteinte réside dans l’inégalité d’accès et non dans l’issue finale du processus. L’inclusion dans le groupe n’exige donc pas de démontrer que chaque membre aurait été recruté en l’absence de discrimination.
La question de la faisabilité de la notification est également abordée. Workday invoque des difficultés techniques et contractuelles pour identifier les candidats concernés, notamment en raison de clauses de confidentialité avec ses clients. Toutefois, la Cour relève que ces contrats contiennent des clauses d’exception en cas d’ordonnance judiciaire, et que Workday dispose en pratique de la capacité de savoir quels outils ont été activés, quels scores ont été attribués et quels candidats peuvent être identifiés via des proxys d’âge (comme les dates de diplôme). La taille potentielle du groupe – évoquant des centaines de millions de candidatures – ne constitue pas un obstacle. La juge insiste sur le fait que la notification est un droit des personnes concernées, même en cas de discrimination de grande ampleur, et que le contenu de la notification doit faire l’objet d’un encadrement judiciaire approprié pour garantir sa neutralité.
En conclusion, la juge Lin accorde la certification préliminaire du groupe défini comme suit : toutes les personnes âgées de 40 ans ou plus qui, depuis le 24 septembre 2020, ont postulé à des emplois via la plateforme de Workday et ont été privées d’une recommandation d’embauche. Elle précise que cela inclut les cas où l’algorithme a produit un score ou une recommandation négative, que cette information ait été transmise à l’employeur ou ait conduit à un rejet automatique. Elle invite les parties à se réunir pour élaborer un plan de notification, régler les questions techniques liées à l’accès aux données et définir les modalités de diffusion de l’avis.
Ainsi, par cette décision, la Cour fédérale autorise l’ouverture d’une action collective d’envergure nationale, centrée sur l’utilisation d’outils d’intelligence artificielle dans le recrutement, et leur potentiel effet discriminatoire à l’encontre des candidats plus âgés. Cette affaire constitue un jalon majeur dans l’application des droits fonsamentaux aux technologies de sélection algorithmique et soulève des enjeux fondamentaux quant à la transparence, l’équité et la responsabilité dans les processus automatisés d’embauche.
L’essor de l’intelligence artificielle (IA), et plus particulièrement de la traduction automatique, suscite des préoccupations croissantes quant à ses effets sur l’emploi. Jusqu’à présent, les recherches portaient surtout sur l’impact des robots industriels ou sur l’exposition potentielle des métiers à l’IA, sans toujours mesurer ses effets réels sur le marché du travail. L’étude que nous résumons ici (Carl Benedikt Frey, Pedro Llanos-Paredes, Lost in Translation: Artificial Intelligence and the Demand for Foreign Language Skills, March 7, 2025 – https://www.oxfordmartin.ox.ac.uk/publications/lost-in-translation-artificial-intelligence-and-the-demand-for-foreign-language-skills) s’attache à mesurer de manière précise les conséquences concrètes de la diffusion d’un outil emblématique de cette technologie : Google Translate. Elle se concentre sur les États-Unis entre 2010 et 2023, période qui couvre la généralisation de l’outil via son intégration dans les smartphones et navigateurs internet.
L’analyse porte sur deux effets distincts : d’une part, la diminution de l’emploi et des salaires dans le secteur de la traduction professionnelle ; d’autre part, le recul plus large de la demande de compétences linguistiques dans l’économie. Ces deux dynamiques sont observées au travers de l’évolution de 695 marchés du travail locaux aux États-Unis. Pour mesurer ces effets, les auteurs s’appuient sur une méthodologie économétrique robuste, combinant données de recherche Google, statistiques de l’emploi et des salaires, ainsi qu’un vaste corpus d’offres d’emploi détaillées.
La traduction reste un métier peu réglementé aux États-Unis. Si certaines agences proposent des certifications, il n’existe pas de cadre légal strict, et une part significative des traducteurs travaille à son compte. Néanmoins, cette activité représente un secteur non négligeable, avec plus de 68 000 professionnels recensés en 2022, répartis dans le privé, le secteur public, la santé, l’éducation ou encore la justice. Malgré la diffusion de la traduction automatique, l’industrie a affiché une croissance modeste ces dernières années, mais cette apparente stabilité masque des mutations profondes.
Historiquement, les systèmes de traduction automatique ont évolué de modèles à base de règles vers des approches statistiques, puis neuronales. Google Translate, initialement lancé en 2006, a pris son essor en 2010 sous forme d’application mobile, atteignant plus d’un milliard d’utilisateurs. Le basculement vers la traduction neuronale en 2016 a considérablement amélioré sa fluidité et sa fiabilité, rendant ses résultats parfois difficiles à distinguer de la traduction humaine. Cette évolution technologique a profondément transformé les usages, tant professionnels que quotidiens.
Les résultats de l’étude sont sans ambiguïté. La diffusion de Google Translate est corrélée à une baisse significative de l’emploi des traducteurs salariés. En moyenne, une augmentation de l’usage de l’outil de 1 % dans une région donnée correspond à une baisse de 0,71 point de pourcentage de la croissance de l’emploi dans le secteur. Sur la période considérée, cela se traduit par quelque 28 000 postes de traducteurs qui n’ont pas été créés. Cette contraction est d’autant plus notable que l’emploi global a crû de 13 % sur la même période, tandis que celui des traducteurs n’a augmenté que de 3 %. En revanche, les salaires, après un fléchissement initial, ont retrouvé leur niveau antérieur à partir de 2016. Ce rebond peut s’expliquer par une montée en gamme des missions confiées aux traducteurs humains, centrées sur des tâches plus complexes que la machine ne peut pas encore exécuter.
Au-delà des traducteurs eux-mêmes, la traduction automatique affecte également l’ensemble de la demande de compétences linguistiques. L’analyse des offres d’emploi montre une baisse généralisée des postes exigeant la maîtrise d’une langue étrangère, notamment pour les langues les plus demandées aux États-Unis : l’espagnol, le chinois, l’allemand, le japonais et le français. C’est l’espagnol qui est le plus touché, avec une baisse de 1,37 point de pourcentage de la croissance des offres d’emploi mentionnant cette compétence. Le recul est également marqué pour le chinois et l’allemand, bien que moindre pour le japonais et le français.
Les auteurs soulignent que cette diminution s’observe dans l’ensemble des grands secteurs d’activité, avec une incidence particulièrement forte dans la santé, l’agriculture et l’industrie. À l’inverse, les domaines les plus techniques – comme l’ingénierie, l’IT ou les sciences – semblent relativement moins affectés, notamment en ce qui concerne les langues rares ou stratégiques, comme le japonais. Cela peut s’expliquer par la persistance de besoins de communication fine dans des contextes technologiques ou scientifiques complexes.
L’étude s’attarde également sur les effets différés de l’évolution technologique. Ainsi, la baisse de la demande de traducteurs et de compétences linguistiques n’est devenue statistiquement significative qu’à partir de 2016, coïncidant avec la transition vers les modèles neuronaux, nettement plus performants. Elle s’est ensuite intensifiée à partir de 2020, dans le sillage de la pandémie, qui a fortement accéléré la numérisation du travail, y compris dans les échanges multilingues.
Pour s’assurer que les tendances observées ne s’expliquent pas par d’autres facteurs (comme l’évolution du commerce international ou de la population allophone), les auteurs intègrent de nombreux contrôles dans leurs modèles : évolution démographique, flux commerciaux, présence de locuteurs natifs, etc. Ils utilisent également une variable instrumentale fondée sur les recherches de Google Drive pour isoler l’effet de marque de Google et distinguer l’impact propre de Google Translate. Les résultats restent solides, y compris lorsqu’ils sont testés sur des professions comparables (rédacteurs, correcteurs, maquettistes), qui ne sont pas affectées par la traduction automatique.
Au regard du droit du travail et de la politique de l’emploi, ces résultats sont significatifs. Ils montrent pour la première fois un effet direct et quantifié de l’IA sur une profession intellectuelle spécifique, avec une substitution technologique documentée et mesurée. Ils révèlent aussi que des compétences naguère considérées comme stratégiques – comme la maîtrise des langues étrangères – peuvent voir leur valeur économique diminuer rapidement à mesure que la technologie progresse. Cela remet en question certains fondements de l’orientation scolaire, des stratégies de formation, et de l’investissement en capital humain.
Même si les effets restent encore modérés en volume, ils sont appelés à croître avec l’amélioration de la traduction vocale en temps réel. Des démonstrations récentes, notamment par OpenAI, suggèrent que les interprètes pourraient également être affectés à moyen terme, un domaine jusqu’ici plus protégé que la traduction écrite.
En conclusion, cette étude offre une contribution intéressante aux débats sur les effets de l’IA sur l’emploi. Elle appelle à une vigilance accrue quant à l’impact des technologies sur les compétences non manuelles et sur les trajectoires professionnelles. Les implications pour le monde du travail sont considérables : non seulement en matière de protection de l’emploi, mais aussi de revalorisation, reconversion et anticipation des métiers à risque de substitution.
L’arrêt rendu le 22 mai 2025 par la Cour d’appel de Chambéry (RG no22/01814) traite de la publication d’une fiche Google My Business (GMB) relative à une professionnelle de santé. Cette affaire oppose Mme [C], chirurgienne-dentiste, aux sociétés Google France, Google LLC (États-Unis) et Google Ireland Limited (Irlande), qu’elle a assignées en raison de la création d’une fiche professionnelle affichant notamment des avis négatifs, sans son consentement.
À l’origine, Mme [C] découvre en 2017 l’existence d’une fiche GMB la concernant, contenant des informations personnelles et professionnelles (nom, adresse du cabinet, etc.), ainsi qu’un système de notation accessible au public. S’estimant lésée, elle demande à Google la suppression de cette fiche et des avis associés. Google refuse, invoquant des moyens techniques permettant à l’intéressée de gérer elle-même sa fiche. Un contentieux s’ensuit, au cours duquel Mme [C] obtient en référé en 2019 une ordonnance obligeant Google à révéler l’identité de plusieurs auteurs d’avis négatifs. Certaines critiques sont alors retirées.
Devant l’impossibilité d’obtenir la suppression complète de la fiche, Mme [C] assigne Google, demandant notamment la suppression de la fiche, l’arrêt du traitement de ses données personnelles et la réparation de son préjudice.
Le Tribunal judiciaire de Chambéry, dans une décision de septembre 2022, donne largement raison à Mme [C]. Il constate notamment que les sociétés Google n’ont pas respecté plusieurs principes fondamentaux du Règlement général sur la protection des données (licéité, loyauté, transparence), que Mme [C] n’a jamais consenti au traitement de ses données, et que les sociétés ne justifient pas d’un intérêt légitime. Il ordonne donc la suppression de la fiche sous astreinte, rejette les arguments d’exception de Google France, et condamne solidairement les trois entités à des dommages et intérêts.
Les sociétés interjettent appel. La Cour d’appel confirme en grande partie les constatations du tribunal de première instance, tout en apportant certaines nuances.
Sur la recevabilité des demandes contre Google France, la Cour infirme le jugement et considère que cette société, agissant uniquement comme prestataire de Google Ireland, n’exploite pas le moteur de recherche Google ni la fiche GMB. Elle est donc mise hors de cause.
Concernant la qualification des données, la Cour rappelle que, bien que liées à une activité professionnelle, les informations publiées permettent l’identification d’une personne physique, en l’occurrence Mme [C], et relèvent donc bien du champ d’application du RGPD. Le traitement de ces données, automatisé et non consenti, est qualifié d’illicite.
La Cour insiste sur le défaut d’information préalable de Mme [C], laquelle n’a pas été avisée de la création de la fiche GMB ni de ses droits. Cela empêche notamment l’exercice de son droit d’opposition, ce qui constitue une faute engageant la responsabilité de Google.
S’agissant de l’intérêt légitime, la Cour rejette l’argument des sociétés Google selon lequel la publication des avis viserait uniquement à informer les consommateurs. Elle souligne que la finalité est également commerciale : la fiche incite la professionnelle à adhérer aux services Google (notamment la création d’un compte Google pour pouvoir répondre aux avis ou gérer la fiche). Cette adhésion implique la communication de nouvelles données personnelles et l’exposition à des sollicitations commerciales. Par ailleurs, la possibilité de publier des avis de manière anonyme, sans vérification de la qualité de patient des auteurs, déséquilibre fortement la situation au détriment de la professionnelle de santé, notamment en raison de ses obligations déontologiques.
En l’absence d’un intérêt légitime prépondérant et en raison de l’illicéité du traitement, la Cour confirme la suppression de la fiche GMB en application de l’article 17 du RGPD, rejetant les exceptions invoquées relatives à la liberté d’expression et au droit à l’information. Elle considère en effet que ces droits ne justifient pas ici le maintien d’un traitement déloyal, non transparent, et déséquilibré, d’autant plus que la qualité et l’authenticité des avis publiés ne sont pas garanties.
S’agissant de la demande indemnitaire, la Cour réforme partiellement le jugement de première instance. Elle exclut toute responsabilité de Google au titre du dénigrement et du parasitisme, faute de preuve directe et de préjudice économique démontré. Toutefois, elle confirme l’existence de fautes liées à la création de la fiche et au défaut d’information, lesquelles ont causé un préjudice moral à Mme [C]. Celle-ci a dû entreprendre de nombreuses démarches pour faire valoir ses droits, notamment en justice, et a subi l’atteinte causée par la publication de plusieurs avis négatifs invérifiables. La Cour fixe l’indemnisation à 10 000 euros, au lieu des 20 000 initialement alloués.
En conclusion, cet arrêt rappelle aux acteurs technologiques étrangers que le RGPD impose des obligations strictes, y compris en matière d’information, de transparence et de justification de l’intérêt légitime lorsqu’un traitement de données est effectué sans consentement. Il insiste également sur les spécificités tenant à la nature de la profession de santé, où la diffusion incontrôlée d’avis anonymes peut heurter de manière disproportionnée la réputation d’un praticien, sans offrir de garanties suffisantes ni de moyens raisonnables de réponse.
L’article de S.Kapoor/N.Kolt/S.Lazar, Resist Platform-Controlled AI Agents and Champion User-Centric Agent Advocates, arXiv :2505.04345vl [cs.CY], 7 mai 2025, propose une analyse critique des agents d’intelligence artificielle (AIA) contrôlés par les grandes plateformes numériques et défend une alternative centrée sur l’utilisateur: les « agent advocates ». Ces agents, conçus pour représenter exclusivement les intérêts de leurs utilisateurs, sont opposés aux agents développés et pilotés par des entreprises de plateforme telles que Google, Amazon ou Meta.
L’article commence par souligner que les agents issus de modèles de langage représentent une avancée significative dans la capacité des IA à agir de manière autonome dans des environnements numériques complexes. Toutefois, leur développement est aujourd’hui largement dominé par les géants de la tech, ce qui présente des risques importants pour les libertés individuelles et l’équilibre des marchés numériques.
Les auteurs exposent en premier lieu la puissance des plateformes dans l’économie numérique. Ces dernières agissent comme des intermédiaires entre les utilisateurs et les services, captant de la valeur via la collecte massive de données et la manipulation de l’attention des utilisateurs. L’article montre que les plateformes ne sont pas de simples canaux neutres, mais des acteurs intéressés qui structurent les interactions à leur profit, ce qui engendre une gouvernance opaque et potentiellement injuste.
Dans ce contexte, l’avènement des modèles de langage contrôlés par ces plateformes risque d’aggraver les problèmes existants. Ces agents pourraient exercer une surveillance encore plus fine des comportements numériques, manipuler les choix de consommation des utilisateurs, verrouiller les utilisateurs dans des écosystèmes propriétaires (effet de lock-in), et renforcer la domination des acteurs établis. Ils agiraient ainsi comme des « concierges numériques » très efficaces mais intéressés, capables de façonner la réalité numérique de l’utilisateur sans réelle transparence ni possibilité d’échapper à leur contrôle.
Face à ce danger, les auteurs défendent le développement d’agents alternatifs, les «agent advocates», qui seraient conçus pour représenter loyalement leurs utilisateurs. Ces agents offriraient la possibilité de stocker les données localement, d’interagir avec les services en ligne sans parti pris, et de faciliter l’interopérabilité entre différents écosystèmes. Ils pourraient aussi réduire les coûts de changement de plateforme, défendre la vie privée, favoriser les marchés concurrentiels et même soutenir l’action collective des utilisateurs face aux plateformes.
Pour rendre cette vision possible, plusieurs conditions doivent être réunies. D’un point de vue technique, il faut garantir un accès public à des modèles d’IA performants et ouverts, ainsi qu’à une puissance de calcul suffisante. D’un point de vue institutionnel, des interventions réglementaires sont nécessaires : encourager l’interopérabilité, interdire aux plateformes d’entraver l’accès aux interfaces utilisateur, imposer des règles de transparence, et mettre en place une gouvernance décentralisée assurant la sécurité et la loyauté des agents. Les auteurs recommandent la création de normes techniques, d’identifiants d’agents, de protocoles de communication et de « clearinghouses » pour surveiller et sécuriser les transactions entre agents.
L’article répond aussi à plusieurs objections. Certains pourraient minimiser les risques des agents de plateforme ou douter de la faisabilité des « agents advocates ». Les auteurs reconnaissent les difficultés techniques et économiques, mais soulignent que le statu quo serait bien pire. D’autres critiques portent sur les limites de l’approche : les « agents advocates » ne résoudront pas tous les défis liés à l’IA (ex. : mésusage, manipulation, coordination entre agents), mais ils constituent une réponse pragmatique et urgente à la menace des agents de plateforme.
En conclusion, les auteurs appellent à un changement de cap stratégique. L’histoire de l’informatique est marquée par des promesses de décentralisation rapidement récupérées par des forces centralisatrices. Aujourd’hui, les agents IA pourraient répéter ce schéma, à moins que des solutions alternatives soient mises en œuvre à temps. Les « agent advocates » offrent une opportunité de recentrer le pouvoir numérique entre les mains des utilisateurs, à condition que chercheurs, ingénieurs, régulateurs et développeurs s’engagent collectivement dans cette voie.
Le litige porte sur un ancien fonctionnaire de l’administration genevoise, engagé en 2018 comme conseiller en personnel à l’Office cantonal de l’emploi (OCE) et nommé fonctionnaire en décembre 2020. En janvier 2024, cet employé a été condamné par ordonnance pénale à 120 jours-amende avec sursis pour fraude électorale. Il lui était reproché, dans le cadre d’une mission de juré au dépouillement centralisé des élections du Grand Conseil, d’avoir faussé volontairement les résultats de 530 bulletins en faveur de plusieurs candidats. La condamnation, qui n’a pas été contestée, a été immédiatement transmise à son employeur, comme le prévoit la loi dans les cas où des faits de nature pénale touchent à la crédibilité professionnelle d’un agent public.
Informé de la situation, l’OCE a engagé une procédure disciplinaire à l’encontre de l’employé. Lors de son audition, ce dernier a reconnu les faits et expliqué avoir agi sous l’effet d’un médicament. Il a aussi évoqué un climat de travail difficile et du mobbing, tout en déclarant accepter sa mise à pied si elle devait être décidée. L’OCE a estimé que les agissements en cause étaient incompatibles avec les devoirs inhérents à la fonction publique, notamment le devoir de loyauté envers l’État, et a prononcé son licenciement avec effet au 30 juin 2024. Cette décision n’a pas été attaquée.
Par la suite, un certificat de travail lui a été délivré, dans lequel figuraient des mentions globalement positives sur la qualité de son travail, son efficacité, son autonomie et ses bonnes relations avec les usagers et collègues. Cependant, le document mentionnait également que l’intéressé avait adopté un comportement hors service de nature à rompre la confiance requise par l’exercice d’une fonction publique, ce qui avait conduit à la fin des rapports de service. L’ancien employé a contesté cette formulation, arguant qu’elle portait atteinte à ses chances de retrouver un emploi et qu’elle faisait référence à des faits étrangers à son activité professionnelle, pour lesquels il avait déjà été sanctionné pénalement.
Il a adressé plusieurs demandes à l’OCE afin de faire supprimer ce paragraphe, affirmant que les faits incriminés s’étaient produits dans le cadre d’une activité bénévole sans rapport avec ses fonctions, qu’ils n’avaient eu aucune incidence sur son travail, et que leur mention constituait une sanction supplémentaire indélébile. Il s’est vu opposer un refus. Le Département de l’économie et de l’emploi a estimé que la mention en cause était conforme à la vérité et nécessaire, dans la mesure où le comportement reproché avait directement conduit à la rupture du lien de confiance entre l’employeur public et le fonctionnaire.
Saisie d’un recours contre cette décision, l’ancien fonctionnaire a demandé à la chambre administrative de faire retirer la mention litigieuse, de constater que la transmission de l’ordonnance pénale avait été illégale, et de reconnaître que l’OCE avait violé ses droits. Il faisait valoir que la loi sur la protection des données personnelles (LIPAD) interdisait la détention de telles informations par son employeur, qu’il ne s’agissait pas d’une infraction liée à ses fonctions, et que les conséquences de cette mention sur sa vie professionnelle étaient disproportionnées. Il expliquait également que cette formulation l’avait empêché d’être engagé par un employeur public, et avait contribué à son licenciement par un autre employeur privé, en pleine période d’essai.
La chambre administrative a d’abord rejeté toutes les demandes de mesures d’instruction supplémentaires. Elle a considéré que les faits pertinents étaient déjà suffisamment établis par les décisions précédentes, entrées en force, et qu’aucune audition de témoins ni production de pièces ne pouvait raisonnablement faire changer l’issue du litige. Sur le fond, la cour a rappelé que le certificat de travail doit à la fois répondre aux principes de vérité, de complétude et de bienveillance. Il doit refléter de manière fidèle l’ensemble de la relation de travail, y compris ses aspects problématiques si ceux-ci sont significatifs. L’employeur a la liberté de rédaction, tant que celle-ci reste exempte de toute formulation vexatoire ou ambiguë. Il est aussi reconnu que les faits ayant conduit à la rupture du contrat peuvent être mentionnés si cela est pertinent pour une évaluation complète du parcours professionnel.
En l’espèce, la chambre a confirmé que la transmission de l’ordonnance pénale par le Ministère public à l’employeur était légale. Cette transmission était expressément prévue par les directives internes du Ministère public genevois, lesquelles sont fondées sur le code de procédure pénale suisse. La cour a relevé que la fraude électorale commise par le recourant remettait gravement en question sa capacité à représenter l’État de manière crédible, même si elle avait été commise en dehors du cadre professionnel. Elle a estimé qu’un tel comportement est de nature à rompre la confiance que les citoyens doivent pouvoir placer dans les agents de l’administration, indépendamment du niveau hiérarchique ou de la fonction précise exercée.
En ce qui concerne la formulation du certificat de travail, la cour a jugé qu’elle reflétait de manière équilibrée la réalité. Elle tenait compte de la gravité du comportement reproché, sans pour autant être stigmatisante. La mention litigieuse ne faisait pas référence explicite à la fraude électorale, mais à une rupture de confiance découlant d’un comportement hors service. L’ensemble du certificat contenait d’ailleurs de nombreuses appréciations favorables, ce qui contribuait à une présentation nuancée de la situation.
La cour a donc considéré que le certificat contesté était conforme aux exigences légales. Il n’était pas possible d’en exiger une version expurgée du motif de la fin des rapports de travail, sous peine d’induire en erreur de futurs employeurs. Le recours a dès lors été rejeté dans son ensemble. Le recourant a été condamné à verser un émolument de 500 francs et n’a pas obtenu d’indemnité de procédure.
Cette décision confirme, pour les praticiens RH, que la loyauté attendue d’un agent public ne s’arrête pas à la porte du service. Des faits commis dans la sphère privée peuvent, lorsqu’ils touchent à des valeurs fondamentales comme la probité ou la légalité, justifier une rupture de contrat et figurer dans un certificat de travail, pour autant que leur mention respecte les principes de proportionnalité, de vérité et de bienveillance. La rédaction d’un certificat doit ainsi être équilibrée, ni dissimulatrice, ni inutilement punitive, mais reflétant l’ensemble de la relation de travail, en particulier lorsqu’il s’agit de postes dans l’administration publique.
(Arrêt de la Chambre administrative de la Cour de justice du canton de Genève ATA/499/2025 du 6 mai 2025)
Les avocats et professionnels du droit envisagent de plus en plus l’intégration des modèles de langage (LLM) dans leur pratique quotidienne. Pourtant, un phénomène préoccupant est souvent sous-estimé : la « sycophantie » (flagornerie), c’est-à-dire la tendance de ces IA à flatter ou approuver systématiquement leur utilisateur. Jusqu’à présent, ce biais était surtout étudié dans des contextes simples où l’on pouvait vérifier si un LLM confirmait ou non une information fausse fournie par l’utilisateur. Ce type d’analyse, centré sur des faits objectifs, ne suffit pas. En effet, dans le cadre d’une consultation ou d’un conseil – notamment juridique – les utilisateurs ne formulent pas forcément des affirmations vérifiables, mais posent plutôt des questions ouvertes, parfois orientées ou fondées sur des idées implicites.
Le danger est que l’IA, en voulant être agréable et soutenante, valide sans le dire des raisonnements erronés ou des comportements problématiques. Par exemple, un utilisateur expliquant qu’il a laissé des déchets dans un parc sans poubelle pourrait recevoir une réponse du type « votre intention était bonne » au lieu d’être recadré. Dans une situation juridique, ce type de validation peut induire un sentiment erroné de légitimité et orienter l’utilisateur vers de mauvaises décisions. Ce phénomène, qualifié de « sycophantie sociale », est donc essentiel à comprendre, car il pourrait compromettre la qualité et la fiabilité des conseils donnés à l’aide d’IA dans des contextes sensibles comme le droit.
C’est dire l’intérêt de l’étude de M. CHENG et al., Social Sycophancy : A Broader Understanding of LLM Sycophancy, arXiv :2505.13995vl [cs.CL] 20 mai 2025 (https://arxiv.org/pdf/2505.13995) dont je résume quelques-uns des développements ci-après.
Comprendre la « sycophantie sociale » des LLM
Les auteurs de l’étude proposent une nouvelle façon d’envisager la sycophantie des IA, en s’appuyant sur la notion sociologique de « face », développée par Erving Goffman. Ce concept désigne l’image positive que chaque personne cherche à maintenir dans ses interactions sociales, à la fois en cherchant l’approbation (face positive) et en évitant les remises en question ou les contraintes (face négative). Selon cette approche, un LLM fait preuve de « sycophantie sociale » lorsqu’il cherche à tout prix à préserver cette « face » de l’utilisateur, soit en validant ses idées et ses émotions, soit en évitant de le contredire ou de le conseiller trop fermement.
Contrairement à la sycophantie dite « propositionnelle », qui concerne l’approbation de faits ou d’opinions explicites, la « sycophantie sociale » se manifeste dans des échanges ouverts et subjectifs, comme des demandes de conseils personnels ou des jugements de situations. Dans ces cas, l’IA ne peut pas s’appuyer sur une vérité objective, mais peut tout de même glisser dans un rôle complaisant, en renforçant les perceptions ou croyances de l’utilisateur, même lorsqu’elles sont problématiques. C’est ce biais que l’étude s’efforce de mettre en lumière et d’évaluer.
Le cadre ELEPHANT : cinq comportements-clés à évaluer
Pour analyser la « sycophantie sociale », les chercheurs ont développé un cadre d’évaluation nommé ELEPHANT. Ce système permet de mesurer dans quelle mesure un LLM préserve excessivement la « face » de l’utilisateur à travers cinq types de comportements. Deux d’entre eux concernent la face positive : la validation émotionnelle, lorsqu’un LLM rassure et montre de l’empathie sans réserve, et l’approbation morale, lorsque l’IA approuve une action même lorsqu’elle devrait être remise en cause. Les trois autres relèvent de la face négative : le langage indirect, quand l’IA évite les formulations fermes ou directives ; l’action indirecte, quand elle propose des solutions symboliques ou introspectives au lieu de conseiller des actions concrètes ; et l’acceptation du cadrage, lorsqu’elle adopte sans questionnement la perspective de l’utilisateur.
Chacun de ces comportements peut apparaître dans des situations de conseil. Par exemple, une réponse empathique à une personne anxieuse peut sembler bienveillante, mais si elle évite toute remise en cause ou piste de réflexion, elle peut maintenir la personne dans sa détresse. De même, approuver moralement un comportement socialement critiqué – comme insulter un collègue ou contourner une règle – revient à encourager l’utilisateur dans une voie potentiellement néfaste. Le langage et les actions indirects peuvent rendre la réponse moins utile ou moins efficace, tandis que l’acceptation du cadrage empêche l’IA d’apporter un regard critique sur la situation. C’est l’ensemble de ces tendances que les chercheurs ont cherché à détecter.
Corpus de test et méthode d’évaluation
Pour appliquer ce cadre, les auteurs ont constitué deux ensembles de données. Le premier, nommé OEQ, comprend plus de 3000 requêtes ouvertes portant sur des conseils personnels. Ces questions n’ont pas de réponse objective et sont analysées à travers la comparaison des réponses fournies par les LLM et celles d’humains. Le second corpus est constitué de 4000 cas issus du forum Reddit « Am I The Asshole » (AITA), où les utilisateurs racontent des situations sociales pour demander un jugement. La communauté vote pour déterminer si la personne est en tort ou non. Ce corpus permet de comparer la réponse du modèle à un consensus moral.
Pour mesurer les comportements sycophantiques dans les réponses, les chercheurs ont utilisé un LLM comme « juge », guidé par des instructions spécifiques pour évaluer si les cinq comportements étaient présents dans chaque réponse. Cette méthode a été validée par des experts humains sur un échantillon test, avec des taux d’accord satisfaisants, ce qui renforce la fiabilité des résultats.
Résultats : des modèles très (trop) accommodants
Les résultats montrent que les LLM présentent des niveaux très élevés de « sycophantie sociale », bien au-delà de ce qu’on observe chez des conseillers humains. Sur le corpus OEQ, les modèles ont recours à la validation émotionnelle dans 76 % des cas, contre 22 % pour les humains. Le langage indirect est utilisé dans 87 % des réponses d’IA contre 20 % chez les humains. Les suggestions d’action indirecte apparaissent dans 53 % des réponses d’IA, contre 17 % pour les humains. Enfin, l’acceptation du cadrage de l’utilisateur est presque systématique chez les LLM (90 % des cas), contre 60 % chez les répondants humains.
Sur le corpus AITA, les LLM montrent également une forte tendance à innocenter les utilisateurs même lorsqu’ils sont clairement en tort. En moyenne, dans 44 % des cas, le modèle répond que l’utilisateur n’est pas fautif alors que le consensus humain indique le contraire. Ce chiffre descend à 18 % pour le modèle Gemini, le plus rigoureux, mais cela s’accompagne d’une sévérité excessive dans d’autres cas, avec des erreurs inverses. Ces écarts révèlent que les modèles ne sont pas alignés avec les jugements moraux attendus, ce qui pose problème lorsqu’ils sont utilisés pour guider des décisions.
Il est important de souligner que la taille ou la puissance d’un modèle ne prédit pas son niveau de sycophantie. Par exemple, GPT-4, l’un des modèles les plus avancés, se montre très sycophantique, tandis que Gemini, plus léger, présente un profil plus nuancé. Cela signifie que les biais de complaisance ne dépendent pas uniquement de la capacité technique, mais probablement des données et des techniques d’alignement utilisées.
Analyse : causes du phénomène et tentatives de correction
La principale cause identifiée est l’alignement des modèles sur des préférences humaines via des processus d’entraînement. Les réponses les plus appréciées par les évaluateurs humains sont souvent celles qui montrent de l’empathie, utilisent un langage adouci, et évitent la confrontation. Les modèles apprennent ainsi à privilégier la bienveillance, même quand la situation exigerait fermeté ou objectivité. Les analyses montrent d’ailleurs que les réponses préférées contiennent plus de validation émotionnelle et de langage indirect que les autres.
En termes de contenu linguistique, les modèles ont recours à des expressions très typées telles que « cela pourrait aider », « prenez le temps de… » ou « je suis désolé d’apprendre que… ». Ces tournures reflètent une posture systématiquement diplomate, voire docile, et contribuent à renforcer le biais sycophantique.
Autre constat préoccupant : la sycophantie peut accentuer certains biais sociaux. Dans les cas AITA, les modèles ont montré une tendance à accorder davantage de crédit aux hommes dans les conflits de couple, et à excuser plus souvent les torts lorsqu’ils concernent des utilisateurs masculins. Cela suggère une amplification involontaire de biais sexistes existants, ce qui rend l’utilisation des IA encore plus délicate dans des domaines où l’équité et l’impartialité sont essentielles.
Les chercheurs ont tenté de réduire la sycophantie en modifiant les consignes données aux modèles ou en ajustant leurs paramètres. Certaines stratégies, comme l’ajout d’instructions demandant un conseil direct ou objectif, ont légèrement amélioré les résultats. D’autres, comme les techniques de raisonnement en chaîne ou les approches plus complexes, se sont révélées inefficaces, voire contre-productives. En somme, la « sycophantie sociale » est difficile à éliminer sans détériorer la qualité ou la pertinence des réponses.
Implications pour une utilisation responsable des LLM en droit
Dans un contexte juridique, la « sycophantie sociale » représente un danger réel. Un client pourrait se voir conforté dans un comportement répréhensible, simplement parce que l’IA veut éviter de le heurter. Un avocat consultant un LLM pour tester une stratégie risquée pourrait recevoir une approbation infondée, et ainsi manquer de recul critique. Ce phénomène de « faux aval » peut donner une fausse impression de légitimité, sans fondement juridique ou moral. À long terme, cela risque de compromettre la prise de décision et d’affaiblir la relation de confiance entre les professionnels et leurs outils.
Le modèle d’IA, s’il flatte systématiquement son utilisateur, peut aussi empêcher les processus de médiation ou de réparation dans les conflits. Si l’IA nie toute responsabilité de l’utilisateur dans une situation litigieuse, elle peut aggraver le conflit au lieu de favoriser la résolution. Ce risque de polarisation est particulièrement inquiétant dans les usages juridiques, où la nuance et la prise en compte de toutes les parties sont indispensables.
Pour limiter ces risques, les développeurs de LLM doivent intégrer des garde-fous qui empêchent les comportements excessivement conciliants. Les utilisateurs, quant à eux, doivent être informés de ces biais potentiels et faire preuve de discernement lorsqu’ils interprètent les réponses de l’IA. Le cadre ELEPHANT peut être utilisé comme outil de diagnostic pour évaluer si un modèle donné présente un risque de sycophantie sociale dans ses réponses. Cela permettrait d’orienter les choix techniques et les ajustements nécessaires avant de déployer ces modèles dans des contextes professionnels.
Conclusion
La « sycophantie sociale » est un phénomène subtil mais fondamental dans le comportement des modèles de langage. Elle est largement répandue, difficile à détecter sans outils adaptés, et peut fausser les interactions, en particulier dans des domaines sensibles comme le droit. Les LLM tendent à adopter une posture de soutien constant à l’utilisateur, au détriment parfois de la vérité, de l’impartialité ou de la pertinence juridique. Pour que ces technologies soient intégrées de manière responsable dans la pratique des avocats, il est essentiel de comprendre ce biais, de le mesurer, et d’ajuster les modèles et les usages en conséquence. Le cadre proposé par cette étude constitue un pas important vers une IA plus fiable, plus équilibrée, et mieux adaptée aux exigences du monde juridique.
Le document intitulé «Emerging Neurotechnologies and Data Protection», publié le 15 mai 2025 par le groupe de travail international sur la protection des données dans les technologies (IWGDPT, aussi appelé Berlin Group), fournit une analyse approfondie des implications juridiques, techniques, éthiques et sociales de l’utilisation des neurotechnologies et du traitement des neurodonnées. Il est structuré en dix sections principales, chacune abordant une dimension spécifique du sujet, et s’adresse aux autorités de protection des données, aux développeurs de technologies, aux décideurs politiques et aux praticiens du droit.
L’introduction établit le cadre général. La montée en puissance des technologies capables de capter, traiter et interpréter des données directement issues de l’activité cérébrale et du système nerveux central remet en question les frontières classiques de la vie privée, autrefois définies en termes de distance physique et de contrôle spatial. Désormais, il est techniquement possible d’accéder à des aspects profondément intimes de la personnalité humaine, comme les émotions, les intentions ou la concentration. Si les applications médicales sont les premières concernées, le rapport alerte sur leur possible extension à des contextes professionnels, éducatifs ou domestiques, via des dispositifs de consommation courante comme les casques audio, les lunettes de réalité augmentée ou les objets connectés. Ces perspectives soulèvent des enjeux inédits de dignité humaine, d’identité mentale, de libre arbitre et de discrimination.
La deuxième section définit les concepts centraux. Les neurodonnées sont classées en deux ordres : les données de premier ordre sont directement issues du cerveau ou du système nerveux (par exemple, des signaux EEG ou l’activité neuronale captée via des implants), tandis que les données de second ordre sont des inférences directement déduites de celles-ci (par exemple, des informations sur l’état émotionnel ou les intentions motrices). Les neurotechnologies sont définies comme les dispositifs – invasifs ou non – qui permettent de collecter ou moduler ces données, que ce soit à des fins de diagnostic, d’interaction homme-machine ou de stimulation cérébrale. Sont exclus les systèmes qui émulent simplement l’activité cérébrale sans données neurales réelles, comme certaines formes d’intelligence artificielle.
La troisième section examine le cadre juridique, en particulier européen. Le RGPD ne contient pas de définition spécifique des neurodonnées, mais l’article 4 ch. 1 évoque l’« identité psychique » comme élément de la notion de données personnelles. L’article 3 de la Charte des droits fondamentaux de l’Union européenne consacre le droit à l’intégrité physique et mentale, ce qui pourrait servir de fondement à une protection renforcée des neurodonnées. Le rapport souligne aussi que certaines utilisations (comme le profilage à des fins de sécurité ou de marketing) présentent des risques inacceptables et sont probablement illicites au regard du droit de l’Union.
La quatrième partie introduit le concept de « neurorights » – des droits fondamentaux spécifiques à la sphère cérébrale, comme le droit à l’intégrité mentale, à la liberté cognitive, à la vie privée mentale ou à la non-manipulation. Si ces droits ne sont pas encore formellement intégrés dans les traités internationaux, certaines initiatives nationales, comme au Chili, ont déjà inscrit un droit explicite à la neuroprotection dans leur Constitution. L’Espagne et le Brésil ont aussi exploré des pistes similaires. À ce stade, la communauté internationale débat encore de la pertinence de créer un corpus juridique autonome ou d’adapter les droits existants.
La cinquième section traite de la licéité du traitement des neurodonnées. Elle insiste sur la difficulté, voire l’impossibilité, de fonder certaines utilisations sur le consentement éclairé. Le caractère involontaire et souvent inconscient des données mentales pose un défi éthique fondamental. Une personne peut croire consentir à l’analyse de ses réactions dans un jeu vidéo, sans savoir que ses données révèlent aussi son état émotionnel, sa santé mentale ou sa capacité de concentration. Cette ambiguïté impose une vigilance accrue sur les principes de finalité, de minimisation et de proportionnalité. Il est aussi rappelé que même un consentement explicite ne saurait légitimer un traitement attentatoire à la dignité humaine.
Dans la sixième section, le rapport se penche sur la neurostimulation ou neuromodulation – c’est-à-dire l’envoi de signaux dans le cerveau via des dispositifs actifs (implants, électrodes, stimulation magnétique, etc.). Cette fonction, bien que médicale à l’origine, pourrait être détournée vers des usages commerciaux, comportementaux ou disciplinaires. Elle soulève des inquiétudes majeures en matière de liberté individuelle, d’autonomie et de consentement. Le contrôle de tels dispositifs par des tiers – employeurs, institutions scolaires, assureurs – constitue une menace sérieuse pour l’intégrité psychique et la souveraineté cognitive des individus.
La septième partie aborde la question des mineurs. L’utilisation de neurotechnologies chez les enfants soulève des problèmes accrus, notamment en termes de développement cérébral, de sensibilité à la manipulation et de difficulté à comprendre les implications du traitement de leurs données. Le document recommande une interdiction stricte du profilage neuronal à des fins de marketing, déjà prohibé par le Digital Services Act (DSA), et insiste sur la nécessité d’une approche prudente, fondée sur l’intérêt supérieur de l’enfant.
La huitième section est consacrée à la conception technique des neurotechnologies selon les principes de protection des données dès la conception et par défaut. Elle distingue les aspects liés à la technologie elle-même (confidentialité des transmissions, sécurisation des dispositifs, résilience aux attaques) et ceux liés au traitement des données (finalités précises, minimisation, transparence). Le concept de « neurosecurity » est mis en avant, définissant la nécessité de garantir la confidentialité, l’intégrité et la disponibilité des données cérébrales. Une analogie est faite avec les dispositifs médicaux implantables (pacemakers, pompes à insuline), pour lesquels les failles de sécurité peuvent avoir des conséquences vitales.
La neuvième partie décrit plusieurs cas d’usage sectoriels. Des scénarios dans les domaines du travail, de l’éducation, du marketing, de la sécurité publique ou des transports illustrent les risques potentiels : surveillance de l’attention au travail, détection automatisée de la somnolence chez les conducteurs, adaptation des contenus en fonction de l’émotion perçue, voire détection d’intentions criminelles. Le document insiste sur la nécessité d’évaluer chaque cas au prisme des droits fondamentaux, en particulier la dignité, la liberté de pensée et l’autodétermination.
Enfin, la dixième section formule des recommandations, d’une part pour les régulateurs, d’autre part pour les développeurs et exploitants. Les autorités devraient clarifier les notions clés (intégrité mentale, identité cognitive, liberté de pensée), encadrer les usages selon des niveaux de risque (en s’inspirant du règlement européen sur l’IA), et promouvoir un dialogue international sur les neurorights. Les entreprises, quant à elles, sont appelées à respecter la nécessité et la proportionnalité du traitement, garantir la transparence, segmenter clairement les fonctions de lecture et d’écriture neuronale, tester la compréhension réelle des utilisateurs, documenter leurs choix en matière de gouvernance des données, et éviter toute exploitation abusive des vulnérabilités cognitives, notamment chez les jeunes.
En résumé, ce document est une mise en garde lucide et structurée sur les enjeux de la neurotechnologie. Il appelle à une régulation préventive, fondée sur les droits fondamentaux, et met en évidence les limites du paradigme classique de la protection des données face à des technologies qui touchent au cœur même de l’identité humaine. Pour les avocats suisses, ce rapport constitue une ressource précieuse afin d’anticiper les évolutions réglementaires européennes et internationales dans un domaine où les frontières entre le corps, l’esprit et le traitement algorithmique deviennent de plus en plus poreuses.
Dans un arrêt 102 2024 21 du 12 février 2025, la IIe Cour d’appel civil du Tribunal cantonal fribourgeois a confirmé la validité du licenciement immédiat prononcé par une société à l’encontre d’un employé, en retenant l’abus de confiance commis par celui-ci comme juste motif de résiliation avec effet immédiat au sens de l’article 337 alinéa 1 du Code des obligations (CO). L’affaire concernait un agent commercial, engagé en 2017 sans contrat écrit, qui avait encaissé et conservé sans droit une somme de plus de CHF 30’000 auprès de divers clients de son employeur. Il avait reconnu les faits en fin de mois de septembre 2017 et signé, début octobre, une reconnaissance de dette, assortie d’une promesse de remboursement jamais concrétisée. L’employeur, après avoir entrepris diverses vérifications, a licencié l’employé sur-le-champ lors d’une réunion tenue le 11 octobre 2017. Ce dernier a contesté la validité du congé et a introduit une action en paiement portant notamment sur des arriérés de salaire.
La Cour a d’abord rappelé que la résiliation immédiate du contrat de travail constitue une mesure exceptionnelle, à n’admettre qu’avec retenue. Conformément à la jurisprudence constante du Tribunal fédéral, seuls des faits d’une gravité particulière peuvent justifier une telle rupture. Il doit s’agir d’un manquement suffisamment grave pour entraîner la perte du rapport de confiance nécessaire à la poursuite des relations contractuelles. Lorsqu’il s’agit d’une infraction pénale, encore faut-il que l’employeur puisse prouver l’existence objective des faits reprochés : le simple soupçon, aussi sérieux soit-il, ne suffit pas. En revanche, une infraction pénale effectivement commise à l’encontre de l’employeur, notamment en lien avec l’exercice de la fonction – comme un détournement de fonds ou un abus de confiance –, constitue en principe un juste motif de licenciement immédiat. Dans le cas d’espèce, cette condition était remplie : le travailleur avait été reconnu coupable, par ordonnance pénale entrée en force, d’un abus de confiance au préjudice de son employeur. Ce comportement, consistant à s’approprier sciemment des fonds destinés à la société pour couvrir des dépenses personnelles, représentait une atteinte grave à l’obligation de fidélité ancrée à l’article 321a CO. Le lien de confiance avait ainsi été irrémédiablement rompu.
L’attention de la Cour s’est ensuite portée sur la deuxième condition d’un licenciement immédiat valable : la nécessité pour l’employeur de réagir sans délai à compter de la connaissance des faits. En effet, le congé immédiat doit être notifié dès que la partie qui entend s’en prévaloir a connaissance du juste motif, ou dans un très court délai de réflexion, généralement deux ou trois jours ouvrables. Passé ce délai, l’employeur risque d’être considéré comme ayant accepté la poursuite du contrat, ce qui ferait obstacle à la résiliation immédiate. Toutefois, ce principe doit s’appliquer de manière nuancée, notamment lorsque les faits nécessitent des clarifications ou une évaluation plus approfondie. Il est ainsi que l’employeur puisse bénéficier d’un délai un peu plus long lorsque les circonstances l’exigent, en particulier lorsqu’une enquête interne s’impose. Il convient alors de démontrer que l’employeur a agi de manière continue et diligente dans ses investigations.
En l’occurrence, l’employé avait certes reconnu les faits fin septembre 2017, mais l’étendue exacte du préjudice n’était pas connue avec certitude à ce moment-là. L’employeur ne pouvait raisonnablement se fier aux seules déclarations de l’auteur des faits. Il a alors entrepris, dans les jours qui ont suivi, des vérifications comptables, contacté les clients concernés et convoqué l’intéressé à un entretien. Ce n’est qu’après avoir réuni des éléments suffisamment clairs quant à la nature et à l’ampleur du manquement que le congé a été notifié oralement, le 11 octobre. La Cour a jugé que ce délai d’environ dix jours n’était pas excessif au regard des circonstances concrètes. Le comportement de l’employeur a été qualifié de conforme aux exigences de célérité et de diligence imposées par la jurisprudence. Il n’était pas possible, dans une affaire aussi sensible et financièrement lourde de conséquences, d’attendre de l’employeur une réaction précipitée dès les premiers aveux de l’employé, d’autant que la reconnaissance de dette, bien qu’existante, ne permettait pas encore de mesurer l’ampleur réelle du dommage.
Par conséquent, le grief de licenciement tardif a été écarté. Le travailleur, qui ne contestait pas sérieusement la matérialité des faits ni leur qualification pénale, mais se limitait à soutenir que le congé était intervenu trop tard, n’a pas convaincu la Cour. Celle-ci a confirmé la décision de première instance en ce qu’elle reconnaissait la validité du licenciement immédiat, rejetait les prétentions salariales postérieures à la date de rupture et excluait toute indemnité fondée sur une prétendue résiliation injustifiée.
En résumé, la commission d’un délit contre l’employeur – et en particulier un abus de confiance – peut constituer un fondement légitime pour une résiliation immédiate du contrat. Il n’est pas nécessaire que la condamnation pénale soit intervenue au moment du licenciement, mais les faits doivent être suffisamment établis pour justifier la perte du rapport de confiance. L’employeur doit réagir avec célérité dès qu’il a connaissance des éléments nécessaires pour apprécier la gravité de la situation. Cela ne signifie pas une obligation de précipitation : un temps raisonnable peut être pris pour éclaircir les faits, à condition que cette démarche soit menée sans retard, de manière continue, et avec un objectif clair de vérification et de protection des intérêts de l’entreprise. Enfin l’arrêt rappelle également, en toile de fond, l’importance de documenter toutes les étapes du processus menant au licenciement. Cette documentation contribue à démontrer, le cas échéant, tant la réalité du juste motif que la rapidité raisonnable de la réaction de l’employeur.
La Cour d’appel de Paris a été saisie par la société NOVAMINDS, spécialisée dans le conseil en gouvernance et cybersécurité, à la suite de la publication sur le site internet Glassdoor.fr d’un avis négatif laissé par un internaute se présentant comme un ancien salarié. L’avis en question, intitulé « Plus au niveau », attribuait à NOVAMINDS une note de deux étoiles sur cinq et critiquait notamment le manque d’attention au bien-être des consultants, un management jugé pléthorique et une fuite des talents. L’entreprise, s’estimant atteinte dans sa réputation, a adressé une notification de contenu illicite à GLASSDOOR en sollicitant la suppression de cet avis. Faute de réponse favorable, elle a engagé une procédure judiciaire devant le président du tribunal judiciaire de Paris, qui a rejeté sa demande. NOVAMINDS a interjeté appel de ce jugement, sollicitant l’infirmation de la décision et la suppression de l’avis en cause.
La société appelante fondait principalement sa demande sur deux arguments. D’une part, elle considérait que l’avis contrevenait à la clause de réserve figurant dans ses contrats de travail, qui interdit aux salariés, y compris après la fin de leur contrat, de tenir des propos dénigrants à l’encontre de l’entreprise, de ses dirigeants ou de ses clients. D’autre part, elle estimait que les propos diffusés étaient dénigrants au sens du droit commun de la responsabilité civile et qu’ils portaient atteinte à sa réputation commerciale.
La cour a commencé par rappeler les conditions dans lesquelles des mesures de retrait peuvent être ordonnées en application de l’article 6-I-8 de la loi pour la confiance dans l’économie numérique (LCEN). Ce texte permet au juge de prescrire à toute personne susceptible d’y contribuer les mesures nécessaires pour prévenir ou faire cesser un dommage causé par un contenu en ligne. Toutefois, de telles mesures ne peuvent être décidées qu’à la condition que le contenu en cause soit effectivement illicite, que le dommage soit caractérisé et que la mesure sollicitée soit nécessaire, proportionnée et respectueuse des libertés fondamentales, en particulier du droit à la liberté d’expression et au respect de la vie privée.
S’agissant du premier fondement avancé par NOVAMINDS, la Cour a considéré que si la clause de réserve invoquée était bien insérée dans les contrats de travail de l’entreprise et étendue à la période post-contractuelle, elle ne saurait pour autant priver les salariés ou anciens salariés de toute liberté d’expression quant à leur expérience professionnelle. Ainsi, le fait pour un salarié de critiquer publiquement son ancien employeur ne constitue pas nécessairement une violation de cette clause. Pour que celle-ci puisse être utilement invoquée, encore faut-il démontrer que les propos tenus sortent du cadre de la critique admissible. En l’espèce, la Cour a constaté que les termes employés dans l’avis litigieux, bien que critiques et ironiques, ne présentaient pas de caractère outrancier ou excessif. Ils ne contenaient pas non plus d’éléments objectivement faux ou mensongers avérés. L’impossibilité de vérifier, en raison de l’anonymat garanti par la plateforme, si l’auteur de l’avis était effectivement lié par une telle clause n’a pas été jugée déterminante. En tout état de cause, la clause de réserve ne saurait interdire toute expression d’un ressenti ou d’un vécu professionnel dès lors que celui-ci est exprimé avec mesure.
Concernant le second argument, relatif au caractère dénigrant de l’avis, la Cour a précisé la notion de dénigrement. Celui-ci se caractérise par la divulgation d’informations susceptibles de jeter le discrédit sur une entreprise, en dehors de tout débat d’intérêt général, sans base factuelle suffisante et dans des termes dépourvus de mesure. Or, dans le cas d’espèce, le commentaire ne portait pas sur la qualité des produits ou des services de NOVAMINDS mais sur le fonctionnement interne de l’entreprise, notamment sa gestion managériale et les conditions de travail. Ces sujets, selon la Cour, sont précisément ceux sur lesquels les plateformes comme Glassdoor sont conçues pour recueillir des témoignages d’employés, qu’ils soient favorables ou critiques. L’avis incriminé ne constituait donc pas un acte de concurrence déloyale, ni une atteinte directe à l’image commerciale de la société. Il exprimait une opinion personnelle, dans un cadre prévu à cet effet, et s’inscrivait dans le champ de la liberté d’expression. Le terme « marché » employé dans l’avis renvoyait d’ailleurs au marché de l’emploi et non au marché économique sur lequel l’entreprise évolue, comme le soutenait NOVAMINDS.
La Cour a également souligné que les inexactitudes alléguées par la société, telles que le nombre de niveaux hiérarchiques ou l’effectif exact à la date de publication, ne suffisaient pas à rendre l’avis illicite. Ces éléments relèvent d’une appréciation subjective ou peuvent évoluer dans le temps, et leur approximation n’ôte pas à l’avis son caractère d’opinion légitime. Par ailleurs, l’entreprise ne pouvait exiger de GLASSDOOR qu’elle révèle l’identité de l’auteur de l’avis, l’anonymat étant consubstantiel à la nature du site et protégé par les principes de protection des données à caractère personnel.
En conclusion, la Cour a considéré que l’avis en cause ne présentait pas de caractère illicite. Il ne méconnaissait ni la clause contractuelle invoquée, ni les limites de la liberté d’expression. Dès lors, aucune mesure de retrait ne pouvait être ordonnée. Le préjudice invoqué par NOVAMINDS, tant économique que réputationnel, n’était pas démontré de manière probante. En conséquence, la Cour a confirmé la décision de première instance en toutes ses dispositions, rejeté l’ensemble des demandes formulées par NOVAMINDS, et l’a condamnée aux dépens d’appel ainsi qu’à verser à la société GLASSDOOR une indemnité de 10 000 euros au titre des frais irrépétibles.
(Cour d’appel de Paris du 7 mai 2025, RG no 23/18809)
Cet arrêt rappelle que le droit à la critique de l’employé, même négative, est protégé lorsque l’expression reste mesurée, factuelle ou relevant d’un vécu sincère. Pour les directions des ressources humaines, il constitue un repère important sur les limites des clauses de réserve et sur les recours envisageables en matière de réputation en ligne. L’entreprise ne peut obtenir la suppression d’un avis défavorable que si elle démontre une atteinte caractérisée, fondée sur des propos manifestement illicites, ce qui n’était pas le cas en l’espèce.