Droit à l’obscurité et interdiction de la reconnaissance faciale

Quelques réflexions tirées de W. Hartzog/E. Selinger /J. Hyojoo Rhee, Normalizing Facial Recognition Technology and The End of Obscurity (September 06, 2025). 6 European Review of Digital Administration and Law (ERDAL) 163 (2025) (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5450895):

Selon ses auteurs, la reconnaissance faciale n’est pas un outil parmi d’autres qu’il conviendrait de réguler avec prudence ou d’encadrer par des garde-fous, mais un instrument d’une dangerosité telle qu’il doit être purement et simplement interdit. Leur raisonnement prend place en trois parties : puissance technique propre de la reconnaissance faciale, mécanismes psychologiques de normalisation qui accompagnent son usage, et choix juridiques qui, loin de contenir le phénomène, contribuent à l’amplifier. C’est en reliant ces trois dimensions que les auteurs construisent leur démonstration et plaident pour une interdiction générale et définitive. Pour bien comprendre leur démarche, il convient de suivre pas à pas leur progression et de mettre en lumière les articulations essentielles de leur raisonnement.

Le point de départ de l’argumentation repose sur un constat technologique : la reconnaissance faciale constitue un outil de surveillance sans équivalent. Là où d’autres techniques de contrôle ont des limites matérielles, logistiques ou contextuelles, la reconnaissance faciale tire sa force d’un double mouvement. D’un côté, elle exploite des caractéristiques physiques universelles et visibles : chacun d’entre nous a un visage qui le singularise, mais qu’il est difficile, voire impossible, de masquer sans éveiller immédiatement des soupçons. Contrairement aux empreintes digitales, que l’on ne prélève qu’à l’occasion d’un contact direct avec un support ou un scanner, le visage est en permanence offert au regard. De l’autre côté, ce visage est déjà disséminé sur une infinité de supports numériques : photographies publiées en ligne, profils de réseaux sociaux, bases de données administratives ou commerciales. Ainsi, la reconnaissance faciale permet de relier en temps réel les corps présents dans l’espace public aux traces numériques accumulées sur Internet. Elle rend possible une identification instantanée, à grande échelle, et à un coût marginal extrêmement faible. Cette combinaison – universalité du signe physiologique et abondance des données disponibles – confère à la reconnaissance faciale une puissance de surveillance inédite.

Cette puissance technique ne s’arrête pas à l’identification. Les auteurs soulignent que la reconnaissance faciale s’intègre facilement à des infrastructures déjà existantes, comme les réseaux de caméras de surveillance. Elle peut en outre être augmentée par des modules complémentaires, notamment la détection d’émotions ou la caractérisation des comportements. Ces modules, qui prétendent inférer des états psychologiques à partir de l’expression du visage, s’apparentent à une nouvelle forme de physiognomonie numérique, souvent assimilée à de la pseudo-science. Leur diffusion accentue les risques de biais et de discriminations, puisqu’ils tendent à classer et à hiérarchiser les individus selon des critères contestables. L’ensemble produit un effet cumulatif : la reconnaissance faciale n’est pas seulement un outil parmi d’autres, elle est conçue pour devenir le cœur d’un écosystème de surveillance globale, capable de repérer, de suivre et de qualifier les personnes dans la plupart des espaces de leur vie quotidienne.

La comparaison avec d’autres technologies éclaire encore cette singularité. Les lecteurs automatiques de plaques d’immatriculation, par exemple, ne concernent que les conducteurs et n’opèrent que dans certains lieux. La surveillance des réseaux sociaux dépend de l’inscription volontaire et peut être contournée par le silence numérique. Le visage, lui, nous accompagne partout et constitue le signe par lequel nous sommes spontanément identifiés dans nos interactions sociales. C’est bien ce caractère incontournable et omniprésent qui rend la reconnaissance faciale plus intrusive que n’importe quel autre système de contrôle.

Une fois établi ce diagnostic technique, les auteurs introduisent une dimension sociopsychologique : le mécanisme de normalisation. Même si la reconnaissance faciale suscite d’abord des réactions de méfiance, ses usages répétés, surtout lorsqu’ils sont présentés comme pratiques ou anodins, finissent par rendre la technologie banale. Déverrouiller un smartphone par reconnaissance faciale ou franchir rapidement un contrôle d’embarquement à l’aéroport ne provoque pas d’indignation collective. Au contraire, ces gestes paraissent relever du confort, voire du progrès. Chaque usage de ce type contribue pourtant à installer dans les esprits l’idée que le scan du visage est normal, quotidien, acceptable. Deux processus distincts expliquent cette banalisation. Le premier est celui de l’habitue : à force de voir ou d’utiliser un dispositif, nous cessons d’y prêter attention. Ce qui était exceptionnel devient routinier. Le second est celui de la normalisation favorable : constatant que les autres utilisent sans difficulté un outil, nous en déduisons qu’il est légitime et nous sommes enclins à l’adopter à notre tour. Ces dynamiques psychologiques déplacent progressivement la frontière de ce qui est jugé tolérable.

L’enjeu, ici, est celui de l’« obscurité », concept que les auteurs privilégient par rapport à la seule notion de vie privée. L’obscurité désigne l’écran protecteur que constituent les coûts d’accès à l’information. Dans un monde analogique, il était toujours possible, en théorie, de recueillir des renseignements sur autrui, mais l’effort à fournir – en temps, en ressources, en déplacements – rendait l’opération difficile et décourageait la plupart des curieux. Cette obscurité, faite d’obstacles pratiques, protégeait la vie sociale ordinaire et permettait une certaine autonomie. La reconnaissance faciale, en réduisant presque à zéro ces coûts de transaction, détruit ce régime d’obscurité. Les conversations publiques, les déplacements quotidiens, les simples interactions sociales cessent d’être protégés par cette barrière implicite. La possibilité constante d’une identification et d’un suivi transforme l’espace public en un lieu d’exposition permanente, produisant un effet dissuasif sur la liberté d’expression et de comportement.

Le troisième volet du raisonnement met en cause le rôle du droit. Loin de constituer un contre-poids efficace, les cadres juridiques actuels favorisent la normalisation de la reconnaissance faciale. Plusieurs mécanismes sont ici identifiés. Le premier tient à l’exigence de dommage significatif. Pour qu’une atteinte à la vie privée soit sanctionnée, il faut généralement démontrer une conséquence grave et immédiate. Les petites intrusions répétées, les micro-surveillances qui forment le quotidien numérique, échappent ainsi à la vigilance juridique. Or ce sont précisément ces « entailles » multiples, qualifiées de « privacy nicks », qui produisent à long terme la véritable érosion de l’obscurité. Le deuxième mécanisme réside dans l’importance donnée au consentement et à l’exposition volontaire. La logique est simple : ce qui est volontairement montré, ou accepté, ne peut plus être protégé. Mais appliquée au visage, cette logique devient absurde : nous ne pouvons pas dissimuler nos traits sans altérer nos interactions sociales. Le droit assimile pourtant la simple visibilité à une renonciation à la protection, ouvrant ainsi la voie à l’usage illimité des images disponibles. Le troisième mécanisme est lié à la focalisation sur les effets de proximité. Les juridictions cherchent un lien direct entre une action et un préjudice précis. Elles peinent à appréhender les effets cumulatifs et diffus d’un ensemble d’actes isolés. Ce morcellement empêche de traiter la surveillance comme un phénomène systémique et de mesurer ses conséquences globales sur la société. Enfin, le quatrième mécanisme tient à la dépendance aux attentes sociales. Le droit américain, notamment, évalue la protection de la vie privée à l’aune des « attentes raisonnables » des individus. Or ces attentes sont elles-mêmes façonnées par l’habitude et la banalisation. Plus la surveillance devient commune, plus elle est jugée acceptable, dans un cercle vicieux qui réduit sans cesse le champ de la protection juridique.

L’analyse se tourne alors vers l’Europe. L’Union européenne, avec son AI Act, a adopté des interdictions ciblées, par exemple pour l’usage de la reconnaissance faciale en temps réel dans l’espace public. Mais ces interdictions sont assorties d’exceptions, notamment pour la recherche de personnes disparues ou la prévention de menaces graves. Ces exceptions, en apparence limitées, ouvrent des brèches qui risquent de banaliser l’usage de la technologie et de créer les conditions de sa généralisation. La dynamique observée aux États-Unis pourrait ainsi se reproduire en Europe, malgré une tradition plus protectrice en matière de droits fondamentaux.

Face à ce constat, quelles réponses envisager ? Les auteurs examinent plusieurs options, mais les écartent les unes après les autres. L’approche technologique neutre, consistant à encadrer les usages plutôt que les outils, paraît séduisante en théorie mais se révèle inefficace en pratique, car elle suppose que la reconnaissance faciale puisse produire plus de bénéfices que de risques, ce qui est démenti par son potentiel d’abus quasi illimité. Les garde-fous procéduraux, tels que l’obligation d’un mandat judiciaire ou le recueil du consentement, ne font qu’institutionnaliser la pratique et la rendre encore plus acceptable aux yeux du public. Les interdictions partielles, même lorsqu’elles visent à protéger certains espaces ou certaines catégories de personnes, demeurent fragiles et exposées à des pressions politiques ou économiques.

La conclusion s’impose alors : seule une interdiction totale permettrait de préserver l’obscurité et de protéger la démocratie. La reconnaissance faciale doit être stigmatisée comme une technologie intrinsèquement dangereuse, dont les risques surpassent les éventuels avantages. Les auteurs n’ignorent pas l’objection d’irréalisme qui leur est adressée. Ils répondent en rappelant que d’autres pratiques, comme la torture, ne sont pas interdites parce qu’elles sont toujours inefficaces, mais parce qu’elles sont incompatibles avec les valeurs fondamentales d’une société démocratique. De même, certains produits ou technologies ont été interdits du fait de leur nocivité, sans que l’on cherche à équilibrer bénéfices et inconvénients. L’interdiction de la reconnaissance faciale doit être pensée dans cette logique : non comme un refus du progrès, mais comme un choix de société destiné à protéger les conditions mêmes de la liberté.

Ce plaidoyer pour la prohibition se veut aussi un avertissement intergénérationnel. La banalisation de la reconnaissance faciale ne se fait pas en un jour, mais elle produit des effets cumulatifs irréversibles. Les générations futures risquent de se retrouver dans un monde où l’obscurité a disparu, où chaque geste est traçable, chaque rencontre enregistrée, chaque émotion analysée. Dans un tel monde, l’autonomie individuelle et la liberté collective seraient durablement compromises. Refuser la reconnaissance faciale aujourd’hui, c’est donc préserver un espace d’obscurité indispensable à la vie démocratique de demain.

L’analyse, si elle peut sembler extrême dans le paysage actuel des débats, a le mérite de mettre en lumière la spécificité de la reconnaissance faciale et de rappeler que certaines technologies, par leur nature même, ne peuvent être domestiquées par de simples régulations. Elle invite juristes, législateurs et citoyens à reconsidérer la logique habituelle du compromis et à envisager que, face à certaines menaces, la seule réponse proportionnée soit l’exclusion.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

Décision individuelle automatisée et logique sous-jacente (BVwG no W108 2230691-1/53e)

Quelques éléments tirés d’un arrêt du Bundesverwaltungsgericht (BVwG, Cour administrative fédérale autrichienne) du 28 mai 2025, n° W108 2230691-1/53e (https://www.ris.bka.gv.at/Dokumente/Bvwg/BVWGT_20250528_W108_2230691_1_00/BVWGT_20250528_W108_2230691_1_00.pdf) rendu après l’arrêt CJUE C-203/22, Dun & Bradstreet Austria du 27 février 2025) :

L’affaire oppose un particulier à une société d’information commerciale (credit scoring), absorbée en cours de procédure par une autre entité du même secteur. La décision statue sur une plainte en matière de protection des données, avec pour cœur du litige l’étendue du droit d’accès de l’article 15 § 1 let. h  RGPD et, en particulier, l’obligation de fournir des « informations utiles sur la logique sous-jacente » à la décision individuelle automatisée au sens de l’art. 22.

La BVwG admet partiellement la plainte, constate une violation du droit d’accès pour défaut d’information tant sur les finalités (art. 15, §1, let. a) que sur la logique et les effets du scoring (art. 15, §1, let. h), enjoint la société de compléter l’accès dans un délai de quatre semaines et rejette le surplus.

Le point de départ réside dans une demande d’accès du 26 octobre 2018, par laquelle le plaignant sollicite, sur le fondement de l’article 15 RGPD, la communication des données personnelles le concernant. La société répond le 5 novembre 2018 par une note de trois pages listant nom, adresses, sexe, date de naissance, nationalité, éléments professionnels et de revenus estimés, modalités de paiement et des mentions relatives à des consultations passées par des clients, avec, en fin de document, des informations générales sur les finalités, catégories de données, destinataires, durée de conservation, droits de la personne concernée et sources.

La réponse affirme par ailleurs qu’il n’existerait pas, chez la société, de décision automatisée au sens des articles 15, §1, let. h et 22 RGPD. Estimant la réponse incomplète et trop générique, le plaignant saisit l’autorité autrichienne de protection des données (Datenschutzbehörde) le 19 décembre 2018.

L’instruction administrative s’éternise. Le 13 janvier 2020, le plaignant forme un recours pour déni de statuer (Säumnisbeschwerde) contre l’autorité de contrôle. Celle-ci admet que le délai légal est dépassé et transmet le dossier au BVwG, de sorte que la compétence juridictionnelle de celui-ci se trouve activée. La cour reprend alors l’instruction, sollicite des prises de position et attire l’attention des parties sur le caractère insatisfaisant, à ses yeux, des informations initialement délivrées. S’ajoute, au fil de la procédure, un changement structurel : l’entité visée par la plainte est absorbée par une autre société d’information commerciale, de sorte que la défenderesse devient, après fusion, la société absorbante. Celle-ci maintient que la communication de 2018 était complète et qu’aucune décision automatisée n’est prise chez elle, la fourniture de scores n’étant selon elle ni un « profiling » au sens de l’article 22 RGPD ni une base unique de décision chez ses clients.

En 2022, à la demande du BVwG, la société précise que, si des scores ont pu être transmis à des partenaires en 2016 et 2018, ces valeurs n’auraient pas été conservées dans son système, bien que les enregistrements d’accès et les résultats de requête soient journalisés pendant sept ans. Elle reconnaît qu’un « rating » de 2,02 et un « Ampelscore » de 2 avaient été communiqués, traduisant une solvabilité « très bonne ». Elle soutient qu’elle n’intervient jamais dans la décision commerciale de ses clients ni dans la fixation de seuils, et qu’elle ne fait que répondre à des interrogations, notamment dans le contexte du commerce électronique, où l’objectif n’est pas l’octroi d’un crédit mais la détermination d’une modalité de paiement appropriée.

À la fin de 2023, la société réaffirme que la fourniture d’un score à un marchand en ligne, destinée à vérifier l’exactitude de l’adresse ou à calibrer une « steering » des moyens de paiement, ne constituerait pas une « décision » au sens de l’article 22 RGPD ni ne produirait des effets « significatifs » sur la personne concernée. Selon elle, au pire, une personne pourrait être amenée à prépayer sa commande ou à se voir refuser une facilité de paiement, ce qui ne correspondrait pas à l’impact d’un refus de crédit. En outre, elle décrit de façon générale les catégories d’informations entrant dans le calcul, mentionnant, entre autres, le contexte de solvabilité, l’environnement relationnel et des données sociodémographiques, avec une pondération plus importante attribuée à des facteurs comme le revenu, la modalité de paiement ou la branche d’activité ; une description plus fine de la logique serait, selon elle, couverte par le secret d’affaires.

Entre-temps, la cour suspend la procédure dans l’attente d’un arrêt préjudiciel sur l’article 15, §1, let. h RGPD. Par ordonnance du 1er juillet 2024, elle sursoit à statuer jusqu’à l’arrêt de la Cour de justice de l’Union européenne (CJUE) dans l’affaire C-203/22. Cet arrêt est rendu le 27 février 2025.  [Il s’agir de CJUE C-203/22, Dun & Bradstreet Austria du 27 février 2025 : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:62022CJ0203). La CJUE y affirme que la personne concernée peut exiger, en cas de décision automatisée (y compris le profilage au sens de l’art. 22, §1), une explication précise, transparente, compréhensible et aisément accessible des procédures et des principes effectivement appliqués lors du traitement automatisé ayant conduit au résultat, par exemple un profil de solvabilité. La Cour précise aussi que, si des données de tiers protégées par le RGPD ou des secrets d’affaires au sens de la directive 2016/943 sont en jeu, le responsable doit transmettre ces éléments à l’autorité ou au juge compétent, afin qu’une mise en balance des droits et intérêts opposés soit opérée pour délimiter l’étendue de l’accès.

Dans ses motifs, la CJUE insiste sur plusieurs points qui irriguent ensuite le raisonnement du BVwG. D’abord, l’exigence de clarté et de pédagogie issue de l’article 12 RGPD : l’information doit être fournie en termes précis, transparents, compréhensibles et accessibles, dans un langage simple. Ensuite, la finalité de l’article 15 : permettre à la personne concernée de vérifier l’exactitude de ses données et la licéité du traitement, conditionnant l’exercice effectif de ses autres droits, dont la contestation d’une décision automatisée et la présentation de son point de vue au sens de l’article 22, §3. S’agissant du contenu de l’information à délivrer au titre de l’article 15, §1, let. h, la Cour écarte à la fois la simple transmission d’une formule mathématique complexe et la description pas à pas de chaque étape algorithmique ; elle exige au contraire une explication opérationnelle des procédures et principes appliqués, permettant à la personne de comprendre quelles données personnelles ont été utilisées et comment, et, le cas échéant, dans quelle mesure une variation de ces données aurait conduit à un autre résultat. Enfin, la Cour précise la méthode de protection des secrets d’affaires : leur existence ne justifie pas un refus global de l’accès, mais un mécanisme de « boîte noire » où l’autorité de contrôle ou le juge reçoit les éléments sensibles et pèse les intérêts pour définir ce qui peut être communiqué à la personne concernée.

À la reprise de la procédure, la BVwG invite la société à produire l’ensemble des informations et données encore disponibles, avec une explication intelligible de la logique du traitement automatisé et du résultat dans le cas du plaignant, ainsi que toute information permettant de vérifier l’exactitude et la licéité de la décision automatisée, y compris les critères appliqués, leur pondération, la manière dont les catégories de données ont été utilisées et une explication du rattachement du plaignant au score qui lui a été attribué, le tout avec indication spécifique des éléments éventuellement protégés par le secret d’affaires. La cour souligne que cette demande répond directement aux critères posés par la CJUE et fixe un délai bref, jugeant celui-ci adéquat au regard des échanges antérieurs.

La société ne saisit pas cette opportunité. Elle adresse une simple « demande de précisions » en soutenant avoir déjà tout transmis et en s’enquérant de ce que la cour jugerait encore insuffisant, sans produire les éléments requis ni caractériser concrètement l’existence de secrets d’affaires ni, a minima, transmettre ces éléments sensibles à la juridiction pour la pesée d’intérêts. La BVwG constate cette carence, relève que sa requête du 22 avril 2025 était détaillée et sans ambiguïté, et note que l’obligation – dégagée par la CJUE – de transmettre les informations « sensibles » à l’autorité ou au juge pour arbitrage ne souffre pas d’exception générale. Dans ces conditions, l’argument du secret d’affaires demeure non étayé.

Au fond, la cour procède alors à une double analyse, portant d’abord sur l’information relative aux finalités du traitement, ensuite sur l’information « significative » quant à la logique, la portée et les effets visés de la décision automatisée. Sur le premier point, elle retient que la société n’a pas fourni, de manière concrète et intelligible pour la personne concernée, des indications suffisamment déterminées sur les finalités poursuivies par chaque traitement. Les déclarations générales selon lesquelles la société « fournit des informations de crédit » et « des informations marketing », assorties d’énumérations génériques de catégories de données susceptibles d’être traitées, ne satisfont pas l’article 15, §1, let. a, qui requiert une explication ciblée et compréhensible des finalités effectivement mises en œuvre pour la personne et les données en cause. Cette lacune fonde, à elle seule, un constat de violation du droit d’accès.

Sur le second point, au regard de l’article 15, §1, let. h, ls BVwG se réfère aux enseignements de la CJUE dans l’affaire C-203/22 : l’obligation porte sur une véritable explication du mécanisme de décision automatisée, appliqué en l’espèce, et du résultat obtenu. En l’occurrence, les éléments communiqués par la société restent purement généraux et illustratifs ; ils n’indiquent pas, pour la personne du plaignant, quelles données ont été retenues, comment elles ont pesé dans le calcul, ni comment la valeur 2,02 et l’« Ampelscore » 2 ont été obtenus, ni quelle variation des données aurait modifié le résultat. La cour retient que l’information fournie n’est ni suffisamment transparente ni suffisamment traçable et ne permet pas l’exercice effectif des droits prévus à l’article 22, §3. Elle souligne que la société n’a pas davantage démontré l’existence d’un secret d’affaires à protéger ni mis en place le canal de transmission confidentielle au juge pour permettre, le cas échéant, une décision de divulgation partielle. La conséquence est un nouveau constat de violation, cette fois de l’article 15, §1, let. h.

La décision examine aussi les arguments de la société tirés de l’absence d’« effet significatif » sur la personne concernée en cas d’usage du score dans la vente à distance. La cour relève que le débat sur l’applicabilité de l’article 22 RGPD, dans sa dimension « décision produisant des effets juridiques ou affectant de manière significative », n’épuisait pas la question de l’article 15 : même lorsque l’on discute l’ampleur des effets, l’article 15, §1, let. h confère à la personne un véritable droit à l’explication du procédé et du résultat, précisément afin de pouvoir, le cas échéant, contester la décision automatisée et présenter son point de vue. En d’autres termes, l’accès explicatif précède et rend possible la discussion sur l’ampleur des effets. La société, qui se bornait à affirmer la nature e-commerce des traitements et le caractère supposément mineur des conséquences, ne pouvait se dispenser d’expliquer ce qu’elle avait effectivement fait avec les données du plaignant pour produire les scores transmis à ses partenaires.

La BVwG tient également compte d’éléments de fait précis mis au jour pendant l’instruction. Il est établi que la société a, par le passé, calculé et transmis des scores concernant le plaignant, qu’elle dit ne pas avoir stockés mais dont les journaux d’accès et résultats de requête sont conservés pendant sept ans, et qu’elle a qualifié la solvabilité du plaignant de « très bonne ». Elle a aussi décrit, de manière générale, des facteurs entrant dans le calcul, parmi lesquels des éléments issus du contexte de solvabilité (expériences de paiement, procédures d’encaissement, enchères immobilières, faillites), des données d’environnement d’entreprises liées et des données sociodémographiques, avec une pondération notable pour le revenu, la façon de payer et la branche d’activité ; toutefois, aucune déclinaison concrète et intelligible n’a été fournie pour le cas d’espèce, ni aucune explication permettant de comprendre comment ces facteurs se sont combinés pour produire les valeurs communiquées. Cela confirme, selon la cour, le caractère insuffisant de l’accès.

S’agissant du dispositif, la BVwG admet donc la plainte dans la mesure où il constate deux manquements : absence d’informations adéquates sur les finalités au sens de l’article 15, §1, let. a, et absence d’informations « significatives » au sens de l’article 15, §1, let. h sur la logique, la portée et les effets visés de la décision automatisée qu’implique le calcul des scores de solvabilité. Il enjoint à la société de fournir, dans un délai de quatre semaines, sous peine d’exécution, une réponse suffisamment déterminée sur les finalités et une explication répondant aux critères européens sur la logique, la portée et les effets recherchés, en lien concret avec la situation du plaignant.

En résumé, la BVwG s’appuie explicitement sur la « pédagogie » exigée par la CJUE : l’explication ne consiste ni à livrer une formule mathématique ni à détailler chaque micro-étape d’un calcul statistique, mais à décrire les procédures et principes effectivement appliqués, de façon à rendre intelligible l’usage des données personnelles et la formation du résultat, et à indiquer, au besoin, comment des variations des données considérées influeraient sur l’issue. Cette explication doit être assez concrète pour armer la personne concernée en vue de l’exercice de ses droits, notamment la contestation et la présentation de son point de vue. D’autre part, la cour rappelle que l’argument du secret d’affaires déclenche, non un refus général, mais un mécanisme procédural : la transmission à l’autorité de contrôle ou au juge de ce qui est confidentiel, pour une pesée d’intérêts et une éventuelle communication partielle.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Protection des données, RGPD | Tagué , , , , , | Laisser un commentaire

La protection des œuvres créées avec l’assistance de l’IA

Quelques réflexions tirées de P. Bernt Hugenholtz, Copyright and the Expression Engine : Idea and Expression in AI-Assisted Creations, Chi.-Kent L. Rev. Vol. 100, issue 1 (https://scholarship.kentlaw.iit.edu/cklawreview/vol100/iss1/11/):

L’article « Copyright and the Expression Engine: Idea and Expression in AI-Assisted Creations » de P. Bernt Hugenholtz, publié en 2025 dans la Chicago-Kent Law Review, revisite, à l’ère des modèles génératifs, les conclusions d’une étude de 2020 commandée par la Commission européenne à l’Institut de droit de l’information de l’Université d’Amsterdam (IViR).

L’auteur se concentre sur les questions doctrinales relatives à la titularité et à l’étendue de la protection des œuvres assistées par l’IA, en les confrontant aux lignes directrices récentes du Copyright Office américain (USCO) et aux premières décisions nationales, avec l’ambition de montrer que le cadre européen existant reste apte à appréhender la plupart des situations et que, même avec les systèmes génératifs, la marque de l’auteur humain peut et doit être identifiée dans l’œuvre finale.

Il rappelle d’abord le contexte de 2019-2020 : mandaté pour évaluer la nécessité d’une intervention législative, l’IViR a conclu que le droit de l’UE, tel qu’interprété par la Cour de justice (CJUE), offrait déjà des outils suffisants pour traiter les productions assistées par l’IA. La Commission a repris cette conclusion dans son Plan d’action PI de 2020.

La méthodologie retenue reposait sur quatre critères cumulés pour qualifier une « oeuvre » : appartenance au domaine littéraire, scientifique ou artistique au sens de la Convention de Berne, apport intellectuel humain, existence de choix créatifs humains, et expression de ces choix dans le résultat. En pratique, le débat se cristallise sur les troisième et quatrième critères. Pour structurer l’analyse, l’étude distinguait trois moments du processus créatif : la conception (spécifications, choix de style et de moyens), l’exécution (production des brouillons) et la rédaction/finalisation (sélection, montage, corrections, finalisation). L’exécution peut être largement automatisée, mais la conception et la rédaction restent des espaces d’expression humaine. À titre illustratif, « The Next Rembrandt » pouvait, selon ce cadre, être protégé, alors qu’un compte rendu sportif généré automatiquement sans retouches substantielles ne le serait pas ; l’auteur serait en principe l’utilisateur du système, le développeur ne devenant co-auteur qu’en cas de collaboration spécifique.

Puis l’article situe ce cadre face au « tournant » de l’automne 2022 : l’explosion des IA génératives a radicalisé les débats, surtout aux États-Unis, où l’USCO limite fortement l’enregistrement d’œuvres assistées par IA et exige de « dé-revendiquer » les segments jugés « générés ». En Europe, on compte peu de contentieux, ce que l’auteur relie à l’absence de formalités d’enregistrement ; la question de la protection se règle en bout de chaîne devant les tribunaux nationaux. On relèvera une décision tchèque (Taubel Legal) qui refuse la protection à une image obtenue par un prompt générique, ainsi qu’un écho d’une décision de la Beijing Internet Court allant en sens inverse dans un cas plus élaboré.

La première objection doctrinale examinée est celle du « manque de contrôle créatif » du prompteur. L’USCO, s’appuyant notamment sur le dossier « Zarya of the Dawn », estime que les prompts se bornent à indiquer le but à une machine qui décide des éléments expressifs, si bien que l’utilisateur ne serait pas le « maître d’œuvre » de l’image finale. L’auteur concède que, si l’intervention humaine se limite à un prompt simple et isolé, l’œuvre finale n’exprimera pas nécessairement des choix créatifs humains identifiables. La décision tchèque illustre cette hypothèse : un prompt du type « montrer deux mains signant un contrat dans un bureau à Prague » relève davantage de l’idée que de l’expression et ne suffit pas. Mais il souligne que cette description est réductrice par rapport aux pratiques réelles : dans de nombreux flux de travail, l’utilisateur intervient de manière créative à l’amont (conception fine : genre, style, sujet, structure, contraintes) et à l’aval (rédaction : tri de sorties multiples, retouches, cadrage, recadrage, correction des couleurs, montage, réécriture), avec des allers-retours itératifs qui resserrent progressivement la « distance créative » entre prompts et expression finale. Dans ces conditions, les « empreintes » de l’auteur humain sont omniprésentes dans le résultat, au point de rencontrer l’exigence d’originalité telle que conçue par la CJUE (à l’instar de Painer pour la photographie), même si la phase d’exécution est déléguée à la machine.

Il développe ensuite que la « redaction» (finalisation / adaptation etc.) est décisive mais souvent sous-estimée : sélectionner parmi des brouillons, accepter une version comme étant la sienne, la transformer et la finaliser sont autant de choix esthétiques et techniques susceptibles, selon les cas, de suffire à caractériser l’originalité de l’ensemble. Cette lecture, déjà admise pour des œuvres où l’appareil joue un rôle structurant (photographie, cinéma), demeure pertinente lorsque la génération intermédiaire est assurée par un système d’IA. Ainsi, si un simple amateur qui se contente d’un prompt unique risque de ne rien revendiquer, mais un créateur qui enchaîne des centaines de prompts, affine la direction artistique et remanie l’output réalise une contribution personnelle reconnaissable.

La deuxième grande controverse est la place de la distinction idée/expression dans un « système de droits fondé sur les prompts ». Mark Lemley soutient que l’IA générative déplace l’originalité vers des « idées et concepts de haut niveau » et ébranle le test d’atteinte fondé sur la similarité d’expression. Hugenholtz admet que l’IA met au défi ce clivage fondamental, mais il rappelle que l’« expression » ne se réduit pas à la couche syntaxique visible produite par la machine. L’expression juridiquement protégée inclut, depuis longtemps, des niveaux plus abstraits et structurels : intrigue d’un récit, sélection et arrangement d’éléments, architecture d’un logiciel. La doctrine allemande décrit une « forme externe » et une « forme interne » (Gewebe) où réside l’essence de l’œuvre ; transposée à l’IA, la forme interne peut résulter d’itérations de prompts, tandis que la forme externe est partiellement machinique. Entre l’idée pure et l’expression matérialisée, il existe un continuum, plus difficile à baliser dans les arts visuels et la musique que dans l’écrit informatif. Pour des créations fortement conceptuelles (art conceptuel, ready-mades), le droit admet déjà des protections « minces » qui se concentrent sur la reproduction à l’identique ; de même, des œuvres issues de prompts minimaux pourraient n’emporter qu’une protection étroite, quand des productions itératives et « rédigées » se rapprocheraient de l’ampleur de protection des œuvres traditionnelles.

Ce raisonnement s’accompagne d’une mise en garde pratique : il ne s’agit pas de transformer toute intention artistique en monopole large au stade de l’idée, mais de reconnaître, selon l’intensité et la localisation de l’apport humain, une protection proportionnée. Là où l’intervention s’arrête à une intention générique et à un choix parmi quelques variantes, la protection doit rester mince ; là où l’auteur a véritablement façonné l’œuvre par une direction conceptuelle précise et un travail de rédaction substantiel, la protection peut couvrir des variantes plus éloignées, comme c’est le cas pour la photographie d’auteur ou le montage filmique. Cette approche évite d’étouffer le domaine public d’idées tout en ne désarmant pas les créateurs face à des appropriations opportunistes.

La troisième question porte sur la contrefaçon et la preuve de la copie. L’argument de Lemley est que la similarité n’indiquerait plus la copie, puisqu’un tiers pourrait, par d’autres prompts, aboutir à un résultat ressemblant. Hugenholtz distingue : si l’œuvre reprochée provient d’un prompt simple et non retouché, la probabilité d’une « double création » indépendante n’est pas négligeable et, de toute manière, la protection devrait être faible ou inexistante faute d’originalité suffisante. En revanche, plus le processus est itératif et rédigé, plus la probabilité d’une recréation indépendante chute, comme pour les œuvres classiques. Par ailleurs, les outils génératifs conservent souvent des historiques de prompts, ce qui peut objectiver l’enquête sur l’indépendance. Enfin, les obligations de transparence de l’AI Act de l’UE relatives au marquage des contenus synthétiques et à la conformité au droit d’auteur peuvent faciliter, à l’avenir, l’instruction et la prévention, de même que la mise en place de garde-fous techniques par les fournisseurs.

Sur la méthode d’attribution et la titularité, l’article maintient la présomption en faveur de l’utilisateur humain qui a contribué de manière créative ; le fournisseur de modèle n’est pas auteur par défaut, sauf contribution créative au cas d’espèce justifiant une co-auteurité. Ce positionnement répond autant à la logique juridique qu’aux réalités commerciales : il serait dissuasif pour les marchés que les développeurs revendiquent systématiquement des droits en aval sur chaque sortie. Pour un praticien suisse, familier des principes de la Convention de Berne, cette clé de répartition est intelligible : on identifie l’apport humain original exprimé dans le résultat et on rattache la paternité à celui qui l’a fixé dans la forme, en appréciant les faits du dossier.

Dans ses remarques finales, Hugenholtz critique la politique américaine de « dé-revendication » systématique de toute part « plus que de minimis » générée par IA : si l’œuvre mature porte la marque de l’auteur à tous les stades, exiger de séparer une fraction « machine » devient irréaliste et anachronique. L’analogie avec la photographie est parlante : l’appareil a toujours « généré » des aspects essentiels de l’image sans que l’on exige des photographes qu’ils déclarent ces éléments comme non protégeables. Or l’IA s’intègre désormais aux appareils (par exemple, dans les smartphones), automatisant des choix techniques et esthétiques ; il serait absurde d’obliger les créateurs à désosser ces contributions intégrées. L’auteur anticipe aussi une évolution de l’interface créateur-machine : les prompts génériques céderont le pas à des « moteurs d’expression » permettant un contrôle plus direct et plus fin, renforçant encore la traçabilité de l’apport humain.

Au total, le raisonnement se déroule en plusieurs étapes cohérentes. D’abord, les critères et la grille « conception–exécution–rédaction » issus de l’étude IViR restent utiles pour apprécier l’originalité et l’attribution à l’ère de l’IA, autant en Europe qu’aux États-Unis si l’on accepte l’analogie avec la photographie et le cinéma. Ensuite, l’objection du « manque de contrôle » ne tient pas lorsque l’on observe les pratiques itératives, où le rôle humain façonne effectivement l’œuvre à l’amont et à l’aval, même si l’exécution est automatisée. Puis, la dichotomie idée/expression, loin d’être détruite, doit être raffinée : l’expression comprend aussi des couches internes, abstraites et structurelles, déjà admises par la doctrine et la jurisprudence, ce qui autorise une protection proportionnée selon l’intensité de l’apport humain. Enfin, du côté de la contrefaçon, la similarité redevient probante dès lors que l’œuvre revendique une trajectoire créative riche, appuyée demain par des journaux de prompts et des marquages imposés ; les rares cas de double création apparaîtront surtout dans la zone des prompts simples, où la protection devrait de toute façon être limitée. L’ensemble conduit à recommander, pour les contentieux et pour les politiques publiques, d’évaluer la contribution humaine là où elle se trouve réellement, c’est-à-dire dans la direction créative et la mise en forme finale, plutôt que d’ériger une frontière abstraite entre « machine » et « humain » que ni l’histoire des techniques ni la pratique artistique ne justifient.

(L’article est paru dans les actes du colloque AI Disrupting, sous la direction du Professeur Edward Lee, Chicago – Kent Law Revie, vol.  100, Issue 1 (2025), en libre accès ici : https://scholarship.kentlaw.iit.edu/cklawreview/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , | Laisser un commentaire

Travailleurs de l’IA: une rémunération à la tâche ?

Le salaire à la pièce ou à la tâche se caractérise par le fait que le travailleur est rémunéré en fonction de la quantité de travail fournie, et non en rapport au temps mis à disposition de l’employeur. Il ne s’agit pas pour autant d’une situation qui pourrait se voir qualifiée de contrat d’entreprise, car le salarié reste pris dans un rapport de subordination économique et de dépendance juridique envers l’employeur, et il n’est pas tenu non plus par une obligation de moyens mais bien de résultats.

Les dispositions relatives au travail aux pièces ou à la tâche apparaissent vieillies, ou réservées à certains secteurs économiques très particuliers (certaines spécialités dans l’horlogerie par exemple, pour des raisons surtout historiques). C’est oublier que les art. 326-326a CO peuvent aussi tout à fait s’appliquer à des travaux de la nouvelle économie numérique, par exemple dans l’entraînement de l’intelligence artificielle, et qui prévoirait des rémunérations au nombre de « clics », d’évaluations, d’annotations de données, etc. (cf. A.WITZIG, « Art. 326 CO », in L. THEVENOZ/ F. WERRO (édit.), Commentaire romand : Code des obligations I, Bâle 2021, N 4.)

On a souvent soutenu, à raison, que ces tâches sont essentiellement sous-traitées dans le tiers monde, à des conditions souvent contestables. C’était vrai, et cela le demeure largement, mais les modèles d’entrainement ont aussi besoin de prestataires plus sophistiqués ou plus formés, et cela entraîne que ces tâches peuvent aussi, même si dans une moindre mesure, être pratiquées dans les pays développés concernant des questions techniques ou faisant appel à des savoirs particuliers.

Les art. 326 et 326a CO traitent donc spécifiquement des situations où le travailleur est rémunéré aux pièces ou à la tâche.

L’art. 326 CO traite d’abord de la fourniture de travail en cas de travail aux pièces ou à la tâche.

Le risque d’un tel type contrat repose précisément dans l’absence de travail confié, et donc dans l’absence de rémunération et dans l’insécurité qi en résulte pour le travailleur. A teneur de l’art. 326 al. 1 CO, lorsqu’en vertu du contrat le travailleur travaille exclusivement aux pièces ou à la tâche pour un seul employeur, celui-ci doit donc lui fournir du travail en quantité suffisante. Cela signifie que le travailleur doit se voir confier de quoi pouvoir réaliser un revenu pendant toute la durée du temps de travail contractuel.

L’employeur peut charger le travailleur d’un travail payé au temps lorsque les conditions de l’exploitation l’exigent momentanément ou qu’il se trouve, sans faute de sa part, dans l’impossibilité de fournir le travail aux pièces ou à la tâche prévue par le contrat (art. 326 al. 2 CO). Cette disposition rappelle que le salaire au temps est la norme, à laquelle il est possible de revenir nonobstant les dispositions contractuelles dans certaines hypothèses.  Si le salaire payé au temps n’est pas fixé dans un accord, un contrat-type de travail ou une convention collective, l’employeur doit verser au travailleur l’équivalent du salaire moyen aux pièces ou à la tâche qu’il gagnait jusqu’alors (art. 326 al. 3 CO). Enfin, l’employeur qui ne peut pas fournir suffisamment de travail aux pièces ou à la tâche ni de travail payé au temps, n’en reste pas moins tenu, conformément aux dispositions sur la demeure, de payer le salaire qu’il devrait verser pour du travail payé au temps (art. 326 al. 4 CO).

L’art. 326 CO est applicable par analogie au travail sur appel. L’idée est la même : l’employeur ne doit pas pouvoir, unilatéralement, décider en fonction de ses seuls besoins, de la durée du travail et de la rémunération du travailleur. (ATF 125 III 65 consid. 5, p. 70)

L’art. 326a CO traite quant à lui de l’information relative au taux de rémunération.

Lorsqu’en vertu du contrat le travailleur travaille aux pièces ou à la tâche, l’employeur doit donc lui indiquer le taux du salaire avant le début de chaque travail (art. 326a al. 1 CO). Si l’employeur omet de donner ces indications, il paye le salaire selon le taux fixé pour un travail identique ou analogue (art. 326a al. 2 CO).

L’idée est d’éviter que le travailleur ne puisse estimer sa rémunération, et soit empêché de prendre les décisions de la vie quotidienne en rapport.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Qualification du contrat, Salaire | Tagué , , , , , , | Laisser un commentaire

IA : la diffamation par hallucination des Large Language Models

Quelques réflexions tirées de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models (forthcoming in the Journal of Free Speech Law 2025) 25 juillet 2025 (texte disponible ici : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5362314):

L’étude s’ouvre sur un constat: les modèles de langage (LLM) progressent vite et s’installent comme outils de recherche, d’analyse et de rédaction. Les auteurs rappellent l’ambivalence du débat public — utopie d’abondance contre crainte d’accidents sociétaux — mais notent surtout l’usage déjà massif des LLM dans des tâches précises où ils rivalisent par endroits avec l’humain. Ils insistent toutefois sur une propriété clef : ces systèmes génèrent du texte probabiliste, non une « vérité », et produisent inévitablement des contenus « plausibles mais faux », les fameuses « hallucinations ». Celles-ci peuvent prendre la forme de biographies inventées, de citations juridiques apocryphes ou d’écrits judiciaires fictifs. Les éditeurs de modèles peuvent réduire la fréquence de ces sorties, mais pas les éliminer, et les données disponibles suggèrent des taux non négligeables d’erreur selon les contextes. De là naît le problème spécifique de la « diffamation par hallucination » : que faire quand un modèle, répondant à un prompt, « affirme » un fait déshonorant et faux sur une personne ?

Les auteurs soutiennent que le droit de la diffamation, déjà façonné par des siècles d’adaptation aux médias successifs, doit évoluer encore, mais de manière à préserver l’utilité des outils tout en indemnisant les atteintes démontrables.

Pour mettre ce défi en perspective, la Partie I analyse l’affaire Walters v. OpenAI, première décision américaine substantielle sur la diffamation par LLM. En mai 2023, un journaliste interroge ChatGPT à propos d’un litige réel, mais la conversation dévie : le modèle se met à fabriquer un « document » judiciaire accusant le présentateur radio Mark Walters de fraude et de détournement de fonds au détriment d’une association. Le journaliste, qui dispose de documents contredisant cette version, sollicite plusieurs réponses, essuie des excuses et avertissements répétés du modèle sur ses limites, puis contacte Walters ; aucune autre personne ne reçoit la sortie litigieuse. Walters poursuit néanmoins OpenAI en diffamation. Le 19 mai 2025, la juridiction d’État en Géorgie accorde un jugement sommaire à OpenAI. L’ordonnance retient essentiellement que la sortie n’était pas raisonnablement « compréhensible comme factuelle » dans ce contexte truffé de dénégations, d’incohérences et d’indices et que les éléments produits ne confirment pas un préjudice réputationnel effectif. Les auteurs, tout en approuvant l’issue au regard des faits, en pointent les limites conceptuelles et pédagogiques pour les dossiers à venir.

Sur le premier point, la décision estime que, lue « dans son ensemble », la conversation ne pouvait être prise pour un énoncé factuel crédible sur Walters. L’importance pratique est double : d’une part, les avertissements, refus d’obtempérer et contradictions internes du modèle comptent dans l’analyse ; d’autre part, la croyance subjective du récipiendaire (ici le journaliste) — qui n’y a pas cru et a immédiatement vérifié — renforce l’idée d’une absence de « déclaration factuelle » aux yeux d’un lecteur raisonnable. Les auteurs approuvent cette approche pour ce cas précis, tout en avertissant qu’on ne peut en déduire une règle générale neutralisant toute responsabilité des LLM : dans d’autres circonstances, des mises en garde génériques ne suffiraient pas, surtout si des éditeurs vantent parallèlement la fiabilité de leurs produits ou si les usages anthropomorphisent la machine. L’élément clef reste l’examen concret du contexte de publication et de réception.

Sur la faute (« scienter »), l’arrêt rappelle les jalons constitutionnels américains : pour un demandeur public, la preuve d’une connaissance de la fausseté ou d’une indifférence téméraire est exigée. Appliquée à un fournisseur de LLM, cette exigence devient épineuse : une machine n’a pas d’« état d’esprit », et la « décision » d’émettre l’énoncé ne peut être qualifiée d’imprudence humaine. Le tribunal a donc déplacé l’analyse vers la conduite des humains en amont — conception, entraînement, tests, avertissements — et, sur pièces, a jugé ces diligences suffisantes. Les auteurs y voient une première translation de la diffamation vers une logique de « produit » : si faute il y a, elle se prouverait par une expertise sur les choix de design et de gouvernance du modèle, non par une intention éditoriale au moment de « publier » un propos sur un individu. Cela soulève la question pratique du coût de la preuve pour des plaignants individuels et de la volatilité des versions de modèles, ce qui rend fragile la transposition directe des standards classiques du Premier Amendement.

La décision Walters évoque aussi la question des dommages. En droit américain, certaines catégories de diffamation autorisent des dommages « présumés », en reconnaissance de l’insaisissabilité de certaines atteintes relationnelles. Mais quand les éléments établissent que personne d’autre n’a reçu la sortie, que le destinataire n’y a pas cru et que le plaignant n’a pas subi de conséquences concrètes, la base d’une présomption s’effrite. Ici, la capacité d’OpenAI à produire l’historique exact des prompts a joué un rôle probant : elle a permis de démontrer l’absence de diffusion et, partant, la faiblesse du dommage. Les auteurs y voient une piste de politique publique : imposer la conservation proportionnée des logs de requêtes pendant une durée limitée pour objectiver l’étendue d’une diffusion et la réalité du tort.

Enfin, la Partie I aborde un « chemin non pris » par le juge : l’angle de la « publication ». En diffamation, il faut qu’au moins un tiers reçoive l’énoncé. Mais au-delà de ce minimum, le régime de responsabilité varie selon que l’acteur est « éditeur » (publisher) ou « distributeur » : bibliothèques, kiosques et télégraphes ont historiquement bénéficié d’un régime atténué tant qu’ils n’avaient pas connaissance effective du caractère diffamatoire. Les auteurs proposent d’assimiler les producteurs de LLM à des « distributeurs » : ils fournissent un outil qui, à la demande d’un usager, recompose de l’information, sans exercer un contrôle éditorial classique ni garantir la vérité du contenu. Par analogie avec la jurisprudence télégraphique, le droit commun a su exonérer des intermédiaires non passifs quand l’examen ex ante du flux serait impraticable et quand l’intervenant le plus efficace est l’émetteur initial — ici, souvent, l’utilisateur qui « relaye » ensuite le propos. Cette qualification guiderait un équilibre plus juste entre liberté de communiquer et protection de la réputation.

La Partie II délaisse les « fondation models » pour décrire l’essor des « reasoning models », notamment ceux qui exposent une « chaîne de pensée » (chain-of-thought, CoT). Ces systèmes entreprennent une résolution pas-à-pas, parfois avec « double vérification » interne, et promettent des résultats finaux plus exacts. Mais ils introduisent une nouvelle zone de risque : des hallucinations potentiellement diffamatoires peuvent apparaître non pas dans la réponse finale, mais dans les étapes intermédiaires affichées à l’utilisateur, par exemple en nommant des personnes à tort comme auteurs de faits répréhensibles au stade de la « vérification », puis en corrigeant finalement le tir. D’un point de vue responsabilité, ces « micro-hallucinations » exposées créent des vecteurs supplémentaires d’atteinte si elles sont vues, conservées ou réutilisées. Les auteurs citent même des cas où ces CoT auraient aidé le modèle à éviter une erreur finale, ce qui complique davantage le diagnostic juridique : faut-il censurer l’affichage des CoT pour éviter les diffamations intermédiaires au risque de perdre un puissant mécanisme d’audit et d’amélioration de la sûreté ? Leur réponse est prudente : une censure systématique des CoT réduirait la capacité de contrôle et pourrait dégrader la sécurité globale, même si des garde-fous s’imposent.

La même Partie II introduit une taxonomie utile pour les praticiens : des chercheurs de Yale distinguent trois types d’hallucinations — celles infidèles au prompt de l’utilisateur, celles non dérivables du corpus d’entraînement, et celles contraires aux faits du monde. Chacune pose des problèmes différents en diffamation. Quand le modèle résume un document fourni et « déforme » un passage au détriment d’une personne, l’utilisateur a souvent en main la source permettant de vérifier ; fonder une responsabilité lourde du fournisseur de LLM pour une « infidélité au prompt » alors que l’usager pouvait contrôler paraît discutable. À l’inverse, les hallucinations « hors-corpus » peuvent être, paradoxalement, une source de créativité utile, l’outil « pensant autrement » en recombinatoire, mais deviennent dangereuses si elles attribuent des faits pénaux. Enfin, les hallucinations « contra factum » sont les plus délicates : elles produisent de fausses assertions identifiantes sur des personnes — le terrain classique de la diffamation. Les auteurs insistent que, techniquement, la combinaison de probabilité linguistique, de biais et d’incomplétudes de données, et de « volonté » du modèle de « faire plaisir » en comblant les trous explique l’inévitabilité des erreurs. Vouloir les éradiquer totalement reviendrait à sacrifier des fonctions créatives et, en définitive, l’utilité du médium.

Cette inévitabilité a des corollaires normatifs importants. D’abord, l’amélioration continue est réelle — avec la récupération augmentée (RAG), les modèles « montrent leurs sources » et permettent des vérifications en ligne, tandis que les chaînes de pensée offrent une forme d’auto-contrôle — mais elle n’est ni linéaire ni définitive. Ensuite, la transparence de conception et l’ouverture de la recherche favorisent l’innovation sûre ; enfin, certaines hallucinations peuvent être « précieuses » dans des usages créatifs ou heuristiques, y compris pour la pratique juridique, pourvu que l’utilisateur adopte une discipline de « trust but verify ». Ces éléments invitent à calibrer la réponse juridique : punir indistinctement chaque hallucination diffamatoire du modèle risquerait de « geler » un médium informationnel prometteur, sans pour autant mieux protéger les victimes.

La Partie III propose alors des objectifs de politique de communication pour guider l’adaptation du droit de la diffamation à ces systèmes. Le premier est d’indemniser les victimes pour des préjudices prouvables ; le second, de faciliter la correction de l’« ardoise numérique » ; le troisième, d’encourager la transparence et l’innovation en matière de sécurité et d’exactitude ; le quatrième, d’exiger une diligence raisonnable à tous les stades de la chaîne — développeurs, intégrateurs et utilisateurs finaux. Les auteurs insistent sur la nécessité d’un équilibre : ces buts sont en tension et ne relèvent pas tous de la common law de la diffamation. Pour certains, des instruments législatifs ou réglementaires sont plus adaptés, d’autant que la diffamation n’est pas l’outil optimal pour réguler les systèmes d’IA à haut risque extra-informationnels. Mais s’agissant des atteintes réputationnelles issues de sorties textuelles, il est possible d’avancer sans sacrifier la « respiration » du débat public.

Dans cette veine, une proposition concrète concerne l’obligation d’informer : en tort (responsabilité civile) pure, imposer uniformément un devoir d’avertir tous les utilisateurs sur l’ampleur et la nature des hallucinations est peu efficace et fragile. Une voie plus droite passe par la loi : instaurer un devoir statutaire de transparence et d’éducation des utilisateurs, potentiellement articulé à une immunité corrélative, pour généraliser des mises en garde claires sur la vérification indispensable des sorties. Une autre proposition est la conservation limitée des données de requêtes, afin de permettre aux victimes de prouver l’existence et surtout l’étendue de la diffusion d’une sortie diffamatoire ; cette mesure devrait être calibrée temporellement pour limiter les risques de sécurité et de confidentialité. Ces leviers législatifs ont un avantage : ils renforcent la prévention et l’administration de la preuve, plutôt que de compter ex post sur des dommages « présumés » difficilement justifiables lorsque la diffusion est nulle ou marginale.

La Partie IV articule le cadre normatif proposé. Les auteurs suggèrent de traiter les hallucinations diffamatoires — qu’elles surviennent dans la réponse finale ou dans la chaîne de pensée — comme des « erreurs inévitables », à la manière dont la Cour suprême américaine, dans New York Times v. Sullivan, a reconnu que certaines erreurs journalistiques doivent être tolérées pour garantir un débat public « vigoureux et sans entraves ». À partir de là, ils plaident pour une transposition prudente des catégories de responsabilité : assimiler les producteurs de LLM à des « distributeurs » d’information, non à des éditeurs, afin d’éviter d’exiger d’eux un contrôle préalable impossible et de placer la charge principale sur les acteurs les mieux placés pour éviter le tort — souvent l’utilisateur qui répète la fausse allégation sans vérifier. Cette position est cohérente avec l’histoire du droit de la diffamation face au télégraphe : les tribunaux ont reconnu des privilèges larges aux opérateurs, sauf connaissance effective de la malice du message. Dans le monde des LLM, où le fournisseur propose un outil algorithmique qui « remixe » des informations à l’initiative d’un usager, une responsabilité de « distributeur » avec régime de connaissance est, selon les auteurs, adaptée aux objectifs de politique de communication.

Ce basculement s’accompagne de trois pièces complémentaires. Premièrement, un devoir légal de mise en garde et d’éducation des utilisateurs, visible et opérationnel, pour ancrer la norme d’usage « vérifier avant de relayer ». Deuxièmement, une obligation de conservation proportionnée des historiques de requêtes, afin d’objectiver la diffusion et d’éclairer l’évaluation du dommage — mesure qui bénéficierait autant aux demandeurs qu’aux défendeurs en clarifiant rapidement les faits. Troisièmement, une réactivation sans complexe de la responsabilité de l’utilisateur-relais : celui qui reprend une sortie diffamatoire sans diligence est souvent le « cheapest cost avoider », c’est-à-dire l’acteur au moindre coût d’évitement, et doit répondre, comme on le fait déjà pour des journalistes relayant sans vérification une source non fiable. Autrement dit, le droit de la diffamation garderait sa vocation à discipliner les comportements humains fautifs, tandis que la conception, l’entraînement et l’opération d’outils intrinsèquement faillibles seraient régulés par des devoirs d’information, de gouvernance et de traçabilité.

Un élément particulièrement fin du cadre concerne les chaînes de pensée. Les auteurs mettent en garde contre une tentation compréhensible : supprimer l’affichage des CoT pour éviter les diffamations « intermédiaires ». Ce remède, expliquent-ils, saperait un mécanisme déterminant de monitoring de sûreté et de compréhension des erreurs. Pour que les CoT servent à la détection et à la correction des comportements indésirables, elles doivent être « fidèles » au processus décisionnel du modèle. Autrement, on perd l’information nécessaire pour auditer, et on réduit la possibilité de corriger les risques systématiques. L’optimum, suggéré par l’article, réside plutôt dans des garde-fous ciblés et des politiques utilisateur claires, combinés à la qualification « distributeur » et au recentrage de la responsabilité sur la republication non vérifiée par des humains.

La conclusion récapitule la philosophie générale. À chaque révolution médiatique — presse, télégraphe, radio, télévision, internet — le droit américain de la diffamation a modulé ses outils pour ne pas étouffer le médium tout en protégeant la dignité et la réputation. Les LLM raisonnants imposent une nouvelle adaptation : reconnaître que des erreurs diffamatoires surgiront malgré toutes les précautions, les traiter comme des « erreurs inévitables » inhérentes au média, placer sur les producteurs un devoir d’alerte et de traçabilité qui améliore la prévention et la preuve, puis traiter juridiquement les éditeurs de modèles comme des « distributeurs » plutôt que des « éditeurs ». Corrélativement, faire peser la responsabilité principale sur les usagers qui, en connaissance des limites, relaient des allégations graves sans vérification raisonnable. Les auteurs revendiquent une approche modeste et ciblée : il ne s’agit pas d’un programme général de régulation de l’IA, mais d’un ajustement de la diffamation à une classe d’atteintes réputationnelles spécifiques, afin d’allier réparation, correction de l’espace informationnel et maintien d’un espace d’expérimentation sûr et auditable pour un médium appelé à rester.

En définitive, la proposition des auteurs n’invite pas à l’impunité des modèles, mais à un partage des responsabilités conforme à l’économie du risque : des devoirs ex ante d’information et de traçabilité pour les fournisseurs ; une responsabilité de droit commun ciblant l’usager qui publie ou republie ; et, au-dessus, un droit de la diffamation ajusté pour tolérer les « erreurs inévitables » sans renoncer à la réparation des torts prouvés ni à la correction de l’espace numérique. C’est une voie médiane pragmatique, informée par l’histoire des médias et par l’état réel des technologies, qui fournit aux avocats un cadre opérationnel pour conseiller, prévenir et plaider dans un champ appelé à croître.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit pénal, Droit US, intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Droit d’accès au dossier : exception en cas d’évaluation d’un dossier de candidature par des pairs (peer review)

A.________ est professeure associée à la Faculté des sciences de la vie de l’École Polytechnique Fédérale (EPF) de Lausanne (EPFL) depuis 2012.

Le 23 juillet 2019, elle a déposé une demande de promotion auprès de la Doyenne de la Faculté afin d’accéder au statut de professeure ordinaire. Après avoir fait l’objet d’un examen par la présidence des affaires académiques, sa candidature n’a pas été soumise au Conseil des EPF, ce qui a été confirmé par la Commission de recours interne des EPF (ci-après: CRIEPF) le 25 août 2022.

Le 24 octobre 2022, A.________ a demandé à pouvoir consulter son dossier d’évaluation en lien avec sa demande de promotion. Cette demande d’accès a été rejetée par le Président de l’EPFL, le 23 novembre 2022. Il lui a néanmoins communiqué les informations disponibles sur l’origine des données, le but et les bases juridiques du traitement, les catégories de données traitées et de participants au fichier ainsi que les catégories de destinataires des données.

Le recours interjeté contre cette décision a été admis par la CRIEPF, le 15 juin 2023, qui a renvoyé l’affaire à l’EPFL pour qu’elle statue à nouveau dans le sens de ses considérants. L’EPFL a recouru contre cette décision auprès du Tribunal administratif fédéral (ci-après: TAF).

Par arrêt du 12 février 2024, le TAF a admis le recours au sens des considérants et annulé la décision de la CRIEPF. Il a considéré en substance que l’autorité inférieure n’avait pas tenu compte de l’intérêt public au maintien de la confidentialité dans le système d’évaluation par les pairs, que certains documents du dossier de promotion ne pouvaient pas être transmis alors que d’autres pouvaient l’être sans restriction ou moyennant une anonymisation. Il a renvoyé l’affaire à l’EPFL pour nouvelle décision dans le sens des considérants.

Le recours formé par A.________ par acte du 22 mars 2024 contre cet arrêt a été déclaré irrecevable par le Tribunal fédéral dans la cause 1C_182/2024 du 4 avril 2024, au motif que la décision incidente de renvoi ne causait aucun préjudice irréparable à la recourante. Cette dernière conservait en effet la possibilité de recourir contre la nouvelle décision de l’EPFL.

Par décision du 23 mai 2024, l’EPFL a accordé à A.________ l’accès, conformément à l’arrêt du TAF, au dossier de promotion faisant partie de la « Bibliométrie », au document intitulé « Profil de A.________ », à son dossier de candidature, ainsi qu’aux éléments compris dans le « Dossier d’enseignement complet ».

Agissant à nouveau le 22 juin 2024 par recours en matière de droit public, A.________ demande au Tribunal fédéral d’annuler l’arrêt du TAF du 12 février 2024 et de lui accorder un accès complet à son dossier d’évaluation de l’EPFL.

(…)

2.  La recourante fait grief au TAF d’avoir violé la législation sur la protection des données en lui ayant refusé l’accès à son dossier de demande de promotion, plus spécifiquement aux rapports des experts externes et internes qui se sont prononcés sur sa candidature. (…)

2.1. Le droit d’accès en matière de protection des données et le droit de consulter un dossier dans le cadre d’une procédure (cf. art. 26 al. 1 de la loi fédérale du 20 décembre 1968 sur la procédure administrative [PA; RS 172.021]) sont des droits indépendants qui ne sont pas identiques en termes de portée et de conditions. Bien que ces droits peuvent se chevaucher en partie, ils ont chacun leur champ d’application particulier qui n’est pas couvert par l’autre droit (ATF 125 II 473 consid. 4a et 123 II 534 consid. 2e). Le droit de consulter un dossier peut aussi s’appliquer en dehors d’une procédure formelle, pour autant qu’il existe un intérêt particulier digne de protection (ATF 113 Ia 1 consid. 4a et 4d). Quant au droit d’accès à des données personnelles, il peut être invoqué en dehors d’une procédure administrative sans qu’il soit nécessaire de justifier d’un intérêt, mais ne s’étend cependant qu’aux données de la personne concernée (cf. ATF 123 II 543 consid. 2e avec les références). 

Dans le cas d’espèce, la recourante a demandé à l’EPFL de pouvoir accéder à son dossier de candidature en invoquant les dispositions légales de la protection des données personnelles. Le TAF et avant lui la CRIEPF ont ainsi traité cette requête sur la base de ces dispositions, considérant notamment que la procédure d’examen de la demande de promotion était terminée de sorte que l’art. 26 al. 1 PA n’était pas applicable (cf. décision du 15 juin 2023 de la CRIEPF, BK 2022 53 consid. 5). Bien que ce motif avancé ne saurait être décisif, la recourante n’a pas remis en cause l’application des dispositions de la loi sur la protection des données et fonde d’ailleurs son recours sur celles-ci. Elle demande en l’occurrence l’accès à des données personnelles la concernant, de sorte que la cause peut être examinée à l’aune des dispositions régissant l’accès à des données personnelles (cf. ATF 123 II 543 consid. 2f).

2.2. Au 1er septembre 2023, une révision totale de la loi fédérale du 25 septembre 2020 sur la protection des données (LPD; RS 235.1) est entrée en vigueur. Celle-ci ne s’applique pas aux recours pendants contre les décisions de première instance rendues avant son entrée en vigueur (cf. art. 70 LPD), ce qui est le cas des décisions de l’EPFL et de la CRIEPF, de sorte que l’ancien droit demeure applicable. 

 2.2.1. En vertu de l’ancien art. 8 de la loi fédérale du 19 juin 1992 sur la protection des données en vigueur jusqu’au 31 août 2023 (aLPD; RO 1993 1945), toute personne peut demander au maître d’un fichier si des données la concernant sont traitées (al. 1). Le maître du fichier doit lui communiquer: toutes les données la concernant qui sont contenues dans le fichier, y compris les informations disponibles sur l’origine des données (al. 2 let. a); le but et éventuellement la base juridique du traitement, les catégories de données personnelles traitées, de participants au fichier et de destinataires des données (al. 2 let. b). Ce droit de consultation existe indépendamment de tout intérêt; ce n’est qu’en cas de refus de la part du maître du fichier, qu’une pesée d’intérêts doit avoir lieu. La prise en compte de l’intérêt du requérant joue également un rôle lorsque se pose la question d’un éventuel abus de droit (ATF 141 III 119 consid. 7.1.1). 

 2.2.2. Selon l’art. 9 al. 1 aLPD, le maître du fichier peut refuser ou restreindre la communication des renseignements demandés, voire en différer l’octroi, dans la mesure où: une loi au sens formel le prévoit (let. a); les intérêts prépondérants d’un tiers l’exigent (let. b). L’alinéa 2 ajoute qu’un organe fédéral peut refuser ou restreindre la communication des renseignements demandés, voire en différer l’octroi, dans la mesure où: un intérêt public prépondérant, en particulier la sûreté intérieure ou extérieure de la Confédération, l’exige (let. a); la communication des renseignements risque de compromettre une instruction pénale ou une autre procédure d’instruction (let. b). Dès que le motif justifiant le refus, la restriction ou l’ajournement disparaît, l’organe fédéral est tenu de communiquer les renseignements demandés, pour autant que cela ne s’avère pas impossible ou ne nécessite pas un travail disproportionné (al. 3). Il convient de procéder à une mise en balance des intérêts (ATF 138 III 425 consid. 6.1). En principe, si l’anonymisation des documents concernés suffit à protéger les tiers, le droit d’accès du titulaire des données ne devrait pas, sous peine d’une violation du principe de la proportionnalité (cf. art. 4 al. 2 LPD), faire l’objet d’une plus grande restriction (ATF 141 III 119 consid. 6.2). 

2.3. Les rapports de travail du corps professoral de l’EPFL font l’objet d’une ordonnance du Conseil des EPF (cf. art. 17 al. 2 loi fédérale du 4 octobre 1991 sur les écoles polytechniques fédérales [Loi sur les EPF; RS 414.110]). Aux termes de l’art. 3 al. 1 de cette ordonnance du 18 septembre 2003 sur le corps professoral des EPF (RS 172.220.113.40), les deux EPF prennent les mesures nécessaires pour nommer au poste de professeur des scientifiques suisses ou étrangers qui travaillent au plus haut niveau de qualité mesuré aux normes internationalement reconnues dans leurs activités de formation, de recherche et de fourniture de services et qui assurent la continuité et l’excellence de l’enseignement et de la recherche. L’art. 11 règle la promotion au rang de professeur ordinaire qui doit avoir lieu sur la base d’une évaluation. Le processus et les critères de cette évaluation sont définis dans un règlement de la direction de l’EPFL du 4 mai 2004 sur la nomination de professeur associé à professeur ordinaire (règlement de nomination; LEX 4.2.2). 

2.4. Il est indéniable que la recourante dispose d’un intérêt légitime à pouvoir accéder à son dossier de candidature et comprendre les raisons ayant conduit au refus de sa promotion en tant que professeure ordinaire. Étroitement lié à sa liberté personnelle, ce droit d’accès doit lui permettre de contrôler l’exactitude des données qui la concernent et vérifier si leur traitement est conforme au droit (cf. ATF 138 III 425 consid. 5.3 et 122 I 153 consid. 6 b/aa). Dans la mesure où la recourante est identifiée par les rapports litigieux des experts, les informations qu’ils contiennent sont des données personnelles au sens de l’art. 3 let. a aLPD qui doivent en principe lui être communiquées. 

 2.5. Il convient par conséquent d’examiner si un intérêt public ou privé prépondérant justifiait une restriction au droit d’accès. Le TAF a considéré que l’intérêt public au maintien de la confidentialité dans le système d’évaluation par les pairs ( » peer review « ) l’emportait sur l’intérêt de la recourante à accéder aux rapports des experts. 

 2.5.1. Les Hautes écoles suisses, y compris les écoles polytechniques fédérales, représentent l’un des secteurs les plus importants de la recherche, dont les objectifs sont de former des étudiants avancés, d’élargir et maintenir un haut niveau de compétence du corps enseignant, et de mettre à disposition le savoir acquis au profit de la collectivité (cf. Message du 18 novembre 1981 concernant la loi sur la recherche [actuellement loi fédérale du 14 décembre 2012 sur l’encouragement de la recherche et de l’innovation, LERI; RS 420.1], FF 1981 III 989, p. 1005). Il est attendu des EPF qu’elles créent des centres d’excellence et collaborent intensivement avec d’autres hautes écoles, les milieux économiques et l’administration (Message du 14 décembre 1987 concernant la loi sur les EPF, FF 1988 I 697, p. 713). L’assurance de la qualité de l’enseignement, qui est l’une des tâches principales des EPF (cf. art. 10b loi sur les EPF), inclut l’évaluation de la qualité des prestations des professeurs (cf. Message du 27 février 2002 concernant la révision partielle de la loi sur les EPF, FF 2002 3251, p. 3267). 

La nomination à l’EPFL au poste de professeur ordinaire doit répondre à des critères exigeants définis directement par les établissements (cf. art. 3 al. 1 de l’ordonnance sur le corps professoral des EPF). Saisi d’une demande de promotion, le Comité d’évaluation académique de la Faculté (CEA) de l’EPFL exige notamment des lettres de référence de six personnalités reconnues sur le plan international et charge six experts externes de haut niveau de rendre des rapports afin d’évaluer la qualité de la candidature. Les personnes référentes et les rapporteurs doivent faire preuve d’indépendance par rapport au candidat (cf. art. 2 du règlement de nomination). Intitulé « Protection des informations et accès au dossier d’évaluation », l’art. 10 du règlement de nomination indique que le dossier d’évaluation n’est pas accessible au candidat dans un but de protéger ce dernier ainsi que d’assurer la qualité et la véracité des avis émis par les experts. Depuis le 1er septembre 2023, le principe de la confidentialité des documents réunis dans le cadre de la procédure de nomination et d’évaluation des membres du corps professoral, en particulier les évaluations par des pairs et les lettres de référence, est mentionné à l’art. 15 de l’ordonnance du Conseil des EPF du 8 décembre 2022 concernant la protection des données personnelles du personnel du domaine des EPF (OPD-EPF; RS 172.220.113.42). Cette dernière disposition n’est toutefois pas applicable au présent litige dont la décision de première instance a été rendue avant l’entrée en vigueur de la réforme de la LPD (cf. art. 70 LPD).

 2.5.2. Le système de promotion mis en place par l’EPFL se base sur la méthode d’évaluation collective de chercheurs sur l’activité d’un autre chercheur d’une même discipline scientifique (évaluation par les pairs; « peer review »). Ce système, largement éprouvé dans le domaine scientifique, est à la fois utilisé dans la publication de travaux techniques et dans le recrutement ou la promotion de chercheurs. La recourante fait remarquer que seuls les noms des rapporteurs sont traditionnellement anonymisés et non leurs appréciations. 

L’évaluation effectuée par les pairs de la recourante a cependant été menée dans un processus de promotion. Si la publication des avis et critiques d’experts sur les travaux de leurs confrères s’avère justifiée par une optique d’alimenter le débat scientifique et de faire progresser la recherche, ces finalités ne sont pas poursuivies dans le cadre d’une procédure de promotion. Dans une telle procédure, le bon fonctionnement du système impose de garder l’identité des experts et des rapporteurs confidentielle afin de garantir leur totale indépendance. Si leur identité était connue des candidats, ils pourraient être tentés de rédiger leurs mémoires de façon à éviter toute situation conflictuelle et ne seraient ainsi pas en mesure de rendre leur appréciation en toute objectivité. Sans anonymat, il pourrait également exister un risque que les experts refusent tout simplement de se prononcer, rendant leur sélection plus difficile. L’activité de recherche expérimentale du cancer du sein de la recourante porte, au demeurant, sur un domaine spécialisé, impliquant nécessairement des relations mutuelles étroites entre les différents chercheurs de ce secteur, dans lequel des rapporteurs qualifiés susceptibles d’émettre des avis neutres seraient d’autant plus difficile à trouver. La confidentialité est par ailleurs aussi la règle dans le cadre de l’institution londonienne que la recourante cite, laquelle interdit expressément de divulguer toute information qui permettrait d’identifier les personnes de référence. Il n’est de même pas dénué d’intérêt de vouloir garder l’identité des experts internes (membres du CEA de l’EPFL et de la faculté) confidentielle afin de maintenir une ambiance de travail sereine au sein de l’institution. Enfin, compte tenu de l’art. 10 du règlement de nomination, les personnes impliquées en qualité de rapporteur dans la procédure d’évaluation des candidats pouvaient s’attendre à ce que leurs appréciations et déclarations ne soient pas révélées à la personne concernée. Ils ont pris position sur la candidature de la recourante, en se fondant sur des critères objectifs et à l’initiative du CEA de l’intimée, de sorte que leur intérêt à la confidentialité doit également être pris en considération dans la pesée des intérêts (cf. ATF 122 I 153 consid. 6 c/bb; cf. aussi arrêt 1C_74/2015 du 2 décembre 2015 consid. 4, in ZBI 118/2014 94, en particulier par rapport à l’intérêt, qui peut s’opposer à la transparence, de la protection des données des personnes évaluées).

Au vu de ces éléments, le TAF pouvait sans violer le droit fédéral retenir que la mise en balance des intérêts penchait, en l’occurrence, en faveur du maintien de la confidentialité.

 2.6. La restriction au droit d’accès de la recourante étant justifiée par des intérêts prépondérants, il convient encore d’examiner si une mesure moins incisive aurait pu être ordonnée. 

Le TAF a considéré qu’une mesure d’anonymisation des rapports ne serait pas suffisante et que l’intégralité des documents ne pouvait pas être transmise à la recourante. Un caviardage limité aux noms des experts ne permettrait en effet pas de garantir leur identité confidentielle, dès lors qu’ils indiquaient la nature de leurs relations professionnelles passées ou présentes avec la recourante, ainsi que leur domaine de compétence. La recourante soutient qu’une anonymisation limitée au nom des experts serait suffisante, mais ne remet cependant pas en cause le fait qu’elle pourrait les identifier sur la base de leurs explications dans les rapports. Dans ces conditions, un caviardage limité aux noms des experts ne serait effectivement pas apte à garder leur identité secrète. Afin de maintenir ces rapports intelligibles, une anonymisation des autres informations susceptibles d’identifier les experts n’entre également pas en ligne de compte. Le TAF pouvait ainsi considérer que les documents litigieux ne pouvaient pas faire l’objet d’une mesure moins incisive qu’un refus complet de transmission. Le refus d’accès aux documents litigieux respecte dans ces conditions le principe de la proportionnalité.

(TF 1C_375/2024 du 1er mai 2025, consid. 2)

Me Philippe Ehrenström, avocat, LLM

Publié dans nouvelle LPD, Protection des données | Tagué , , , , , , | Laisser un commentaire

Abandon d’emploi : droit de l’employeur à une indemnité ?

Le recourant [= l’employeur] soutient ensuite que la cour cantonale a violé le droit en rejetant sa prétention au titre de dommage-intérêts pour les conséquences du congé immédiat injustifié donné par la travailleuse. Il invoque une violation de l’art. 337d CO.

Le recourant se prévaut de l’art. 337d al. 1 CO et de l’ATF 118 II 277 qui, selon lui, lui donneraient droit à une indemnité forfaitaire sans devoir apporter la preuve d’un dommage.

 Il y a abandon d’emploi selon l’art. 337d CO lorsque le travailleur quitte son poste abruptement sans justes motifs. L’application de cette disposition présuppose un refus du travailleur de poursuivre l’exécution du travail confié. Dans ce cas, le contrat de travail prend fin immédiatement, sans que l’employeur doive adresser au salarié une résiliation immédiate de son contrat.

L’employeur a droit, aux conditions fixées par l’art. 337d CO, à une indemnité et, le cas échéant, à la réparation du dommage supplémentaire (arrêt 4A_35/2017 du 31 mai 2017 consid. 4.2; ATF 121 V 277 consid. 3a).

Lorsque l’abandon d’emploi ne résulte pas d’une déclaration expresse du salarié, il faut examiner s’il découle du comportement adopté par l’intéressé, c’est-à-dire d’actes concluants. Dans cette hypothèse, on se demandera si, compte tenu de toutes les circonstances, l’employeur pouvait, objectivement et de bonne foi, comprendre que le salarié entendait quitter son emploi (arrêts 4A_454/2022 du 17 novembre 2022 consid. 4.1; 4C.303/2005 du 1er décembre 2005 consid. 2.2; 4C.370/2001 du 14 mars 2002 consid. 2a). 

Le juge peut réduire l’indemnité selon sa libre appréciation si l’employeur ne subit aucun dommage ou si le dommage est inférieur à l’indemnité prévue à l’art. 337d al. 1 CO (art. 337d al. 2 CO).

 Il n’est plus contesté à ce stade que la travailleuse a abandonné son emploi en signifiant son congé immédiat de façon injustifiée, dans la mesure où les faits de harcèlement subis par elle ne suffisaient pas à justifier une résiliation immédiate. 

La cour cantonale a retenu que l’employeur n’avait subi aucun dommage du fait de l’abandon de poste de la travailleuse. En effet, lorsque la travailleuse a abandonné son poste le 28 juin 2021, elle était en incapacité de travail depuis le 7 juin 2021. L’employeur devait déjà avoir pris des mesures organisationnelles dès cette date. De plus, la travailleuse étant toujours en incapacité de travail le 28 juin 2021, l’employeur aurait de toute façon dû trouver une solution de repli, de sorte qu’il n’avait pas démontré avoir subi un quelconque dommage au titre de congé immédiat injustifié.

Faisant application de l’art. 337d al. 2 CO, la cour cantonale a considéré que l’employeur n’avait pas démontré avoir subi un quelconque dommage et a ainsi rejeté l’indemnisation forfaitaire de l’art. 337d al. 1 CO.

Le recourant, qui soutient que la faculté de réduire le montant alloué en vertu de l’art. 337d al. 2 CO ne permet pas pour autant au juge de supprimer toute indemnité forfaitaire, ne saurait être suivi. 

Par la fixation d’une indemnité forfaitaire prévue à l’art. 337d al. 1 CO, le législateur a pris en compte le fait qu’en cas de départ injustifié de l’employé, la preuve du dommage est souvent difficile à établir pour l’employeur (ATF 118 II 312 consid. 2a). Néanmoins, l’art. 337d al. 2 CO dispose que le juge peut réduire l’indemnité au-dessous de ce qui est prévu à l’al. 1 si le travailleur prouve que l’employeur ne subit aucun dommage ou qu’un dommage plus faible. La preuve en est fournie notamment s’il est démontré que l’employeur a omis de prendre immédiatement les dispositions nécessaires pour empêcher ou réduire le dommage (Message du Conseil fédéral concernant la révision des titres dixième et dixième bis du code des obligations [Du contrat de travail], du 25 août 1967, FF 1967 II, p. 401).

Or, en l’espèce, la cour cantonale a retenu, au stade de la constatation des faits, que l’employeur aurait dû prendre immédiatement les dispositions nécessaires pour empêcher le dommage, dès le 7 juin 2021, ou en tout cas avant le 28 juin 2021. En conséquence, elle a réduit à néant l’indemnité à l’employeur, en application de l’art. 337d al. 2 CO. Le recourant, qui soutient que l’art. 337d al. 2 CO n’accorde pas au juge la marge de manœuvre permettant de supprimer toute indemnité, se trompe. Le Message mentionne expressément le cas où l’employeur ne subit aucun dommage. Or la loi ne prévoit pas le paiement d’une indemnité en l’absence de tout dommage. Tout au plus, l’art. 337d al. 1 CO prévoit-il un allègement de la preuve pour l’employeur, mais pas une indemnité forfaitaire indépendante de l’existence d’un dommage. Lorsque le travailleur prouve que l’employeur ne subit aucun dommage du fait de son abandon de poste, le juge peut supprimer toute indemnité en vertu de l’art. 337d al. 2 CO.

Le caractère impératif de l’art. 337d CO (dans son ensemble, selon l’art. 361 al. 1 CO) invoqué par le recourant n’y change rien dans la mesure où les parties n’y ont pas dérogé.

Quant à sa dernière remarque concernant le fardeau de la preuve de l’absence de dommage, le recourant perd de vue que lorsque l’appréciation des preuves convainc le juge que le fait litigieux est établi, la répartition du fardeau de la preuve (art. 8 CC) n’a plus d’objet (ATF 141 III 241 consid. 3.2 et les références).

 Par conséquent, le grief de violation de l’art. 337d al. 1 et 2 CO et de l’art. 8 CC doit être rejeté. 

(TF 4A_533/2024 du 24 juin 2025, consid. 4)

Me Philippe Ehrenström, avocat, LLM

Publié dans Fin des rapports de travail, Responsabilité du travailleur | Tagué , , , , , , | Laisser un commentaire

L’avocat et le risque de l’intelligence artificielle cachée

A propos d’un « Order » du Juge Alison S. Bachus du 14 août 2025 dans Argelia Esther Mavy v. Commissioner of Social Security Administration, United States District Court for the District of Arizona (No. CV-25-00689-PHX-KML (ASB)) :

L’affaire naît d’un litige de sécurité sociale aux États-Unis. La demanderesse, représentée par une avocate admise dans le district fédéral d’Arizona, avait introduit une action en février 2025. Comme c’est l’usage, un mémoire introductif fut déposé pour défendre la position de la cliente. L’administration de la sécurité sociale a répondu, mais aucune réplique n’a été déposée.

C’est lors de l’examen du premier mémoire de la demanderesse que la cour a constaté un problème d’une ampleur inhabituelle. En effet, la grande majorité des références jurisprudentielles citées dans ce mémoire étaient soit inexistantes, soit erronées, soit tronquées ou présentées de manière trompeuse. Certaines semblaient avoir toutes les caractéristiques de ce que l’on appelle des « hallucinations » générées par des outils d’intelligence artificielle, c’est-à-dire des décisions inventées de toutes pièces mais rédigées avec l’apparence du réel : noms de parties plausibles, juridictions valables, dates crédibles.

Face à ce constat, la cour a ordonné à l’avocate de s’expliquer. Celle-ci a répondu qu’elle prenait l’entière responsabilité du mémoire, tout en expliquant le fonctionnement interne de son cabinet. Elle a décrit une chaîne de préparation des écritures en quatre étapes : une sélection préalable des affaires, une délégation de la rédaction à un avocat externe, une révision par un avocat superviseur au sein du cabinet, puis enfin une relecture personnelle avant signature. Elle a ajouté qu’elle s’était fiée au professionnalisme de la rédactrice externe, qu’elle avait en outre transmis à cette dernière une note officielle émanant d’un tribunal fédéral rappelant la vigilance requise face à l’usage de l’IA et la nécessité de vérifier les citations, et que la rédactrice avait accusé réception de cet avertissement. Malgré cela, le mémoire déposé contenait de très nombreux passages problématiques.

Dans sa réponse, l’avocate a insisté sur le fait qu’elle n’avait jamais eu l’intention de tromper le tribunal et qu’elle avait depuis lors rompu toute relation contractuelle avec la rédactrice externe. Elle a proposé de corriger le mémoire, de déposer une version amendée et de mettre en place de nouvelles procédures internes. Mais elle a aussi demandé à la cour de ne pas la sanctionner, ni de révoquer son admission, en invoquant l’importance de son cabinet pour l’accès à la justice des assurés sociaux à travers le pays.

Le tribunal a replacé l’affaire dans le cadre de la règle 11 des Federal Rules of Civil Procedure.

Cette règle impose à tout avocat signataire d’un acte de procédure de certifier qu’à sa connaissance, après enquête raisonnable, les arguments avancés sont fondés en droit. La jurisprudence américaine a souligné que cette obligation est personnelle et non délégable : l’avocat qui signe doit avoir vérifié lui-même que ce qu’il avance est juridiquement défendable. Il ne peut s’abriter derrière le travail d’un subordonné, d’un associé ou d’un prestataire externe. Ce point est fondamental, car il met en lumière le risque caché d’un usage incontrôlé de l’IA : l’avocat qui signe un document généré, même partiellement, par une machine, reste entièrement responsable de son contenu.

Le juge a procédé à une analyse minutieuse du mémoire en question. Dix-neuf citations y figuraient. À peine cinq à sept pouvaient être considérées comme exactes et pertinentes. Les autres étaient inexactes, sorties de leur contexte, attribuées à la mauvaise juridiction, voire totalement inventées. Trois décisions citées n’existaient tout simplement pas, alors même qu’elles étaient attribuées à des juges fédéraux bien réels. Ce procédé est grave, car il associe faussement le nom d’un magistrat à une opinion fictive, ce qui risque de nuire à la réputation de la justice et de semer la confusion.

L’avocate n’a pas reconnu expressément avoir eu recours à un outil d’intelligence artificielle, mais son propre tableau correctif qualifie certaines références de « probablement fabriquées par l’IA ». La cour a estimé que peu importait, au fond, de savoir si le recours à l’IA était avéré. Le problème réside dans le fait que des décisions inexistantes ou mal citées ont été présentées comme vraies au tribunal. C’est là une fausse déclaration de droit, peu importe que l’origine de l’erreur soit humaine ou algorithmique.

Le juge a rappelé que plusieurs cours fédérales avaient déjà été confrontées à ce type de problème et avaient dégagé une ligne claire : citer un arrêt inexistant ou déformer son contenu constitue une violation de la règle 11, indépendamment de la bonne ou mauvaise foi de l’avocat. L’obligation est objective et repose sur une vérification raisonnable. Or, en l’espèce, la vérification n’avait pas eu lieu. L’avocate avait délégué et signé sans contrôler. Cette omission équivaut à une violation manifeste de son devoir procédural.

S’agissant des sanctions, le juge a noté que la règle 11 permet une grande latitude, à condition que la mesure soit proportionnée et vise à prévenir la répétition du comportement. La jurisprudence montre une gradation : amendes, obligations de suivre des formations, interdiction temporaire, transmission au barreau, voire radiation. Dans certains cas récents, la sévérité a été renforcée parce que les sanctions plus légères ne suffisaient pas à endiguer le phénomène. La cour d’appel fédérale a même déjà frappé d’irrecevabilité un mémoire truffé de références fictives, en considérant que le reliquat valide n’était d’aucune utilité.

Dans cette affaire, le juge a retenu plusieurs éléments aggravants. D’abord, l’ampleur du problème : ce n’était pas une citation isolée, mais la majorité des références. Ensuite, la conscience préalable du risque : l’avocate avait elle-même diffusé à ses collaborateurs l’avertissement d’un autre tribunal sur l’usage de l’IA. Malgré cela, elle n’avait pris aucune mesure pour vérifier elle-même la conformité du mémoire. De plus, le dépôt de ce mémoire a désorganisé le cours normal de la procédure et obligé le tribunal à consacrer un temps précieux à une enquête disciplinaire au lieu d’examiner le fond du litige. Enfin, le fait d’avoir attribué des arrêts fictifs à des juges réels est particulièrement grave pour l’intégrité du système judiciaire.

Certes, l’avocate avait exprimé des regrets et proposé de corriger ses pratiques. Mais le juge a estimé que de simples excuses ne suffisaient pas, et que le dépôt d’un mémoire corrigé ne pouvait effacer le tort causé, ni restaurer le temps perdu, ni compenser le risque d’atteinte à la confiance du public. Laisser passer un tel incident reviendrait à encourager un usage laxiste de l’IA : les avocats pourraient se dire que, s’ils tombent, il leur suffira de corriger ensuite. Or, la leçon doit être claire : signer un écrit sans l’avoir vérifié engage personnellement et immédiatement la responsabilité de l’avocat.

En conséquence, la cour a prononcé un ensemble de sanctions. Le statut pro hac vice (admission pour la procédure dans ce ressort) de l’avocate a été révoqué et elle a été retirée du dossier. Le mémoire introductif a été écarté du dossier comme frappé de nullité. La demanderesse a été informée de la situation et a reçu un délai pour désigner un nouvel avocat ou se défendre seule. L’avocate sanctionnée a été obligée d’écrire personnellement aux trois juges auxquels elle avait faussement attribué des arrêts inexistants, pour les en informer et leur présenter la décision. Elle a été tenue également de notifier la présente ordonnance à tous les juges devant lesquels elle plaide dans d’autres affaires à travers le pays, afin de prévenir d’éventuelles irrégularités similaires. Enfin, le tribunal a décidé de transmettre le dossier au barreau de l’État de Washington, où l’avocate est inscrite, afin que l’autorité disciplinaire statue sur d’éventuelles conséquences supplémentaires.

En guise de note finale, le juge a souligné que l’affaire illustre de manière criante les risques cachés que recèle l’usage de l’IA par les avocats. L’outil peut générer du contenu apparemment crédible mais juridiquement faux, et si l’avocat signe sans vérifier, il se rend coupable de présenter de fausses affirmations de droit au tribunal. Ce danger est d’autant plus grand que l’IA est désormais banalisée et facilement accessible. La tentation est réelle de gagner du temps, mais elle ne dispense en rien du devoir de contrôle. Le juge a insisté : l’utilisation responsable de l’IA n’est pas interdite, mais elle impose un double devoir de vigilance et de vérification. Ne pas s’assurer de la fiabilité des citations, c’est abdiquer sa fonction d’avocat et contribuer à la perte de confiance dans la justice.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

L’introduction de l’intelligence artificielle générative dans l’économie et ses effets

Quelques réflexions du MIT tirées de A. CHALLAPALLY et al., The Great GenAI Divide. State of AI in Business 2025, MIT Nanda Group, juillet 2025 (https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf):

Introduction

Le rapport dresse un constat étonnant : malgré 30 à 40 milliards de dollars d’investissements cumulés dans la GenAI (intelligence artificielle générative) par les entreprises, environ 95 % des organisations n’en tirent aucun rendement mesurable. Seule une minorité — environ 5 %— génère des gains de plusieurs millions, tandis que la vaste majorité reste bloquée sans impact sur le compte d’exploitation. Selon les auteurs, l’explication n’est ni la qualité des modèles ni la régulation, mais l’« approche » suivie par acheteurs et fournisseurs.

Autrement dit, l’écart de performance — la « GenAI Divide » — procède d’un différentiel de méthode et d’exécution. Les outils grand public type ChatGPT ou Copilot sont massivement testés et partiellement déployés, mais ils élèvent surtout la productivité individuelle sans transformer les comptes de pertes et profits (P&L).

À l’inverse, les systèmes « entreprise », qu’ils soient sur mesure ou fournis par des éditeurs, sont largement rejetés : beaucoup sont évalués, peu passent en pilote, et une infime fraction atteint la production. Les causes récurrentes sont des flux de travail fragiles, un déficit d’apprentissage contextuel et un faible alignement avec l’opérationnel. Le véritable obstacle n’est pas l’infrastructure, la pénurie de talents ou la conformité ; c’est l’absence de « learning » continu : la plupart des systèmes ne retiennent pas le feedback, ne s’adaptent pas au contexte, ne s’améliorent pas au fil du temps.

À l’opposé, un petit groupe d’acheteurs et de vendeurs obtient des résultats en exigeant des solutions centrées sur les processus, capables d’intégration profonde et d’apprentissage persistant. Là où des impacts RH existent, ils demeurent sélectifs (support client, ingénierie logicielle, fonctions administratives) et s’accompagnent d’économies claires sur les BPO (Business Practice Outsourcing)  et agences externes, ainsi que d’améliorations de rétention et de conversion commerciale, autant d’indices que des systèmes apprenants et ciblés peuvent délivrer de la valeur sans bouleversement organisationnel majeur.

Le « mauvais côté » de la GenAI Divide : adoption élevée, transformation faible

Les auteurs objectivent la fracture au niveau sectoriel via un indice composite de disruption (volatilité des parts de marché, croissance d’acteurs nés après 2020, nouveaux modèles IA, changements d’usage attribuables à la GenAI, réorganisations exécutives liées aux outils IA). Verdict : seule la technologie et, dans une moindre mesure, les médias & télécoms montrent des signes probants de mutation structurelle ; sept autres secteurs restent dominés par des pilotes sans transformation. Cette hiérarchie résiste aux variations de pondération des critères. De nombreuses entreprises pilotent, très peu industrialisent ; les outils génériques plaisent pour des tâches ponctuelles, les solutions sur mesure se heurtent à l’intégration, au manque de mémoire et à l’inadéquation aux usages. Notamment, les grands groupes multiplient les pilotes mais « scalent » moins que les entreprises de taille intermédiaire plus agiles, lesquelles réussissent parfois à passer du pilote au déploiement en 90 jours, quand les grandes entreprises dépassent fréquemment neuf mois. Les auteurs réfutent cinq idées reçues : pas de remplacements massifs de postes à court terme ; l’adoption ne vaut pas transformation ; les grandes entreprises sont en réalité très actives en exploration ; le principal frein n’est pas la qualité de modèle ou le juridique mais l’absence d’apprentissage et l’intégration déficiente ; enfin, les « meilleurs » ne sont pas forcément ceux qui construisent en interne, car ces projets échouent deux fois plus souvent que les partenariats externes.

Pourquoi les pilotes s’enlisent : le « learning gap »

Le chapitre centralise les causes d’échec de montée en charge. Un sondage auprès de sponsors exécutifs et d’utilisateurs place la résistance au changement au premier rang, mais juste derrière apparaissent des facteurs liés à la qualité perçue des modèles, au manque d’UX (User Experience) et surtout à l’absence d’apprentissage contextuel. Paradoxe : les mêmes professionnels qui utilisent avec enthousiasme des interfaces grand public comme ChatGPT se montrent circonspects face aux outils internes qui, bien que basés sur des modèles analogues, ne s’adaptent pas, ne mémorisent pas et ne s’améliorent pas. Les outils génériques gagnent pour la rédaction et l’idéation car ils sont flexibles, rapides et familiers ; ils perdent pour les activités critiques, où 90 % des répondants préfèrent l’humain en raison d’un besoin de mémoire des préférences, de persistance du contexte et de personnalisation des workflows. Le « gap » est donc structurel : sans mémoire, sans apprentissage et sans adaptation, l’IA reste cantonnée aux tâches simples. Les auteurs introduisent ici la notion d’« Agentic AI » : des systèmes conçus avec mémoire persistante, apprentissage itératif et orchestration autonome, capables de prendre en charge des processus de bout en bout (support, finance transactionnelle, pipeline commercial) et de combler précisément les lacunes mises au jour.

Une dynamique éclairante complète ce diagnostic : l’« économie de l’ombre » de l’IA.

Bien que peu d’organisations achètent des abonnements officiels, l’usage personnel des LLM par les employés est massif et quotidien, avec des gains visibles — souvent supérieurs aux initiatives officielles —, tout en restant non intégré, non gouverné et non cumulatif pour l’entreprise. Les organisations qui savent capitaliser sur ces usages en les cartographiant puis en achetant des équivalents entreprise dotés de mémoire et d’intégrations, se donnent les moyens de franchir la Divide.

Franchir la Divide côté « builders » : ce que font les meilleurs fournisseurs

Les éditeurs et startups qui réussissent se différencient par trois traits : focalisation sur des cas étroits mais à forte valeur, enracinement profond dans les workflows, et apprentissage continu pour « scaler » par l’amélioration et non par l’empilement de fonctionnalités. Les acheteurs plébiscitent les solutions qui retiennent le contexte, apprennent des feedbacks et se personnalisent au processus — des capacités explicitement demandées par près des deux tiers des dirigeants interrogés. Les critères d’achat réels, tels que décrits par les décideurs, sont la confiance dans le fournisseur, l’intimité avec le métier, le minimum de perturbation des outils en place, des frontières de données claires et la capacité démontrée à s’améliorer dans le temps. Dans les marchés de confiance (juridique, santé, finance), la défiance envers les jeunes pousses reste élevée : les partenariats via des intégrateurs, les recommandations de pairs, de conseils d’administration ou d’écosystèmes jouent un rôle décisif dans l’accès et la conversion. Les segments gagnants aujourd’hui sont pragmatiques : voix/centre d’appels (synthèse et routage), automatisation documentaire (contrats, formulaires), génération de code répétitif. À l’inverse, les offres qui prétendent piloter des logiques internes complexes ou de l’optimisation « boîte noire » se heurtent aux frictions d’adoption.

Franchir la Divide côté « buyers » : ce que font les meilleurs acheteurs

Les organisations efficaces achètent et co-développent davantage qu’elles ne construisent seules, et traitent les fournisseurs IA comme des prestataires de services opérationnels plutôt que comme des éditeurs SaaS génériques. Elles exigent des personnalisations profondes alignées sur leurs données et procédures, évaluent sur des résultats « métier » et pas des benchmarks de modèles, acceptent des itérations de mise au point, et décentralisent l’initiative vers les responsables de proximité — souvent des « power users » qui ont déjà rodé les cas d’usage via des outils grand public. Sur l’échantillon étudié, les partenariats externes aboutissent environ deux fois plus souvent que les constructions internes ; ils procurent un time-to-value plus court, un coût total plus faible et une meilleure adoption utilisateur, sous réserve des limites méthodologiques admises par les auteurs. Le design d’organisation est crucial : la délégation d’autorité pour expérimenter, combinée à une responsabilisation claire sur les résultats, explique davantage la réussite que la taille du budget ou du dispositif central.

Les auteurs renversent aussi un biais d’allocation. Bien que la moitié des budgets GenAI se dirige vers les ventes et le marketing — en partie parce que les indicateurs y sont plus immédiats et « board-friendly » —, les retours tangibles les plus nets apparaissent souvent au « back-office » : élimination partielle de BPO, réduction de 30 % des dépenses d’agence, économies substantielles en contrôle de risques, accélération des clôtures comptables et de la conformité documentaire. Ces gains surviennent généralement sans plans de licenciements internes massifs : l’IA accélère et relocalise, elle substitue des dépenses externes et libère des capacités.

Impact sur l’emploi : une réalité nuancée, des trajectoires divergentes

Les effets sur l’emploi, observés chez les adopteurs avancés et dans les secteurs réellement disruptés, se concentrent là où les activités sont déjà standardisées et souvent externalisées : support client, traitement administratif, développement logiciel répétitif. Les réductions évoquées dans ces périmètres oscillent entre 5 % et 20 % chez les entreprises concernées, mais il n’existe pas de tendance de licenciements généralisés. À l’horizon 24 mois, technologie et médias pourraient réduire les volumes de recrutement, alors que santé, énergie et industries de base ne projettent pas de contraction, même si certains dirigeants anticipent une modération des embauches lorsque les systèmes deviendront pleinement apprenants. En recrutement, l’« IA literacy » devient un critère déterminant, parfois plus répandu chez les jeunes diplômés que chez des profils expérimentés. En toile de fond, l’analyse « Project Iceberg » du MIT estime l’automatisation actuelle possible à environ 2,27 % de la valeur du travail américain, pour une exposition latente de 2,3 trillions de dollars et 39 millions de postes potentiellement affectés si — et seulement si — les systèmes gagnent en mémoire, apprentissage et autonomie d’outillage. Pour l’instant, la transformation passe davantage par l’optimisation des coûts externes que par des restructurations internes.

Au-delà des agents : vers un « Agentic Web »

Les auteurs esquissent la prochaine étape : un « agentic web » où des systèmes autonomes découvrent, négocient et coordonnent à l’échelle d’Internet. Grâce à des protocoles comme MCP, A2A et NANDA, des agents spécialisés coopèrent sans architecture monolithique, composent des intégrations dynamiques sans connecteurs préconstruits, déclenchent des transactions de manière fiable (jusqu’à des smart contracts) et optimisent des chaînes de valeur qui traversent les frontières organisationnelles. Des expérimentations laissent entrevoir des agents d’achats capables d’identifier de nouveaux fournisseurs et de négocier des termes, des services client qui orchestrent plusieurs plateformes, et des chaînes de création de contenu dotées d’assurance qualité et de paiements automatisés. La thèse est que le passage de « prompts » isolés à une coordination protocolisée décentralisée transformera la façon dont les entreprises découvrent, intègrent et transigent, et qu’il creusera l’écart entre ceux qui auront ancré des capacités apprenantes et les autres.

Conclusion : comment combler la GenAI Divide

Pour « passer de l’autre côté », trois décisions semblent s’imposer.

Premièrement, privilégier l’achat-partenariat au « tout construire » afin d’accéder plus vite à des briques qui apprennent dans le contexte propre à l’entreprise.

Deuxièmement, responsabiliser les managers de terrain — souvent à l’origine des cas utiles — plutôt que d’attendre une validation centralisée exhaustive.

Troisièmement, sélectionner des systèmes qui s’intègrent profondément aux flux existants, retiennent le contexte, se bonifient avec l’usage et rendent des comptes sur des métriques business.

Les organisations qui persisteront à investir dans des outils statiques et « prompt-dépendants » resteront piégées dans la phase pilote. Celles qui co-développent des agents dotés de mémoire et d’orchestration, adossés à des protocoles d’interopérabilité, verrouilleront des avantages cumulatifs difficiles à rattraper.

Méthodologie et limites

Le rapport s’appuie sur une recherche multi-méthodes conduite entre janvier et juin 2025 : analyse systématique de plus de 300 initiatives publiques, 52 entretiens structurés auprès d’organisations variées et 153 réponses de dirigeants collectées sur quatre conférences sectorielles. La « réussite » est définie comme un déploiement au-delà du pilote avec des KPI mesurables, l’impact ROI étant évalué six mois après le pilote et ajusté à la taille des départements. Les auteurs précisent les limites : échantillonnage non exhaustif, auto-sélection des répondants, hétérogénéité des métriques de succès, observation parfois trop courte pour juger des projets complexes. Les scores de disruption, fondés sur des signaux publics et des appréciations d’entretiens, peuvent ignorer des développements privés. Les pourcentages « build vs buy » et les distributions d’investissements fonctionnels doivent être lus comme directionnels. Pour autant, les tendances — écart pilote-production, avantage des partenariats, ROI back-office, centralité du « learning » — sont robustes sur l’échantillon et convergentes avec les témoignages recueillis.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Les références fournies par l’employeur à propos d’un ancien employé

Quelques réflexions tirées de TF 4A_493/2024 du 17 juin 2025 consid. 3 et 4 :

L’art. 330a CO prévoit expressément le droit du travailleur à un certificat de travail complet ou à une simple attestation. En revanche, aucune disposition ne mentionne les références fournies par l’employeur à propos d’un ancien employé.

Toutefois, la doctrine et la pratique admettent que les références relèvent de la post-contractual duty of care de l’employeur, dérivée de la protection de la personnalité du travailleur (art. 328b CO) et de l’obligation d’assurer son avenir économique.

En effet l’art. 330a CO n’épuise pas la question. Certes, seule la remise du certificat est expressément prévue, mais la jurisprudence et la doctrine reconnaissent que l’employeur doit, en vertu de son devoir de protection postcontractuel, donner des références lorsqu’elles sont demandées et que cela ne lui occasionne pas de difficultés insurmontables. Ce devoir n’est pas absolu mais il existe en principe, et il est renforcé par l’idée que le certificat et la référence poursuivent le même but : faciliter la réinsertion du travailleur et protéger sa réputation.

Les références sont un traitement de données personnelles. Elles tombent donc sous le coup de l’art. 328b CO et de la LPD. Cela signifie que l’employeur ne peut délivrer de références qu’avec le consentement du travailleur, ou si un motif justificatif existe (art. 31 LPD). En pratique, l’usage veut que l’ancien employeur n’agisse que sur demande expresse du travailleur ou avec son accord, ce qui était le cas ici, puisque l’employé avait expressément sollicité la référence pour son nouvel engagement.

Le Tribunal fédéral insiste sur le fait que la référence doit compléter le certificat sans le contredire ni l’élargir de manière abusive. Elle peut préciser des points, donner un éclairage, mais elle ne doit pas miner la confiance placée par le travailleur et les tiers dans le certificat. Si l’employeur sort de ce cadre, en avançant des appréciations qui contredisent ou relativisent le certificat, il porte atteinte à la personnalité du travailleur et engage sa responsabilité. À l’inverse, refuser de donner toute référence sans motif valable peut également constituer une violation du devoir de protection.

L’employeur engage sa responsabilité civile s’il fournit une référence inexacte, mensongère ou dénigrante, ou s’il refuse arbitrairement de répondre à un potentiel employeur. Le dommage consiste notamment dans la perte d’une chance professionnelle ou d’un salaire futur. Cette responsabilité est impérative.

Concernant le délai de délivrance, la loi ne fixe pas de délai précis. Par analogie avec l’art. 75 CO, l’exécution doit être immédiate, mais cela doit s’entendre conformément à la bonne foi, donc en tenant compte de la complexité des informations, de la taille de l’entreprise et de la durée des rapports de travail. La doctrine est partagée : certains estiment qu’un certificat doit être fourni en quelques jours, d’autres admettent un délai de deux à trois semaines. Le Tribunal fédéral se garde de trancher définitivement, mais il souligne que dans le cas d’espèce, un délai de dix jours observé par une grande entreprise internationale confrontée à une demande délicate n’est pas critiquable.

L’arrêt souligne plusieurs points pour la pratique :

Existence du devoir de donner des références : il découle de la protection de la personnalité et de la finalité du certificat de travail, même s’il n’est pas prévu expressément dans le CO.

Qualification en termes de données personnelles : toute référence est un traitement de données personnelles soumis à l’art. 328b CO et à la LPD-

Fonction de la référence : elle complète le certificat, sans le contredire ni l’élargir de manière abusive.

Responsabilité de l’employeur : un refus arbitraire ou une référence trompeuse engage sa responsabilité.

Délai de délivrance : il doit être immédiat au sens de l’art. 75 CO, mais modulé selon les circonstances. Un délai de dix jours peut être admis dans une grande entreprise pour une demande complexe.

Me Philippe Ehrenström, avocat, LLM

Publié dans Certificat de travail, nouvelle LPD, Protection de la personnalité, Protection des données | Tagué , , , , , , | Laisser un commentaire