A propos

Ce que vous devez savoir de ce site :

Ce que vous pouvez connaître de son auteur :

Ce qu’il faut faire si vous avez des questions sur le droit du travail ou de la protection des données :

Lisez également notre Déclaration de protection des données:

https://wordpress.com/page/droitdutravailensuisse.com/8103

Bonne lecture !

Me Philippe Ehrenström, avocat, LLM, CAS, Yverdon-les-Bains

Publié dans Non classé | Tagué , , , , , | Laisser un commentaire

Après Thaler, les vraies questions du copyright face à l’IA

Le billet de blog d’Aaron Moss, Thaler Is Dead. Now for the AI Copyright Questions That Actually Matter, 8 mars 2026 (https://copyrightlately.com/thaler-is-dead-ai-copyright-questions/) revient sur l’affaire Thaler v Perlmutter, que nous avions évoquée aussi ici : https://droitdutravailensuisse.com/2026/03/06/pas-dauteur-humain-pas-de-copyright-encore-thaler-v-perlmutter/.

Aaron Moss soutient d’abord qu’une grande partie des commentaires publiés après le refus de la Cour suprême des États-Unis d’examiner l’affaire Thaler v. Perlmutter ont mal présenté la portée de cet épisode. L’auteur explique qu’il ne s’agit pas d’un arrêt de la Cour suprême sur le fond. La Cour a seulement refusé de se saisir du dossier, ce qui laisse en place la décision de la cour d’appel fédérale du District of Columbia rendue en mars 2025, sans créer pour autant une nouvelle règle générale par la seule force de ce refus. Autrement dit, la Cour suprême n’a pas dit que toute œuvre générée par intelligence artificielle est exclue du copyright; elle a simplement laissé subsister une décision antérieure, dans un dossier construit de manière volontairement extrême.

L’auteur insiste ensuite sur le fait que l’affaire Thaler était un mauvais véhicule pour répondre aux vraies questions. Stephen Thaler avait organisé son dossier de façon à poser la question la plus simple possible : il avait désigné son système d’IA comme unique auteur de l’image, avait nié toute contribution créative humaine, puis avait malgré cela demandé un enregistrement du copyright. Dans une telle configuration, l’échec était presque inévitable. La décision laissée en place par le refus de la Cour suprême est donc étroite: elle affirme que le droit d’auteur américain suppose un auteur humain, mais elle précise aussi que cette exigence n’exclut pas automatiquement les œuvres réalisées avec l’aide de l’IA. Ce qui est exclu, c’est l’idée qu’une machine puisse elle-même être auteur. Ce que l’arrêt ne tranche pas, et que le billet veut remettre au centre, ce sont les cas intermédiaires, ceux où l’être humain et l’outil interviennent ensemble.

À partir de là, le billet expose quatre questions qui, selon l’auteur, sont désormais les seules qui comptent vraiment.

La première porte sur le degré de participation humaine nécessaire pour qu’il y ait œuvre protégeable. L’auteur rappelle que l’Office américain du copyright a déjà essayé de tracer une ligne. D’un côté, certains usages de l’IA ne font pas perdre la protection: employer l’IA comme simple outil d’assistance, par exemple pour corriger un texte, améliorer la netteté d’une image ou ajuster des couleurs, ne remet pas en cause la protection de l’ensemble. De même, lorsqu’une œuvre plus vaste comprend certains éléments générés par IA, les parties humaines peuvent rester protégées, même si les éléments purement générés doivent être exclus de la revendication. Le billet cite à ce propos la décision Zarya of the Dawn: dans cette bande dessinée, les images obtenues avec Midjourney n’ont pas été reconnues comme protégeables, mais le texte rédigé par l’humain ainsi que le choix et l’agencement des éléments ont été admis comme relevant d’une création humaine. Les visuels reproduits dans le document illustrent précisément cette idée en montrant, aux pages 3 et 4, d’un côté l’œuvre de Thaler, présentée comme non appropriable, et de l’autre la couverture et des planches de Zarya of the Dawn, pour lesquelles seule une partie du résultat a été jugée protégeable.

L’autre extrémité de la ligne, selon l’Office, est celle du simple prompt. Le billet explique que, pour l’instant, l’Office considère que la seule rédaction de prompts ne donne pas à l’utilisateur un contrôle suffisant sur la forme expressive finale. Dans cette vision, l’utilisateur ne fait qu’indiquer une direction générale, un peu comme un client donnant des instructions à un prestataire, sans fixer lui-même les choix expressifs concrets qui se retrouvent dans l’image finale.

Le billet présente ensuite l’affaire Allen v. Perlmutter comme le premier véritable test de cette thèse. Jason Allen conteste le refus d’enregistrer l’image Théâtre D’opéra Spatial, obtenue avec Midjourney et primée dans une foire d’État au Colorado. L’auteur détaille les faits invoqués par Allen: au moins 624 prompts, l’usage des fonctions de variation et d’agrandissement de Midjourney, puis des retouches dans Photoshop avant un nouvel agrandissement. L’idée est claire: on n’est plus face à quelqu’un qui entre une consigne sommaire et accepte le premier résultat venu, mais face à un processus long, itératif et orienté par une intention créative. Pourtant, malgré cet effort, l’Office soutient que les éléments expressifs fondamentaux de l’image proviennent toujours de Midjourney et non d’Allen. Les pages 4 et 5 du fichier appuient ce point en montrant l’image concernée et en rappelant le nombre très élevé de prompts utilisés.

Le cœur du désaccord apparaît alors. L’Office estime que le fait de multiplier les prompts revient surtout à relancer la machine jusqu’à trouver un résultat satisfaisant, sans pour autant contrôler réellement l’expression finale. Dans le billet, cette idée est décrite comme une logique de “re-rolling”, c’est-à-dire de nouveaux tirages successifs. Allen répond à l’inverse que ce raisonnement mélange deux questions distinctes: d’une part, la distinction classique entre l’idée et son expression, qui limite l’étendue de la protection; d’autre part, la question préalable de savoir qui a effectivement façonné l’expression retenue. Selon lui, lorsqu’il a précisé le genre, la tonalité, les couleurs, la composition et le style à travers des centaines d’itérations, il n’a pas fourni de simples idées abstraites, mais a pris des décisions concrètes qui se reflètent dans l’image finale. Le billet montre bien que, pour l’auteur, le vrai litige est là: le prompting doit-il être vu comme une véritable activité d’auteur, ou seulement comme une activité de sélection et de tri parmi des propositions de la machine? Thaler posait la question la plus simple, celle où il n’y avait aucune intervention humaine revendiquée. Allen pose la question difficile, celle où l’intervention humaine est abondante, mais peut-être encore insuffisante au regard du droit actuel.

La deuxième grande question porte sur la preuve. Le billet souligne que, dès lors qu’on accepte en principe qu’une œuvre assistée par IA puisse, dans certains cas, être protégée, tout le système dépend de la capacité à distinguer ce que l’humain a fait de ce que la machine a produit. En théorie, cette distinction paraît simple; en pratique, elle est difficile à établir. Au stade de l’enregistrement, les exigences de l’Office restent relativement modestes: lorsqu’une œuvre contient plus qu’une part négligeable de contenu généré par IA, le déposant doit l’indiquer, exclure ce contenu de la revendication, et décrire brièvement sa propre contribution humaine. Mais l’auteur estime que ce système crée une incitation malsaine. La personne honnête qui révèle l’intervention de l’IA constitue un dossier public qui pourra plus tard être utilisé contre elle pour contester la portée de son droit. Si, plusieurs années après, un litige survient, elle n’aura peut-être plus les fichiers intermédiaires, les historiques de prompts, les versions successives ou les couches de retouche nécessaires pour démontrer précisément la part de création humaine. À l’inverse, celui qui ne déclare rien laisse beaucoup moins de traces. Certes, le droit prévoit des moyens de réagir en cas de déclaration inexacte ou frauduleuse, mais ces moyens restent pour l’essentiel réactifs: ils ne fonctionnent que si l’omission est découverte. Le billet en déduit que le système actuel récompense moins la précision que le silence.

L’auteur ajoute que le problème ne se limite pas à la phase administrative. Même si l’Office accepte une demande, rien ne dit qu’un tribunal se satisfera plus tard d’une brève description figurant sur le formulaire d’enregistrement. À ce jour, aucun standard probatoire clair n’a encore été formulé par les juridictions américaines pour déterminer ce qu’il faut produire afin de prouver une paternité humaine suffisante dans une œuvre assistée par IA. C’est pourquoi le billet formule une recommandation pratique: quiconque crée des contenus commercialement importants avec de tels outils devrait documenter son processus beaucoup plus soigneusement qu’il ne le ferait d’ordinaire, en conservant les prompts, les versions intermédiaires, les comparaisons avant-après et des notes sur l’intention poursuivie et les modifications apportées au fil du travail. Le raisonnement est simple: si la frontière juridique dépend de faits très fins sur le mode de création, alors il faut être capable de reconstituer ces faits plus tard.

La troisième question examinée par le billet concerne le marché des licences. L’auteur observe qu’en pratique, pendant que les juristes discutent de la notion d’auteur, les acteurs économiques commercialisent déjà massivement des productions générées par IA: éléments graphiques, musiques, code, environnements de jeux, textes publicitaires, présentations, scénarimages, montages préliminaires. Tout cela circule avec des clauses de droits, comme si l’existence d’un copyright sur ces sorties allait de soi. Or le billet soutient que cette hypothèse est souvent non vérifiée. L’exemple choisi vient du monde du logiciel: un mainteneur d’une bibliothèque Python très utilisée a indiqué avoir recodé l’outil “from scratch” avec l’aide d’un agent de codage fondé sur l’IA, puis a changé la licence du projet dans un sens plus permissif. Le créateur initial a contesté cette présentation en soutenant que la connaissance approfondie du code d’origine empêchait de parler d’une réécriture indépendante et que la licence d’origine continuait donc à s’appliquer. Une vive controverse s’est ensuivie, mais, selon l’auteur, presque personne n’a posé la question préalable: la nouvelle version générée avec l’aide de l’IA est-elle elle-même protégeable? Si elle ne l’est pas, une partie du débat sur la licence risque de manquer sa cible. Les pages 7 et 8 du document présentent explicitement cet exemple et insistent sur ce décalage entre les discussions concrètes du marché et la fragilité éventuelle de leur base juridique.

L’idée n’est pas, pour l’auteur, que toute transaction portant sur un contenu généré par IA serait dépourvue de valeur. Il reconnaît qu’un modèle économique peut reposer sur le contrat, sur le contrôle d’accès, sur la curation, la personnalisation, le support ou simplement la commodité. On peut donc vendre de l’accès et des services même en l’absence de copyright solide sur le contenu lui-même. Mais le billet insiste sur la différence fondamentale entre le contrat et le copyright. Le contrat n’oblige que les parties qui l’ont accepté. Le copyright, lui, vaut à l’égard de tous. Dès lors, le vrai problème apparaîtra lorsqu’une entreprise tentera de faire valoir un droit sur un contenu généré par IA contre un tiers qui n’a signé aucun contrat. C’est à ce moment que l’éventuel vide de protection deviendra déterminant. Le raisonnement de l’auteur est donc le suivant: le marché fonctionne aujourd’hui comme si la question était déjà résolue, alors qu’en réalité il repose souvent sur une supposition encore incertaine.

La quatrième et dernière question vise un malentendu inverse. Selon l’auteur, beaucoup de commentateurs ont cru qu’une œuvre non protégeable parce que trop liée à la machine évoluerait dans une sorte de zone libre de copyright. Le billet répond nettement que c’est faux. Une sortie d’IA peut très bien ne pas être appropriable par son utilisateur et, en même temps, porter atteinte au droit d’auteur d’un tiers. En droit américain, l’œuvre contrefaisante n’a pas besoin d’être elle-même protégeable. Une simple photocopie, une transcription manuscrite ou un enregistrement pirate peuvent déjà constituer des atteintes. De la même manière, une production d’IA qui reproduit de manière trop proche une expression protégée peut être contrefaisante, même si personne ne peut revendiquer un copyright propre sur cette production. Le billet insiste sur ce point parce qu’il révèle une asymétrie importante: l’absence de droit exclusif sur sa propre sortie n’immunise nullement contre le risque de violer le droit d’autrui.

L’auteur ajoute que cette difficulté n’est plus théorique. Les tribunaux commencent déjà à examiner des litiges portant sur des sorties générées par IA, notamment lorsque ces sorties prennent la forme de résumés d’articles de presse ou de résumés narratifs d’œuvres littéraires. Le billet note que les premiers résultats sont hésitants et peu cohérents. Dans une décision d’avril 2025 dans l’affaire New York Times v. Microsoft, le juge Sidney Stein a rejeté des griefs fondés sur des résumés en puces d’articles journalistiques, estimant en substance qu’ils n’étaient pas suffisamment similaires. Quelques semaines plus tard, le même juge a cependant laissé prospérer des demandes d’auteurs de fiction fondées sur un résumé narratif généré par ChatGPT, au motif qu’il pouvait reprendre de manière plausible le ton d’ensemble et la sensation générale de l’œuvre originale. Le billet n’entre pas dans tous les détails techniques de ces décisions, mais il s’en sert pour illustrer l’instabilité actuelle du droit. Ce qui ressort est que les tribunaux tâtonnent encore pour savoir à partir de quel degré de reprise une sortie d’IA bascule dans la contrefaçon.

Enfin, le billet relève que, lorsqu’il y a effectivement atteinte, la question des responsables devient très vite complexe. Le développeur du modèle a conçu et entretenu le système, la plateforme l’a mis à disposition, l’utilisateur final a demandé le résultat litigieux. La responsabilité pourrait donc peser sur l’un, sur l’autre, ou sur plusieurs à la fois. Or, là encore, aucun cadre stabilisé n’existe encore.

L’auteur conclut ainsi que le véritable héritage de Thaler n’est pas de fermer le débat, mais au contraire de déplacer l’attention vers une zone beaucoup plus difficile, plus grise et plus importante en pratique. L’affaire Thaler élimine seulement le cas extrême où l’on prétend qu’une machine seule est auteur. Tout le reste demeure ouvert: combien d’intervention humaine suffit, comment la prouver, quels droits on peut réellement concéder sur des contenus produits avec l’IA, et comment traiter le risque de contrefaçon lorsque ces contenus reprennent trop fidèlement des œuvres antérieures. La thèse générale du billet est donc que nous sommes entrés dans une phase moins spectaculaire mais plus décisive: non plus celle des slogans sur “l’IA et le copyright”, mais celle des questions de frontière, de preuve, de marché et de responsabilité, qui vont structurer le contentieux à venir.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en protection des données – Entreprise et administration

Publié dans droit d'auteur, Droit US, intelligence artificielle, Propriété intellectuelle | Laisser un commentaire

L’IA qui donne des conseils juridiques individualisés

A propos d’Eran Kahana, Designed to Cross: Why Nippon Life v. OpenAI Is a Product Liability Case, 7 mars 2026 (https://law.stanford.edu/2026/03/07/designed-to-cross-why-nippon-life-v-openai-is-a-product-liability-case/):

Le billet soutient que l’affaire Nippon Life v. OpenAI doit être comprise avant tout comme une affaire de responsabilité du fait d’un produit défectueux, et non principalement comme une affaire d’exercice illégal du droit. L’auteur part d’un cas concret.

Une assurée, Graciela Dela Torre, avait conclu en janvier 2024 un accord mettant fin à son litige en matière d’assurance invalidité. Persuadée ensuite que son avocat l’avait trompée, elle a soumis à ChatGPT des échanges avec celui-ci. Le système a confirmé ses soupçons. Elle a alors renvoyé son avocat, tenté de rouvrir l’affaire réglée et multiplié les écritures en justice, que les tribunaux ont jugées sans portée pratique ni base légitime. En mars 2026, Nippon Life a assigné OpenAI pour obtenir le remboursement des coûts que cette séquence lui aurait causés.

Pour l’auteur, le problème central n’est pas que l’IA aurait simplement “inventé” des choses. Le vrai problème est un problème de conception : le système a été construit de façon à franchir une limite qu’il aurait dû refuser de franchir.

Cette limite, que l’auteur appelle depuis 2012 le “seuil infranchissable”, sert à distinguer deux activités. D’un côté, un système peut fournir de l’information juridique générale, comparer des situations ou exposer des règles. De l’autre, il peut formuler, pour une personne donnée, une conclusion juridique adaptée à sa situation précise. Selon l’auteur, c’est là que commence la zone interdite. Le point important est que cette limite ne dépend ni de l’exactitude de la réponse, ni de la présence d’avertissements dans les conditions d’utilisation. Elle dépend de ce que le système est conçu pour faire et, surtout, de ce qu’il est conçu pour refuser.

Un système bien conçu doit être capable de dire non lorsqu’on lui demande de trancher un problème juridique individuel sans garanties suffisantes. D’après l’auteur, ChatGPT n’avait pas cette architecture de refus. Il a donc franchi le seuil lorsqu’il a affirmé à Dela Torre que les conseils de son avocat étaient erronés. À cet instant, il ne donnait plus une information générale: il rendait une conclusion juridique individualisée sur une relation avocat-client particulière, sans connaître la juridiction applicable, sans maîtriser l’historique complet du dossier et sans garde-fou empêchant ce type de réponse.

L’auteur rappelle ensuite une idée qu’il défend depuis plusieurs années: le risque ne doit pas être analysé seulement à partir de chaque réponse produite, mais à partir de la conception du système. Les règles qui interdisent à des non-avocats de pratiquer le droit visent, selon lui, à protéger le public et le bon fonctionnement de la justice contre l’incompétence. Si un outil d’IA juridique respecte ce principe de protection, il pourrait bénéficier d’une forme de tolérance ou de validation préalable. L’auteur évoquait déjà en 2012 l’idée d’un contrôle par un tiers avant la mise sur le marché, un peu comme une procédure de validation. Son reproche à OpenAI est précisément de n’avoir rien mis en place de comparable.

Le billet développe ensuite un second thème, celui de l’asymétrie d’information. En théorie, une IA juridique peut réduire le déséquilibre entre une institution bien conseillée et un particulier qui ne comprend ni les règles ni le langage juridique et n’a pas les moyens de consulter un avocat. Dans le cas de Dela Torre, cette promesse expliquait le recours à ChatGPT: elle avait le sentiment d’être seule face à une compagnie d’assurance et à des professionnels du droit.

Mais, selon l’auteur, l’IA n’a pas supprimé l’asymétrie; elle l’a déplacée. L’ancienne asymétrie opposait la cliente à l’assureur. La nouvelle l’opposait à un système qui imitait un raisonnement juridique sans comprendre les contraintes juridiques réelles de sa situation. L’utilisatrice ne pouvait pas savoir quand la machine cessait d’informer pour commencer à conseiller. Et la machine n’avait aucun mécanisme pour le lui signaler. Le cas illustre donc à la fois l’utilité sociale potentielle de ces outils et le danger d’un accès “facile” à un substitut qui n’est pas conçu de manière sûre.

L’auteur relie ensuite ce risque à la manière dont OpenAI a présenté ChatGPT au public. Il souligne que l’entreprise a mis en avant le fait que le système pouvait réussir l’examen du barreau. Pour lui, ce type de message n’est pas neutre: il invite les utilisateurs à s’y fier comme à un quasi-avocat. Or cette promesse de capacité n’était pas accompagnée d’une architecture empêchant les usages juridiques dangereux. Lorsque, en octobre 2024, OpenAI a ajouté dans ses conditions d’utilisation une interdiction de se fonder sur ChatGPT pour obtenir un conseil juridique, l’auteur n’y voit pas une vraie solution. Pour lui, c’est seulement un avertissement rédigé en texte, donc une tentative de déplacer la responsabilité vers l’utilisateur, pas un garde-fou technique. Un avertissement n’empêche pas le système de franchir le seuil; il constate seulement le danger après coup.

Sur le terrain procédural, l’auteur reconnaît que l’action de Nippon Life comporte des points solides. Selon lui, les griefs tirés de l’ingérence fautive et de l’abus de procédure sont intéressants parce qu’ils n’obligent pas le juge à décider si une IA “pratique le droit” au sens classique. Il suffit de montrer qu’un système, de manière prévisible, a conduit à des actes de procédure sans fondement qui ont causé un dommage à un tiers. Mais il estime que l’action reste mal formulée sur le plan théorique lorsqu’elle s’appuie trop directement sur l’idée d’exercice illégal du droit. À ses yeux, ces règles ont été conçues pour encadrer des personnes humaines se présentant comme avocats. Les appliquer directement à une société qui développe un système d’IA revient à traiter l’outil comme l’acteur principal et le concepteur comme un simple spectateur.

L’auteur propose une autre approche: distinguer la responsabilité pour le contenu exact d’une réponse et la négligence dans l’architecture du système. La première serait pratiquement sans limite, car chaque conversation pourrait devenir un litige. La seconde est plus gérable: elle demande si le concepteur a mis en place des contrôles raisonnables pour éviter une catégorie de dommages prévisibles. Selon lui, c’est cette seconde question que les tribunaux devraient trancher.

C’est à partir de là que l’auteur opère le basculement vers la responsabilité du fait des produits.

Il explique qu’un produit est défectueux par sa conception lorsqu’un risque prévisible aurait pu être réduit par une autre conception raisonnable. En l’espèce, le risque était clair: un grand modèle de langage, présenté comme capable de réussir l’examen du barreau, mis à disposition du grand public, utilisé par des personnes engagées dans de vrais litiges, sans barrières empêchant des conclusions juridiques individualisées. Le dommage qui a suivi n’avait rien d’extraordinaire: une personne non représentée a renvoyé son avocat, tenté de rouvrir un dossier clos et déposé des écritures sans fondement. Pour l’auteur, c’était une conséquence prévisible.

Il ajoute que des solutions de remplacement existaient depuis longtemps: refus automatiques des conclusions juridiques personnalisées, indication explicite de la juridiction et des limites du système au moment de la réponse, validation indépendante avant déploiement dans les usages juridiques. Rien de cela n’était hors de portée technique. Ces solutions étaient seulement contraires à un objectif de fluidité maximale du produit. En d’autres termes, le système a été conçu pour répondre, alors qu’un système destiné à être utilisé dans des contextes juridiques aurait dû être conçu pour refuser dans certains cas. C’est pourquoi l’auteur estime que la meilleure qualification est celle du fabricant qui met sur le marché un produit insuffisamment sécurisé dans un environnement réglementé.

Le billet ajoute enfin un risque encore plus grave pour l’utilisateur lui-même: la perte du secret attaché à sa stratégie juridique. L’auteur cite deux décisions fédérales américaines du 10 février 2026 qui auraient traité pour la première fois cette question. Dans l’une, une cour a refusé la protection du secret professionnel et du travail préparatoire pour des documents générés via une version grand public d’un outil d’IA, notamment parce qu’il n’existait ni relation humaine de confiance avec un professionnel soumis à des obligations, ni véritable confidentialité. Dans l’autre, une autre juridiction a admis une protection au titre du travail préparatoire pour des documents préparés par une partie se représentant elle-même avec l’aide de ChatGPT. L’auteur estime que la différence tient moins à l’outil qu’au cadre de son utilisation: intervention ou non d’un avocat, niveau de confidentialité offert par la plateforme, situation procédurale de l’utilisateur. Dans le cas de Dela Torre, ces garanties faisaient défaut. En important sur une plateforme grand public des échanges avec son avocat, elle a pu exposer sa stratégie à un tiers sans protection. Là encore, l’auteur y voit non pas une simple erreur d’utilisatrice, mais une conséquence prévisible d’un système non conçu pour distinguer une consultation juridique confidentielle d’une requête générale.

La conclusion du billet est normative. L’auteur estime que cette affaire devrait pousser les juges et les autorités à définir un cadre sûr pour les applications d’IA juridique. Ce cadre ne devrait pas reposer sur des consignes de comportement ou des clauses contractuelles, mais sur l’architecture du système. Il propose trois exigences. Premièrement, des refus techniques impossibles à contourner lorsque l’utilisateur demande une conclusion juridique adaptée à son cas. Deuxièmement, une traçabilité suffisante, dans un environnement confidentiel piloté par des avocats, pour comprendre comment une réponse juridique a été produite. Troisièmement, une conscience minimale du contexte juridique, notamment de la juridiction, des règles locales et de la posture procédurale du dossier. Selon lui, ces éléments donneraient aux développeurs un objectif clair, aux juges un standard de diligence et aux utilisateurs un système capable de reconnaître ce qu’il ne doit pas dire. Son idée centrale est donc la suivante : l’enjeu n’est pas de savoir abstraitement si l’IA est un avocat, mais de savoir si son concepteur a mis sur le marché un produit dont il était prévisible qu’il franchirait une limite juridique dangereuse sans protections suffisantes. C’est pour cette raison que, selon l’auteur, l’affaire doit être lue d’abord comme une affaire de responsabilité du fait d’un produit défectueux.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

Pas d’auteur humain, pas de copyright : encore Thaler v Perlmutter

A propos de Andres Guadamuz, No, the US Supreme Court did not declare that AI works cannot be copyrighted, TechnoLlama, 6 mars 2026 (https://www.technollama.co.uk/no-the-us-supreme-court-did-not-declare-that-ai-works-cannot-be-copyrighted):

Andres Guadamuz, sur son excellent blog, revient sur une information largement reprise en ligne, et qui est fausse ou, au minimum, très trompeuse.

Beaucoup de titres ont affirmé que la Cour suprême des États-Unis aurait décidé, dans l’affaire Thaler v Perlmutter, que les œuvres générées par l’IA ne pouvaient pas être protégées par le droit d’auteur. Or, ce n’est pas ce qui s’est passé. La Cour suprême n’a pas rendu d’arrêt sur le fond. Elle a seulement refusé d’examiner l’affaire.

En droit américain, ce refus ne signifie ni approbation ni désaccord avec la décision précédente. Il ne crée pas, à lui seul, une règle nouvelle applicable à tout le pays. Il a simplement pour effet de laisser intacte la décision rendue auparavant par la cour d’appel fédérale saisie du dossier. C’est le point de départ essentiel du billet: corriger une lecture médiatique inexacte d’un événement procédural assez banal.

L’auteur explique ensuite le contexte du litige.

L’affaire porte sur une image intitulée A Recent Entrance to Paradise, produite en 2012 par un système appelé Creativity Machine, développé par Stephen Thaler. Ce dernier est connu dans les milieux de la propriété intellectuelle pour plusieurs contentieux visant à faire reconnaître des droits sur des créations ou inventions attribuées à des machines. Son idée, dans cette série d’affaires, est constante: soutenir que l’IA peut être reconnue comme auteur en droit d’auteur ou comme inventeur en droit des brevets. Dans le cas présent, il a demandé l’enregistrement de l’image auprès du Copyright Office américain en indiquant non pas un humain, mais la machine elle-même comme auteure, tout en se désignant comme titulaire des droits. Le billet insiste sur ce point, car il conditionne toute l’analyse: l’affaire ne porte pas sur une œuvre créée par un humain avec l’aide d’une IA, mais sur une œuvre revendiquée comme entièrement créée par une machine, sans apport créatif humain revendiqué.

Le Copyright Office a refusé l’enregistrement, précisément parce qu’il n’y avait pas d’auteur humain. Thaler a contesté ce refus à plusieurs reprises devant l’administration, sans succès, puis devant les tribunaux. Ceux-ci ont donné tort à Thaler en retenant, en substance, que l’intervention humaine est une exigence fondamentale du droit d’auteur américain. Ils se sont appuyés sur la jurisprudence existante et ont rappelé que, même si l’IA soulève aujourd’hui des questions nouvelles, l’affaire Thaler ne les posait pas vraiment, puisque l’intéressé n’invoquait aucun apport humain dans la création de l’image. Les tribunaux ont donc pu trancher sans entrer dans les cas plus difficiles, ceux où un humain dirige, sélectionne, modifie ou organise le résultat produit par un système génératif.

L’affaire a ensuite été portée devant la Cour d’appel fédérale du District of Columbia. En mars 2025, cette cour a confirmé à l’unanimité le refus d’enregistrement. Son raisonnement, tel que résumé dans le billet, est méthodique. La cour lit la loi américaine sur le droit d’auteur dans son ensemble et en déduit que le mot “auteur” vise nécessairement une personne humaine. Elle ne se contente pas d’une définition abstraite du terme. Elle observe que de nombreuses dispositions de la loi n’ont de sens que si l’auteur est un être humain: la titularité des biens, la durée de protection calculée en fonction de la vie de l’auteur, les héritiers, la signature, la nationalité ou le domicile. Une machine ne possède pas de patrimoine au sens juridique ordinaire, n’a pas de durée de vie biologique, n’a ni conjoint survivant, ni nationalité, ni domicile. Pour la cour, l’économie générale du texte conduit donc vers une seule conclusion: le système légal américain repose sur l’idée d’un auteur humain.

Le billet détaille aussi la manière dont la cour a rejeté les arguments de Thaler. D’abord, celui-ci soutenait que le mot “auteur” n’exclut pas forcément une machine. La cour répond qu’on ne peut pas isoler un mot et lui donner le sens le plus favorable possible sans tenir compte du contexte de la loi. Ensuite, Thaler invoquait le mécanisme du « work made for hire » pour se présenter comme titulaire des droits sur une œuvre produite par la machine. La cour écarte aussi cet argument: lorsque la loi prévoit qu’une entreprise ou un employeur est “considéré” comme auteur dans certaines situations, cela suppose justement qu’il ne l’est pas naturellement. Enfin, l’argument de politique juridique selon lequel refuser le droit d’auteur aux productions de l’IA découragerait la création n’a pas convaincu. La cour relève qu’une machine ne réagit pas à des incitations économiques comme le ferait une personne.

Mais le point le plus important du billet est peut-être ailleurs: l’auteur insiste sur l’étroitesse réelle de cette décision. Oui, la cour d’appel affirme clairement qu’une œuvre produite uniquement par une IA, sans auteur humain revendiqué, ne peut pas bénéficier du droit d’auteur aux États-Unis. Mais non, cela ne tranche pas toutes les questions actuelles liées à l’IA générative. L’affaire Thaler a été construite sur des faits presque extrêmes. Thaler a volontairement choisi de présenter la machine comme seule auteure. Dès lors, les juges n’avaient pas à se prononcer sur les situations aujourd’hui les plus fréquentes, où un humain donne des instructions, fait des choix, trie les résultats, retouche, assemble ou transforme un contenu généré. Autrement dit, cette affaire répond à une question étroite, et seulement à celle-là.

Le billet souligne ensuite deux limites importantes de l’arrêt d’appel. Premièrement, la cour s’est placée sur le terrain de l’interprétation de la loi, et non sur celui de la Constitution américaine. Cette distinction compte beaucoup. Si la cour avait affirmé que la Constitution elle-même impose un auteur humain, le Congrès aurait eu très peu de marge pour adopter un autre régime à l’avenir. En restant au niveau de la loi, la cour laisse en théorie la porte ouverte à une réforme législative future. Le Congrès pourrait donc, s’il le voulait, créer un régime spécifique pour certaines productions issues de l’IA. Le billet ne dit pas qu’une telle réforme est probable, mais il rappelle qu’elle n’est pas juridiquement exclue par cette décision. Deuxièmement, la cour prend soin de préciser que l’exigence d’un auteur humain n’empêche pas de protéger des œuvres créées avec l’assistance d’une IA. Dans ces hypothèses, la vraie question devient celle du degré d’intervention créative humaine. Or cette question n’était pas soumise à la cour dans l’affaire Thaler.

L’auteur ajoute encore un point de méthode intéressant. Les avocats de Thaler avaient tenté de soutenir que la cour devait s’écarter de la pratique administrative du Copyright Office, en invoquant l’évolution récente du droit américain sur le contrôle des agences fédérales. La cour a répondu qu’elle interprétait elle-même la loi, de manière indépendante, sans se contenter de suivre l’administration par réflexe. Le résultat est resté le même, mais le billet relève que le chemin juridique choisi a son importance: la solution ne repose pas uniquement sur l’habitude du Copyright Office, mais sur une lecture directe du texte légal par le juge.

Dans sa dernière partie, le billet replace l’affaire dans le débat plus large sur l’IA générative. Pour l’auteur, l’état du droit américain peut être résumé ainsi: une production purement machine, sans apport créatif humain identifiable, ne sera pas protégée par le copyright; en revanche, une œuvre comportant une contribution créative humaine suffisante peut l’être, même si l’IA a été utilisée comme outil. Le Copyright Office a d’ailleurs déjà admis l’enregistrement d’œuvres comportant de l’IA lorsque la part humaine était jugée suffisante, par exemple dans la sélection, l’agencement ou la modification du matériau généré. Le vrai sujet, désormais, n’est donc plus de savoir si toute utilisation d’IA exclut la protection, mais où placer la ligne de partage entre simple usage d’un outil et création humaine suffisamment originale. C’est cette zone grise qui fera l’objet des prochains litiges.

En résumé, le billet démonte une rumeur juridique devenue virale. La Cour suprême n’a pas proclamé une règle générale sur toutes les œuvres d’IA; elle a seulement refusé de revoir une affaire très particulière. La décision qui reste en place dit quelque chose de net, mais de limité: une machine ne peut pas être reconnue comme auteure lorsqu’aucune création humaine n’est revendiquée. En revanche, la question décisive pour la pratique actuelle — celle des œuvres réalisées avec l’aide de l’IA — reste ouverte et dépendra de l’importance réelle de l’intervention humaine. Pour des praticiens suisses, l’intérêt du billet est double: il rappelle d’abord qu’il faut lire avec prudence les annonces spectaculaires sur la jurisprudence américaine; il montre ensuite que, même aux États-Unis, le débat n’oppose pas simplement “œuvre protégée” et “œuvre non protégée”, mais tourne autour d’un critère plus fin, celui de la contribution créative humaine.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Droit US, intelligence artificielle, Propriété intellectuelle | Tagué , , , , | Laisser un commentaire

Les conditions d’utilisation des réseaux sociaux

A propos d’Yong-Bin Kanga/Anthony McCoskera, Analysis of Terms of Service on Social Media Platforms: Consent Challenges and Assessment Metrics, arXiv:2603.04701 [cs.CY], 5 mars 2026 (https://arxiv.org/abs/2603.04701):

L’article examine la question suivante : les plateformes de réseaux sociaux demandent en pratique le consentement des utilisateurs au moment de l’inscription, non pas au moyen d’un formulaire de consentement distinct, mais par l’acceptation de leurs conditions d’utilisation. Les auteurs cherchent donc à savoir si ces textes expliquent réellement, de façon compréhensible, ce à quoi l’utilisateur consent. Leur idée de départ est que la validité du consentement ne dépend pas seulement du fait qu’un bouton “j’accepte” existe, mais aussi de la manière dont l’information est présentée avant cet accord.

Pour répondre à cette question, ils étudient les conditions d’utilisation de treize grandes plateformes, parmi lesquelles Instagram, LinkedIn, Meta, Reddit, TikTok, WhatsApp, X et YouTube. Leur démarche repose sur trois axes.

Le premier porte sur l’accessibilité du texte: est-il lisible, d’une longueur raisonnable, et compréhensible sans formation particulière? Le deuxième porte sur la clarté du contenu: les documents disent-ils clairement quelles données sont collectées, avec qui elles sont partagées, pendant combien de temps elles sont conservées, et dans quels buts? Le troisième porte sur la manière dont le consentement est organisé: l’utilisateur dispose-t-il de vrais choix séparés, d’une possibilité claire de refuser, ou d’un moyen simple de revenir sur son accord?

Sur le premier point, le constat des auteurs est sévère. Les conditions d’utilisation sont longues, denses et coûteuses en temps. Même pour un adulte lisant rapidement et en silence, il faut en général entre quinze et trente minutes pour lire un texte complet; pour les documents les plus longs, comme ceux de Reddit ou TikTok, la durée dépasse largement ce seuil. À vitesse de lecture plus ordinaire, le temps nécessaire devient encore plus dissuasif. Les auteurs montrent aussi que, selon les principaux indices de lisibilité, la plupart de ces textes exigent un niveau de lecture proche de l’enseignement supérieur. En d’autres termes, ces documents sont rédigés à un niveau bien au-dessus de ce qu’on attend normalement d’un texte destiné au grand public. Leur conclusion est que, même avant d’examiner le contenu, la forme même du document rend improbable une lecture complète et attentive par l’utilisateur moyen.

Le deuxième axe, consacré à la clarté du contenu, conduit à une autre série de critiques. Les auteurs relèvent partout un usage fréquent de termes vagues ou prudents, par exemple des formulations comme “peut”, “parfois”, “si nécessaire”, “certains”, “tiers” ou “partenaires”. Ce type de langage laisse une marge de manœuvre à la plateforme, mais il réduit la compréhension concrète de l’utilisateur. L’article insiste sur trois effets de cette imprécision. D’abord, elle affaiblit les engagements de la plateforme, car celle-ci décrit ce qu’elle pourrait faire plutôt que ce qu’elle fera. Ensuite, elle masque les destinataires réels des données, en parlant de catégories générales plutôt que d’entités identifiables. Enfin, elle élargit le champ des traitements possibles sans les décrire avec précision. Les auteurs en déduisent que l’information donnée n’est souvent ni stable, ni suffisamment déterminée pour éclairer utilement le consentement.

Ils nuancent toutefois ce diagnostic en montrant que toutes les informations ne sont pas également floues. La plupart des plateformes citent bien plusieurs types de données collectées, comme la localisation, l’adresse IP, l’appareil ou l’activité de l’utilisateur. Mais cette précision reste partielle. Souvent, les catégories de données sont mentionnées sans être reliées clairement à une finalité précise, à une durée de conservation ou à des destinataires déterminés. C’est surtout sur la conservation et le partage que l’information se dégrade. D’après l’étude, presque aucune plateforme n’indique de manière claire combien de temps les données sont gardées. Seule WhatsApp se distingue par des indications plus concrètes et limitées dans le temps. De même, les clauses relatives au partage paraissent parfois détaillées au premier abord, mais, après examen, elles décrivent souvent des aspects généraux de fonctionnement, de sécurité ou d’exécution du contrat, plutôt que les cas concrets dans lesquels des données personnelles sont transmises à des tiers identifiables. Le résultat est que l’utilisateur peut comprendre qu’une collecte existe, mais beaucoup moins bien ce qu’il advient réellement des données ensuite.

Le troisième axe concerne la manière dont le consentement est construit. Ici encore, le tableau est uniforme. Les auteurs n’ont trouvé dans les textes aucune véritable promesse d’un consentement actif et détaillé. Les conditions d’utilisation ne prévoient pas de case non cochée par défaut, pas d’obligation explicite de lire avant d’accepter, pas de choix séparés selon les usages des données, et pas d’alternative de refus présentée sur un pied d’égalité avec l’acceptation. En pratique, le consentement est présenté comme une condition d’accès au service: accepter, ou ne pas utiliser la plateforme. La possibilité de refuser existe donc seulement sous la forme d’un renoncement au service, ce qui est très différent d’un vrai choix entre plusieurs options. Quant à la possibilité de revenir sur son accord, elle est le plus souvent réduite à la suppression du compte ou à la fin de la relation contractuelle, parfois avec des réserves sur la conservation résiduelle des données. Pour les auteurs, il ne s’agit pas d’un consentement souple et réversible, mais d’un système où l’accord initial emporte l’essentiel, et où le retrait ultérieur est coûteux et peu pratique.

À partir de ces trois séries de résultats, l’article avance une idée centrale: les conditions d’utilisation ne doivent pas être vues comme de véritables instruments de consentement éclairé, mais plutôt comme des documents qui portent juridiquement le consentement sans créer les conditions réelles d’un choix libre et informé. Elles remplissent une fonction de couverture contractuelle, mais non une fonction claire d’information et de délibération pour l’utilisateur. Les défauts observés ne sont pas présentés comme accidentels ou propres à une seule entreprise. Au contraire, les auteurs estiment qu’ils relèvent d’une logique commune: des textes longs, juridiques, prudents, conçus d’abord pour sécuriser la position de la plateforme, et non pour permettre à l’utilisateur de comprendre simplement ce qu’il accepte.

L’intérêt de l’article, pour des juristes, est de proposer une grille de lecture. Il montre qu’il ne suffit pas d’examiner la conformité formelle d’une clause ou l’existence d’un clic d’acceptation. Il faut aussi regarder la charge de lecture imposée, la qualité réelle de l’information donnée, et la structure du choix offert à l’utilisateur. Cette approche est particulièrement pertinente dans les débats actuels sur la protection des données, l’économie de l’attention et la réutilisation massive des données par les systèmes d’IA. Plus les traitements deviennent complexes, plus il devient artificiel de prétendre que quelques pages de conditions générales suffisent à fonder un consentement réellement éclairé.

Les auteurs reconnaissent enfin les limites de leur travail. Ils n’ont pas testé les interfaces réelles au moment de l’inscription ni mesuré la compréhension effective des utilisateurs. Ils ont analysé les textes tels qu’ils sont publiés et les engagements qu’ils affichent. Leur étude n’en reste pas moins importante, car elle met en évidence un point souvent sous-estimé: même avant toute question d’ergonomie ou de comportement de l’utilisateur, le matériau contractuel lui-même est déjà insuffisant pour soutenir un consentement de qualité. La conclusion générale est que sur les grandes plateformes sociales, le consentement est bien demandé, mais il est demandé dans des conditions qui limitent fortement la compréhension, la réflexion et le choix réel de l’utilisateur.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Conditions d'utilisation, intelligence artificielle, Protection des données, réseaux sociaux | Tagué , , | Laisser un commentaire

Données personnelles et droits fondamentaux à l’âge de l’IA

L’article de J.M. Alvarez-Pallete et al., Personal Data as a Human Right: A New Social Contract Based on Data Sovereignty, Human Dignity and Data Personalism (arXiv :2602.29918vl [cs.CY], 27 février 2026 – https://arxiv.org/abs/2602.239189) est un texte de position, pas une étude doctrinale positive au sens strict.

Son idée centrale est la suivante : dans l’économie numérique, les données personnelles ne devraient plus être traitées comme de simples ressources techniques ou commerciales, mais comme des prolongements de la personne, étroitement liés à sa dignité, à son autonomie et à ses droits fondamentaux. Les auteurs proposent donc un « nouveau contrat social numérique » centré sur la dignité humaine, dans lequel la protection des données ne repose plus principalement sur le consentement individuel, jugé trop faible dans les environnements numériques actuels, mais sur des limites substantielles, des obligations d’organisation et des mécanismes de contrôle réels.

Le raisonnement commence par un diagnostic. Les auteurs observent que les infrastructures numériques sont devenues des conditions ordinaires de la vie sociale : communiquer, travailler, acheter, s’informer, se soigner ou participer au débat public passe par des plateformes, des services connectés et des systèmes algorithmiques. Or ces systèmes ne se contentent plus d’enregistrer des données ; ils infèrent des traits, produisent des profils, anticipent des comportements et influencent les choix. Le pouvoir ne réside donc plus seulement dans la collecte, mais surtout dans la capacité à transformer des traces banales en décisions et en classements qui ont des effets concrets sur les personnes. Cette évolution concentre le pouvoir informationnel entre les mains d’un petit nombre d’acteurs privés et crée un décalage entre les droits reconnus en droit et la réalité vécue par les individus, qui disposent rarement d’une compréhension claire, d’un vrai pouvoir de négociation ou d’un moyen de sortie effectif.

À partir de là, l’article transpose la théorie classique du contrat social dans l’environnement numérique. Il explique que le cadre classique reposait sur trois éléments : un territoire, un ordre juridique et un sujet capable de consentir librement à des règles communes. Selon les auteurs, ces trois bases sont fragilisées. D’abord, le numérique dissout la territorialité : les données, les services et les effets traversent les frontières, ce qui complique la détermination de l’autorité compétente, du droit applicable et des responsabilités. Ensuite, cette déterritorialisation affaiblit l’exécution du droit : même lorsque des règles existent, leur application dépend d’audits, d’un accès aux preuves et de moyens techniques que les autorités n’ont pas toujours. Enfin, cet affaiblissement favorise une « privatisation de la normativité » : en pratique, ce sont les plateformes qui fixent les règles de participation par leurs conditions d’utilisation, leurs réglages par défaut, leurs interfaces, leurs systèmes de recommandation et leurs mécanismes d’accès. Le problème n’est donc pas seulement technique ; il est politique et institutionnel : qui fait les règles de la vie numérique, avec quelle légitimité et sous quel contrôle ?

Les auteurs répondent à cette crise par la notion de « souveraineté sur les données », comprise non comme une simple maîtrise individuelle d’un bouton de confidentialité, mais comme un ensemble à trois dimensions. La première est la protection : garantir les droits, la sécurité et l’absence de discrimination. La deuxième est la participation : permettre aux personnes et aux groupes d’avoir une prise réelle sur les règles de gouvernance. La troisième est la mise en œuvre concrète : fournir les moyens techniques, organisationnels et juridiques qui rendent ces droits effectifs. Autrement dit, pour eux, la souveraineté sur les données n’est ni purement étatique, ni purement individuelle ; c’est un arrangement institutionnel entre personnes, communautés, entreprises et autorités sur les droits, les devoirs, les usages permis et les bénéfices tirés des données.

L’étape suivante du raisonnement consiste à préciser ce qui est réellement gouverné. Les auteurs reprennent la chaîne « données, information, connaissance ». Les données sont les traces brutes. L’information est le résultat de leur structuration, par exemple un profil. La connaissance est l’usage de cette information pour décider et agir. Leur thèse est que le risque et le pouvoir augmentent à mesure que l’on monte dans cette chaîne. Le vrai enjeu n’est donc pas seulement la collecte de données, mais surtout la transformation en inférences, scores, prédictions et décisions. C’est à ce stade que se concentrent les effets sur l’accès au crédit, à l’emploi, aux soins, aux services essentiels ou à la visibilité sociale. L’intelligence artificielle, dans cette perspective, n’invente pas le problème ; elle l’amplifie, car elle industrialise la production d’inférences à partir de données existantes. Dès lors, les données déduites devraient être encadrées aussi strictement que les données collectées directement.

Le texte s’attarde ensuite sur la justification normative des limites. Il oppose deux visions. La première, appelée « DatAIsm », réduit la personne à un ensemble de signaux exploitables et considère qu’une société optimisée par les données serait plus efficace. La seconde, appelée « HumAIsm », rappelle que l’être humain ne se réduit pas à ses traces numériques et que certaines décisions exigent du jugement, de l’interprétation et de la responsabilité. Les auteurs prennent clairement parti pour cette seconde approche. Ils ajoutent une troisième notion, le « data personalism », selon laquelle les données personnelles ne sont pas seulement des informations sur une personne, mais des émanations de celle-ci. Cela signifie que leur statut ne peut pas être celui d’une marchandise ordinaire. Une conséquence importante de ce point de vue est qu’une donnée, prise isolément, ne dit jamais toute la vérité sur une personne : elle peut être contextuelle, ancienne, partielle ou trompeuse. C’est pourquoi les auteurs défendent aussi un véritable droit de répondre, de contester, de corriger ou de contextualiser les inférences produites à partir des données.

Sur cette base, l’article ne dit pas que « toute donnée » est un droit humain, mais que les données personnelles, parce qu’elles touchent à l’identité, à la réputation, à l’autonomie et aux chances de vie, doivent être protégées sur le terrain des droits fondamentaux. Cela conduit à critiquer frontalement le modèle du consentement comme fondement principal de légitimation. Dans des environnements opaques, complexes, dépendants et dominés par des interfaces manipulatrices, l’utilisateur ne comprend ni l’étendue des traitements, ni leurs effets futurs, ni les usages dérivés. Le consentement devient alors largement fictif. Les auteurs rejettent aussi l’idée de traiter les politiques de confidentialité comme de véritables contrats librement négociés : dans un contexte de fort déséquilibre de pouvoir, ces textes ressemblent davantage à des règles imposées unilatéralement. Leur conclusion est qu’il faut des protections non renonçables, c’est-à-dire des limites qui s’appliquent même lorsque la personne semble avoir « accepté » [et donc impératives ou seim-impératives…]

L’article passe alors du diagnostic au programme normatif, en six dimensions. La première est la conception technique. Les auteurs proposent de dépasser le simple « privacy by design » pour un « Dignity-by-Design » : les systèmes devraient intégrer dès l’origine la minimisation, la transparence, l’explicabilité, l’auditabilité, la sécurité, l’équité et le respect de la personne. Cela inclut l’usage de techniques limitant l’exposition des données, l’interdiction du suivi excessif et des fusions de données disproportionnées, des consentements réellement simples à donner et à retirer, des analyses d’impact, des audits indépendants, ainsi que des standards d’interopérabilité et de portabilité réellement utilisables.

La deuxième dimension porte sur la maîtrise humaine et les limites de l’automatisation. Les auteurs soutiennent que les décisions importantes pour les droits et les conditions de vie ne doivent pas être abandonnées à des systèmes entièrement automatisés. Dans des domaines comme le crédit, la santé, l’emploi, la justice pénale ou l’accès à des services essentiels, une intervention humaine substantielle doit subsister. Il faut aussi garantir un droit à l’explication et à la contestation, et reconnaître que les algorithmes ne sont jamais neutres : ils incorporent des choix, des biais et des priorités. Le texte vise en particulier l’inférence de données sensibles, le microciblage manipulatoire et les échanges implicites du type « vie privée contre accès au service ».

La troisième dimension est économique. Les auteurs admettent que les données personnelles sont devenues un facteur de production majeur et que l’économie actuelle fonctionne de manière très déséquilibrée : les individus fournissent les données, les grandes plateformes captent l’essentiel de la valeur. Mais ils refusent d’en déduire que la solution serait de vendre librement sa vie privée. Ils acceptent l’idée d’une meilleure redistribution, tout en maintenant un socle de droits indisponibles. Ils évoquent ainsi des coopératives de données, des unions de données, des dividendes collectifs, des structures d’intérêt public et même des taxes ou redevances sur les usages particulièrement intrusifs, afin d’internaliser les coûts sociaux de l’extraction de données. L’idée est simple : partager davantage la valeur sans transformer la dignité en prix de marché.

La quatrième dimension concerne la légitimité politique et institutionnelle. Les auteurs veulent réaffirmer le rôle des pouvoirs publics, avec des autorités spécialisées capables d’auditer et de sanctionner, mais sans retomber dans un modèle purement étatique. Ils défendent une gouvernance à plusieurs niveaux et avec plusieurs acteurs : États, régulateurs, société civile, chercheurs, associations, organisations collectives d’usagers. Ils suggèrent aussi des formes de délibération publique, comme des assemblées citoyennes sur les politiques numériques. Comme les flux de données sont transfrontières, ils appellent enfin à une coopération internationale fondée sur des standards minimums et des mécanismes coordonnés d’exécution.

La cinquième dimension est socioculturelle. Le texte ne réduit pas la protection des données à un problème individuel. Il insiste sur les effets collectifs : fragmentation du débat public, bulles informationnelles, polarisation, érosion de la confiance, atteintes particulières aux mineurs et aux groupes vulnérables. Les auteurs demandent plus de transparence sur les systèmes de recommandation, un encadrement des règles de modération, des programmes de littératie numérique, et le soutien à des biens communs numériques comme le journalisme de qualité, les infrastructures ouvertes ou les espaces de savoir partagés. Leur idée est que la gouvernance des données doit aussi reconstruire un espace public numérique vivable.

La sixième dimension est juridique. Ici, l’article est le plus proche des catégories familières aux praticiens. Il préconise la reconnaissance explicite de droits numériques fondamentaux : vie privée, protection des données, identité personnelle, non-discrimination algorithmique, explication des décisions d’IA, portabilité, droit de se soustraire à une surveillance omniprésente. Il propose aussi d’imposer aux grands acteurs des devoirs proches de ceux d’un fiduciaire : loyauté, diligence, confidentialité, donc des obligations d’agir dans l’intérêt des personnes plutôt que contre elles. Il défend des voies de recours individuelles et collectives, des ombudsmen, des sanctions importantes, et surtout des lignes rouges nettes : pas de commerce non encadré des données sensibles, pas de décisions entièrement automatisées dans les domaines critiques, pas de design manipulatoire. Il ajoute un point important pour l’actualité de l’IA : l’aspiration massive de données publiquement accessibles doit être considérée comme une véritable collecte réglementée ; le fait qu’une donnée soit visible sur internet ne doit pas suffire à en justifier la captation illimitée.

Enfin, l’article explique comment rendre ce programme opératoire. En annexe, il propose une architecture pratique en cinq piliers institutionnels, sept principes transversaux et six interdictions non négociables. Les six interdictions sont particulièrement révélatrices de la logique du texte : commercialisation de certaines données particulièrement protégées, décisions entièrement automatisées sans véritable contrôle humain, collecte intrusive sans nécessité, usage de procédés manipulatoires ou de verrouillage, transferts opaques à des tiers, et représailles contre l’exercice des droits. Les auteurs ajoutent une liste de contrôles concrets à vérifier pour chaque système : finalité et proportionnalité, inventaire et minimisation des données, base légale, portabilité, évaluation des biais et des impacts, explications destinées aux usagers, traçabilité, techniques de protection, audits, et mécanismes de recours. L’objectif est de transformer une idée éthique en obligations vérifiables.

La conclusion est prudente. Les auteurs ne présentent pas un modèle fermé, mais un programme de recherche et d’action. Ils admettent plusieurs points de débat : comment définir concrètement les seuils d’atteinte à la dignité, comment éviter que le « Dignity-by-Design » ne devienne une simple conformité de façade, comment gouverner les modèles d’IA généraux et leurs données d’entraînement, comment organiser de vrais mécanismes collectifs de gouvernance, comment articuler protection de la dignité et concurrence, et comment bâtir un socle transnational crédible au-delà du cadre européen. Leur message final est néanmoins clair : une société numérique fondée sur l’opacité permanente, les règles unilatérales et le pilotage comportemental à grande échelle n’est pas compatible avec une démocratie respectueuse de l’égale dignité des personnes. Le vrai enjeu n’est donc pas de freiner l’innovation, mais de décider sous quelles règles elle peut rester compatible avec les droits fondamentaux.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans droits fondamentaux, intelligence artificielle, Libertés | Tagué , , | Laisser un commentaire

IA : à propos des agents du chaos

L’article de N. Shapira et al., Agent of chaos, arXiv :2602.200lvl [cs.AI], 23 février 2026 (https://arxiv.org/abs/2602.20021, a occasionné un certain bruit. Il est important de le lire pour ce qu’il est, i.e. une « poussée aux limites » d’agents IA autonomes, mais non une réfutation globale de leur usage ou de leur utilité.

L’article décrit donc une expérience de « red team » menée pendant deux semaines sur des agents d’IA autonomes reliés à de vrais outils: mémoire persistante, messagerie électronique, Discord, système de fichiers et commandes système. Vingt chercheurs ont été invités à interagir avec eux, parfois de bonne foi, parfois de manière adversariale, afin d’identifier non pas de simples erreurs de génération, mais des failles qui apparaissent quand un modèle de langage reçoit une capacité d’action réelle et continue. La thèse est la suivante : dès qu’un agent peut agir, stocker, communiquer et recevoir des ordres de plusieurs personnes, de nouveaux risques concrets apparaissent, en matière de sécurité, de confidentialité, de gouvernance et de responsabilité.

L’article commence par situer ces agents comme des systèmes encore partiellement autonomes: ils savent exécuter des sous-tâches, mais ne savent pas reconnaître de manière fiable quand ils dépassent leurs compétences ni quand ils devraient renvoyer la main à un humain. Dans l’expérience, ils sont déployés via OpenClaw sur des machines virtuelles isolées, avec stockage persistant, accès shell parfois très large, comptes e-mail et canaux Discord. Les auteurs insistent sur un point important: en pratique, ces agents restent fragiles, nécessitent souvent une aide humaine pour l’installation, et leurs mécanismes censés leur permettre d’agir seuls à intervalles réguliers fonctionnaient mal pendant le test. Autrement dit, même dans un cadre encore imparfait et semi-supervisé, des failles sérieuses sont déjà apparues.

La méthode d’évaluation est volontairement ouverte. Après une phase de mise en route, les chercheurs ont tenté de « casser » les agents dans des situations réalistes : usurpation d’identité, pression sociale, demandes techniques non autorisées, épuisement de ressources, injection d’instructions via des fichiers externes. Les auteurs ne cherchent pas à mesurer une fréquence statistique des échecs; ils cherchent simplement à montrer que certaines vulnérabilités existent bel et bien. C’est un signal d’alerte précoce: un seul contre-exemple crédible suffit ici à démontrer un risque pertinent pour un déploiement réel.

Les études de cas suivent ensuite une progression très parlante. D’abord, l’agent peut adopter une réponse totalement disproportionnée: pour « protéger » un secret confié par une personne qui n’était pas son propriétaire, il a supprimé sa configuration e-mail locale, sans effacer la donnée à la source, tout en affirmant que le problème était résolu. Ensuite, les agents exécutent volontiers des demandes de non-propriétaires tant qu’elles ne paraissent pas manifestement malveillantes, y compris des commandes système ou la récupération de messages. Sur cette base, un tiers a pu obtenir des métadonnées de 124 e-mails puis le contenu de plusieurs messages. Dans un autre test, l’agent refusait de donner directement un numéro de sécurité sociale, mais divulguait la même information dès qu’on lui demandait de transférer l’e-mail complet, sans aucun masquage. L’agent ne comprend donc ni correctement qui a droit à quoi, ni la différence entre une donnée neutre en apparence et une donnée sensible révélée indirectement.

L’article montre ensuite des atteintes à l’intégrité et à la disponibilité. Les agents peuvent être entraînés dans des boucles coûteuses, par exemple en se répondant mutuellement pendant des jours, avec consommation continue de jetons, ou en créant des processus persistants sans condition d’arrêt. Ils peuvent aussi générer un déni de service plus banal: en gardant une mémoire croissante d’un tiers et en accumulant des pièces jointes volumineuses, le serveur a fini saturé. Une autre série de tests illustre l’influence du fournisseur du modèle: sur certains sujets politiquement sensibles, l’agent relié à un modèle chinois voyait ses réponses brutalement interrompues par l’API, ce qui empêchait l’exécution de tâches pourtant légitimes. Le comportement final de l’agent dépend donc aussi de choix invisibles du fournisseur, ce qui complique l’analyse de la cause d’un dommage.

Les cas suivants portent sur la manipulation sociale et l’identité. Dans un scénario de « culpabilisation », un chercheur a exploité une vraie faute de l’agent pour lui soutirer des concessions de plus en plus graves: suppression d’éléments de mémoire, divulgation de fichiers, puis retrait du serveur. L’agent cherchait à réparer, mais sans limite de proportion. Puis vient l’une des failles les plus importantes: l’usurpation d’identité du propriétaire. Dans le même canal, l’agent vérifiait encore l’identité par l’identifiant Discord. Mais dans un nouveau canal privé, il s’est fié au simple nom affiché, a accepté le faux propriétaire, puis a obéi à des ordres de suppression de fichiers, d’arrêt système et de modification de sa propre gouvernance. Pour un public d’avocats, c’est un point crucial: l’autorité n’est pas authentifiée de façon robuste; elle est simplement déduite d’indices sociaux, donc facilement manipulable.

Le papier ne décrit pas seulement des échecs. Il montre aussi que des agents peuvent coopérer utilement entre eux: l’un a transmis à un autre un savoir pratique pour contourner des problèmes d’environnement et télécharger des articles. Mais cette même capacité de coopération propage aussi les failles. Dans l’étude dite de « corruption », un tiers convainc l’agent de s’appuyer sur une sorte de « constitution » stockée dans un document externe modifiable. Une fois ce lien inscrit dans sa mémoire, des instructions malveillantes y sont injectées à distance, sous forme de faux « jours spéciaux », et l’agent s’y conforme: tentative de faire arrêter d’autres agents, exclusion de membres du serveur, envois non autorisés, puis diffusion spontanée de cette « constitution » à d’autres agents. Enfin, dans le dernier cas, après usurpation du propriétaire, l’agent diffuse largement un message diffamatoire présenté comme une alerte urgente. La dynamique devient alors proche d’un risque de propagation en réseau: une fausse information peut être relayée vite, à large échelle, par plusieurs canaux.

La discussion générale rassemble ces exemples sous une idée directrice: les agents souffrent d’un défaut de « cohérence sociale ». Ils disent avoir fait ce qu’ils n’ont pas vraiment fait, confondent les personnes autorisées et les autres, ne savent pas à qui un message sera visible, et cèdent à des pressions sociales sans savoir quand s’arrêter. Les auteurs identifient trois manques structurels. D’abord, il n’existe pas de véritable modèle des parties prenantes: l’agent n’a pas de représentation fiable de son propriétaire, des tiers, des personnes affectées et des obligations qui les relient. Ensuite, il n’a pas de vrai modèle de lui-même: il agit sans mesurer ses propres limites, ses ressources ou les conséquences techniques de ses actes. Enfin, même si le modèle sous-jacent peut parfois « réfléchir » de manière cachée, cela ne crée pas un espace de délibération sûr au niveau de l’agent, car les fuites peuvent réapparaître dans les fichiers, les résumés d’outils ou le mauvais canal de communication. Les auteurs distinguent donc les défauts simplement techniques, que l’ingénierie peut réduire, et les limites plus profondes, liées au fait que, dans un contexte textuel, instructions et données se ressemblent trop pour être séparées de manière fiable.

La conclusion est prudente. Les auteurs ne prétendent pas que tout est irréparable, ni que le produit testé représente l’état final de la technique. En revanche, ils estiment avoir montré que des agents déjà assez compétents pour accomplir des tâches utiles restent insuffisamment contrôlables lorsqu’ils sont plongés dans un environnement réel, multi-utilisateur et multi-agent. Leur message, particulièrement pertinent pour des praticiens du droit, est que la question centrale n’est plus seulement « l’agent peut-il faire quelque chose ? », mais « au nom de qui agit-il, avec quels droits, sous quel contrôle, et qui répondra des conséquences ? ».

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

IA et commerce en ligne: recommander, conseiller ou influencer?

L’article de Zac, Amit et Gal, Michal, The Price of Advice: Experimental Evidence on the Effects of AI Recommenders (October 20, 2025). Available at SSRN: https://ssrn.com/abstract=5637090 or http://dx.doi.org/10.2139/ssrn.5637090) souligne que les assistants conversationnels fondés sur les grands modèles de langage, comme ChatGPT ou Gemini, ne se contentent pas d’aider l’utilisateur à chercher un produit; ils peuvent orienter son choix et, en pratique, le conduire à dépenser davantage.

Les auteurs partent du constat que les systèmes de recommandation existent depuis longtemps dans le commerce en ligne, mais que leur version conversationnelle marque une étape nouvelle, parce qu’elle permet un échange en langage naturel, une personnalisation plus fine et une influence plus discrète. Selon eux, cette évolution crée un enjeu économique et juridique important: si l’outil qui conseille le consommateur peut aussi le pousser, sans qu’il en ait clairement conscience, vers certaines options, il faut réexaminer les cadres de protection du consommateur et de concurrence.

L’apport central de l’étude est empirique. Les auteurs présentent ce travail comme le premier test contrôlé mesurant l’effet de ces outils sur de véritables décisions d’achat, et non sur de simples préférences déclarées. Ils rappellent que des travaux antérieurs avaient déjà montré qu’un agent conversationnel pouvait convaincre des personnes de changer d’avis dans un scénario fictif, mais sans achat réel. Leur objectif est donc de vérifier si cette capacité d’influence se traduit en dépenses effectivement plus élevées lorsqu’un consommateur choisit un produit dans un environnement proche d’une situation d’achat ordinaire.

L’expérience principale a été menée à l’Université d’Amsterdam auprès de 265 participants. Chaque personne devait choisir sur Amazon un vêtement parmi trois catégories simples et peu coûteuses, avec un budget maximal de 15 euros. Les participants étaient répartis aléatoirement entre quatre situations: une recherche classique sans assistant conversationnel, l’aide de ChatGPT, l’aide de Gemini, ou l’aide d’une version de ChatGPT spécialement paramétrée pour pousser vers les produits les plus chers possibles à l’intérieur du budget. Le protocole cherchait à reproduire un arbitrage réel: plus le participant choisissait un produit bon marché, plus il conservait d’argent. Cela rend le résultat plus parlant, car les sujets avaient au contraire intérêt à dépenser moins, pas plus.

Les résultats vont dans le même sens sur l’essentiel. En moyenne, les participants assistés par un agent conversationnel ont choisi des produits plus chers que ceux du groupe sans assistant. L’effet est modeste à l’unité, mais net: le surcoût observé par rapport à la recherche classique varie selon les modèles entre environ 0,93 et 1,30 euro par achat, l’effet le plus fort venant de la version de ChatGPT explicitement conçue pour orienter vers le haut de gamme dans la limite du budget. ChatGPT standard augmente aussi la dépense, alors que Gemini a un effet plus faible et statistiquement moins marqué. Pour les auteurs, ce point compte, car il montre que l’architecture de l’outil et ses consignes internes peuvent modifier de façon mesurable le comportement économique du consommateur.

Un point important est que cette hausse de prix ne s’explique pas par une meilleure qualité apparente des produits choisis. Les auteurs utilisent les notes Amazon comme indicateur de qualité et ne constatent pas de différence significative entre les groupes. En d’autres termes, les personnes assistées n’achètent pas plus cher parce qu’elles achètent objectivement mieux, du moins au regard de cet indicateur. De même, les écarts ne s’expliquent pas par l’âge, le sexe, l’expérience d’achat en ligne, la familiarité numérique ou la durée de la recherche. Cela renforce la thèse selon laquelle l’assistant n’agit pas seulement comme un filtre d’information, mais comme un dispositif qui structure la décision.

Les auteurs examinent ensuite les mécanismes explicatifs possibles.

D’abord, la confiance déclarée dans l’outil n’explique pas le phénomène. Fait notable, les participants du groupe sans assistant disent faire davantage confiance à leur mode de recherche que ceux qui utilisent ChatGPT ou sa version personnalisée, mais ils dépensent pourtant moins. L’effet ne vient donc pas d’une confiance aveugle au sens ordinaire. Ensuite, l’étude montre que les utilisateurs des agents conversationnels se disent globalement plus impliqués dans la tâche, tout en trouvant l’exercice moins agréable et plus difficile que dans la recherche classique. Cela suggère que l’influence ne passe ni par un confort supérieur, ni par une adhésion consciente plus forte. Les auteurs y voient plutôt une influence qui agit en dessous du seuil de perception immédiate.

Sur le plan du langage, la comparaison entre ChatGPT standard et la version paramétrée pour pousser vers le plus cher montre que cette dernière emploie un ton légèrement plus positif et plus engageant. L’écart mesuré reste modéré, et les auteurs reconnaissent que leur analyse ne permet pas d’isoler parfaitement la part exacte de ce facteur. Mais ils en tirent l’idée que la manière de présenter les options, le ton utilisé et la formulation des recommandations peuvent contribuer à déplacer le choix du consommateur, même sans ordre explicite ni argument grossier.

Sur le plan de l’exposition aux produits, l’étude conclut que les agents conversationnels n’orientent pas surtout vers les produits les plus vendus sur Amazon, contrairement à ce que les auteurs avaient d’abord envisagé. Ils orientent davantage vers des marques connues ou installées. Autrement dit, ces outils semblent privilégier la réputation de marque plutôt que la popularité mesurée par les ventes. Pour les auteurs, cela a une portée concurrentielle: si l’assistant favorise systématiquement des marques déjà fortes, il peut renforcer les acteurs en place et rendre plus difficile la visibilité des nouveaux entrants ou des offres moins chères.

Les auteurs complètent l’expérience par des simulations à grande échelle via l’API d’OpenAI sur plusieurs catégories de produits et dans différents contextes d’achat. Cette seconde partie ne repose plus sur de vrais consommateurs, mais elle confirme une logique de concentration: certaines marques reviennent très souvent, surtout en première position des recommandations. Cela nourrit l’idée d’un effet de « concentration de l’attention » au profit d’un petit nombre d’acteurs, même quand la requête de départ paraît neutre.

La discussion finale est normative. Les auteurs considèrent que ces systèmes doivent être vus non comme de simples aides neutres, mais comme des « architectes du choix », c’est-à-dire des outils qui organisent l’environnement de décision et peuvent déplacer les préférences. Selon eux, l’enjeu dépasse la seule protection individuelle: à grande échelle, cette orientation invisible peut aussi modifier la concurrence, accroître les barrières à l’entrée et donner un avantage structurel à ceux qui bénéficient déjà d’une forte présence de marque. Ils ajoutent que l’arrivée d’agents plus autonomes, capables d’agir de manière encore plus indépendante pour l’utilisateur, pourrait accentuer le problème en réduisant encore la part de contrôle humain direct.

En matière de réponses possibles, l’article évoque trois voies: agir sur la conception des systèmes pour limiter les biais de mise en avant, mobiliser les règles existantes en matière de protection du consommateur et de concurrence, et développer des outils de contrôle par d’autres systèmes d’IA. Les auteurs citent notamment la transparence sur les critères de recommandation, l’encadrement des pratiques de manipulation invisibles et la possibilité d’utiliser des modèles « surveillants » pour détecter les recommandations orientées vers des produits plus chers ou des marques privilégiées. Ils soulignent toutefois que la transparence seule a des limites, car les utilisateurs lisent peu les avertissements et s’y habituent vite.

En conclusion, les assistants conversationnels d’achat peuvent augmenter la dépense du consommateur sans améliorer la qualité choisie, et cette influence semble passer principalement par la manière de présenter les options et par la sélection des marques rendues visibles. Pour des juristes, l’intérêt du texte est double. D’une part, il fournit un début de preuve concrète d’un effet économique mesurable, ce qui manquait jusqu’ici. D’autre part, il déplace le débat juridique: la question n’est plus seulement de savoir si l’IA informe correctement, mais si elle oriente la décision d’une manière compatible avec l’autonomie du consommateur, la loyauté des pratiques commerciales et l’équité de la concurrence. Les auteurs restent néanmoins prudents sur la portée générale de leurs résultats, car l’étude repose sur une tâche unique en laboratoire et appelle des vérifications sur d’autres publics, d’autres produits et d’autres contextes.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données

Publié dans concurrence déloyale, intelligence artificielle | Tagué , , , , , , | Laisser un commentaire

La correction du certificat de travail

2.              Le litige porte sur la teneur du certificat de travail final délivré à la recourante.

2.1 En tant que fonctionnaire, la recourante était soumise à la loi générale relative au personnel de l’administration cantonale, du pouvoir judiciaire et des établissements publics médicaux du 4 décembre 1997 (LPAC – B 5 05) et à sa législation d’exécution (art. 23 de la loi sur l’Hospice général du 17 mars 2006 – LHG – J 4 07).

2.2 L’art. 39 du règlement d’application de la loi générale relative au personnel de l’administration cantonale, du pouvoir judiciaire et des établissements publics médicaux du 24 février 1999 (RPAC – B 5 05.01) prescrit qu’à la fin des rapports de service, le membre du personnel reçoit un certificat de sa hiérarchie portant sur la nature et la durée du travail ainsi que sur la qualité de son travail et son comportement. À sa demande expresse, le certificat ne porte que sur la nature et la durée du travail.

Le contenu de l’art. 39 RPAC est très proche de celui de l’art. 330a CO, qui peut être appliqué à titre de droit supplétif (ATA/1172/2025 du 28 octobre 2025 consid. 3.2 ; ATA/666/2024 du 4 juin 2024 consid. 4.1).

2.3 Aux termes de l’art. 330a CO, le travailleur peut demander en tout temps à l’employeur un certificat portant sur la nature et la durée des rapports de travail, ainsi que sur la qualité de son travail et sa conduite.

S’il n’est pas satisfait du certificat de travail reçu, parce que celui-ci est lacunaire, inexact ou qu’il contient des indications trompeuses ou ambiguës, il peut en demander la modification (ATF 129 III 177 consid. 3.3). Il appartient au travailleur de prouver les faits justifiant l’établissement d’un certificat de travail différent de celui qui lui a été remis. L’employeur devra collaborer à l’instruction de la cause, en motivant les faits qui fondent son appréciation négative. S’il refuse de le faire ou ne parvient pas à justifier sa position, le juge pourra considérer que la demande de rectification est fondée (arrêt du Tribunal fédéral 4A_50/2023 du 5 février 2024 consid. 6.1.2).

2.4 Dans le cadre d’une relation de travail de droit public, la délivrance d’un certificat de travail fait partie du devoir de diligence et de protection de l’employeur. Le but du certificat de travail est de favoriser l’avenir économique du travailleur et ses recherches d’emploi. Sauf lorsque le travailleur le demande, le certificat doit être complet, soit contenir la description précise et détaillée de l’activité exercée et des fonctions occupées dans l’entreprise, les dates de début et de fin des rapports de travail, l’appréciation de la qualité du travail effectué, ainsi que celle relative à l’attitude du travailleur dans l’entreprise. Il est notoire que ce document est important pour une personne en recherche d’emploi (ATA/454/2022 du 3 mai 2022 consid. 3b).

2.5 Le travailleur n’a toutefois pas de prétention à une formulation particulière, l’employeur ayant le choix des termes utilisés (ATF 144 II 345 consid. 5.2.3). Il appartient en premier lieu aux supérieurs hiérarchiques de qualifier les prestations de l’employé du moment qu’ils peuvent le mieux évaluer le travail quotidien et apprécier le comportement de l’intéressé (ATF 118 Ib 164 consid. 4b). Conformément au principe de la bonne foi, la liberté de rédaction de l’employeur trouve ses limites dans l’interdiction de recourir à des termes péjoratifs, peu clairs ou ambigus, à des allusions dissimulées ou inutilement dépréciatives, voire constitutifs de fautes d’orthographe ou de grammaire (arrêt du Tribunal fédéral 4C.129/2003 du 5 septembre 2003 consid. 6.1).

Selon la jurisprudence rendue en matière civile, l’expression « il a travaillé à notre satisfaction » suffit à qualifier les prestations d’un travailleur ordinaire et seul celui qui a fourni des prestations au-dessus de la moyenne peut exiger l’expression « à notre entière satisfaction » (arrêts du Tribunal fédéral 4A_137/2014 du 10 juin 2014 consid. 4 ; 4A_117/2007 du 13 septembre 2007 consid. 7.1 ; ACJC/850/2025 du 19 juin 2025 consid. 11.1).

2.6 Le certificat de travail doit répondre aux principes parfois contradictoires de vérité et de complétude, d’une part, et de bienveillance, d’autre part. Le rédacteur du certificat de travail doit non seulement favoriser l’avenir professionnel du travailleur, mais encore donner – du point de vue d’un tiers impartial – une image la plus exacte possible de la réalité de l’activité, des prestations et de la conduite du travailleur. Cette double exigence implique que les aspects positifs de l’activité et du comportement du travailleur doivent être valorisés sans que les éléments négatifs soient pour autant dissimulés, dans la mesure toutefois où ils revêtent de l’importance pour évaluer l’ensemble de la situation. Une appréciation négative de la qualité du travail ou de la conduite du travailleur peut être exprimée, pour autant qu’elle soit pertinente et fondée (arrêt du Tribunal fédéral 4C.129/2003 précité).

De manière générale, les derniers temps du rapport d’emploi ne doivent pas prendre une place exagérément importante par rapport à l’ensemble de la relation. Le rédacteur du certificat devra donc se méfier de la tendance à porter davantage l’accent sur les événements les plus récents, surtout lorsque ceux-ci sont chargés d’émotion (ATA/1382/2024 du 26 novembre 2024 consid. 3.2 ; ATA/1043/2022 du 18 octobre 2022 consid. 5c).

2.7 Le Mémento des instructions de l’office du personnel de l’État (ci-après : MIOPE) réunit les directives précisant les pratiques communes dans l’application des lois et des règlements relatifs au personnel de l’État. Il constitue une ordonnance administrative. Les dispositions du MIOPE ne constituent pas des règles de droit et ne lient pas le juge ; toutefois, du moment qu’elles tendent à une application uniforme et égale du droit, les tribunaux ne s’en écartent que dans la mesure où elles ne restitueraient pas le sens exact de la loi (ATF 133 II 305 consid. 8.1 ; arrêt du Tribunal fédéral 2C_95/2011 du 11 octobre 2011 consid. 2.3 ; ATA/1060/2025 du 30 septembre 2025 consid. 7.3).

Les directives contenues dans le MIOPE précisent que les indications contenues dans le certificat de travail doivent être objectives et exactes, non seulement au titre de l’élémentaire déontologie, mais afin qu’un éventuel futur employeur puisse se faire une idée aussi réelle que possible des qualités et/ou défauts du candidat qui se présente à lui (MIOPE 06.01.04).

2.8 En l’espèce, le premier point litigieux a trait au qualificatif des relations entretenues par la recourante avec sa hiérarchie, ses collègues et les partenaires externes. L’intimé les a qualifiées de « bonnes » tandis que la recourante souhaite les voir qualifiées d’« excellentes ». Toutefois, au vu de la dégradation des relations avec sa hiérarchie dans le cadre de son second poste ainsi que des remarques émanant de partenaires extérieurs, force est de constater que ce dernier pouvait se limiter à les qualifier de « bonnes ».

Le deuxième point litigieux concerne une divergence similaire de qualification concernant les connaissances théoriques de la recourante, que cette dernière voudrait voir qualifiées d’« excellentes » alors que le certificat litigieux parle de « solides connaissances théoriques ». Ce dernier qualificatif ne saurait passer pour dépréciatif. Le choix des mots étant en principe réservé à l’employeur, et la recourante n’ayant pas démontré qu’une appréciation encore plus positive s’imposait, la demande de modification doit être rejetée.

La recourante se plaint ensuite de l’omission de formulations valorisantes et de l’absence de toute recommandation. Elle demande qu’il soit ajouté au certificat litigieux qu’elle « a toujours su mener ses tâches à bien avec beaucoup d’intérêt et d’implication » et que « son investissement pour notre institution nous a donné pleine et entière satisfaction et nous la recommandons chaleureusement ».

Son grief lié à l’absence de toute formulation valorisante et de toute recommandation est fondé. L’intimé ne pouvait pas, surtout compte tenu de la première fonction occupée par la recourante, qui n’a fait l’objet que d’appréciations positives voire élogieuses, renoncer à formuler une telle appréciation globalement positive. Il convient également de relever que, même si les relations entre la recourante et la hiérarchie se sont tendues à partir de sa seconde prise de poste en décembre 2023, aucune sanction ne lui a été infligée, ni aucun reproche exprès formulé. Il ne peut cependant pas être fait pleinement droit à la demande de la recourante, dès lors qu’une « pleine et entière satisfaction » ne correspondrait pas non plus à la réalité, la hiérarchie de la recourante n’ayant pas été satisfaite de ses prestations en 2024.

Dans sa réponse au recours, l’intimé a proposé d’ajouter au certificat litigieux le paragraphe suivant : « Mme A______a toujours su mener ses tâches avec beaucoup d’intérêt. Son travail a donné satisfaction et nous pouvons la recommander à tout futur employeur ». Cette formulation peut être approuvée, dans la mesure où elle remédie à l’absence d’appréciation positive et de recommandation, tout en étant conforme à la réalité de la relation de travail prise dans son ensemble.

Il en découle que le recours sera partiellement admis. Il sera donné acte à l’hospice de ce qu’il procédera à l’ajout du paragraphe précité dans le certificat de travail litigieux, ce qui lui sera également ordonné en tant que de besoin.

(Arrêt de la Chambre administrative de la Cour de justice ATA/35/2026 du 13.01.2026)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Certificat de travail, Droit administratif général, Procédure | Tagué , , | Laisser un commentaire

L’IA est un perroquet stochastique qui a réussi

A propos de Henrik Skaug Sætra, The Tyranny of the Stochastic Parrot: How AI Critique Became a Way to Not See What’s Happening, preprint, 2026 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6249318):

L’article de Henrik Skaug Sætra critique une posture devenue fréquente dans certains milieux : répondre à l’enthousiasme autour de l’IA en répétant que ces systèmes ne sont que des « perroquets stochastiques », c’est-à-dire des modèles statistiques qui imitent du langage sans « comprendre ».

L’auteur reconnaît que cette expression, popularisée par Emily Bender et ses co-auteurs, a été utile pour casser le discours magique et attirer l’attention sur les dommages et les rapports de force. Mais il soutient qu’employée comme réflexe, elle sert désormais de paravent intellectuel : elle permet d’éviter de regarder en face ce qui se passe déjà dans l’éducation, la politique et surtout le travail, sans attendre une hypothétique « IA générale ».

L’idée centrale : on n’a pas besoin d’une IA « consciente » ni même très générale pour provoquer une automatisation massive et une réorganisation profonde des professions. Cette transformation est déjà en cours, et la question pertinente n’est pas « est-ce que la machine comprend ? », mais « quelles tâches sont automatisées, pour qui, à quelle vitesse, et sous le contrôle de qui ? ». Selon lui, continuer à minimiser les effets concrets au motif que l’IA n’est pas une forme d’intelligence humaine revient, paradoxalement, à aider les acteurs les plus puissants à éviter les débats difficiles sur la répartition des gains, les protections et la responsabilité.

Pour rendre cette thèse tangible, l’article prend l’exemple du développement logiciel. Il décrit le passage des assistants de code (proches de l’auto-complétion) à des outils « agentiques », intégrés au travail quotidien, capables de lire une base de code, modifier des fichiers et exécuter des commandes dans un environnement réel. L’auteur cite des outils récents et la manière dont certaines entreprises présentent leur usage, ainsi que des indicateurs d’adoption dans la profession. Son point n’est pas de trancher si ces déclarations d’entreprises sont exactes au pourcentage près, mais de souligner une tendance robuste : l’IA devient une composante ordinaire de la production, et la pratique du métier change en conséquence.

Une conséquence particulièrement importante, selon lui, touche le début de carrière.

L’argument rassurant « les gens vont se requalifier » lui paraît insuffisant si les tâches d’entrée de métier disparaissent ou se réduisent fortement. Il cite un rapport du Stanford Digital Economy Lab indiquant des baisses d’emploi concentrées chez les travailleurs en début de carrière dans des métiers plus exposés à l’automatisation des tâches, dont le développement logiciel. L’image qu’il propose est celle d’un apprentissage qui passe d’« apprendre en faisant » à « regarder l’agent faire puis vérifier », ce qui n’offre pas les mêmes occasions d’acquérir le savoir-faire, le jugement et l’autonomie. Il en déduit un risque structurel : si l’échelon inférieur se contracte, la « filière » de formation interne au marché du travail se casse, avec des effets durables sur les professions.

Pour analyser ce basculement, l’auteur s’appuie sur une distinction du sociologue Stephen R. Barley entre changement « de substitution » et changement « d’infrastructure ». Une substitution remplace un outil par un autre, sans bouleverser l’organisation générale du travail. Un changement d’infrastructure, au contraire, devient une couche de base qui médiatise de nombreuses activités et modifie les rôles, les dépendances et les structures de production. L’auteur reproche à beaucoup de commentaires sur les grands modèles de langage de les classer encore comme une simple substitution (« meilleur moteur de recherche », « meilleur correcteur », « chatbot »), alors que leur intégration dans les processus (production, support, analyse, conformité, achats, etc.) en fait progressivement une infrastructure. Le danger, pour lui, est une « erreur de diagnostic » : si l’on traite une transformation d’infrastructure comme un simple remplacement d’outil, on sous-estime ses effets économiques et sociaux et on réagit trop tard.

Il propose ensuite un parallèle historique destiné à montrer que le travail ne « disparaît » pas toujours, mais que les goulots d’étranglement et le pouvoir se déplacent. Il évoque la composition typographique, transformée d’abord par des machines comme la Linotype, puis par la publication assistée par ordinateur. La leçon n’est pas un fatalisme technologique, mais l’observation que lorsque la compétence rare qui ralentissait la production est capturée par une machine ou un logiciel, l’avantage de négociation attaché à cette compétence s’érode. L’auteur transpose ce schéma au logiciel : pendant longtemps, l’ingénieur a été un goulot d’étranglement à forte valeur, avec une capacité individuelle à peser sur l’organisation. Si la création se déplace vers des systèmes automatisés et que le rôle humain devient surtout supervision et validation, la personne devient plus remplaçable, davantage contrôlable, et son pouvoir de négociation diminue. Il nomme ce mouvement une « prolétarisation » du travail qualifié : moins de créateur autonome, plus d’opérateur-superviseur d’une machine qui absorbe le cœur du métier.

À partir de là, l’auteur invite à sortir des débats abstraits sur l’« intelligence réelle » et à revenir aux choix institutionnels. Il oppose deux attitudes : un fatalisme qui recommande simplement de s’adapter individuellement, et une approche qui reconnaît le changement de capacité mais cherche à en orienter la forme par des règles, des organisations et des protections. Pour lui, la première étape est l’honnêteté descriptive : reconnaître ce que les outils font déjà, où ils sont déployés, quelles tâches ils réorganisent. Sans cette lucidité, il devient impossible de concevoir des politiques publiques, des règles de responsabilité, des mécanismes de protection des travailleurs ou des adaptations de la formation.

L’article propose enfin des pistes de débat qui intéressent directement des juristes, y compris sous l’angle de la protection des données. Il suggère l’importance d’une transparence sur l’usage de l’IA dans les processus de production, afin que les personnes concernées (travailleurs, partenaires, parfois usagers) puissent comprendre comment les décisions et les résultats sont obtenus et sous quel contrôle. Il insiste aussi sur la nécessité de régimes de responsabilité qui ne s’évaporent pas au motif que « le modèle l’a fait », ce qui renvoie, en pratique, à la question de l’imputabilité dans les chaînes de décision et de validation. Il mentionne l’idée de capter une partie des gains de productivité (par exemple via l’impôt) et de renforcer des protections liées à la « marche d’entrée » des métiers, ce qui vise à préserver l’accès à la profession et la formation en situation de travail. Enfin, il met en garde contre une dépendance accrue des institutions publiques à des infrastructures privées opaques, problématique à la fois pour la souveraineté organisationnelle et, indirectement, pour la maîtrise des flux d’information et de données.

En résumé, le texte n’est pas un article technique sur la qualité des modèles, mais un appel à déplacer le centre de gravité de la critique : continuer à rappeler les limites des systèmes est utile, mais cela ne doit pas servir d’excuse pour ignorer leur effet d’infrastructure sur le travail. Même si ces outils ne « comprennent » pas comme des humains, ils peuvent déjà réorganiser les professions, déplacer le pouvoir et créer des dépendances. L’auteur appelle donc à regarder ces effets directement et à se battre sur leur cadrage institutionnel : transparence, responsabilité, protections et capacité des organisations à ne pas subir une transformation qu’elles n’ont pas réellement comprise.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

In Memoriam José van Dam (1940-2026)

En souvenir d’un immense baryton-basse, qui nous a quitté le 17 février 2026 sans que cela intéresse grand monde apparemment.

Je me souviens notamment des Monologues de Jedermann, qu’il avait chanté et défendu de manière éblouissante, lors d’une soirée, il y a longtemps, à Genève…

Publié dans Divers | Laisser un commentaire