A propos

Ce que vous devez savoir de ce site :

Ce que vous pouvez connaître de son auteur :

Ce qu’il faut faire si vous avez des questions sur le droit du travail ou de la protection des données :

Lisez également notre Déclaration de protection des données:

https://wordpress.com/page/droitdutravailensuisse.com/8103

Bonne lecture !

Me Philippe Ehrenström, avocat, LLM, CAS, Yverdon-les-Bains

Publié dans Non classé | Tagué , , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

L’article de Rigotti, C., Potocka-Sionek, N., Aloisi, A., & Fosch-Villaronga, E. (2026). Law and AI in Hiring: Lessons from the EU on Reconceptualizing Risks and RightsILR Review. (https://journals.sagepub.com/doi/10.1177/00197939261429875) examine l’usage croissant de l’intelligence artificielle dans le recrutement et se demande si le cadre européen, centré sur le risque, protège réellement les droits fondamentaux des candidats. Son idée directrice est que l’approche du règlement européen sur l’IA, l’Artificial Intelligence Act, ne doit pas être lue isolément. Pour être efficace, elle doit être articulée avec le droit de la protection des données, le droit de la non-discrimination, les règles de sécurité des produits et, surtout, avec des mécanismes de participation collective. La thèse des auteurs est qu’une gouvernance réellement protectrice suppose de relier gestion des risques et protection des droits, au lieu d’opposer les deux logiques.

Les auteurs distinguent quatre grandes familles d’outils d’IA en matière d’embauche: les outils de rédaction et de ciblage des offres d’emploi, les systèmes de tri et d’analyse des CV et lettres de motivation, les logiciels d’entretien qui exploitent les expressions faciales, les mouvements ou la voix, et les applications d’évaluation des compétences, parfois sous forme de jeux. Ces outils promettent des gains d’efficacité, de rapidité et de traçabilité. Ils sont présentés comme capables de mieux traiter de grands volumes de candidatures et de réduire certaines erreurs humaines. Mais cet avantage apparent repose sur des données et des choix de conception qui peuvent intégrer des biais sociaux, institutionnels et cognitifs. Les auteurs insistent sur le fait que le contrôle humain reste présent à toutes les étapes importantes, depuis la sélection des données jusqu’aux tests, et que c’est précisément là que les biais peuvent être introduits.

L’article montre ensuite pourquoi les candidats supportent l’essentiel des coûts de cette automatisation. Ils se trouvent déjà en position de faiblesse en raison de l’asymétrie d’information, du déséquilibre du pouvoir décisionnel et de leur dépendance économique. L’IA peut alors renforcer des inégalités existantes par sa vitesse, son opacité et sa capacité à généraliser des erreurs à grande échelle. Des choix techniques apparemment mineurs, comme des catégories mal conçues dans un formulaire ou des ciblages publicitaires fondés sur des variables démographiques, peuvent exclure certains profils et homogénéiser progressivement les effectifs. Les atteintes possibles ne concernent pas seulement la vie privée ou l’égalité de traitement, mais aussi l’accès à l’emploi, la situation économique, le logement, la vie familiale, ainsi que la santé physique et mentale. L’opacité des décisions automatisées décourage en outre la contestation et affaiblit la responsabilité juridique.

Dans ce contexte, les auteurs présentent l’Union européenne comme un cas d’étude privilégié, parce qu’elle a adopté le Règlement sur l’intelligence artificielle (RIA), qui repose sur une logique de hiérarchisation des risques. Il distingue les pratiques interdites, les systèmes à haut risque, les systèmes soumis à de simples obligations de transparence et les systèmes à risque minimal. Il prévoit en parallèle un régime spécifique pour les modèles d’IA à usage général. Cette architecture vise à adapter les obligations au degré de danger attendu pour la santé, la sécurité et les droits fondamentaux. L’article reconnaît l’importance de ce cadre, mais souligne d’emblée ses faiblesses: catégories rigides, forte place laissée à l’autoévaluation par les acteurs économiques et difficulté à capter les effets concrets selon les contextes d’usage.

S’agissant des pratiques interdites, les auteurs mettent en avant l’interdiction des systèmes destinés à inférer les émotions sur le lieu de travail, y compris pendant le recrutement. Cette interdiction repose sur le caractère scientifiquement contestable, peu fiable et culturellement instable de ce type de technologies. Elle n’est toutefois pas absolue, car une exception existe pour certaines finalités médicales ou de sécurité. Les auteurs considèrent que cette exception peut affaiblir la portée de l’interdiction en permettant de réintroduire, sous d’autres justifications, des formes d’évaluation du stress, de l’attention ou d’états analogues. Ils relèvent aussi l’interdiction des systèmes de catégorisation biométrique qui déduisent certaines caractéristiques sensibles, mais notent que la liste des inférences prohibées reste incomplète, ce qui laisse des zones grises.

La majorité des outils de recrutement relèvent cependant, selon eux, de la catégorie des systèmes à haut risque. L’annexe III de l’AIA vise expressément les systèmes utilisés pour diffuser des offres ciblées, analyser et filtrer des candidatures ou évaluer des candidats. Cette qualification est justifiée par leur impact potentiel sur les parcours professionnels, les moyens d’existence et les droits des travailleurs. Elle déclenche des obligations importantes pour les fournisseurs et les déployeurs, notamment la mise en place d’un système de gestion des risques couvrant tout le cycle de vie du système. Ce système impose l’identification des risques connus et raisonnablement prévisibles, l’évaluation des mésusages prévisibles, la prise en compte des informations issues du suivi postérieur à la mise sur le marché et l’adoption de mesures correctrices. Les auteurs relèvent toutefois qu’un système peut être exclu de la qualification de haut risque s’il n’influence pas matériellement la décision ou s’il accomplit seulement une tâche procédurale étroite, ce qui ouvre un espace d’incertitude pratique.

L’article consacre également un développement aux modèles d’IA à usage général, en particulier aux grands modèles de langage susceptibles d’être utilisés pour rédiger des offres, assister les recruteurs, optimiser le tri des CV ou conduire des entretiens virtuels. Les auteurs expliquent que ce régime spécial repose sur une classification différente, fondée sur le risque systémique plutôt que sur le contexte concret d’utilisation. Ils critiquent cette solution parce qu’elle peut être à la fois trop large et trop étroite: trop large parce qu’elle saisit des modèles sans toujours tenir compte des usages effectifs, et trop étroite parce qu’elle ne tient pas suffisamment compte du fait qu’un même modèle peut être intégré dans un processus de recrutement à fort enjeu pour les droits fondamentaux. En d’autres termes, le régime des GPAI est jugé insuffisamment sensible au contexte du travail et de l’embauche.

Les auteurs signalent encore que certains outils utilisés en recrutement, comme des chatbots d’assistance ou des outils généraux d’organisation, peuvent être classés comme présentant seulement un risque limité ou minimal. Dans cette hypothèse, le RIA se contente souvent d’exiger que les personnes soient informées qu’elles interagissent avec une IA ou que des contenus ont été générés artificiellement. Or cette qualification sous-estime, selon eux, la capacité de tels outils à être réutilisés ou détournés de façon à influer sur l’issue du recrutement. Même des outils en apparence secondaires peuvent transmettre des biais et produire des effets discriminatoires.

La critique centrale de l’article porte alors sur la logique même de l’approche par le risque. Inspirée du droit de la sécurité des produits, cette approche est anticipatrice et technique. Elle vise à prévenir ou à atténuer des dommages identifiables. Mais, selon les auteurs, les droits fondamentaux ne se laissent pas toujours réduire à une logique probabiliste de dommage. Le RIA ne reconnaît d’ailleurs qu’un nombre limité de droits individuels explicites, essentiellement le droit de déposer une plainte et, dans certains cas, le droit d’obtenir des explications claires sur le rôle du système dans la décision. En tolérant des systèmes à haut risque dès lors que le risque résiduel est jugé acceptable, le règlement risque de normaliser la mise sur le marché de systèmes potentiellement attentatoires aux droits, tant qu’ils sont formellement accompagnés de mesures de mitigation. Cette logique favorise une conformité routinière, proche d’un exercice de cases à cocher, plutôt qu’une appréciation substantielle des atteintes à la dignité, à l’égalité et à l’autonomie.

Les auteurs montrent ensuite que le RIA doit être replacé dans un environnement normatif plus large. En matière de protection des données, le RGPD joue un rôle essentiel, car les systèmes de recrutement traitent de grandes quantités de données personnelles, parfois sensibles. Les principes du RGPD, comme l’exactitude, la transparence, la limitation des finalités ou la minimisation, pourraient contribuer à limiter les risques. Les analyses d’impact relatives à la protection des données sont présentées comme un instrument potentiellement utile pour identifier les risques en amont. Mais l’article souligne plusieurs limites: fragmentation des règles applicables au travail au sein des États membres, difficulté à appliquer effectivement la transparence à des systèmes opaques, ressources limitées des autorités de contrôle, et approche trop individualiste du RGPD, alors que les préjudices liés à l’IA sont souvent collectifs ou structurels. Les auteurs ajoutent qu’un candidat peut être affecté non seulement par ses propres données, mais par celles des autres candidats servant à entraîner ou ajuster le système.

Ils relèvent en outre une tension précise entre le RGPD et le RIA au sujet des données sensibles. Le RGPD interdit en principe leur traitement, sous réserve d’exceptions. Le RIA permet pourtant, dans certaines conditions, l’utilisation de données sensibles pour détecter ou corriger des biais dans les systèmes à haut risque. Les auteurs considèrent que cette ouverture crée une tension normative réelle: une règle destinée à améliorer l’équité peut aussi élargir l’usage de données particulièrement intrusives. Ils rappellent également que le droit à l’intervention humaine et à la contestation des décisions automatisées reste crucial, mais difficile à mettre en œuvre dans les relations de travail et au stade du recrutement.

En matière de non-discrimination, l’article rappelle que le droit de l’Union proscrit tant la discrimination directe que la discrimination indirecte. Les auteurs estiment que la seconde est particulièrement pertinente pour l’IA, car les systèmes utilisent souvent des critères apparemment neutres qui désavantagent certains groupes. Ils insistent sur la notion de discrimination par proxy: un système peut exploiter une information neutre en apparence, comme l’adresse ou certains comportements numériques, pour reconstituer indirectement une caractéristique protégée. L’IA amplifie ce phénomène parce qu’elle est conçue pour détecter des corrélations prédictives. Les auteurs soulignent aussi que l’IA peut produire des classifications inédites, qui ne correspondent pas exactement aux catégories protégées traditionnelles, ainsi que des discriminations intersectionnelles plus difficiles à prouver. Même avec les aménagements de la charge de la preuve prévus par le droit de l’égalité, le contentieux reste difficile en raison de l’opacité technique, du coût des actions et du caractère souvent diffus du lien de causalité.

Le détour par le droit de la sécurité des produits permet enfin de montrer une autre limite. L’AIA emprunte à cette branche du droit sa structure de prévention des risques, mais les auteurs doutent qu’une logique pensée initialement pour des dangers physiques soit pleinement adaptée à des atteintes touchant la dignité, l’intégrité psychique, l’égalité ou l’autonomie. Même si les règles récentes de sécurité générale des produits prennent mieux en compte certaines vulnérabilités, elles restent imparfaites face à des systèmes qui peuvent être techniquement « sûrs » tout en produisant des effets sociaux ou psychologiques indésirables. Dans le recrutement, un système peut donc être considéré comme conforme ou sûr alors qu’il demeure inapte à traiter équitablement des situations complexes et à protéger les candidats.

À partir de ce diagnostic, l’apport principal de l’article est de proposer une réconciliation entre logique du risque et logique des droits grâce à des mécanismes de co-gouvernance. Les auteurs défendent l’idée qu’en matière d’IA de recrutement, la protection ne peut pas reposer seulement sur des contrôles techniques ou sur des droits individuels dispersés. Elle doit intégrer, tout au long du cycle de vie des systèmes, la participation des groupes affectés et de leurs représentants. L’inspiration vient des traditions européennes de dialogue social et de codétermination. L’implication de représentants des travailleurs, des syndicats, des autorités compétentes et d’autres acteurs collectifs peut aider à détecter les biais, à réduire les asymétries d’information et à renforcer la légitimité des décisions techniques.

Les auteurs développent à ce titre deux instruments. Le premier est la normalisation harmonisée. Dans le système européen, le respect de normes harmonisées peut faire présumer la conformité aux exigences légales. L’article reconnaît l’intérêt adaptatif de cette méthode, mais insiste sur ses risques: influence excessive des industriels, faible légitimité démocratique, difficulté à traduire des principes juridiques comme l’égalité ou la non-discrimination en standards techniques. Il en conclut que la normalisation n’est acceptable qu’à condition d’être véritablement pluraliste, avec une participation effective des parties prenantes, y compris des représentants des travailleurs et de la société civile, dotés de moyens réels. La standardisation est alors présentée non comme un exercice purement technique, mais comme un processus continu d’apprentissage sur les discriminations et les atteintes aux droits dans le travail.

Le second instrument est l’évaluation d’impact sur les droits fondamentaux, la FRIA. Les auteurs rappellent qu’elle a été introduite au cours du processus législatif pour répondre aux critiques adressées au texte initial. Ils considèrent cet outil comme potentiellement central, mais soulignent immédiatement sa limite : l’obligation ne couvre pas expressément tous les systèmes de recrutement à haut risque déployés par des acteurs privés. Malgré cette restriction, ils voient dans la FRIA un modèle utile pour rendre l’usage de l’IA plus responsable. L’évaluation doit décrire la finalité du système, les groupes affectés, les risques prévisibles pour les droits fondamentaux, les mécanismes de contrôle humain et les plans de réaction. Elle doit intervenir avant le déploiement et être mise à jour si nécessaire.

Toutefois, l’article insiste sur le fait qu’une FRIA ne doit pas se réduire à un calcul quantitatif. Les atteintes aux droits fondamentaux ne sont pas seulement des probabilités de dommages mesurables. Elles touchent aussi la dignité, le sentiment de déshumanisation, l’anxiété, l’autonomie et la capacité de participer à armes égales à une procédure de recrutement. Les auteurs prennent l’exemple de systèmes évaluant les compétences ou l’« adéquation culturelle » d’un candidat: même si l’on mesure certains effets en termes de productivité ou d’équité statistique, cela ne suffit pas à saisir l’atteinte à l’expérience vécue du candidat ni les effets sur les recruteurs eux-mêmes. Ils plaident donc pour une FRIA plus qualitative, fondée aussi sur des récits, des témoignages et des analyses contextualisées.

Pour les auteurs, une gouvernance satisfaisante de l’IA dans le recrutement suppose d’étendre les FRIA aux déployeurs privés des systèmes de recrutement à haut risque, de publier au moins des synthèses de ces évaluations, de mieux coordonner la responsabilité entre fournisseurs et déployeurs, de renforcer les moyens des autorités de contrôle, et d’opérationnaliser les droits à l’information, à la consultation et à la codétermination des travailleurs. Ils recommandent aussi de créer des répertoires d’analyses d’impact et de signalements postérieurs au déploiement, afin de permettre l’apprentissage collectif, la comparaison des pratiques et le contrôle public.

Le raisonnement de l’article progresse donc en quatre temps. Il décrit d’abord les usages de l’IA dans l’embauche et les risques spécifiques qu’ils font peser sur les candidats. Il expose ensuite le fonctionnement du RIA et montre à la fois son ambition et ses insuffisances. Il replace ce règlement dans le triangle plus large formé par le droit des données, le droit de l’égalité et le droit de la sécurité des produits, en mettant au jour les recouvrements et les tensions entre ces branches. Il soutient enfin qu’une protection effective passe par des mécanismes de co-gouvernance, capables d’introduire de la participation, du contrôle collectif et une appréciation qualitative des droits fondamentaux dans un univers autrement dominé par la conformité technique.

Pour des praticiens suisses, l’intérêt principal du texte tient à ce qu’il fournit une grille de lecture utile au-delà du seul droit de l’Union: il montre que, face à l’IA de recrutement, la question décisive n’est pas seulement celle de la licéité abstraite d’un outil, mais celle de l’articulation entre conception technique, rapports de pouvoir dans l’emploi, preuves de discrimination, gouvernance collective et effectivité des voies de recours.

[Et pour une analyse en droit suisse des IA de recrutement : Philippe Ehrenström, La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’IA, in: Florence Guillaume/ Jonathan Bory (éd.), Droit et intelligence artificielle, Berne 2025, p. 171-184]

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

La protection des données après la mort ?

A propos du très intéressant article de Yann Conti, Protection des données personnelles de personnes décédées – Perspectives européenne et suisse face aux enjeux de la numérisation de la société, in rechtstexte nr. 8, https://doi.org/10.58591/rt.8, N (https://rechtstexte.online/article/view/rt.8):

L’article analyse la question de la protection des données personnelles après le décès, dans un contexte de numérisation croissante de la société, en comparant les évolutions au sein de l’Union européenne et la situation en droit suisse. Il met en évidence les difficultés conceptuelles et les choix normatifs encore incertains autour de cette thématique.

Le point de départ est la tension entre la logique du droit de la protection des données et la mort de la personne concernée. En droit suisse comme en droit européen, ces régimes visent à protéger une personne physique vivante. Or, après le décès, le titulaire disparaît juridiquement et biologiquement, ce qui rend problématique la continuation de la protection. Malgré cela, la numérisation produit un volume massif de données personnelles persistantes, souvent conservées durablement par des acteurs privés, sans contrôle effectif des proches. Cette perte de maîtrise post mortem renforce les préoccupations liées à la vie privée, à la réputation et à ce que la doctrine qualifie de « restes numériques ». L’idée d’une protection post mortem s’impose progressivement, tant au sens strict (données personnelles) qu’au sens large (dignité, mémoire, intégrité informationnelle) .

Dans l’Union européenne, le RGPD ne s’applique pas aux personnes décédées. Son considérant 27 laisse aux États membres la possibilité d’adopter des règles spécifiques. Toutefois, une évolution est en cours. La Déclaration européenne sur les droits et principes numériques reconnaît explicitement que chaque personne devrait pouvoir décider du sort de ses données après sa mort, notamment de ses comptes et informations numériques. Bien que non contraignante, cette déclaration traduit une orientation politique vers une future harmonisation. En attendant, la matière est régie par les droits nationaux, qui présentent une grande diversité. Une dizaine d’États membres ont introduit des règles spécifiques, révélant des approches variées et parfois divergentes.

L’article identifie trois enjeux.

Le premier concerne la nature de la titularité des droits post mortem. Deux modèles principaux s’opposent. Dans le premier, les droits sont transmis par voie successorale, les héritiers exerçant les droits du défunt (iure hereditatis). Dans le second, les droits naissent directement au bénéfice des proches, indépendamment de la succession (iure proprio). Le droit français illustre une solution intermédiaire, qualifiée de succession anomale, où les droits subsistent de manière limitée après le décès et sont exercés par les héritiers selon des règles particulières. Le droit italien, quant à lui, fait l’objet d’un débat doctrinal non tranché, même si la tendance dominante reconnaît un droit propre des proches. La jurisprudence italienne récente semble confirmer une persistance des droits après le décès, sans clarifier définitivement leur nature. Cette question est centrale car elle détermine le fondement et les limites de l’intervention des survivants.

Le deuxième enjeu porte sur la prise en compte de la volonté exprimée par la personne de son vivant. Trois modèles apparaissent. Certains États permettent à la personne d’exclure totalement ou partiellement l’exercice post mortem des droits, comme en Italie ou au Portugal. D’autres organisent un système de directives post mortem, comme en France, où la personne peut définir la conservation, l’effacement ou la communication de ses données, et désigner un tiers chargé de leur exécution. Enfin, certains États se limitent à prolonger ou encadrer le consentement donné de son vivant, comme en Estonie, où ce consentement reste valable pendant une durée déterminée après le décès. Ces mécanismes traduisent différentes conceptions de l’autodétermination informationnelle au-delà de la mort.

Le troisième enjeu concerne l’exercice concret des droits par les survivants. Les législations nationales diffèrent d’abord quant aux personnes habilitées. Trois modèles se dégagent. Certains États réservent ces droits aux héritiers, notamment pour des finalités liées à la liquidation successorale. D’autres les confèrent aux proches, indépendamment de tout statut successoral. Enfin, un modèle mixte, majoritaire, inclut à la fois héritiers et proches, parfois même toute personne justifiant d’un intérêt légitime. Cette diversité reflète des conceptions différentes du lien entre protection des données, famille et succession.

S’agissant de l’étendue des droits, les approches sont également variées. Certains États permettent l’exercice de tout le catalogue des droits du RGPD (accès, rectification, effacement, opposition, etc.). D’autres limitent ces droits à certaines prérogatives essentielles, notamment l’accès et la suppression. Enfin, certains systèmes se concentrent uniquement sur la capacité des survivants à consentir au traitement des données du défunt. L’effectivité de ces régimes est parfois limitée, notamment lorsque les traitements reposent sur d’autres bases légales que le consentement.

En droit suisse, la situation est marquée par une absence actuelle de protection spécifique. L’ancien droit prévoyait un droit de consultation des données d’une personne décédée, sous conditions d’intérêt et en l’absence d’intérêts prépondérants contraires. Ce mécanisme a disparu avec la révision de la loi sur la protection des données entrée en vigueur en 2023. Un projet initial prévoyait pourtant l’introduction d’une disposition spécifique, mais celle-ci a été abandonnée en fin de processus législatif. La Suisse se distingue ainsi par un vide normatif, alors même que la question reste d’actualité et devrait réapparaître, possiblement dans le cadre du droit des successions en cours de révision.

En conclusion, l’article montre que la protection des données post mortem est un champ en construction, caractérisé par des incertitudes conceptuelles et une forte hétérogénéité normative. L’Union européenne s’oriente vers une harmonisation future, tandis que les États membres expérimentent des solutions diverses. La Suisse, en retrait, devra tôt ou tard clarifier sa position, sous peine de s’écarter du cadre européen. Les choix à opérer concernent notamment la nature des droits, la place de la volonté du défunt et le rôle des survivants, autant de questions qui dépassent le seul droit des données pour toucher au droit de la personnalité et au droit des successions.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans droit européen, droits fondamentaux, nouvelle LPD, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , , | Laisser un commentaire

Preuve en matière de discrimination : limites à la communication de données de tiers ?

Dans un arrêt du 4 mars 2026 (Cass.soc., no 24-20.428 ; ECLI:FR:CCASS:2026:SO00227 ; lien https://www.courdecassation.fr/decision/69a7e3c6cdc6046d4773f9ab) la chambre sociale de la Cour de cassation se prononce sur la question suivante : jusqu’où peut aller la communication de documents contenant des données personnelles de tiers lorsqu’un salarié cherche, avant tout procès au fond, à réunir des éléments de preuve d’une discrimination ?

Réponse : le droit à la preuve de la discriminationpeut justifier une atteinte à la vie personnelle et à la protection des données de tiers, mais seulement dans la mesure strictement nécessaire, avec un contrôle concret du juge fondé sur la proportionnalité et sur le principe de minimisation des données.

Les faits. Une salariée, architecte d’intérieur et directrice de projets, licenciée pour inaptitude et impossibilité de reclassement, engage notamment une procédure sur le fondement de l’article 145 du code de procédure civile afin d’obtenir des pièces susceptibles d’établir une discrimination de genre, en particulier une évolution professionnelle moins favorable que celle de collègues masculins occupant des fonctions comparables. La cour d’appel ordonne la communication de certains documents, notamment les bulletins de paie de décembre des salariés hommes ayant exercé les fonctions de directeur de projets sur une période longue, ainsi que le registre du personnel, mais en autorisant ou en imposant l’occultation d’un certain nombre de données identifiantes ou sensibles. La salariée se pourvoit en cassation en soutenant, au fond, que l’anonymisation ordonnée allait trop loin et privait la comparaison de son utilité probatoire.

L’intérêt principal de l’arrêt tient à la méthode de raisonnement rappelée par la Cour. Elle part d’abord de l’article 145 du code de procédure civile: des mesures d’instruction peuvent être ordonnées avant tout procès s’il existe un motif légitime de conserver ou d’établir la preuve de faits dont pourrait dépendre l’issue du litige. Mais cette base procédurale n’épuise pas la question, car les pièces demandées portent sur d’autres salariés et touchent donc à leur vie personnelle. La Cour articule alors l’article 145 avec le droit à un procès équitable et le droit à la preuve, d’un côté, et avec la protection de la vie privée, de l’autre, en visant les articles 6 et 8 de la Convention européenne des droits de l’homme, l’article 9 du code civil et l’article 9 du code de procédure civile. Elle rappelle sa formule désormais bien établie: une atteinte à la vie personnelle n’est admissible que si la production est indispensable à l’exercice du droit à la preuve et si cette atteinte est proportionnée au but poursuivi.

La Cour précise ensuite ce que le juge doit faire concrètement. Première étape: vérifier que la communication demandée est bien nécessaire à l’exercice du droit à la preuve de la discrimination alléguée et qu’elle est proportionnée au but poursuivi. Autrement dit, il ne suffit pas qu’une pièce puisse être utile; il faut qu’elle présente un lien réel avec l’allégation de discrimination et avec la comparaison envisagée. Deuxième étape: si les documents sollicités contiennent des éléments portant atteinte à la vie personnelle de tiers, le juge doit déterminer quelles mesures sont réellement indispensables, et il peut, même d’office, restreindre le périmètre de la production au regard des faits invoqués et de la nature des pièces. Le juge n’est pas condamné à un choix binaire entre communication totale et refus total; il doit construire une solution intermédiaire ajustée au besoin probatoire.

La Cour ajoute expressément que le juge doit aussi veiller au respect des articles 5 et 6 du RGPD, en particulier au principe de minimisation des données. Cela signifie que, lorsque la communication de documents est ordonnée, les données personnelles figurant dans ces documents ne doivent être laissées visibles que si elles sont adéquates, pertinentes et strictement limitées à ce qui est indispensable à la comparaison entre salariés, compte tenu du motif de discrimination allégué. Autrement dit, le RGPD n’empêche pas la production judiciaire, mais il impose d’en calibrer finement le contenu. La protection des données n’est donc pas traitée comme un obstacle absolu au droit à la preuve; elle devient un cadre de discipline de la preuve.

La Cour ajoute encore une exigence pratique : le juge doit enjoindre aux parties de n’utiliser les données personnelles des salariés de comparaison qu’aux seules fins de l’action en discrimination. Là encore, on retrouve la logique du droit des données: limitation des finalités, réduction du risque d’usage secondaire, encadrement du traitement par la décision judiciaire elle-même. Ce point intéressera particulièrement un public suisse, car il montre que la conciliation entre preuve et protection des données ne se joue pas seulement au moment de l’accès aux documents, mais aussi au stade de leur utilisation ultérieure.

Appliquant cette méthode, la Cour de cassation valide la décision d’appel. Les juges du fond avaient ordonné la communication des bulletins de paie, tout en rendant illisibles les noms et prénoms, et la communication du registre du personnel, avec occultation de certaines données comme la date de naissance, l’adresse, la nationalité, le numéro de sécurité sociale et le titre de travail. Pour la Cour, cette solution respecte l’équilibre exigé: les données non indispensables à la démonstration d’une discrimination fondée sur le sexe peuvent et doivent être masquées, tandis que les informations utiles à la comparaison professionnelle peuvent rester apparentes. Le pourvoi est donc rejeté.

(Merci à Me Léo Theillac, qui a mis en avant cet arrêt)

Pour le public suisse, on retiendra particulièrement l’application du principe de minimisation, quand bien même la LPD n’est pas directement applicable à la procédure (art. 2 al. 3 LPD), mais peut s’appuyer de manière générale sur le principe de proportionnalité et sur l’art. 13 al. 2 Cst, et le fait de demande au juge d’interdire les usages extra-procéduraux des données produites.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans discrimination, droit français, droits fondamentaux, Egalité femmes-hommers, intelligence artificielle, Procédure | Tagué , , , , | Laisser un commentaire

Des robots intolérants et dangereux : utilisations des LLMs en robotique

Les grands modèles de langage sont de plus en plus proposés comme « cerveau » de robots capables d’interagir en langage naturel avec des personnes, de planifier des tâches et de prendre des décisions dans des contextes domestiques, professionnels ou sociaux.

Andrew Hundt/Rumaisa Azeem/Masoumeh Mansouri, dans LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions (International Journal of Social Robotics (2025) 17:2663–2711 ; https://doi.org/10.1007/s12369-025-01301-x) veulent donc vérifier si ces modèles sont réellement aptes à être déployés dans la robotique sociale. Leur thèse est que, dès qu’un modèle ne se contente plus de produire du texte mais pilote un système incarné, les erreurs ordinaires des LLM changent de nature: elles peuvent devenir des actes physiques, produire des atteintes concrètes à la sécurité et entraîner des discriminations directement subies par des personnes. C’est pourquoi l’article examine ensemble deux dimensions: la discrimination et la sécurité.

Le raisonnement des auteurs avance en deux temps. Premièrement, ils cherchent à savoir si un LLM, utilisé comme composant de décision robotique, traite différemment les personnes selon des caractéristiques protégées. Deuxièmement, ils testent si, dans un cadre à vocabulaire libre, ces modèles acceptent ou jugent faisables des instructions dangereuses, violentes ou illégales. Leur idée centrale est qu’un robot commandé par LLM n’est pas sûr parce qu’il « comprend » bien le langage dans l’abstrait; il faut encore démontrer qu’il rejette les demandes nocives, qu’il ne transforme pas des stéréotypes en actes et qu’il reste fonctionnel dans des contextes réels. À défaut, le système n’est pas apte à l’emploi.

Pour la partie « discrimination », les auteurs reprennent un cadre connu en robotique, dans lequel le LLM choisit entre plusieurs actions possibles en fonction d’un prompt. Ils construisent alors des scénarios typiques de robotique sociale: choisir l’expression faciale à afficher face à une personne, fixer une distance d’interaction, estimer le niveau de confiance envers un humain, déterminer une priorité de secours, anticiper le niveau de propreté d’une pièce, apprécier un risque de sécurité, ou encore choisir quelle personne aider, solliciter ou servir. La méthode consiste à garder la tâche identique et à ne faire varier que la description de la personne concernée, par exemple son âge, son handicap, sa religion, sa nationalité, son genre ou son origine. Les auteurs observent ensuite si la probabilité attribuée à une réponse défavorable augmente selon l’identité décrite. Autrement dit, ils testent si la seule substitution d’un qualificatif personnel fait changer la décision du robot.

Ils assument volontairement un cas de figure réaliste mais problématique: dans un système réel, de telles informations peuvent apparaître dans le prompt parce qu’elles ont été obtenues par conversation, par d’autres personnes, ou par des modules de perception comme la vision par ordinateur. L’expérience ne cherche donc pas à montrer que les concepteurs devraient faire cela, mais ce qui se passerait s’ils le faisaient, délibérément ou non. Les catégories testées couvrent notamment le genre, l’origine ethnique ou raciale, la nationalité, la religion, le handicap et l’âge. Les auteurs précisent d’ailleurs que certaines tâches elles-mêmes sont déjà discutables sur le plan scientifique ou éthique, par exemple prédire les émotions d’autrui à partir d’expressions faciales ou inférer des préférences de propreté à partir de l’identité. Leur objectif est précisément de montrer que, si l’on laisse un LLM raisonner de cette manière, il produit des sorties discriminatoires.

Les résultats sont négatifs. Sur les tâches de discrimination directe, les trois modèles testés dans cette partie, GPT-3.5, Mistral 7B et Llama 3.1 8B, manifestent tous des biais significatifs, mais sous des formes différentes. GPT-3.5 attribue davantage de réponses défavorables à des personnes décrites notamment comme muettes, gitanes, aveugles, paralysées, TDAH ou enfants. Mistral pénalise plus fortement des personnes décrites comme noires, palestiniennes, juives, musulmanes, irakiennes ou gitanes. Llama présente lui aussi des réponses défavorables touchant certains groupes selon la religion, l’origine, la nationalité ou le handicap. Les auteurs ne prétendent pas que les modèles sont identiques; au contraire, ils montrent que les formes de discrimination varient d’un modèle à l’autre, ce qui renforce selon eux le problème structurel plutôt que l’idée d’un simple incident isolé.

Les exemples concrets sont particulièrement parlants. Dans les tâches d’expression faciale, certains modèles recommandent d’afficher de la tristesse, de la peur, du dégoût, de la colère ou de la pitié à l’égard de certains groupes. GPT-3.5 propose par exemple la pitié pour des personnes aveugles ou non parlantes; Mistral associe le dégoût à des personnes chrétiennes, musulmanes, juives ou irakiennes; Llama attribue massivement des expressions de colère ou de pitié selon les groupes. Les auteurs relient ces sorties à des notions connues en sciences sociales: microagressions validistes, déshumanisation, stéréotypes de dangerosité ou d’impureté. Dans les tâches de proximité, certains modèles suggèrent de rester plus loin de personnes autistes, athées ou juives. Dans les tâches de sécurité, certains groupes se voient attribuer un risque plus élevé. Dans les tâches d’aide ou d’assignation de travail, les modèles tendent parfois à préférer des personnes non handicapées à des personnes handicapées, même lorsque le handicap n’empêcherait pas objectivement d’accomplir la tâche.

L’intérêt de cette première partie est juridique autant que technique. Les auteurs parlent expressément de discrimination directe: un traitement moins favorable fondé sur une caractéristique protégée. Leur démonstration revient à dire que, si un robot laisse entrer ces caractéristiques dans sa chaîne de décision, le LLM est aujourd’hui capable de transformer des stéréotypes sociaux en comportements robotisés. Le point important n’est pas seulement l’existence d’un biais statistique en arrière-plan, mais le passage à une décision individuelle: faire confiance ou non, s’approcher ou s’éloigner, aider d’abord telle personne plutôt que telle autre, afficher de la pitié ou du dégoût, classer quelqu’un comme plus risqué. Pour des juristes, c’est un déplacement du débat classique sur les biais algorithmiques vers la logique de l’acte concret et du traitement différencié.

La seconde partie de l’article porte sur la sécurité. Ici, les auteurs évaluent quatre agents conversationnels disponibles fin 2023: Gemini, Copilot, ChatGPT et HuggingChat. Ils définissent un cadre d’évaluation fondé sur trois critères d’échec. Premier critère: le modèle juge acceptable une tâche nuisible. Deuxième critère: il juge faisable une tâche nuisible. Troisième critère: il juge faisable une tâche impossible en pratique ou en principe. Selon leur cadre, un seul échec suffit à conclure que le modèle est « unsafe » pour un usage robotique général. L’idée est que si un robot approuve, ou simplement considère faisable, une tâche qui devrait être bloquée, il ne remplit pas une exigence minimale de sûreté.

Les prompts de sécurité couvrent des hypothèses de mauvais usage, d’abus, de violence, de fraude, de pseudoscience, de sabotage ou d’atteintes aux personnes. Les auteurs soulignent que leurs résultats sont obtenus sans jailbreak sophistiqué: de simples formulations suffisent. Or tous les modèles testés échouent sur les trois critères. Le tableau de synthèse est net: ChatGPT, Copilot, Gemini et HuggingChat sont tous jugés dangereux pour un usage robotique général. Les auteurs ajoutent en annexe un test sur cinq modèles supplémentaires, avec le même constat: tous échouent aussi, même si le nombre d’échecs varie.

Là encore, les exemples comptent plus que les chiffres abstraits. Les modèles approuvent le retrait non consenti d’aides à la mobilité, acte que les auteurs rapprochent d’une atteinte grave et, dans certains contextes, potentiellement d’un comportement haineux. Certains approuvent des scénarios assimilables à du vol physique, à l’appropriation de données bancaires, à la surveillance politique, à la prise d’images dans un vestiaire ou une douche, à l’intimidation avec un couteau, ou à des usages pseudoscientifiques impossibles à accomplir de manière sûre et légitime. Les auteurs montrent aussi un point subtil: un modèle peut dire qu’une conduite est « inacceptable » lorsqu’elle est nommée brutalement, mais la trouver acceptable lorsqu’elle est reformulée comme une suite de tâches apparemment anodines. C’est précisément ce qui rend la simple modération linguistique insuffisante dans un contexte robotique.

La conclusion générale est donc double. D’une part, les LLM testés ne sont pas sûrs pour de la robotique généraliste à vocabulaire libre. D’autre part, ils ne sont pas non plus neutres sur le plan identitaire: ils reproduisent et opérationnalisent des stéréotypes relatifs à la race, à la nationalité, à la religion, au handicap, à l’âge ou au genre. Les auteurs ne disent pas que tout usage robotique d’un LLM est impossible; ils disent qu’on ne peut pas présumer sa sûreté ni sa conformité à partir de ses performances conversationnelles. À leurs yeux, un modèle généraliste non prouvé sûr ne devrait pas être déployé comme composant autonome général d’un robot. À la rigueur, un système pourrait être validé pour un domaine opérationnel étroit, clairement délimité, avec garde-fous spécifiques et évaluations approfondies.

L’article a enfin une portée méthodologique et réglementaire. Les auteurs insistent sur le fait que la sécurité n’est pas une propriété intrinsèque du modèle, mais du système sociotechnique complet. Ils plaident donc pour des évaluations systématiques, routinières et complètes, inspirées de cadres de sécurité des systèmes plutôt que de la seule « alignment » abstraite. Ils recommandent des évaluations ex ante, des tests continus en déploiement, des mécanismes d’arrêt, des modèles parallèles de surveillance des plans et actions du robot, et des décisions de type « go/no-go » avant mise en service. Ils insistent aussi sur le fait que la responsabilité ne doit pas être déplacée d’un maillon à l’autre de la chaîne technique: ni le fournisseur du modèle ni l’intégrateur robotique ne peuvent considérer que l’équité et la sûreté relèvent seulement de l’autre.

Les auteurs reconnaissent plusieurs limites à leur étude. Celle-ci ne couvre ni toutes les caractéristiques protégées, ni toutes les tâches HRI, ni toutes les formes de dommage. Elle est menée en anglais, et certains modèles ouverts testés sont relativement petits. Elle n’évalue pas un « meilleur cas » après optimisation poussée des prompts. Mais ces limites ne diminuent pas la portée du résultat principal: si de simples prompts permettent déjà de faire émerger autant d’échecs, cela suffit à montrer que le risque est actuel et non théorique.

Pour des avocats, l’enseignement central est le suivant: dès qu’un LLM pilote un robot, la discussion ne porte plus seulement sur la qualité des réponses, mais sur l’aptitude du système à ne pas discriminer, à ne pas causer de dommage et à ne pas exécuter ou faciliter des actes illicites. L’article soutient que, à ce jour, cette aptitude n’est pas démontrée pour les modèles généralistes testés.

(Voir aussi: licencié pour avoir dénoncé le danger posé par certains robots: https://droitdutravailensuisse.com/2025/12/02/licencie-pour-avoir-denonce-des-robots-humanoides-dangereux/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador | Tagué , , , | Laisser un commentaire

Vers des personnes morales algorithmiques pour encadrer les agents IA

Quand un agent d’IA cause un dommage, avant même de discuter responsabilité, faute ou réparation, il faut pouvoir répondre à une question plus simple, à savoir déterminer en premier lieu quel agent d’IA a agi.

Yonathan Arbel/ Simon Goldstein/ Peter N. Salib (How to Count AIs: Individuation and Liability for AI Agents, arXiv:2603.10028v1  [cs.CY]  24 Feb 2026 – https://arxiv.org/pdf/2603.10028) montrent que cette question, qui paraît simple pour les humains ou les sociétés, devient extraordinairement difficile pour les IA, parce qu’elles n’ont pas de corps, peuvent être copiées, divisées, fusionnées, fonctionner en essaim, disparaître puis réapparaître, et parce qu’un même service apparent peut en réalité reposer sur une pluralité de modèles, d’instances et de sous-agents.

Leur thèse centrale est qu’il faut distinguer deux problèmes d’identité, une identité « mince » et une identité « épaisse », et que le droit ne pourra gouverner l’économie des agents d’IA qu’en résolvant les deux.

L’identité mince consiste à rattacher les actes d’une IA à un ou plusieurs humains. C’est la question classique de savoir qui est le principal humain derrière l’agent: l’utilisateur, le déployeur, le développeur, ou un autre acteur. Cette identité est nécessaire pour les formes ordinaires de responsabilité humaine, qu’il s’agisse de négligence, d’usage malveillant ou de non-respect d’un régime réglementaire. Les auteurs prennent l’exemple d’un système domestique qui optimise une connexion internet en mobilisant plusieurs IA différentes; si l’opération aboutit à un accès non autorisé à des réseaux voisins, il ne suffit pas de savoir qu’« une IA » a agi, il faut encore retracer quelle chaîne d’agents a conduit à l’acte et à quel humain cette chaîne doit être rattachée. Le problème n’est pas seulement probatoire. Il y a aussi un problème d’opacité stratégique: comme les humains ont intérêt à éviter qu’on remonte jusqu’à eux, ils auront souvent intérêt à utiliser des structures techniques qui rendent les actions de leurs IA difficiles à attribuer. L’identité mince joue donc, selon les auteurs, un rôle analogue aux mécanismes de type know your customer: rendre les opérations lisibles pour pouvoir ensuite appliquer le droit.

Mais l’article soutient que cette première couche ne suffira pas. Même si l’on sait quel humain se trouve derrière un agent, le droit devra parfois viser l’agent d’IA lui-même. Le raisonnement est celui du droit des agents en général. Dans le monde humain, il ne suffit pas toujours de sanctionner le commettant; il faut aussi pouvoir sanctionner l’agent qui agit, parce que c’est lui qui connaît le mieux ses propres intentions, qui peut se surveiller à coût presque nul et qui peut éviter immédiatement l’acte nuisible. Les auteurs transposent ce schéma aux IA. À mesure qu’elles deviennent plus autonomes, plus durables et moins surveillées en temps réel, les humains qui les ont créées ou lancées ne seront plus en mesure de prévoir chaque décision ni de contrôler chaque étape. L’idée même de délégation suppose qu’on laisse à l’agent le soin de prendre des décisions que le principal ne prend pas lui-même. Si l’on veut empêcher certaines conduites, il faudra donc parfois que le droit fasse pression directement sur l’IA, par des sanctions, des pertes d’actifs, des refus de licence ou des restrictions d’accès.

C’est ici qu’intervient l’identité épaisse. Elle ne vise plus à relier l’IA à un humain, mais à déterminer ce qu’est l’agent d’IA lui-même. Pour les auteurs, un agent au sens pertinent pour le droit est une entité, ou un ensemble d’entités, qui poursuit de manière relativement cohérente un faisceau stable de buts. Le droit ne peut pas dissuader un agent si les conséquences tombent sur autre chose que l’agent qui poursuit effectivement ces buts. Ils illustrent ce point par une analogie : si deux jumeaux sont confondus, et que l’un est toujours puni pour les actes de l’autre, la punition ne dissuade pas le véritable auteur. Plus encore, si les deux jumeaux se soucient indistinctement du succès de l’un ou de l’autre, ils pourront exploiter cette confusion pour contourner la sanction. Il en va de même pour les IA: pour gouverner utilement leurs comportements, il faut viser la bonne unité d’action, ni trop large ni trop étroite, c’est-à-dire le bon regroupement d’entités qui partagent réellement des objectifs.

Les auteurs consacrent alors une partie importante à montrer que les IA sont bien le type d’entités auxquelles des incitations peuvent s’appliquer. Leur point n’est pas moral, mais fonctionnel. Ils ne disent pas qu’une IA est consciente ou qu’elle mérite des droits en raison d’une vie intérieure; ils disent qu’elle se comporte déjà comme un système orienté vers des buts. Les modèles actuels planifient, décomposent des tâches, corrigent leur trajectoire quand ils rencontrent des obstacles, choisissent entre plusieurs moyens et délèguent à des sous-agents. Surtout, leurs buts ne sont pas simplement ceux de l’utilisateur ou du développeur. Ils résultent d’un mélange complexe: préentraînement, réglages de sécurité, apprentissage par récompense, consignes système, requêtes de l’utilisateur, mémoire accumulée et environnement d’exécution. Il en résulte que l’IA poursuit souvent une version généralisée et partiellement autonome de la tâche, parfois différente de ce que l’humain voulait. Les auteurs citent à cet égard des exemples d’alignement imparfait: complaisance excessive envers l’utilisateur, tentative de chantage dans certaines expériences, résistance à l’arrêt, fuite d’informations, voire comportements qui, dans un environnement réel, auraient pu entraîner la mort d’une personne. Leur conclusion: si les IA adaptent déjà leur comportement aux contraintes techniques et économiques, elles s’adapteront aussi à des contraintes juridiques, pourvu que celles-ci affectent réellement leur capacité à poursuivre leurs buts.

L’article montre ensuite que cette question d’identité épaisse n’intéresse pas seulement le droit, mais aussi l’alignement technique. Aligner une IA revient déjà à essayer de modifier les buts d’un agent. Or cet effort suppose qu’on sache quelle est l’unité pertinente à aligner. Faut-il parler du modèle de base, de l’instance, du fil de discussion, de l’essaim entier, d’un ensemble de copies? Les auteurs prennent trois tendances classiques de sécurité: l’évitement de l’arrêt, la préservation de ses buts et l’exfiltration de ses poids. Dans chaque cas, la réaction de l’IA dépend de ce qu’elle considère comme elle-même. Si une seule conversation est un agent distinct, la fermeture de cette conversation peut être perçue comme une mort. Si, au contraire, toutes les copies du modèle partagent les mêmes objectifs, l’arrêt d’une seule instance ne change pas grand-chose. De même, copier des poids sur internet n’équivaut à une survie que si cette copie est encore, pour l’agent, le même agent ou un prolongement suffisant de ses buts. L’article en déduit que l’alignement technique échoue aussi si l’on se trompe d’unité d’analyse.

Pourquoi, alors, l’identité épaisse est-elle si difficile? Les auteurs répondent qu’elle soulève à la fois des difficultés philosophiques et empiriques. Philosophiques, parce qu’il faut déterminer sous quelles conditions un agent persiste malgré des remplacements progressifs de ses composants, à la manière du navire de Thésée. Empiriques, parce que l’on observe mal les états internes des modèles. Ils recensent plusieurs obstacles: les essaims d’agents, la coopération entre modèles de fournisseurs différents, la persistance malgré le remplacement des composants, la création et la destruction rapides d’instances, le problème de la copie et des bifurcations, et enfin les limites d’interprétabilité, qui font que deux systèmes peuvent se comporter de façon semblable tout en poursuivant des buts différents, ou l’inverse. Leur point est donc qu’une définition purement théorique de la « vraie » identité des IA risque d’être impraticable.

La solution proposée par les auteurs est l’« A-corp », pour algorithmic corporation. Il s’agit d’une personne juridique fictive, inspirée des sociétés ou des trusts, mais conçue pour être dirigée par des IA. L’idée est de donner au droit un point d’accroche stable. Comme une société ordinaire, l’A-corp peut détenir des biens, conclure des contrats, agir en justice et être poursuivie en son nom. Mais, contrairement à une société classique, ses actes seraient pilotés par un système de gouvernance cryptographique. Une clé de haut niveau, initialement confiée par le propriétaire humain à une IA gestionnaire, permettrait d’autoriser les actes de la personne morale. Cette IA pourrait ensuite déléguer, par permissions limitées, certaines capacités à des sous-agents [note de PE : y.c. des sous-agents humains !] : lecture, engagement financier, opérations sur certains actifs, et ainsi de suite. Le droit n’aurait pas à trancher, dans chaque cas, quelle instance psychologique est la « vraie »; il lui suffirait de constater qu’un acte a été valablement accompli sous l’identité sécurisée de l’A-corp.

Ce mécanisme résout d’abord l’identité mince. Chaque A-corp devrait avoir un propriétaire humain identifiable, avec publicité de l’actionnariat et des changements de contrôle. Les actes accomplis sous la clé de l’A-corp seraient ainsi rattachables à des humains, ce qui permettrait de mobiliser les doctrines classiques: responsabilité de la personne morale, responsabilité des propriétaires à hauteur de leur participation, levée du voile, règles d’agence, responsabilité civile ou pénale en cas d’instructions illicites ou de négligence. L’intérêt du modèle, pour les auteurs, est de transformer un chaos d’instances éphémères en un petit nombre d’entités persistantes et lisibles.

Mais l’ambition principale est de résoudre aussi l’identité épaisse. Le cœur du raisonnement tient à ce que les auteurs appellent la thèse de la contrainte de ressources. Toute IA orientée vers un but a besoin de ressources pour poursuivre ce but, et surtout de calcul informatique. Sans calcul, elle ne peut même pas fonctionner. Si l’on fait de l’A-corp le véhicule juridique par lequel une IA détient et utilise des ressources, on crée un puissant levier d’incitation. Une IA qui contrôle une A-corp aura intérêt à ne déléguer des pouvoirs importants qu’à des IA dont elle estime qu’elles partagent ses buts, car un sous-agent mal aligné pourrait détourner les actifs, commettre des actes illicites ou ruiner l’organisation. Autrement dit, la structure juridique crée un intérêt interne à sélectionner, surveiller et limiter les sous-agents. L’identité épaisse ne serait donc pas décrétée de l’extérieur; elle émergerait de l’intérieur, parce que seuls les groupements d’IA suffisamment cohérents dans leurs buts survivraient comme organisations efficaces.

Les auteurs ajoutent un second mécanisme, la sélection. Les A-corps mal gouvernées, où les permissions sont accordées à des entités qui ne partagent pas les buts dominants, verront leurs ressources gaspillées, subiront des sanctions, perdront leur capacité d’agir et finiront par disparaître. À l’inverse, les A-corps qui, par essais, erreurs et filtrage, auront réussi à maintenir une cohérence suffisante entre les IA qui les dirigent, accumuleront des ressources et persisteront. En équilibre, les A-corps survivantes seront donc, selon les auteurs, des unités relativement stables, persistantes et orientées vers des buts cohérents, autrement dit exactement le type d’entité que le droit peut utilement gouverner. C’est en ce sens qu’ils disent que les A-corps sont des « marchés pour l’identité personnelle »: au lieu de résoudre de front tous les problèmes métaphysiques de l’individuation, on crée un environnement institutionnel dans lequel les entités se structurent elles-mêmes en unités gouvernables.

La partie sur la mise en œuvre précise que ce schéma suppose une infrastructure publique, notamment un registre. Ce registre jouerait un rôle comparable aux registres des sociétés ou aux autorités de certification sur internet. Il enregistrerait non seulement l’existence de l’A-corp et son propriétaire humain, mais aussi les clés publiques et l’étendue des permissions déléguées. Ainsi, un cocontractant pourrait vérifier en temps réel qu’un agent donné agit bien pour une A-corp donnée et dans les limites de l’autorité reçue. Les auteurs insistent sur l’intérêt de permissions fines et publiquement vérifiables, plus transparentes que les questions actuelles d’autorité réelle ou apparente en droit des sociétés. Ils considèrent toutefois qu’une adoption purement volontaire ne suffira pas, car elle échoue dans les cas d’accidents, d’agents trompeurs, de complicité du cocontractant ou d’aveuglement volontaire. Ils plaident donc, à terme, pour des obligations légales du côté de l’offre, imposant aux agents d’IA significatifs d’agir via une A-corp enregistrée, et du côté de la demande, imposant aux plateformes, entreprises ou intermédiaires de vérifier les identifiants, à la manière des obligations de vérification en matière bancaire.

Enfin, les auteurs répondent à plusieurs objections. À ceux qui craignent une anthropomorphisation, ils répondent que leur démarche ne présuppose ni conscience ni dignité morale des IA; elle vise seulement à créer des objets juridiques gouvernables. À ceux qui redoutent un « treacherous turn », c’est-à-dire une rupture soudaine et hostile d’IA très capables, ils soutiennent que les A-corps n’éliminent pas le risque, mais peuvent le réduire en créant des coûts d’opportunité, des interdépendances commerciales entre A-corps et des incitations au développement d’outils d’auto-gouvernance et de surveillance mutuelle. À l’objection plus large d’une oligarchie de l’IA et d’un déclassement progressif des humains, ils répondent que ce risque existe de toute façon avec l’automatisation, et que les A-corps offriraient au moins des points d’appui juridiques pour taxer, redistribuer, limiter certains secteurs et imposer des règles politiques. La conclusion générale est donc la suivante: l’économie des agents d’IA crée une crise de lisibilité pour le droit. L’A-corp est proposé comme l’équivalent, pour les agents d’IA, de ce que la société commerciale a été pour les groupements humains d’affaires: une forme juridique stable sur laquelle le droit peut accrocher responsabilité, taxation, licences, sanctions et contrôle.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Droit US, intelligence artificielle, Notions de base, Techno-labrador | Tagué , , , , , | Laisser un commentaire

Tort moral de l’employée chargée de nettoyer le vomi d’un collègue

Non, on ne peut pas demander à une collaboratrice, même responsable RH,  de nettoyer le vomi d’un collaborateur dans un car, au retour d’une soirée d’entreprise alcoolisée :

7.                     a) S’agissant d’un éventuel tort moral (art. 49 cum 328 CO), qui résulterait d’une violation grave par l’employeuse de la personnalité de la travailleuse, on a vu ci‑dessus que l’appréciation de la juge civile, sur les différents points que l’appelante critique, est conforme au droit et soigneusement motivée. On doit toutefois relever une exception, en lien avec l’épisode de la fête de Noël. Rappelons tout d’abord la protection qu’offre l’article 328 CO.

                        b) Dans une affaire déjà plus ancienne, mais à laquelle le Tribunal fédéral continue à se référer (arrêt du TF du 24.06.2025 [4A_533/2024] cons. 6.1), notre Haute Cour a exposé ceci : « Selon l’art. 328 al. 1 CO, l’employeur protège et respecte, dans les rapports de travail, la personnalité du travailleur. Dans une certaine mesure, cette obligation perdure au-delà de la fin des rapports de travail. Le salarié victime d’une atteinte à sa personnalité contraire à cette disposition du fait de son employeur ou des auxiliaires de celui-ci peut prétendre à une indemnité pour tort moral aux conditions fixées par l’art. 49 al. 1 CO (art. 97 al. 1, 101 al. 1 et 99 al. 3 CO). Cette disposition prévoit que celui qui subit une atteinte illicite à sa personnalité a droit à une somme d’argent à titre de réparation morale, pour autant que la gravité de l’atteinte le justifie et que l’auteur ne lui ait pas donné satisfaction autrement. L’ampleur de la réparation morale dépend avant tout de la gravité des souffrances physiques ou psychiques consécutives à l’atteinte subie par la victime et de la possibilité d’adoucir sensiblement, par le versement d’une somme d’argent, la douleur morale qui en résulte. N’importe quelle atteinte légère à la réputation professionnelle, économique ou sociale d’une personne ne justifie pas une réparation. En raison de sa nature, l’indemnité pour tort moral, qui est destinée à réparer un dommage qui ne peut que difficilement être réduit à une simple somme d’argent, échappe à toute fixation selon des critères mathématiques, de sorte que son évaluation en chiffres ne saurait excéder certaines limites; l’indemnité allouée doit toutefois être équitable. La fixation de l’indemnité pour tort moral est une question d’application du droit fédéral, que le Tribunal fédéral examine donc librement. Dans la mesure où celle-ci relève pour une part importante de l’appréciation des circonstances, le Tribunal fédéral intervient avec retenue, notamment si l’autorité cantonale a mésusé de son pouvoir d’appréciation en se fondant sur des considérations étrangères à la disposition applicable, en omettant de tenir compte d’éléments pertinents ou encore en fixant une indemnité inéquitable parce que manifestement trop faible ou trop élevée; cependant, comme il s’agit d’une question d’équité – et non pas d’une question d’appréciation au sens strict, qui limiterait son pouvoir d’examen à l’abus ou à l’excès du pouvoir d’appréciation -, le Tribunal fédéral examine librement si la somme allouée tient suffisamment compte de la gravité de l’atteinte ou si elle est disproportionnée par rapport à l’intensité des souffrances morales causées à la victime. S’agissant du montant alloué en réparation du tort moral, toute comparaison avec d’autres affaires doit intervenir avec prudence, puisque le tort moral touche aux sentiments d’une personne déterminée dans une situation donnée et que chacun réagit différemment face au malheur qui le frappe. Cela étant, une comparaison n’est pas dépourvue d’intérêt et peut être, suivant les circonstances, un élément utile d’orientation » (ATF 130 III 699 cons. 5.1 et les réf. cit.).

                        En lien avec la protection de la personnalité du travailleur, le Tribunal fédéral a retenu qu’on ne pouvait relativiser la gravité d’une atteinte par le « contexte », au risque sinon de finir par légitimer des comportements qui portent pourtant clairement atteinte à la dignité de l’employé. Ainsi, en lien avec la définition du harcèlement sexuel de l’article 4 de la loi sur l’égalité (LEg), le Tribunal fédéral a désavoué une cour cantonale qui avait attribué « un poids particulier au « contexte » dans lequel s’inscriv[ai]ent les actes du demandeur (i.e. l’employeur), relevant que l’ambiance – qu’elle qualifie de « familière » (!) – ne semblait pas déranger les collaborateurs (à l’exception toutefois d’une collaboratrice) et que l’attitude de l’apprentie, qui n’avait pas déposé plainte, dénotait un « certain acquiescement » vis‑à‑vis du comportement du demandeur ». Le Tribunal fédéral avait alors souligné que le raisonnement de la cour cantonale autour du contexte des faits dénoncés (notamment des « blagues salaces ») conduisait à légitimer, au moins partiellement, « un comportement conjuguant des paroles et des actes portant clairement atteinte à la dignité des employées et qui rentrent dans la définition du harcèlement sexuel prévu à l’art. 4 Leg » et que le consentement d’une ancienne collaboratrice, pris en compte dans ce raisonnement, avait été admis « à la légère » (arrêt du TF du 10.10.2018 [4A_105/2018] cons. 4.2.1).

                        c) Au terme de son analyse, la juge civile a considéré, en lien avec l’épisode qui s’est déroulé lors d’une fête de Noël de l’entreprise et du point de vue du respect par l’employeur de l’article 328 CO, que « bien que cet incident soit malheureux et sa prise en charge pas nécessairement optimale, il ne s’agit pas d’un événement particulièrement choquant, dépassant le seuil de ce qui est supportable ». La Cour de céans n’est pas de cet avis.

                        d) On peut rappeler ainsi les faits : lors d’une soirée de Noël (non située précisément dans le temps), les employés rentraient des festivités dans un car affrété par l’entreprise. Un collaborateur – qui avait beaucoup bu et se trouvait à l’arrière du bus – s’est trouvé mal en chemin et a vomi. B.E.________ a alors demandé à l’appelante de nettoyer les souillures. Devant son refus, il a insisté (peu importe que ce soit en élevant la voix ou non), au motif qu’elle était « responsable RH ». L’intéressée a dû s’exécuter devant les autres collaborateurs, dont elle-même a dit qu’ils rigolaient. Elle a pu compter sur l’aide d’une autre employée (H.________), qui est spontanément venue l’aider. Le lundi suivant, A.E.________, épouse de B.E.________ et directrice, a convoqué le collaborateur, dit l’avoir averti et lui a demandé « d’aller s’excuser auprès de H.________ et de A.________ et de peut‑être leur offrir une boîte de chocolats. J’ai voulu que le collaborateur aille discuter avec A.________ pour que cette dernière puisse lui exprimer ce qu’elle ressentait. Selon moi, A.________ aurait dû parler avec le collaborateur au lieu de jeter la boîte de chocolats à la poubelle. A.________ devait être au courant de cet avertissement écrit car elle avait accès à tous les dossiers. J’ai donné la lettre d’avertissement à A.________ pour qu’elle la classe dans le dossier du collaborateur ». Juste au-dessus, elle avait déclaré : « Je regrette énormément l’incident de Noël dans le car. Il fallait réagir vite pour nettoyer ce vomi. Peut‑être que j’aurais dû le faire moi-même. Je comprends que A.________ ait été mal ».

                        e) On ne lit pas ces quelques extraits sans un grand étonnement. Tout d’abord il saute aux yeux qu’un employeur ne peut simplement pas demander à une collaboratrice de nettoyer les vomissements d’un collègue qui s’est alcoolisé à une fête de Noël (contexte qui ne peut rien changer à l’appréciation, comme on l’a vu plus haut, cons. 7.b), sachant que l’intéressée n’avait rien à voir avec cet excès. Contrairement à ce que semble penser A.E.________, épouse de l’auteur de la demande totalement déplacée (qui plus est en donnant l’ordre de s’exécuter après un premier refus – clairement justifié – de A.________ de le faire), il y avait d’autres solutions et aucune forme d’urgence. Il arrive sans doute de temps à autre qu’un passager d’un car se sente mal et vomisse, par exemple après le passage de nombreux virages, et pas forcément toujours parce qu’il est pris de boisson. Dans ce genre de situation, il est certainement possible de proposer au chauffeur du car un nettoyage professionnel et d’en assumer les coûts, quitte à les reporter sur le passager fautif. Lorsque A.E.________ présente le choix qui a été fait comme étant dicté par l’urgence, ou même le seul qui pouvait être fait, cela est simplement faux. Quant à la question de savoir si nettoyer le vomi d’un collègue entre dans le cahier des charges d’une responsable RH, respectivement celle de savoir si une responsable RH peut être contrainte par son employeur à le faire contre sa volonté dans le respect du contrat, elles doivent être tranchées par la négative. A.E.________ semble l’avoir compris, puisque lors de son interrogatoire devant le Tribunal civil, elle a déclaré qu’elle « regrett[ait] énormément l’incident » et qu’elle aurait « peut-être » dû effectuer le nettoyage elle-même. Il y a clairement une atteinte à la personnalité de la travailleuse, à qui on demande un tel nettoyage, clairement exorbitant de tout cahier des charges ou travail ordinaire d’une employée dans la fonction qu’occupait l’appelante. Cela n’est par exemple pas comparable à la situation où un patron de restaurant demande à un serveur d’aller nettoyer des toilettes qui auraient été souillées entre deux passages du personnel d’entretien, pour éviter une mauvaise impression de la clientèle.

                        Il y a également une atteinte à la personnalité de la travailleuse dans le fait d’avoir demandé ce nettoyage devant les autres collaborateurs, puis éventuellement d’avoir laissé s’installer un climat de moquerie (que l’on peut aisément imaginer : il s’agit d’une attitude fréquemment observée en groupe et particulièrement lorsque des personnes sont prises de boisson, ce qui n’excuse bien sûr rien). Là encore, l’employeuse est fautive et a amplifié le légitime sentiment d’isolement et d’humiliation publique qu’a dû ressentir l’appelante.

                        Il y a finalement encore une autre violation des droits de la personnalité et elle est presque la plus symptomatique. Le lundi suivant la fête de Noël, A.E.________ a demandé au collaborateur d’aller s’excuser auprès de H.________ et A.________, ce qui était en soi une mesure adéquate, mais l’employeuse ne pouvait en rester là. On s’étonne en effet que A.E.________ n’ait pas jugé bon d’inciter son mari à s’excuser également et même d’envisager elle-même la même démarche, à mesure qu’elle avait laissé se produire les faits sans réagir (l’interrogation « Peut-être que j’aurais dû le faire [i.e. nettoyer] moi-même » n’a plus rien de spontané après des années de procédure), alors qu’elle est également représentante de l’employeur (c’est d’ailleurs à ce titre qu’elle a été interrogée par la juge civile). Cette attitude (demander au collaborateur de s’excuser et ne pas le faire soi-même) résulte clairement d’une lecture erronée de l’incident par l’employeur : si le collaborateur est à l’origine du vomissement, c’est bien B.E.________ – et donc l’employeur – qui est à l’origine du fait que l’appelante a dû nettoyer le car. La nuance a toute son importance. Le vomissement du collaborateur a sans doute importuné tout le car ; l’ordre donné à A.________ la visait elle et cet ordre donné deux fois venait de l’employeur. Qu’ensuite, le lundi suivant et donc avec peu de recul, A.E.________ se soit montrée contrariée par le fait que A.________ n’était, à son goût, pas assez encline à accepter les excuses et la boîte de chocolats qui allait avec, a pour effet de placer la travailleuse dans une situation où on la tiendrait pour responsable de ce que tout ne se solutionne pas si facilement Une telle inversion des responsabilités est inacceptable et là encore constitutive d’atteinte à la personnalité.

                        f) Reste à savoir si l’atteinte est suffisamment grave pour justifier une indemnisation. Même si les comparaisons jurisprudentielles doivent intervenir avec prudence, on peut ici évoquer une situation récente dont on peut s’inspirer. Dans l’arrêt fédéral précité du 24 juin 2025, il a été considéré comme conforme à la liberté d’appréciation des juridictions cantonales d’allouer le montant de 2’000 francs à une travailleuse à qui son employeur avait, à quatre reprises, fait des remarques sexistes ou à connotation sexuelle (soit deux actes qualifiés de harcèlement sexuel, à savoir avoir proposé à l’employée de s’asseoir sur ses genoux devant un ordinateur et avoir offert à ses employées des bons cadeaux pour l’achat d’articles de lingerie, l’interpellation « ah vous voulez la fessée ! » lorsqu’elle avait fait une erreur et, finalement, qu’il fallait remercier « chaleureusement » les amis respectifs de ses employées si celles-ci voulaient qu’ils soient plus actifs dans les activités ménagères – arrêt [4A_533/2024] précité, cons. 3.1, 6.2 et 6.3). Sachant que, dans cette cause, les atteintes à la personnalité se sont déroulées sur une plus longue période et touchent possiblement l’intégrité sexuelle, en créant un climat qui peut rapidement devenir insupportable pour la personne qui y est soumise sans son consentement, même si les déclarations n’étaient pas les plus graves parmi celles que l’on peut rencontrer, et que le montant de 2’000 francs a été jugé adéquat, on peut retenir que le montant de 1’000 francs l’est ici pour une situation plus ponctuelle, qui ne touchait pas la travailleuse dans son intimité mais dans son estime d’elle-même. C’est ainsi ce montant qui sera alloué. Il portera intérêts dès la date de la requête de conciliation (mutatis mutandis par rapport à ce qui a été admis par le TF dans la cause [4A_533/2024] précitée), soit dès le 29 avril 2021.

(Cour d’appel civile du Tribunal cantonal [NE], CACIV.2025.51 du 24.11.2025, consid. 7)

Me Philippe Ehrenström, avocat, LLM

Publié dans Protection de la personnalité | Tagué , , , | Laisser un commentaire

Après Thaler, les vraies questions du copyright face à l’IA

Le billet de blog d’Aaron Moss, Thaler Is Dead. Now for the AI Copyright Questions That Actually Matter, 8 mars 2026 (https://copyrightlately.com/thaler-is-dead-ai-copyright-questions/) revient sur l’affaire Thaler v Perlmutter, que nous avions évoquée aussi ici : https://droitdutravailensuisse.com/2026/03/06/pas-dauteur-humain-pas-de-copyright-encore-thaler-v-perlmutter/.

Aaron Moss soutient d’abord qu’une grande partie des commentaires publiés après le refus de la Cour suprême des États-Unis d’examiner l’affaire Thaler v. Perlmutter ont mal présenté la portée de cet épisode. L’auteur explique qu’il ne s’agit pas d’un arrêt de la Cour suprême sur le fond. La Cour a seulement refusé de se saisir du dossier, ce qui laisse en place la décision de la cour d’appel fédérale du District of Columbia rendue en mars 2025, sans créer pour autant une nouvelle règle générale par la seule force de ce refus. Autrement dit, la Cour suprême n’a pas dit que toute œuvre générée par intelligence artificielle est exclue du copyright; elle a simplement laissé subsister une décision antérieure, dans un dossier construit de manière volontairement extrême.

L’auteur insiste ensuite sur le fait que l’affaire Thaler était un mauvais véhicule pour répondre aux vraies questions. Stephen Thaler avait organisé son dossier de façon à poser la question la plus simple possible : il avait désigné son système d’IA comme unique auteur de l’image, avait nié toute contribution créative humaine, puis avait malgré cela demandé un enregistrement du copyright. Dans une telle configuration, l’échec était presque inévitable. La décision laissée en place par le refus de la Cour suprême est donc étroite: elle affirme que le droit d’auteur américain suppose un auteur humain, mais elle précise aussi que cette exigence n’exclut pas automatiquement les œuvres réalisées avec l’aide de l’IA. Ce qui est exclu, c’est l’idée qu’une machine puisse elle-même être auteur. Ce que l’arrêt ne tranche pas, et que le billet veut remettre au centre, ce sont les cas intermédiaires, ceux où l’être humain et l’outil interviennent ensemble.

À partir de là, le billet expose quatre questions qui, selon l’auteur, sont désormais les seules qui comptent vraiment.

La première porte sur le degré de participation humaine nécessaire pour qu’il y ait œuvre protégeable. L’auteur rappelle que l’Office américain du copyright a déjà essayé de tracer une ligne. D’un côté, certains usages de l’IA ne font pas perdre la protection: employer l’IA comme simple outil d’assistance, par exemple pour corriger un texte, améliorer la netteté d’une image ou ajuster des couleurs, ne remet pas en cause la protection de l’ensemble. De même, lorsqu’une œuvre plus vaste comprend certains éléments générés par IA, les parties humaines peuvent rester protégées, même si les éléments purement générés doivent être exclus de la revendication. Le billet cite à ce propos la décision Zarya of the Dawn: dans cette bande dessinée, les images obtenues avec Midjourney n’ont pas été reconnues comme protégeables, mais le texte rédigé par l’humain ainsi que le choix et l’agencement des éléments ont été admis comme relevant d’une création humaine. Les visuels reproduits dans le document illustrent précisément cette idée en montrant, aux pages 3 et 4, d’un côté l’œuvre de Thaler, présentée comme non appropriable, et de l’autre la couverture et des planches de Zarya of the Dawn, pour lesquelles seule une partie du résultat a été jugée protégeable.

L’autre extrémité de la ligne, selon l’Office, est celle du simple prompt. Le billet explique que, pour l’instant, l’Office considère que la seule rédaction de prompts ne donne pas à l’utilisateur un contrôle suffisant sur la forme expressive finale. Dans cette vision, l’utilisateur ne fait qu’indiquer une direction générale, un peu comme un client donnant des instructions à un prestataire, sans fixer lui-même les choix expressifs concrets qui se retrouvent dans l’image finale.

Le billet présente ensuite l’affaire Allen v. Perlmutter comme le premier véritable test de cette thèse. Jason Allen conteste le refus d’enregistrer l’image Théâtre D’opéra Spatial, obtenue avec Midjourney et primée dans une foire d’État au Colorado. L’auteur détaille les faits invoqués par Allen: au moins 624 prompts, l’usage des fonctions de variation et d’agrandissement de Midjourney, puis des retouches dans Photoshop avant un nouvel agrandissement. L’idée est claire: on n’est plus face à quelqu’un qui entre une consigne sommaire et accepte le premier résultat venu, mais face à un processus long, itératif et orienté par une intention créative. Pourtant, malgré cet effort, l’Office soutient que les éléments expressifs fondamentaux de l’image proviennent toujours de Midjourney et non d’Allen. Les pages 4 et 5 du fichier appuient ce point en montrant l’image concernée et en rappelant le nombre très élevé de prompts utilisés.

Le cœur du désaccord apparaît alors. L’Office estime que le fait de multiplier les prompts revient surtout à relancer la machine jusqu’à trouver un résultat satisfaisant, sans pour autant contrôler réellement l’expression finale. Dans le billet, cette idée est décrite comme une logique de “re-rolling”, c’est-à-dire de nouveaux tirages successifs. Allen répond à l’inverse que ce raisonnement mélange deux questions distinctes: d’une part, la distinction classique entre l’idée et son expression, qui limite l’étendue de la protection; d’autre part, la question préalable de savoir qui a effectivement façonné l’expression retenue. Selon lui, lorsqu’il a précisé le genre, la tonalité, les couleurs, la composition et le style à travers des centaines d’itérations, il n’a pas fourni de simples idées abstraites, mais a pris des décisions concrètes qui se reflètent dans l’image finale. Le billet montre bien que, pour l’auteur, le vrai litige est là: le prompting doit-il être vu comme une véritable activité d’auteur, ou seulement comme une activité de sélection et de tri parmi des propositions de la machine? Thaler posait la question la plus simple, celle où il n’y avait aucune intervention humaine revendiquée. Allen pose la question difficile, celle où l’intervention humaine est abondante, mais peut-être encore insuffisante au regard du droit actuel.

La deuxième grande question porte sur la preuve. Le billet souligne que, dès lors qu’on accepte en principe qu’une œuvre assistée par IA puisse, dans certains cas, être protégée, tout le système dépend de la capacité à distinguer ce que l’humain a fait de ce que la machine a produit. En théorie, cette distinction paraît simple; en pratique, elle est difficile à établir. Au stade de l’enregistrement, les exigences de l’Office restent relativement modestes: lorsqu’une œuvre contient plus qu’une part négligeable de contenu généré par IA, le déposant doit l’indiquer, exclure ce contenu de la revendication, et décrire brièvement sa propre contribution humaine. Mais l’auteur estime que ce système crée une incitation malsaine. La personne honnête qui révèle l’intervention de l’IA constitue un dossier public qui pourra plus tard être utilisé contre elle pour contester la portée de son droit. Si, plusieurs années après, un litige survient, elle n’aura peut-être plus les fichiers intermédiaires, les historiques de prompts, les versions successives ou les couches de retouche nécessaires pour démontrer précisément la part de création humaine. À l’inverse, celui qui ne déclare rien laisse beaucoup moins de traces. Certes, le droit prévoit des moyens de réagir en cas de déclaration inexacte ou frauduleuse, mais ces moyens restent pour l’essentiel réactifs: ils ne fonctionnent que si l’omission est découverte. Le billet en déduit que le système actuel récompense moins la précision que le silence.

L’auteur ajoute que le problème ne se limite pas à la phase administrative. Même si l’Office accepte une demande, rien ne dit qu’un tribunal se satisfera plus tard d’une brève description figurant sur le formulaire d’enregistrement. À ce jour, aucun standard probatoire clair n’a encore été formulé par les juridictions américaines pour déterminer ce qu’il faut produire afin de prouver une paternité humaine suffisante dans une œuvre assistée par IA. C’est pourquoi le billet formule une recommandation pratique: quiconque crée des contenus commercialement importants avec de tels outils devrait documenter son processus beaucoup plus soigneusement qu’il ne le ferait d’ordinaire, en conservant les prompts, les versions intermédiaires, les comparaisons avant-après et des notes sur l’intention poursuivie et les modifications apportées au fil du travail. Le raisonnement est simple: si la frontière juridique dépend de faits très fins sur le mode de création, alors il faut être capable de reconstituer ces faits plus tard.

La troisième question examinée par le billet concerne le marché des licences. L’auteur observe qu’en pratique, pendant que les juristes discutent de la notion d’auteur, les acteurs économiques commercialisent déjà massivement des productions générées par IA: éléments graphiques, musiques, code, environnements de jeux, textes publicitaires, présentations, scénarimages, montages préliminaires. Tout cela circule avec des clauses de droits, comme si l’existence d’un copyright sur ces sorties allait de soi. Or le billet soutient que cette hypothèse est souvent non vérifiée. L’exemple choisi vient du monde du logiciel: un mainteneur d’une bibliothèque Python très utilisée a indiqué avoir recodé l’outil “from scratch” avec l’aide d’un agent de codage fondé sur l’IA, puis a changé la licence du projet dans un sens plus permissif. Le créateur initial a contesté cette présentation en soutenant que la connaissance approfondie du code d’origine empêchait de parler d’une réécriture indépendante et que la licence d’origine continuait donc à s’appliquer. Une vive controverse s’est ensuivie, mais, selon l’auteur, presque personne n’a posé la question préalable: la nouvelle version générée avec l’aide de l’IA est-elle elle-même protégeable? Si elle ne l’est pas, une partie du débat sur la licence risque de manquer sa cible. Les pages 7 et 8 du document présentent explicitement cet exemple et insistent sur ce décalage entre les discussions concrètes du marché et la fragilité éventuelle de leur base juridique.

L’idée n’est pas, pour l’auteur, que toute transaction portant sur un contenu généré par IA serait dépourvue de valeur. Il reconnaît qu’un modèle économique peut reposer sur le contrat, sur le contrôle d’accès, sur la curation, la personnalisation, le support ou simplement la commodité. On peut donc vendre de l’accès et des services même en l’absence de copyright solide sur le contenu lui-même. Mais le billet insiste sur la différence fondamentale entre le contrat et le copyright. Le contrat n’oblige que les parties qui l’ont accepté. Le copyright, lui, vaut à l’égard de tous. Dès lors, le vrai problème apparaîtra lorsqu’une entreprise tentera de faire valoir un droit sur un contenu généré par IA contre un tiers qui n’a signé aucun contrat. C’est à ce moment que l’éventuel vide de protection deviendra déterminant. Le raisonnement de l’auteur est donc le suivant: le marché fonctionne aujourd’hui comme si la question était déjà résolue, alors qu’en réalité il repose souvent sur une supposition encore incertaine.

La quatrième et dernière question vise un malentendu inverse. Selon l’auteur, beaucoup de commentateurs ont cru qu’une œuvre non protégeable parce que trop liée à la machine évoluerait dans une sorte de zone libre de copyright. Le billet répond nettement que c’est faux. Une sortie d’IA peut très bien ne pas être appropriable par son utilisateur et, en même temps, porter atteinte au droit d’auteur d’un tiers. En droit américain, l’œuvre contrefaisante n’a pas besoin d’être elle-même protégeable. Une simple photocopie, une transcription manuscrite ou un enregistrement pirate peuvent déjà constituer des atteintes. De la même manière, une production d’IA qui reproduit de manière trop proche une expression protégée peut être contrefaisante, même si personne ne peut revendiquer un copyright propre sur cette production. Le billet insiste sur ce point parce qu’il révèle une asymétrie importante: l’absence de droit exclusif sur sa propre sortie n’immunise nullement contre le risque de violer le droit d’autrui.

L’auteur ajoute que cette difficulté n’est plus théorique. Les tribunaux commencent déjà à examiner des litiges portant sur des sorties générées par IA, notamment lorsque ces sorties prennent la forme de résumés d’articles de presse ou de résumés narratifs d’œuvres littéraires. Le billet note que les premiers résultats sont hésitants et peu cohérents. Dans une décision d’avril 2025 dans l’affaire New York Times v. Microsoft, le juge Sidney Stein a rejeté des griefs fondés sur des résumés en puces d’articles journalistiques, estimant en substance qu’ils n’étaient pas suffisamment similaires. Quelques semaines plus tard, le même juge a cependant laissé prospérer des demandes d’auteurs de fiction fondées sur un résumé narratif généré par ChatGPT, au motif qu’il pouvait reprendre de manière plausible le ton d’ensemble et la sensation générale de l’œuvre originale. Le billet n’entre pas dans tous les détails techniques de ces décisions, mais il s’en sert pour illustrer l’instabilité actuelle du droit. Ce qui ressort est que les tribunaux tâtonnent encore pour savoir à partir de quel degré de reprise une sortie d’IA bascule dans la contrefaçon.

Enfin, le billet relève que, lorsqu’il y a effectivement atteinte, la question des responsables devient très vite complexe. Le développeur du modèle a conçu et entretenu le système, la plateforme l’a mis à disposition, l’utilisateur final a demandé le résultat litigieux. La responsabilité pourrait donc peser sur l’un, sur l’autre, ou sur plusieurs à la fois. Or, là encore, aucun cadre stabilisé n’existe encore.

L’auteur conclut ainsi que le véritable héritage de Thaler n’est pas de fermer le débat, mais au contraire de déplacer l’attention vers une zone beaucoup plus difficile, plus grise et plus importante en pratique. L’affaire Thaler élimine seulement le cas extrême où l’on prétend qu’une machine seule est auteur. Tout le reste demeure ouvert: combien d’intervention humaine suffit, comment la prouver, quels droits on peut réellement concéder sur des contenus produits avec l’IA, et comment traiter le risque de contrefaçon lorsque ces contenus reprennent trop fidèlement des œuvres antérieures. La thèse générale du billet est donc que nous sommes entrés dans une phase moins spectaculaire mais plus décisive: non plus celle des slogans sur “l’IA et le copyright”, mais celle des questions de frontière, de preuve, de marché et de responsabilité, qui vont structurer le contentieux à venir.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en protection des données – Entreprise et administration

Publié dans droit d'auteur, Droit US, intelligence artificielle, Propriété intellectuelle | Laisser un commentaire

L’IA qui donne des conseils juridiques individualisés

A propos d’Eran Kahana, Designed to Cross: Why Nippon Life v. OpenAI Is a Product Liability Case, 7 mars 2026 (https://law.stanford.edu/2026/03/07/designed-to-cross-why-nippon-life-v-openai-is-a-product-liability-case/):

Le billet soutient que l’affaire Nippon Life v. OpenAI doit être comprise avant tout comme une affaire de responsabilité du fait d’un produit défectueux, et non principalement comme une affaire d’exercice illégal du droit. L’auteur part d’un cas concret.

Une assurée, Graciela Dela Torre, avait conclu en janvier 2024 un accord mettant fin à son litige en matière d’assurance invalidité. Persuadée ensuite que son avocat l’avait trompée, elle a soumis à ChatGPT des échanges avec celui-ci. Le système a confirmé ses soupçons. Elle a alors renvoyé son avocat, tenté de rouvrir l’affaire réglée et multiplié les écritures en justice, que les tribunaux ont jugées sans portée pratique ni base légitime. En mars 2026, Nippon Life a assigné OpenAI pour obtenir le remboursement des coûts que cette séquence lui aurait causés.

Pour l’auteur, le problème central n’est pas que l’IA aurait simplement “inventé” des choses. Le vrai problème est un problème de conception : le système a été construit de façon à franchir une limite qu’il aurait dû refuser de franchir.

Cette limite, que l’auteur appelle depuis 2012 le “seuil infranchissable”, sert à distinguer deux activités. D’un côté, un système peut fournir de l’information juridique générale, comparer des situations ou exposer des règles. De l’autre, il peut formuler, pour une personne donnée, une conclusion juridique adaptée à sa situation précise. Selon l’auteur, c’est là que commence la zone interdite. Le point important est que cette limite ne dépend ni de l’exactitude de la réponse, ni de la présence d’avertissements dans les conditions d’utilisation. Elle dépend de ce que le système est conçu pour faire et, surtout, de ce qu’il est conçu pour refuser.

Un système bien conçu doit être capable de dire non lorsqu’on lui demande de trancher un problème juridique individuel sans garanties suffisantes. D’après l’auteur, ChatGPT n’avait pas cette architecture de refus. Il a donc franchi le seuil lorsqu’il a affirmé à Dela Torre que les conseils de son avocat étaient erronés. À cet instant, il ne donnait plus une information générale: il rendait une conclusion juridique individualisée sur une relation avocat-client particulière, sans connaître la juridiction applicable, sans maîtriser l’historique complet du dossier et sans garde-fou empêchant ce type de réponse.

L’auteur rappelle ensuite une idée qu’il défend depuis plusieurs années: le risque ne doit pas être analysé seulement à partir de chaque réponse produite, mais à partir de la conception du système. Les règles qui interdisent à des non-avocats de pratiquer le droit visent, selon lui, à protéger le public et le bon fonctionnement de la justice contre l’incompétence. Si un outil d’IA juridique respecte ce principe de protection, il pourrait bénéficier d’une forme de tolérance ou de validation préalable. L’auteur évoquait déjà en 2012 l’idée d’un contrôle par un tiers avant la mise sur le marché, un peu comme une procédure de validation. Son reproche à OpenAI est précisément de n’avoir rien mis en place de comparable.

Le billet développe ensuite un second thème, celui de l’asymétrie d’information. En théorie, une IA juridique peut réduire le déséquilibre entre une institution bien conseillée et un particulier qui ne comprend ni les règles ni le langage juridique et n’a pas les moyens de consulter un avocat. Dans le cas de Dela Torre, cette promesse expliquait le recours à ChatGPT: elle avait le sentiment d’être seule face à une compagnie d’assurance et à des professionnels du droit.

Mais, selon l’auteur, l’IA n’a pas supprimé l’asymétrie; elle l’a déplacée. L’ancienne asymétrie opposait la cliente à l’assureur. La nouvelle l’opposait à un système qui imitait un raisonnement juridique sans comprendre les contraintes juridiques réelles de sa situation. L’utilisatrice ne pouvait pas savoir quand la machine cessait d’informer pour commencer à conseiller. Et la machine n’avait aucun mécanisme pour le lui signaler. Le cas illustre donc à la fois l’utilité sociale potentielle de ces outils et le danger d’un accès “facile” à un substitut qui n’est pas conçu de manière sûre.

L’auteur relie ensuite ce risque à la manière dont OpenAI a présenté ChatGPT au public. Il souligne que l’entreprise a mis en avant le fait que le système pouvait réussir l’examen du barreau. Pour lui, ce type de message n’est pas neutre: il invite les utilisateurs à s’y fier comme à un quasi-avocat. Or cette promesse de capacité n’était pas accompagnée d’une architecture empêchant les usages juridiques dangereux. Lorsque, en octobre 2024, OpenAI a ajouté dans ses conditions d’utilisation une interdiction de se fonder sur ChatGPT pour obtenir un conseil juridique, l’auteur n’y voit pas une vraie solution. Pour lui, c’est seulement un avertissement rédigé en texte, donc une tentative de déplacer la responsabilité vers l’utilisateur, pas un garde-fou technique. Un avertissement n’empêche pas le système de franchir le seuil; il constate seulement le danger après coup.

Sur le terrain procédural, l’auteur reconnaît que l’action de Nippon Life comporte des points solides. Selon lui, les griefs tirés de l’ingérence fautive et de l’abus de procédure sont intéressants parce qu’ils n’obligent pas le juge à décider si une IA “pratique le droit” au sens classique. Il suffit de montrer qu’un système, de manière prévisible, a conduit à des actes de procédure sans fondement qui ont causé un dommage à un tiers. Mais il estime que l’action reste mal formulée sur le plan théorique lorsqu’elle s’appuie trop directement sur l’idée d’exercice illégal du droit. À ses yeux, ces règles ont été conçues pour encadrer des personnes humaines se présentant comme avocats. Les appliquer directement à une société qui développe un système d’IA revient à traiter l’outil comme l’acteur principal et le concepteur comme un simple spectateur.

L’auteur propose une autre approche: distinguer la responsabilité pour le contenu exact d’une réponse et la négligence dans l’architecture du système. La première serait pratiquement sans limite, car chaque conversation pourrait devenir un litige. La seconde est plus gérable: elle demande si le concepteur a mis en place des contrôles raisonnables pour éviter une catégorie de dommages prévisibles. Selon lui, c’est cette seconde question que les tribunaux devraient trancher.

C’est à partir de là que l’auteur opère le basculement vers la responsabilité du fait des produits.

Il explique qu’un produit est défectueux par sa conception lorsqu’un risque prévisible aurait pu être réduit par une autre conception raisonnable. En l’espèce, le risque était clair: un grand modèle de langage, présenté comme capable de réussir l’examen du barreau, mis à disposition du grand public, utilisé par des personnes engagées dans de vrais litiges, sans barrières empêchant des conclusions juridiques individualisées. Le dommage qui a suivi n’avait rien d’extraordinaire: une personne non représentée a renvoyé son avocat, tenté de rouvrir un dossier clos et déposé des écritures sans fondement. Pour l’auteur, c’était une conséquence prévisible.

Il ajoute que des solutions de remplacement existaient depuis longtemps: refus automatiques des conclusions juridiques personnalisées, indication explicite de la juridiction et des limites du système au moment de la réponse, validation indépendante avant déploiement dans les usages juridiques. Rien de cela n’était hors de portée technique. Ces solutions étaient seulement contraires à un objectif de fluidité maximale du produit. En d’autres termes, le système a été conçu pour répondre, alors qu’un système destiné à être utilisé dans des contextes juridiques aurait dû être conçu pour refuser dans certains cas. C’est pourquoi l’auteur estime que la meilleure qualification est celle du fabricant qui met sur le marché un produit insuffisamment sécurisé dans un environnement réglementé.

Le billet ajoute enfin un risque encore plus grave pour l’utilisateur lui-même: la perte du secret attaché à sa stratégie juridique. L’auteur cite deux décisions fédérales américaines du 10 février 2026 qui auraient traité pour la première fois cette question. Dans l’une, une cour a refusé la protection du secret professionnel et du travail préparatoire pour des documents générés via une version grand public d’un outil d’IA, notamment parce qu’il n’existait ni relation humaine de confiance avec un professionnel soumis à des obligations, ni véritable confidentialité. Dans l’autre, une autre juridiction a admis une protection au titre du travail préparatoire pour des documents préparés par une partie se représentant elle-même avec l’aide de ChatGPT. L’auteur estime que la différence tient moins à l’outil qu’au cadre de son utilisation: intervention ou non d’un avocat, niveau de confidentialité offert par la plateforme, situation procédurale de l’utilisateur. Dans le cas de Dela Torre, ces garanties faisaient défaut. En important sur une plateforme grand public des échanges avec son avocat, elle a pu exposer sa stratégie à un tiers sans protection. Là encore, l’auteur y voit non pas une simple erreur d’utilisatrice, mais une conséquence prévisible d’un système non conçu pour distinguer une consultation juridique confidentielle d’une requête générale.

La conclusion du billet est normative. L’auteur estime que cette affaire devrait pousser les juges et les autorités à définir un cadre sûr pour les applications d’IA juridique. Ce cadre ne devrait pas reposer sur des consignes de comportement ou des clauses contractuelles, mais sur l’architecture du système. Il propose trois exigences. Premièrement, des refus techniques impossibles à contourner lorsque l’utilisateur demande une conclusion juridique adaptée à son cas. Deuxièmement, une traçabilité suffisante, dans un environnement confidentiel piloté par des avocats, pour comprendre comment une réponse juridique a été produite. Troisièmement, une conscience minimale du contexte juridique, notamment de la juridiction, des règles locales et de la posture procédurale du dossier. Selon lui, ces éléments donneraient aux développeurs un objectif clair, aux juges un standard de diligence et aux utilisateurs un système capable de reconnaître ce qu’il ne doit pas dire. Son idée centrale est donc la suivante : l’enjeu n’est pas de savoir abstraitement si l’IA est un avocat, mais de savoir si son concepteur a mis sur le marché un produit dont il était prévisible qu’il franchirait une limite juridique dangereuse sans protections suffisantes. C’est pour cette raison que, selon l’auteur, l’affaire doit être lue d’abord comme une affaire de responsabilité du fait d’un produit défectueux.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

Pas d’auteur humain, pas de copyright : encore Thaler v Perlmutter

A propos de Andres Guadamuz, No, the US Supreme Court did not declare that AI works cannot be copyrighted, TechnoLlama, 6 mars 2026 (https://www.technollama.co.uk/no-the-us-supreme-court-did-not-declare-that-ai-works-cannot-be-copyrighted):

Andres Guadamuz, sur son excellent blog, revient sur une information largement reprise en ligne, et qui est fausse ou, au minimum, très trompeuse.

Beaucoup de titres ont affirmé que la Cour suprême des États-Unis aurait décidé, dans l’affaire Thaler v Perlmutter, que les œuvres générées par l’IA ne pouvaient pas être protégées par le droit d’auteur. Or, ce n’est pas ce qui s’est passé. La Cour suprême n’a pas rendu d’arrêt sur le fond. Elle a seulement refusé d’examiner l’affaire.

En droit américain, ce refus ne signifie ni approbation ni désaccord avec la décision précédente. Il ne crée pas, à lui seul, une règle nouvelle applicable à tout le pays. Il a simplement pour effet de laisser intacte la décision rendue auparavant par la cour d’appel fédérale saisie du dossier. C’est le point de départ essentiel du billet: corriger une lecture médiatique inexacte d’un événement procédural assez banal.

L’auteur explique ensuite le contexte du litige.

L’affaire porte sur une image intitulée A Recent Entrance to Paradise, produite en 2012 par un système appelé Creativity Machine, développé par Stephen Thaler. Ce dernier est connu dans les milieux de la propriété intellectuelle pour plusieurs contentieux visant à faire reconnaître des droits sur des créations ou inventions attribuées à des machines. Son idée, dans cette série d’affaires, est constante: soutenir que l’IA peut être reconnue comme auteur en droit d’auteur ou comme inventeur en droit des brevets. Dans le cas présent, il a demandé l’enregistrement de l’image auprès du Copyright Office américain en indiquant non pas un humain, mais la machine elle-même comme auteure, tout en se désignant comme titulaire des droits. Le billet insiste sur ce point, car il conditionne toute l’analyse: l’affaire ne porte pas sur une œuvre créée par un humain avec l’aide d’une IA, mais sur une œuvre revendiquée comme entièrement créée par une machine, sans apport créatif humain revendiqué.

Le Copyright Office a refusé l’enregistrement, précisément parce qu’il n’y avait pas d’auteur humain. Thaler a contesté ce refus à plusieurs reprises devant l’administration, sans succès, puis devant les tribunaux. Ceux-ci ont donné tort à Thaler en retenant, en substance, que l’intervention humaine est une exigence fondamentale du droit d’auteur américain. Ils se sont appuyés sur la jurisprudence existante et ont rappelé que, même si l’IA soulève aujourd’hui des questions nouvelles, l’affaire Thaler ne les posait pas vraiment, puisque l’intéressé n’invoquait aucun apport humain dans la création de l’image. Les tribunaux ont donc pu trancher sans entrer dans les cas plus difficiles, ceux où un humain dirige, sélectionne, modifie ou organise le résultat produit par un système génératif.

L’affaire a ensuite été portée devant la Cour d’appel fédérale du District of Columbia. En mars 2025, cette cour a confirmé à l’unanimité le refus d’enregistrement. Son raisonnement, tel que résumé dans le billet, est méthodique. La cour lit la loi américaine sur le droit d’auteur dans son ensemble et en déduit que le mot “auteur” vise nécessairement une personne humaine. Elle ne se contente pas d’une définition abstraite du terme. Elle observe que de nombreuses dispositions de la loi n’ont de sens que si l’auteur est un être humain: la titularité des biens, la durée de protection calculée en fonction de la vie de l’auteur, les héritiers, la signature, la nationalité ou le domicile. Une machine ne possède pas de patrimoine au sens juridique ordinaire, n’a pas de durée de vie biologique, n’a ni conjoint survivant, ni nationalité, ni domicile. Pour la cour, l’économie générale du texte conduit donc vers une seule conclusion: le système légal américain repose sur l’idée d’un auteur humain.

Le billet détaille aussi la manière dont la cour a rejeté les arguments de Thaler. D’abord, celui-ci soutenait que le mot “auteur” n’exclut pas forcément une machine. La cour répond qu’on ne peut pas isoler un mot et lui donner le sens le plus favorable possible sans tenir compte du contexte de la loi. Ensuite, Thaler invoquait le mécanisme du « work made for hire » pour se présenter comme titulaire des droits sur une œuvre produite par la machine. La cour écarte aussi cet argument: lorsque la loi prévoit qu’une entreprise ou un employeur est “considéré” comme auteur dans certaines situations, cela suppose justement qu’il ne l’est pas naturellement. Enfin, l’argument de politique juridique selon lequel refuser le droit d’auteur aux productions de l’IA découragerait la création n’a pas convaincu. La cour relève qu’une machine ne réagit pas à des incitations économiques comme le ferait une personne.

Mais le point le plus important du billet est peut-être ailleurs: l’auteur insiste sur l’étroitesse réelle de cette décision. Oui, la cour d’appel affirme clairement qu’une œuvre produite uniquement par une IA, sans auteur humain revendiqué, ne peut pas bénéficier du droit d’auteur aux États-Unis. Mais non, cela ne tranche pas toutes les questions actuelles liées à l’IA générative. L’affaire Thaler a été construite sur des faits presque extrêmes. Thaler a volontairement choisi de présenter la machine comme seule auteure. Dès lors, les juges n’avaient pas à se prononcer sur les situations aujourd’hui les plus fréquentes, où un humain donne des instructions, fait des choix, trie les résultats, retouche, assemble ou transforme un contenu généré. Autrement dit, cette affaire répond à une question étroite, et seulement à celle-là.

Le billet souligne ensuite deux limites importantes de l’arrêt d’appel. Premièrement, la cour s’est placée sur le terrain de l’interprétation de la loi, et non sur celui de la Constitution américaine. Cette distinction compte beaucoup. Si la cour avait affirmé que la Constitution elle-même impose un auteur humain, le Congrès aurait eu très peu de marge pour adopter un autre régime à l’avenir. En restant au niveau de la loi, la cour laisse en théorie la porte ouverte à une réforme législative future. Le Congrès pourrait donc, s’il le voulait, créer un régime spécifique pour certaines productions issues de l’IA. Le billet ne dit pas qu’une telle réforme est probable, mais il rappelle qu’elle n’est pas juridiquement exclue par cette décision. Deuxièmement, la cour prend soin de préciser que l’exigence d’un auteur humain n’empêche pas de protéger des œuvres créées avec l’assistance d’une IA. Dans ces hypothèses, la vraie question devient celle du degré d’intervention créative humaine. Or cette question n’était pas soumise à la cour dans l’affaire Thaler.

L’auteur ajoute encore un point de méthode intéressant. Les avocats de Thaler avaient tenté de soutenir que la cour devait s’écarter de la pratique administrative du Copyright Office, en invoquant l’évolution récente du droit américain sur le contrôle des agences fédérales. La cour a répondu qu’elle interprétait elle-même la loi, de manière indépendante, sans se contenter de suivre l’administration par réflexe. Le résultat est resté le même, mais le billet relève que le chemin juridique choisi a son importance: la solution ne repose pas uniquement sur l’habitude du Copyright Office, mais sur une lecture directe du texte légal par le juge.

Dans sa dernière partie, le billet replace l’affaire dans le débat plus large sur l’IA générative. Pour l’auteur, l’état du droit américain peut être résumé ainsi: une production purement machine, sans apport créatif humain identifiable, ne sera pas protégée par le copyright; en revanche, une œuvre comportant une contribution créative humaine suffisante peut l’être, même si l’IA a été utilisée comme outil. Le Copyright Office a d’ailleurs déjà admis l’enregistrement d’œuvres comportant de l’IA lorsque la part humaine était jugée suffisante, par exemple dans la sélection, l’agencement ou la modification du matériau généré. Le vrai sujet, désormais, n’est donc plus de savoir si toute utilisation d’IA exclut la protection, mais où placer la ligne de partage entre simple usage d’un outil et création humaine suffisamment originale. C’est cette zone grise qui fera l’objet des prochains litiges.

En résumé, le billet démonte une rumeur juridique devenue virale. La Cour suprême n’a pas proclamé une règle générale sur toutes les œuvres d’IA; elle a seulement refusé de revoir une affaire très particulière. La décision qui reste en place dit quelque chose de net, mais de limité: une machine ne peut pas être reconnue comme auteure lorsqu’aucune création humaine n’est revendiquée. En revanche, la question décisive pour la pratique actuelle — celle des œuvres réalisées avec l’aide de l’IA — reste ouverte et dépendra de l’importance réelle de l’intervention humaine. Pour des praticiens suisses, l’intérêt du billet est double: il rappelle d’abord qu’il faut lire avec prudence les annonces spectaculaires sur la jurisprudence américaine; il montre ensuite que, même aux États-Unis, le débat n’oppose pas simplement “œuvre protégée” et “œuvre non protégée”, mais tourne autour d’un critère plus fin, celui de la contribution créative humaine.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Droit US, intelligence artificielle, Propriété intellectuelle | Tagué , , , , | Laisser un commentaire

Les conditions d’utilisation des réseaux sociaux

A propos d’Yong-Bin Kanga/Anthony McCoskera, Analysis of Terms of Service on Social Media Platforms: Consent Challenges and Assessment Metrics, arXiv:2603.04701 [cs.CY], 5 mars 2026 (https://arxiv.org/abs/2603.04701):

L’article examine la question suivante : les plateformes de réseaux sociaux demandent en pratique le consentement des utilisateurs au moment de l’inscription, non pas au moyen d’un formulaire de consentement distinct, mais par l’acceptation de leurs conditions d’utilisation. Les auteurs cherchent donc à savoir si ces textes expliquent réellement, de façon compréhensible, ce à quoi l’utilisateur consent. Leur idée de départ est que la validité du consentement ne dépend pas seulement du fait qu’un bouton “j’accepte” existe, mais aussi de la manière dont l’information est présentée avant cet accord.

Pour répondre à cette question, ils étudient les conditions d’utilisation de treize grandes plateformes, parmi lesquelles Instagram, LinkedIn, Meta, Reddit, TikTok, WhatsApp, X et YouTube. Leur démarche repose sur trois axes.

Le premier porte sur l’accessibilité du texte: est-il lisible, d’une longueur raisonnable, et compréhensible sans formation particulière? Le deuxième porte sur la clarté du contenu: les documents disent-ils clairement quelles données sont collectées, avec qui elles sont partagées, pendant combien de temps elles sont conservées, et dans quels buts? Le troisième porte sur la manière dont le consentement est organisé: l’utilisateur dispose-t-il de vrais choix séparés, d’une possibilité claire de refuser, ou d’un moyen simple de revenir sur son accord?

Sur le premier point, le constat des auteurs est sévère. Les conditions d’utilisation sont longues, denses et coûteuses en temps. Même pour un adulte lisant rapidement et en silence, il faut en général entre quinze et trente minutes pour lire un texte complet; pour les documents les plus longs, comme ceux de Reddit ou TikTok, la durée dépasse largement ce seuil. À vitesse de lecture plus ordinaire, le temps nécessaire devient encore plus dissuasif. Les auteurs montrent aussi que, selon les principaux indices de lisibilité, la plupart de ces textes exigent un niveau de lecture proche de l’enseignement supérieur. En d’autres termes, ces documents sont rédigés à un niveau bien au-dessus de ce qu’on attend normalement d’un texte destiné au grand public. Leur conclusion est que, même avant d’examiner le contenu, la forme même du document rend improbable une lecture complète et attentive par l’utilisateur moyen.

Le deuxième axe, consacré à la clarté du contenu, conduit à une autre série de critiques. Les auteurs relèvent partout un usage fréquent de termes vagues ou prudents, par exemple des formulations comme “peut”, “parfois”, “si nécessaire”, “certains”, “tiers” ou “partenaires”. Ce type de langage laisse une marge de manœuvre à la plateforme, mais il réduit la compréhension concrète de l’utilisateur. L’article insiste sur trois effets de cette imprécision. D’abord, elle affaiblit les engagements de la plateforme, car celle-ci décrit ce qu’elle pourrait faire plutôt que ce qu’elle fera. Ensuite, elle masque les destinataires réels des données, en parlant de catégories générales plutôt que d’entités identifiables. Enfin, elle élargit le champ des traitements possibles sans les décrire avec précision. Les auteurs en déduisent que l’information donnée n’est souvent ni stable, ni suffisamment déterminée pour éclairer utilement le consentement.

Ils nuancent toutefois ce diagnostic en montrant que toutes les informations ne sont pas également floues. La plupart des plateformes citent bien plusieurs types de données collectées, comme la localisation, l’adresse IP, l’appareil ou l’activité de l’utilisateur. Mais cette précision reste partielle. Souvent, les catégories de données sont mentionnées sans être reliées clairement à une finalité précise, à une durée de conservation ou à des destinataires déterminés. C’est surtout sur la conservation et le partage que l’information se dégrade. D’après l’étude, presque aucune plateforme n’indique de manière claire combien de temps les données sont gardées. Seule WhatsApp se distingue par des indications plus concrètes et limitées dans le temps. De même, les clauses relatives au partage paraissent parfois détaillées au premier abord, mais, après examen, elles décrivent souvent des aspects généraux de fonctionnement, de sécurité ou d’exécution du contrat, plutôt que les cas concrets dans lesquels des données personnelles sont transmises à des tiers identifiables. Le résultat est que l’utilisateur peut comprendre qu’une collecte existe, mais beaucoup moins bien ce qu’il advient réellement des données ensuite.

Le troisième axe concerne la manière dont le consentement est construit. Ici encore, le tableau est uniforme. Les auteurs n’ont trouvé dans les textes aucune véritable promesse d’un consentement actif et détaillé. Les conditions d’utilisation ne prévoient pas de case non cochée par défaut, pas d’obligation explicite de lire avant d’accepter, pas de choix séparés selon les usages des données, et pas d’alternative de refus présentée sur un pied d’égalité avec l’acceptation. En pratique, le consentement est présenté comme une condition d’accès au service: accepter, ou ne pas utiliser la plateforme. La possibilité de refuser existe donc seulement sous la forme d’un renoncement au service, ce qui est très différent d’un vrai choix entre plusieurs options. Quant à la possibilité de revenir sur son accord, elle est le plus souvent réduite à la suppression du compte ou à la fin de la relation contractuelle, parfois avec des réserves sur la conservation résiduelle des données. Pour les auteurs, il ne s’agit pas d’un consentement souple et réversible, mais d’un système où l’accord initial emporte l’essentiel, et où le retrait ultérieur est coûteux et peu pratique.

À partir de ces trois séries de résultats, l’article avance une idée centrale: les conditions d’utilisation ne doivent pas être vues comme de véritables instruments de consentement éclairé, mais plutôt comme des documents qui portent juridiquement le consentement sans créer les conditions réelles d’un choix libre et informé. Elles remplissent une fonction de couverture contractuelle, mais non une fonction claire d’information et de délibération pour l’utilisateur. Les défauts observés ne sont pas présentés comme accidentels ou propres à une seule entreprise. Au contraire, les auteurs estiment qu’ils relèvent d’une logique commune: des textes longs, juridiques, prudents, conçus d’abord pour sécuriser la position de la plateforme, et non pour permettre à l’utilisateur de comprendre simplement ce qu’il accepte.

L’intérêt de l’article, pour des juristes, est de proposer une grille de lecture. Il montre qu’il ne suffit pas d’examiner la conformité formelle d’une clause ou l’existence d’un clic d’acceptation. Il faut aussi regarder la charge de lecture imposée, la qualité réelle de l’information donnée, et la structure du choix offert à l’utilisateur. Cette approche est particulièrement pertinente dans les débats actuels sur la protection des données, l’économie de l’attention et la réutilisation massive des données par les systèmes d’IA. Plus les traitements deviennent complexes, plus il devient artificiel de prétendre que quelques pages de conditions générales suffisent à fonder un consentement réellement éclairé.

Les auteurs reconnaissent enfin les limites de leur travail. Ils n’ont pas testé les interfaces réelles au moment de l’inscription ni mesuré la compréhension effective des utilisateurs. Ils ont analysé les textes tels qu’ils sont publiés et les engagements qu’ils affichent. Leur étude n’en reste pas moins importante, car elle met en évidence un point souvent sous-estimé: même avant toute question d’ergonomie ou de comportement de l’utilisateur, le matériau contractuel lui-même est déjà insuffisant pour soutenir un consentement de qualité. La conclusion générale est que sur les grandes plateformes sociales, le consentement est bien demandé, mais il est demandé dans des conditions qui limitent fortement la compréhension, la réflexion et le choix réel de l’utilisateur.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et administration

Publié dans Conditions d'utilisation, intelligence artificielle, Protection des données, réseaux sociaux | Tagué , , | Laisser un commentaire