Peut-on voler les pièces d’or utilisées dans un jeu vidéo ?

Repéré dans l’excellent blog d’Andres Guadamuz le 27 janvier 2025, une question grave (comme dirait l’IA…) : peut-on voler les pièces d’or utilisées par les joueurs dans un jeu vidéo ?

C’est tout l’enjeux de R v Andrew Lakeman [2026] EWCA Crim 4 (post : https://www.technollama.co.uk/can-you-steal-game-gold-pieces-the-court-of-appeal-says-yes; décision : https://caselaw.nationalarchives.gov.uk/ewca/crim/2026/4).

Le post commente une décision récente de la Court of Appeal (Criminal Division) d’Angleterre et du Pays de Galles, R v Andrew Lakeman [2026] EWCA Crim 4, présentée comme potentiellement l’un des jugements les plus importants depuis des années sur la qualification de “biens” (property) à propos d’actifs numériques dans un contexte pénal.

Le point central est que des “gold pieces” (monnaie virtuelle) du MMORPG Old School RuneScape peuvent constituer un “bien” au sens du Theft Act 1968 et, par conséquent, être susceptibles de vol au sens du droit pénal anglais.

Les faits exposés sont typiques des litiges liés aux économies de jeux en ligne.

A.L., employé de Jagex (éditeur de RuneScape) comme développeur de contenu, n’aurait pas eu d’accès légitime aux comptes des joueurs, mais aurait compromis des identifiants liés à l’équipe interne de “récupération de compte”. Il aurait ainsi accédé à 68 comptes, retiré environ 705 milliards de pièces d’or, puis revendu ces actifs sur un marché noir contre du Bitcoin et de la monnaie “fiat”. Jagex aurait évalué le préjudice à environ 543’123 GBP.

Le billet rappelle le fonctionnement économique du jeu : les pièces d’or s’obtiennent par l’activité en jeu (“grinding”), par une place de marché interne (“grand exchange”), ou indirectement via l’achat de “bonds” auprès de l’éditeur (environ 6 GBP l’unité), lesquels peuvent être échangés en jeu contre un certain volume d’or. Les conditions contractuelles de Jagex interdisent les échanges contre de l’argent réel, mais le billet souligne l’existence d’un marché noir actif les pièces d’or virtuelles séchangent à un taux nettement inférieur au “taux officiel” implicite des bonds.

Sur le plan pénal, Lakeman faisait face à plusieurs chefs : accès non autorisé à un système (Computer Misuse Act 1990), vol (Theft Act 1968) et blanchiment (Proceeds of Crime Act).

Tout dépendait d’une question préalable : ces “gold pieces” sont-elles un “bien” susceptible d’appropriation et de vol ?

En première instance (Crown Court), le juge (HHJ Grey) avait donné raison à la défense en considérant, en substance, que ces pièces ne satisfaisaient pas un critère de “rivalité” (rivalrousness) tel que discuté dans des travaux de la Law Commission sur les actifs numériques : selon ce raisonnement, puisque les pièces sont interchangeables et que l’offre globale est “infinie” (le jeu pouvant en générer sans limite), la richesse des uns n’empêcherait pas les autres d’acquérir des pièces, de sorte que l’actif ne serait pas “rival”. Le juge avait aussi rapproché ces pièces de la “pure information” au sens de l’arrêt Oxford v Moss (1979), où le fait de s’approprier des informations (par ex. la connaissance de sujets d’examen) n’avait pas été traité comme un vol de “biens” parce que l’information ne se “dépossède” pas de la même manière qu’un objet.

La Court of Appeal renverse cette analyse et explique, selon le billet, pourquoi l’approche pénale peut diverger de la qualification en droit privé.

Le juge rejette l’idée que la notion de “property” en matière de vol doive se confondre avec les critères de propriété en droit civil. Il rappelle que les finalités du droit civil et du droit pénal diffèrent, et qu’il n’est pas pertinent de décider a priori que le pénal devrait s’aligner sur le civil.

Cet angle est décisif face aux conditions générales de Jagex, qui affirment que les pièces d’or ne sont pas la “propriété privée” du joueur et qu’elles ne représentent qu’une mesure de l’étendue de la licence d’utilisation du produit Jagex. Pour la Cour, de telles stipulations contractuelles ne tranchent pas la question de savoir si l’actif est un “bien” au sens du Theft Act ; le billet illustre cette séparation en évoquant une analogie : certains objets illicites (par ex. des stupéfiants) peuvent néanmoins être traités comme “property” susceptible de vol en droit pénal, même si le droit civil n’entend pas protéger ou faire exécuter des droits patrimoniaux sur eux.

Sur la “rivalité”, la Cour critique frontalement le raisonnement de première instance. Le fait qu’une unité soit fongible (“une pièce vaut une autre”) et que l’offre puisse être augmentée ne suffit pas à nier la rivalité : de nombreux biens physiques sont fongibles et leur production peut être, en pratique, illimitée (le billet reprend l’exemple du trombone), sans que cela retire leur caractère de bien susceptible d’appropriation. Pour la Cour, la vraie question est plus simple : si le joueur A dispose de ces pièces et les utilise/transfère, le joueur B ne peut pas simultanément utiliser ces mêmes unités rattachées au compte de A ; lorsque l’actif est déplacé, A en est privé. La possibilité que d’autres pièces soient créées, ou que d’autres joueurs puissent devenir riches par ailleurs, est jugée non pertinente pour décider si les unités actuellement détenues sont “rivalrous”.

La Cour distingue également ces pièces de la “pure information” à la Oxford v Moss. Le billet insiste sur deux différences mises en avant : la connaissance dans l’esprit d’une personne peut être transmise sans dépossession (A conserve l’information même si B l’apprend), alors que les pièces d’or fonctionnent comme des unités d’actif identifiables au sein du système du jeu, existant “hors de l’esprit” des personnes et dont le transfert opère une privation pour le titulaire initial. Le jugement développe aussi une distinction conceptuelle entre l’actif et le code qui l’instancie : la défense soutenait que “ce n’est que du code”, donc de l’information réplicable. La Cour répond que beaucoup d’actifs numériques reposent sur du code public et réplicable (le billet cite les Bitcoins), sans que cela empêche de les traiter comme des biens ; ce qui compte est la fonctionnalité économique et la structure de contrôle/exclusivité. Le billet résume l’idée ainsi : lors d’un transfert, le système supprime l’allocation des pièces au joueur A et en crée une nouvelle au joueur B ; le fait que l’opération se matérialise techniquement par le remplacement d’un état de code par un autre est irrelevant au regard de la réalité fonctionnelle du transfert.

Enfin, la Cour mobilise des comparaisons étrangères. Le billet mentionne un cas néerlandais où une agression physique avait servi à contraindre un mineur à transférer des objets virtuels RuneScape (un amulette et un masque), traité comme vol/robbery ; et une décision australienne récente (Yeates v The King [2025] VSCA 288) qualifiant le Bitcoin de bien au sens d’une législation sur le vol similaire à celle du Royaume-Uni. L’auteur en tire l’argument d’“absurdité pratique” repris par la Cour : si les pièces d’or n’étaient pas des biens, des situations proches du cas néerlandais ne pourraient pas être poursuivies pour vol en droit anglais, résultat jugé surprenant et insatisfaisant.

En conclusion, le billet apprécie le caractère “substantiel” de l’analyse : pour l’auteur, le droit pénal doit pouvoir réprimer l’intrusion dans des comptes, l’appropriation d’actifs virtuels valorisés à plusieurs centaines de milliers de livres, puis leur conversion en numéraire. Au-delà de RuneScape, la décision est présentée comme un modèle de raisonnement pour de futurs dossiers portant sur des biens virtuels et, plus largement, sur divers actifs numériques (y compris NFT), en clarifiant trois points : la dissociation entre propriété civile et “property” pénale, une compréhension opérationnelle de la rivalité, et une distinction entre l’actif en tant qu’objet fonctionnel et le code/données qui le représentent. L’affaire est renvoyée pour jugement au fond sur les faits, la question de droit ayant été tranchée en faveur de l’accusation sur la qualification de “property”.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration

Publié dans Droit pénal | Tagué , , , | Laisser un commentaire

La valeur litigieuse du certificat de travail

En présence d’une contestation de nature pécuniaire, le recours n’est en principe recevable que si la valeur litigieuse atteint 15’000 fr. ou si la contestation soulève une question juridique de principe (art. 85 al. 1 let. b et al. 2 LTF). 

La demande de délivrance d’un certificat de travail ne tend pas au paiement d’une somme d’argent déterminée. Dans un tel cas, le Tribunal fédéral fixe la valeur litigieuse selon son appréciation (art. 51 al. 2 LTF; à propos de la valeur litigieuse d’une demande de remise ou de modification d’un certificat de travail, voir arrêt 8C_151/2010 du 31 août 2010 consid. 2.5 à 2.7). Il incombe à la partie, sous peine d’irrecevabilité, de donner les éléments suffisants pour permettre au Tribunal fédéral d’estimer aisément cette valeur (cf. art. 42 al. 1 et 2 LTF). Le contrôle d’office ne supplée pas au défaut d’indication de la valeur litigieuse. Il n’appartient pas au Tribunal fédéral de procéder lui-même à des investigations pour la déterminer, si elle ne résulte pas d’emblée des constatations de la décision attaquée (art. 105 al. 1 LTF) ou d’autres éléments ressortant du dossier. Le Tribunal fédéral n’est lié ni par l’estimation de la partie recourante ou un accord des parties, ni par une estimation manifestement erronée de l’autorité inférieure (ATF 140 III 571 consid. 1.2; 136 III 60 consid. 1.1.1; arrêt 4A_53/2022 du 30 août 2022 consid. 1.1.1).

Il est généralement difficile d’estimer la valeur litigieuse d’un certificat de travail (cf. arrêt 8C_553/2022 du 13 janvier 2023 consid. 2.4; 4A_2/2019 du 13 juin 2019 consid. 7 avec les références). Jusqu’à présent, la jurisprudence a renoncé à fixer des critères généraux pour l’évaluation de la valeur litigieuse d’un certificat de travail. Il ne se justifie toutefois pas de nier toute estimation possible et il convient de déterminer la valeur litigieuse en appréciant les circonstances du cas concret (cf. arrêt 1C_320/2024 du 6 septembre 2024 consid. 2.5 avec les références). Des critères tels que l’avancement et la situation professionnels de l’employé, les fonctions exercées jusqu’alors, la durée du contrat de travail et le salaire, ont été jugés comme pertinents pour déterminer la valeur litigieuse. En tous les cas, la valeur d’un certificat de travail ne saurait être fixée indépendamment des circonstances du cas concret à une fraction ou à un multiple du salaire mensuel (cf. arrêt 1C_320/2024 précité consid. 2.5; 8C_553/2022 précité consid. 2.4; 8C_151/2010 du 31 août 2010). 

En l’espèce, l’instance précédente n’a pas fixé la valeur litigieuse (cf. art. 112 al. 1 let. d LTF; arrêt 1C_320/2024 précité consid. 2.2), de sorte qu’il revient au Tribunal fédéral de fixer celle-ci selon son appréciation (art. 51 al. 2 LTF). 

Le recourant [l’employé] soutient que la valeur litigieuse devrait au minimum correspondre à deux mois de salaire brut, à savoir 20’554 francs. Pour l’intimée [l’employeuse], la valeur litigieuse ne devrait pas dépasser un mois de salaire, ce d’autant plus qu’un certificat de travail avait déjà été délivré à plus de cinq reprises au recourant qui n’a de surcroît pas établi avoir subi un réel dommage en raison de ce document.

Le recourant demande en particulier à ce que le certificat de travail soit complété en ce sens qu’il s’agit d’un certificat intermédiaire et qu’il reconnaisse qu’il est « responsable informatique » au sein de [l’employeuse]  et non uniquement un « fonctionnaire spécialiste ». Il est évident qu’une telle modification portant directement sur sa fonction est importante pour son avenir économique, la question de savoir s’il a effectivement occupé une telle charge n’étant pas déterminante au stade de l’examen de la valeur litigieuse. La relation de travail a commencé en 2003 et peut dès lors être qualifiée de longue, même si le recourant n’a plus travaillé au sein de l’intimée depuis son arrêt maladie de 2016. Il n’explique par ailleurs pas pour quelle raison il n’a pas retrouvé d’activité professionnelle depuis cette période ni le lien que cela aurait avec le certificat de travail qui lui a été délivré. Cela étant, compte tenu aussi de son âge, à ce jour de 60 ans, qui aura pour conséquence qu’il devra s’attendre à être défavorisé sur le marché du travail, ainsi que du dernier salaire qu’il percevait (10’277 fr. 40 brut par mois), il appert que la valeur litigieuse relative au certificat de travail sollicité peut en l’occurrence être fixée à l’équivalent d’au moins deux salaires mensuels bruts, si bien qu’elle atteint la limite de 15’000 fr. (cf. art. 85 al. 1 let. b LTF). Dès lors que les circonstances diffèrent notablement de la cause citée par l’intimée, la valeur litigieuse ne saurait en revanche correspondre à seulement un mois de salaire (cf. arrêt 1C_320/2024 précité consid. 2.6, dans lequel l’intéressé était notamment âgé de 49 ans et sollicitait des modifications mineures de son certificat de travail visant à transformer un « bon » certificat de travail en un « très bon » certificat).

Dans la mesure où les autres conditions de recevabilité sont réunies, sous réserve d’une motivation suffisante des griefs, il convient par conséquent d’entrer en matière sur le recours.

(TF 1C_231/2025 du 2 décembre 2025, consid. 1.2-1.4)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et Administration

Publié dans Certificat de travail, Procédure | Tagué , , , | Laisser un commentaire

L’IA qui prédit le crime avant qu’il ne se réalise?

Le commentaire de Francesa Palmiotto (Palmiotto, Francesca, Commentary on Article 5(1)(d) AI Act: The Prohibition of Criminal Risk Assessment (January 21, 2026), preprint : M. Ebers & M. Zou (eds) AI Act Commentary, Beck/Hart/Nomos, forthcoming (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6115546)) commente l’article 5, paragraphe 1, lettre d), du règlement européen sur l’intelligence artificielle (RIA / AI Act), entré en vigueur en février 2025, qui interdit certaines pratiques d’IA en matière d’évaluation du risque pénal individuel. Il s’inscrit dans un contexte de forte controverse autour des outils dits de « criminal risk assessment », largement utilisés ou expérimentés dans plusieurs pays pour prédire le comportement criminel futur de personnes, que ce soit au stade policier, judiciaire ou pénitentiaire. L’objectif central de la disposition commentée est de donner une traduction normative concrète au principe de présomption d’innocence à l’ère de l’IA.

L’interdiction vise les systèmes d’IA mis sur le marché, mis en service ou utilisés pour évaluer ou prédire le risque qu’une personne physique commette une infraction pénale, lorsque cette évaluation repose exclusivement sur le profilage ou sur l’analyse de traits de personnalité ou de caractéristiques personnelles. Sont ainsi prohibées les formes de « prédiction de la criminalité » détachées de faits concrets, qui infèrent une dangerosité future à partir de données personnelles, démographiques, sociales ou comportementales. L’auteur souligne que cette interdiction constitue la catégorie de risque la plus grave du règlement : sa violation expose aux sanctions financières maximales prévues par l’AI Act.

L’article distingue clairement cette interdiction des systèmes simplement qualifiés de « à haut risque » dans l’annexe III du règlement. La ligne de partage repose sur le critère du « solely » : lorsqu’un système prédit un risque pénal uniquement à partir du profil ou de la personnalité, il est interdit ; lorsqu’il s’appuie aussi sur des faits objectifs et vérifiables liés à une activité criminelle déterminée, il peut être autorisé, sous le régime strict des systèmes à haut risque. Cette architecture reflète une volonté politique de tracer une ligne rouge entre prévention fondée sur des soupçons individualisés et prédiction abstraite de comportements futurs.

L’auteur analyse en détail la notion de « criminal risk assessment ». Il s’agit de démarches prospectives visant à estimer la probabilité qu’une personne commette une infraction à l’avenir. Ces outils sont utilisés à différents stades : police prédictive, décisions de détention provisoire, de libération conditionnelle, de probation ou de fixation de la peine. Deux grandes catégories sont identifiées. D’une part, la police prédictive, qui peut être fondée soit sur des lieux (où et quand un crime est susceptible de se produire), soit sur des personnes (qui est susceptible de commettre un crime). D’autre part, les systèmes d’évaluation du risque de récidive, qui attribuent des scores individuels à partir de données massives et de questionnaires.

L’interdiction de l’article 5(1)(d) ne vise que les systèmes centrés sur les personnes. Les outils purement géographiques, limités à la prédiction de zones ou de moments à risque, sont en principe exclus, tant qu’ils ne sont pas réinjectés dans une évaluation individuelle. En revanche, dès lors que des données de localisation sont utilisées pour inférer le risque qu’une personne précise commette une infraction (par exemple en raison de son lieu de résidence), le système redevient personnel et peut tomber sous le coup de l’interdiction.

Une partie centrale de l’article est consacrée au concept de profilage. Celui-ci est repris du droit de la protection des données et couvre tout traitement automatisé visant à évaluer des aspects personnels d’un individu. L’auteur insiste sur l’importance du « profilage de groupe », très fréquent en pratique : l’individu est évalué non pour ce qu’il a fait, mais parce qu’il ressemble statistiquement à un groupe considéré comme à risque. Les analyses de réseaux sociaux, qui déduisent une dangerosité du simple fait d’être lié à des personnes déjà identifiées par la police, en sont un exemple typique. Le commentaire confirme que ce type de profilage est bien visé par l’interdiction lorsqu’il est appliqué à des personnes déterminées.

S’agissant des « traits de personnalité ou caractéristiques », l’AI Act ne fournit pas de définition exhaustive. Le considérant 42 donne des exemples larges : nationalité, lieu de naissance, résidence, situation familiale, niveau d’endettement ou type de véhicule. L’auteur souligne que ces critères, pris isolément ou combinés, ne peuvent fonder une prédiction pénale compatible avec les principes fondamentaux du droit pénal.

L’interprétation du terme « solely » fait l’objet d’une analyse approfondie. L’auteur rejette une lecture réductrice qui consisterait à dire que l’interdiction disparaît dès qu’un humain intervient dans le processus. Une telle approche viderait la règle de sa substance et créerait une insécurité juridique pour les fournisseurs de systèmes. Il propose au contraire une interprétation structurelle : est interdit tout système conçu pour prédire la criminalité en l’absence de faits objectifs constituant un soupçon raisonnable. Cette lecture s’appuie sur la jurisprudence de la Cour européenne des droits de l’homme et de la Cour de justice de l’Union européenne, qui exigent, pour toute ingérence pénale, l’existence d’éléments factuels concrets justifiant un soupçon individualisé.

Dans cette logique, la seconde phrase de l’article 5(1)(d), souvent présentée comme une exception, est analysée comme une simple clarification de périmètre. Les systèmes d’IA utilisés pour assister l’évaluation humaine de l’implication d’une personne dans une activité criminelle déjà établie par des faits objectifs ne sont pas visés par l’interdiction. Par exemple, l’usage d’outils biométriques ou d’analyses de traces dans le cadre d’une enquête portant sur un crime commis reste possible, même si ces systèmes demeurent soumis au régime des IA à haut risque.

L’article recense enfin plusieurs exclusions importantes. L’interdiction ne s’applique pas à l’évaluation du risque pénal de personnes morales, ni aux infractions administratives ou disciplinaires. Elle ne s’applique pas non plus aux usages exclusivement liés à la sécurité nationale, même si l’auteur met en garde contre les systèmes à double usage, qui basculent dans le champ de l’AI Act dès qu’ils sont utilisés, même temporairement, à des fins de maintien de l’ordre.

En conclusion, le commentaire montre que l’AI Act opère un choix de fond : il ne prohibe pas l’usage de l’IA en matière pénale en tant que tel, mais interdit une certaine vision prédictive de la criminalité, fondée sur des profils et des probabilités détachées de faits. Pour les praticiens, y compris hors UE, cette analyse éclaire les standards européens émergents en matière de droits fondamentaux, qui pourraient influencer à terme les débats suisses sur l’usage de l’IA dans la justice pénale

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration

Publié dans discrimination, droit européen, Droit pénal, intelligence artificielle, Protection de la personnalité | Laisser un commentaire

Réseaux sociaux et liberté d’expression : le tuyau, l’éditeur et le temps d’attention

Le billet de Mihir Kshirsagar, How FTC v. Meta Reshapes the Debate on Social Media and First Amendment Protections, publié sur PROMARKET le 22 janvier 2026 (https://www.promarket.org/2026/01/22/how-ftc-v-meta-reshapes-the-debate-on-social-media-and-first-amendment-protections/) commente les effets indirects, sur le débat constitutionnel américain, d’une opinion rendue dans l’action antitrust FTC v. Meta.

L’auteur part d’une observation : la discussion sur l’applicabilité du Premier Amendement aux réseaux sociaux a été largement structurée, notamment dans Moody v. NetChoice, par une alternative jugée trop binaire. D’un côté, certains les décrivent comme des « common carriers » ou « conduits neutres » comparables à l’infrastructure téléphonique, ce qui soutient l’idée que l’État pourrait leur imposer des obligations d’accès et interdire une « discrimination de point de vue ». De l’autre, la majorité dans Moody les assimile davantage à des éditeurs de presse, protégés dans leurs choix de publication et de hiérarchisation des contenus. Selon l’auteur, les constatations factuelles détaillées dans FTC v. Meta fragilisent les présupposés empiriques de ces analogies et justifient un cadre d’analyse différent, centré sur la régulation d’une conduite commerciale (« commercial conduct ») plutôt que sur une opposition « tuyau neutre » versus « éditeur ».

Dans FTC v. Meta, la FTC soutenait que Meta avait acquis et maintenu un monopole des « réseaux sociaux personnels » via l’achat d’Instagram (2012) et WhatsApp (2014). Le tribunal rejette l’argumentation, principalement parce que le marché défini par l’agence ne correspondrait plus à la réalité actuelle : le jugement documente l’effondrement du « social graph », c’est-à-dire l’idée que ces services seraient d’abord des réseaux de connexions interpersonnelles. À sa place, les plateformes auraient pivoté vers des flux de contenus « non connectés » (« unconnected content »): des recommandations algorithmiques de contenus à fort engagement émanant de comptes inconnus, conçues pour capter l’attention et maximiser les revenus publicitaires. Le jugement est mobilisé comme preuve institutionnelle (fondée sur un dossier de procès) d’une transformation déjà décrite par des chercheurs : l’expérience centrale ne serait plus la communication entre « amis », mais la consommation de contenus en flux, optimisée par des modèles prédictifs.

À partir de là, l’auteur explique pourquoi la thèse du « conduit neutre » perd sa force. Cette thèse suppose une transmission principalement destinée entre un locuteur et un public choisi, l’infrastructure se contentant de relayer. Or le jugement retient que, sur Facebook, les utilisateurs ne passent plus qu’environ 17% de leur temps sur des contenus d’amis et de famille, et environ 7% sur Instagram, avec une baisse rapide en deux ans. La plateforme n’opérerait donc plus comme un simple canal, mais comme un système effectuant en continu une multitude de décisions de classement, de recommandation et d’insertion de contenus (y compris publicitaires et issus de créateurs), orientées vers un objectif économique mesurable.

L’auteur discute ensuite la riposte intuitive : si les plateformes ne sont pas des « common carriers », elles seraient des « éditeurs » au sens fort, et leurs algorithmes des instruments de « mise en page » protégés par le Premier Amendement. Il estime que le dossier Meta rend cette assimilation moins convaincante, en montrant que la logique dominante n’est pas la communication d’un point de vue éditorial, mais l’optimisation d’une métrique commerciale : le temps passé. L’ « opinion » souligne une convergence des offres de Meta, TikTok et YouTube autour de modèles de prédiction de l’engagement conçus pour maximiser le « time-on-platform », présenté comme un proxy direct des recettes publicitaires, l’industrie parlant d’une concurrence sur la « marge de temps » captée. Dans cette perspective, l’algorithme n’« interprète » pas le sens du contenu comme le ferait un éditeur humain ; il calcule des probabilités de réactions comportementales pour optimiser la livraison de publicité, ce que l’auteur qualifie de logique extractive et largement indifférente à la signification des messages.

Cette distinction rejoint une interrogation formulée dans une opinion concordante de la juge Barrett dans Moody: toutes les décisions algorithmiques méritent-elles le même niveau de protection constitutionnelle, ou faut-il distinguer celles qui mettent en œuvre une politique éditoriale (au sens d’une intention expressive) de celles qui servent principalement une stratégie de maximisation des revenus ? Le billet s’appuie sur des éléments cités dans l’opinion  Meta, notamment des tests internes suggérant qu’activer certains formats (par ex. Reels) augmente fortement le temps passé, tandis qu’augmenter la part de contenus d’amis aurait un effet faible, ce qui appuierait l’idée que l’architecture actuelle privilégie des mécanismes d’« extraction de l’attention » plutôt qu’une facilitation de relations sociales. L’auteur ajoute que des travaux empiriques récents décriraient des effets causaux des plateformes vidéo courtes sur l’augmentation de l’usage mobile et la réduction du temps hors écran, renforçant l’interprétation d’une compétition sur la captation attentionnelle.

Sur le plan juridique, l’auteur propose de déplacer l’objet de la discussion : plutôt que de traiter l’optimisation de l’engagement comme un « choix éditorial » équivalent à un acte d’expression, il suggère d’y voir une conduite commerciale dont la régulation peut imposer des charges incidentes sur la parole sans viser la suppression d’un message. Cela aurait une conséquence pratique majeure en droit constitutionnel américain : la nature du contrôle du juge.

Les restrictions fondées sur le contenu ou le point de vue déclenchent en principe le niveau le plus exigeant (strict scrutiny), difficile à satisfaire. En revanche, les réglementations neutres quant au contenu ou certaines réglementations touchant des activités commerciales relèvent plus souvent d’un contrôle intermédiaire (intermediate scrutiny), où l’État doit notamment démontrer un intérêt substantiel, une proportionnalité et l’existence d’alternatives de communication. Le billet soutient que concevoir le « feed » comme un choix de conception de produit, et non comme une anthologie expressive, permettrait d’éviter des blocages jurisprudentiels observés lorsque des tribunaux traitent des fonctionnalités (par ex. « like counts ») comme des actes éditoriaux en tant que tels.

Dans cette optique, l’auteur soutient que l’État ne devrait pas chercher à imposer une « équité » des points de vue ni à dicter quels contenus doivent être portés, mais pourrait encadrer des pratiques d’optimisation sous un standard plus accessible, en ciblant la « machine » plutôt que le « message ». Il évoque trois familles de mesures typiques: des obligations de transparence algorithmique sous forme de divulgations factuelles standardisées (analogie avec une « étiquette nutritionnelle ») dès lors qu’il s’agit d’un outil commercial plutôt que d’un secret éditorial; des exigences renforçant l’autonomie de l’utilisateur (par exemple offrir un flux fondé sur les abonnements et préférences explicites plutôt que sur l’optimisation de l’engagement), présentées comme une manière d’honorer l’intention du consommateur plutôt que d’obliger la plateforme à porter une parole qu’elle réprouve; et l’encadrement de certaines fonctionnalités de conception (défilement infini, lecture automatique, « like counts », etc.) décrites comme des mécanismes comportementaux destinés à maximiser l’inventaire publicitaire, opérant de façon similaire quel que soit le contenu, ce qui faciliterait leur qualification comme structure commerciale plutôt que jugement expressif.

La conclusion du billet est que les controverses sur la liberté d’expression et la régulation des plateformes reposent souvent sur une image dépassée des réseaux sociaux. Si le « social graph » et le modèle de transmission entre connexions sont effectivement devenus périphériques, la catégorie de « conduit neutre » perd de sa pertinence, et l’extension automatique de la protection éditoriale maximale à des mécanismes d’optimisation orientés revenu risque, selon l’auteur, de constitutionnaliser une large part de l’ingénierie d’extraction de l’attention. Le dossier factuel de FTC v. Meta fournirait ainsi, pour les contentieux futurs, un socle permettant aux tribunaux d’abandonner l’alternative « censure vs liberté » au profit d’une analyse plus fine : protéger l’expression, tout en admettant que certaines dimensions du design et de l’optimisation relèvent d’une activité commerciale pouvant être réglementée de manière constitutionnellement admissible.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration

Publié dans Droit US, intelligence artificielle, liberté d'expression, réseaux sociaux | Tagué , , , , | Laisser un commentaire

Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

L’article de Fortunato Costantino, The Right to Disconnect and the Right to Human Oversight of Algorithms as New Digital Subjective Rights, European Review of Digital Administration & Law – Erdal 2025, Volume 6, Issue 2, pp. 141-153 (https://www.erdalreview.eu/free-download/97912218237769.pdf) part d’un constat organisationnel et social: la numérisation du travail et l’usage croissant de technologies « intelligentes » transforment l’entreprise au point d’en « dématérialiser » une partie, en brouillant des repères classiques comme le lieu de travail, les horaires, la présence physique et la manière d’évaluer la performance.

L’auteur situe cette évolution dans un modèle où l’entreprise cherche davantage d’efficacité et de flexibilité, notamment via le travail « agile » (télétravail au sens large, orienté objectifs), et via des formes de « management algorithmique » dans lesquelles des outils informatiques participent, voire se substituent, à des décisions de gestion des ressources humaines.

Selon lui, ces changements créent des risques nouveaux pour les droits fondamentaux des travailleurs: d’un côté, l’hyper-connexion permanente (« always on ») qui peut conduire à une forme d’empiètement continu du travail sur la vie privée; de l’autre, l’opacité et les biais possibles des systèmes algorithmiques qui influencent des décisions importantes (recrutement, affectation, évaluation, discipline).

À partir de là, il défend l’idée qu’il faut reconnaître deux « droits subjectifs numériques » spécifiques : un droit à la déconnexion et un droit à une supervision humaine des algorithmes. Ces droits ne seraient pas de simples règles techniques d’organisation, mais bien des instruments de protection de la personnalité, de la dignité, de la liberté et de la sécurité des personnes au travail, et devraient, selon l’auteur, être pensés au niveau constitutionnel, plutôt que laissés à des règles dispersées ou à la seule négociation contractuelle.

Dans son analyse du travail agile, l’auteur insiste sur l’ambivalence de ce modèle. En théorie, il promet une autonomie accrue, un rapport de confiance, une organisation par objectifs, et des bénéfices possibles en matière de conciliation vie professionnelle-vie privée. En pratique, il peut aussi dériver vers une intensification et une dilution du temps de travail, en particulier lorsque la technologie rend possible une disponibilité permanente. Il rappelle que l’expérience de la pandémie a souvent réduit le travail agile à un télétravail contraint et continu depuis le domicile, ce qui a parfois accentué les effets négatifs. Il décrit un phénomène de chevauchement progressif entre temps professionnel et temps personnel, que la littérature qualifie de « porosité »: des fragments de travail s’infiltrent dans la sphère privée (messages, demandes urgentes, tâches « à finir »), et inversement des activités privées se glissent dans le temps de travail. L’enjeu n’est pas seulement de respecter des pauses minimales, mais de préserver une séparation réelle entre les sphères de vie. Ce brouillage entraîne, selon lui, un risque d’« surtravail numérique » et de surcharge cognitive et émotionnelle, avec des conséquences possibles sur la santé (insomnie, irritabilité, épuisement, stress, burnout). Il rattache ces préoccupations à l’obligation générale de protection de la santé et de l’intégrité du travailleur, qui impose à l’employeur d’anticiper les risques et de mettre en place des mesures préventives adaptées à l’état de la technique et des connaissances.

Sur le droit à la déconnexion, l’article critique l’approche italienne issue de la loi de 2017 sur le travail agile, qui impose que l’accord individuel définisse des périodes de repos et des mesures techniques ou organisationnelles permettant la déconnexion, mais sans reconnaître clairement un « droit » opposable de manière générale, ni prévoir de modalités concrètes ou de conséquences en cas de non-respect. Pour l’auteur, cette construction est trop faible : elle renvoie l’essentiel à la négociation individuelle, dans un contexte où le pouvoir de négociation est rarement équilibré, et elle cantonne la déconnexion aux travailleurs « agiles » alors que la connexion permanente concerne potentiellement tous les travailleurs équipés d’outils numériques. Il souligne aussi que, faute de cadrage précis, les accords d’entreprise restent souvent au niveau de principes généraux et ne garantissent pas une coupure effective. Il note qu’une intervention ultérieure a qualifié la déconnexion de « droit » pour les travailleurs en mode agile, mais en la reliant toujours à des accords et à des périodes de disponibilité convenues, ce qui laisse subsister des ambiguïtés et une protection inégale. Il discute ensuite les tentatives doctrinales de rattacher la déconnexion uniquement au droit au repos et aux règles sur la durée du travail, en relevant que cette approche est insuffisante: la déconnexion ne vise pas seulement à assurer un minimum d’heures de repos, mais à protéger un espace de vie privée et de liberté personnelle contre la pression diffuse et constante des sollicitations numériques, y compris lorsque la personne n’est pas en train de travailler au sens strict mais demeure « en alerte » parce qu’elle peut être contactée à tout moment. Dans cette perspective, la déconnexion devient un droit plus large, lié à la vie privée, à la santé, et au plein développement de la personne.

L’auteur appuie cette lecture par une comparaison européenne et par des développements au niveau de l’Union. Il évoque des cadres nationaux, comme ceux de la France et de l’Espagne, qui qualifient plus explicitement la déconnexion comme un droit et lui donnent une portée plus générale, notamment via un rôle de la négociation collective, plutôt qu’une dépendance à l’accord individuel. Il met surtout en avant une résolution du Parlement européen de janvier 2021 invitant la Commission à proposer une directive sur la déconnexion, avec un socle minimal harmonisé applicable à tous les secteurs et à toutes les formes de travail, et avec l’idée que la déconnexion est devenue une composante essentielle des nouveaux modes de travail numériques. L’auteur relie ce mouvement à une vision où la transition numérique du travail doit être encadrée pour éviter des usages « déshumanisés » de la technologie, et où l’innovation doit rester orientée vers des objectifs sociaux (bien-être, durabilité, participation), en cohérence avec des orientations européennes plus générales sur une industrie « centrée sur l’humain ».

Le second axe majeur de l’article concerne le « droit à la supervision humaine » des processus et décisions algorithmiques. L’auteur part de la vulnérabilité particulière du travailleur face à des systèmes capables de collecter, croiser et inférer une quantité considérable d’informations. Il décrit un risque d’asymétrie: des individus de plus en plus « transparents » (car fortement observables par les données) face à des pouvoirs de décision de plus en plus « opaques » (car difficiles à comprendre et à contester). Il insiste sur deux problèmes classiques des systèmes algorithmiques appliqués aux ressources humaines: l’opacité (la difficulté de comprendre comment une décision est produite, ce qui renvoie à l’image de la « boîte noire ») et les biais (les erreurs, préjugés ou discriminations qui peuvent être incorporés dès la conception, ou par les données d’entraînement, puis reproduits à grande échelle). Dans le contexte du travail, ces outils peuvent intervenir dans des étapes sensibles: recrutement et sélection, affectation, organisation des tâches, évaluation de performance, voire déclenchement de procédures disciplinaires ou décisions de licenciement fondées sur des indicateurs automatisés. Selon l’auteur, lorsque des décisions importantes sont prises ou préparées par des systèmes algorithmiques, une gouvernance adaptée devient indispensable pour garantir transparence, fiabilité, intelligibilité et contrôle, et pour permettre une vérification réelle de la légitimité et de l’équité des décisions.

Concrètement, l’article défend une approche de conformité et de gouvernance interne en deux temps. D’abord, une analyse de risque ex ante doit identifier quels processus RH sont automatisés, à quel degré, et où la délégation de pouvoir décisionnel à la machine augmente le risque d’atteinte aux droits fondamentaux ou aux droits contractuels. Ensuite, l’entreprise doit mettre en place des politiques, procédures et mécanismes de supervision humaine proportionnés à l’importance de la décision et à l’intensité de l’impact sur la personne, avec une capacité effective de corriger, compléter ou annuler une décision algorithmique et de la remplacer par une décision humaine lorsque c’est nécessaire. L’auteur mentionne les différents modèles généralement évoqués (humain « dans la boucle », humain « supervisant la boucle », humain « aux commandes ») pour illustrer des degrés d’intervention humaine, mais son point central est qu’une supervision humaine doit être réelle et opérante, notamment pour réduire le risque d’« automation bias », c’est-à-dire la tendance à faire trop confiance à une sortie algorithmique même lorsqu’elle est erronée.

Sur le plan juridique, l’auteur rattache cette exigence à plusieurs sources. Il relève d’abord que l’AI Act de l’Union européenne, entré en vigueur en août 2024, contient une disposition spécifique imposant une supervision humaine pour les systèmes d’IA « à haut risque », afin de prévenir ou minimiser les risques pour la santé, la sécurité et les droits fondamentaux. Il estime ensuite que, même si ce texte vise en priorité les systèmes à haut risque, une entreprise prudente devrait prévoir une supervision humaine plus large dès lors que l’analyse de risque révèle des impacts possibles sur la dignité, la liberté, l’égalité, la non-discrimination, la protection des données ou la santé et la sécurité, y compris pour des systèmes classés comme moins risqués. Il intègre également le droit de la protection des données dans la démonstration: les principes généraux du RGPD (finalité, minimisation, transparence, exactitude, responsabilité) limitent la collecte et l’usage des données des travailleurs, et le RGPD prévoit un cadre spécifique pour les décisions fondées exclusivement sur un traitement automatisé, avec des garanties telles que l’intervention humaine, la possibilité d’exprimer son point de vue et de contester la décision. Il ajoute qu’un décret italien récent sur la transparence des conditions de travail impose, lorsqu’il existe des systèmes automatisés de décision ou de surveillance liés à des aspects clés de la relation de travail, des obligations d’information renforcées, ainsi que des évaluations de risques et, dans certains cas, une analyse d’impact et une consultation préalable de l’autorité de protection des données. L’ensemble de ces normes illustre, selon lui, une tendance: la supervision humaine et la transparence deviennent des garanties structurantes face à l’automatisation dans la gestion du travail.

En conclusion, l’auteur considère que, même si plusieurs textes (nationaux et européens) contiennent déjà des éléments de protection, l’ensemble reste insuffisant tant que ces garanties ne sont pas élevées au rang de droits pleinement reconnus et cohérents, capables d’être invoqués et protégés de manière effective. Il plaide pour une reconnaissance plus nette, y compris au niveau des textes constitutionnels et des instruments européens de droits fondamentaux, afin d’empêcher que la « boulimie » technologique et la connexion permanente ne finissent par écraser la dignité et la personnalité des individus. Dans sa logique, le droit à la déconnexion et le droit à une supervision humaine des algorithmes sont les deux réponses les plus directes pour rééquilibrer le rapport entre efficacité numérique et protection de la personne, en évitant à la fois la normalisation d’une disponibilité permanente et l’acceptation passive de décisions opaques produites par des systèmes automatisés.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD | Tagué , , , , , | Laisser un commentaire

Les IA de transcription : problèmes, problèmes et problèmes

A propos d’Amy Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions Part 1: Why Conversational Data Creates Unique Legal Risk, 13 janvier 2026 (https://aiforlawyers.substack.com/p/ai-note-takers-wiretap-laws-and-the?utm_campaign=post-expanded-share&utm_medium=web&triedRedirect=true):

L’auteure part d’une scène devenue banale dans la pratique professionnelle : une réunion à distance entre avocats, à laquelle participe discrètement un assistant de prise de notes fondé sur l’intelligence artificielle. Ce «bot» n’est pas un simple dictaphone amélioré. Il enregistre l’audio, transcrit intégralement les échanges, capte des captures d’écran de la vidéo, extrait des noms et adresses e-mail depuis l’invitation de calendrier et peut même créer une empreinte vocale durable pour identifier chaque participant. Ce qui pouvait sembler anodin comme une simple aide administrative soulève en réalité des questions juridiques importantes

L’article montre que ces outils ne sont plus des exceptions. Depuis la pandémie, la visioconférence est devenue une infrastructure ordinaire du travail, et la transcription automatisée s’est imposée par défaut sur des plateformes comme Zoom, Teams ou Google Meet. Des services spécialisés tels qu’Otter.ai sont massivement utilisés, y compris dans les cabinets d’avocats, et le secteur des centres d’appels traite chaque jour des millions de conversations via des systèmes d’IA capables de transcrire, analyser et stocker les échanges. Beaucoup d’utilisateurs ignorent cependant ce qu’il advient réellement des données collectées.

L’auteure insiste sur le fait qu’une transcription de réunion n’est pas un simple fichier texte local. Selon l’architecture technique et les conditions contractuelles du fournisseur, le système peut conserver l’audio, des images, des métadonnées sur les participants, des identifiants persistants de locuteurs et des droits d’utilisation très larges au profit du prestataire. C’est précisément cet écart entre les attentes intuitives des utilisateurs et les capacités réelles des fournisseurs qui crée un risque juridique.

Le texte analyse ensuite pourquoi les données issues de conversations sont particulièrement précieuses pour l’entraînement des modèles d’IA. Contrairement aux données issues du web, ces échanges sont contextuels, structurés et liés à des situations réelles de travail. Ils contiennent non seulement des mots, mais aussi des problèmes concrets, des stratégies, des décisions et parfois des résultats mesurables. Dans les centres d’appels, ils sont même reliés à des dossiers clients et à des indicateurs de satisfaction. Pour les entreprises d’IA, ces informations constituent un matériau d’entraînement de très haute qualité, bien supérieur à des textes publics aléatoires.

Cette valeur technique s’accompagne toutefois d’un risque juridique accru. Des actions collectives ont déjà été intentées aux États-Unis contre des services comme Otter.ai et contre des systèmes de centres d’appels de grandes entreprises technologiques. Les plaignants soutiennent que ces fournisseurs ne sont pas de simples outils neutres de productivité, mais des tiers qui interceptent des communications privées et les exploitent commercialement.

L’auteure décrit ensuite comment, à partir d’une seule réunion, un assistant de type Otter peut créer un ensemble de données multimodales comprenant le contenu des propos, le contexte (qui parle, quand et avec qui), des images des participants et des données biométriques sous forme d’empreintes vocales. Pour l’entraînement de systèmes conversationnels, ce type de base de données est extrêmement attractif. Du point de vue de la protection de la personnalité, cela ressemble toutefois à une extraction systématique d’informations sensibles sans consentement clair et éclairé.

Le texte examine ensuite la position publique d’Otter.ai, qui reconnaît l’importance stratégique des transcriptions de réunions comme «système de référence» pour les entreprises. Cette valorisation commerciale confirme, selon l’auteure, que les conversations ne sont pas seulement utiles aux clients, mais aussi au fournisseur pour améliorer ses propres produits d’IA.

Une partie importante du post est consacrée à la comparaison entre l’utilisation de données issues du web et celle de conversations privées. Les débats juridiques sur le «web scraping» portent surtout sur le droit d’auteur. Les enregistrements de réunions, eux, relèvent d’un tout autre cadre: ils touchent au droit des écoutes, à la protection des données personnelles, au droit biométrique et à la sphère privée. Les échanges enregistrés n’étaient pas destinés à être publics et peuvent contenir des secrets professionnels, des informations médicales ou des stratégies d’affaires.

L’auteure se penche ensuite sur les arguments de «dé-identification» avancés par certains fournisseurs. Otter affirme par exemple anonymiser les données avant de les utiliser pour entraîner ses modèles. Le texte explique pourquoi cette défense est fragile. Même sans noms, le contexte d’une conversation permet souvent de réidentifier les personnes ou les organisations concernées. Lorsque des enregistrements audio, des images ou des empreintes vocales sont conservés, l’idée même d’anonymisation devient largement illusoire. De plus, Otter admet que les données intégrées dans des modèles déjà entraînés ne peuvent pratiquement plus être retirées, ce qui suggère une appropriation durable de la matière première fournie par les utilisateurs.

Un autre point critique concerne le mécanisme de consentement. Dans la pratique, c’est souvent la personne qui active le bot qui donne l’autorisation au fournisseur, et non l’ensemble des participants à la réunion. Les conditions générales d’Otter transfèrent explicitement la responsabilité d’informer et d’obtenir le consentement des autres participants à l’utilisateur qui a invité le bot. Selon les plaignants, cela transforme le fournisseur en tiers interceptant des communications sans consentement de toutes les parties.

L’article conclut en montrant que l’intérêt économique croissant pour les données conversationnelles renforce les arguments des plaignants. Plus ces données sont précieuses pour entraîner des modèles d’IA, plus il est plausible de soutenir que les fournisseurs ne se contentent pas de fournir un service, mais exploitent commercialement des communications privées. Cela alimente des revendications fondées sur le droit fédéral américain des écoutes (ECPA), sur des lois étatiques comme la CIPA californienne et sur des législations biométriques telles que la loi de l’Illinois (BIPA).

En filigrane, l’auteure invite les praticiens à ne pas banaliser la présence de ces assistants de prise de notes. Ils sont utiles, mais leur fonctionnement réel soulève des enjeux sérieux de transparence, de consentement et de responsabilité juridique, enjeux qui seront développés plus en détail dans la seconde partie de la série.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Xavier Rodriguez, juge fédéral (U.S. District Judge) au Texas, explique dans une publication récente (https://judicature.duke.edu/articles/judging-ai-generative-ai-courts/) comment des outils d’IA générative peuvent aider un juge dans des dossiers volumineux sans affaiblir l’exigence de justice et de rigueur. Il part d’une expérience concrète : un procès “bench trial” (décidé par le juge sans jury) particulièrement lourd, La Union Del Pueblo Entero v. Abbott, portant sur de nombreuses dispositions d’une loi électorale texane de 2021 (S.B. 1). Le dossier comprenait environ 80 témoins, près de 1 000 pièces et plus de 5 000 pages de transcription. Cette masse met en évidence un problème très simple mais décisif : retrouver rapidement, puis synthétiser, les éléments utiles au moment de rédiger des constatations de faits et des conclusions.

Premier apport décrit : la recherche et la localisation de documents. Les systèmes judiciaires de dépôt électronique permettent des recherches textuelles, mais avec des limites pratiques : recherches par mots-clés souvent trop larges ou trop étroites, documents non “lisibles” car non convertis correctement, impossibilité de restreindre finement la recherche à certains sous-ensembles, difficulté à exploiter des documents reçus mais pas encore déposés, et résultats inutilisables quand un terme renvoie à “tout le dossier”. Pour dépasser ces limites, la chambre du juge a utilisé une plateforme d’e-discovery (Merlin) après validation par le service informatique du tribunal sur les aspects de cybersécurité. Un corpus d’environ un millier de documents (transcriptions, pièces admises, écritures, projets de constatations, ordonnances antérieures) a été chargé sur un espace sécurisé créé pour le projet. L’outil a appliqué une reconnaissance de caractères et a offert une recherche combinant mots-clés et recherche “algorithmique”, permettant de retrouver plus vite des passages pertinents sans requêtes complexes. L’auteur souligne toutefois une précaution centrale pour tout usage judiciaire ou avocat : ne pas charger de données confidentielles, protégées par le secret professionnel, ou sensibles (santé, finances, etc.) sans vérifier précisément les garanties du prestataire, notamment l’absence de réutilisation des données non publiques pour entraîner le modèle et la solidité des mesures de sécurité.

Deuxième apport : la synthèse de textes, en particulier la synthèse de dépositions et de transcriptions. L’auteur rappelle que les résumés de témoignages sont une pratique courante, mais coûteuse en temps et en budget, et parfois peu flexibles : selon qu’ils sont structurés par témoin, par date ou par thème, ils peuvent être difficiles à exploiter pour une question précise, et ils obligent souvent à un va-et-vient répétitif entre résumé et transcription. Il décrit l’intérêt d’approches où le système ne “devine” pas librement mais répond à partir d’un ensemble fermé de documents, via une méthode souvent appelée “recherche puis rédaction” (retrieval-augmented generation) : le système commence par retrouver les passages les plus pertinents dans le corpus défini, puis génère une réponse en s’appuyant sur ces passages. L’idée est de réduire le risque d’erreur en forçant l’outil à se fonder sur le dossier. Dans son test, l’auteur compare un résumé produit par un stagiaire à une réponse générée par Merlin à partir d’une question simple sur la procédure de vote “curbside” au Texas. L’outil fournit en quelques secondes une synthèse transversale qui combine plusieurs sources (dépositions et témoignages de divers témoins) et ajoute des références vers les passages correspondants. Le résumé humain est plus resserré et directement orienté vers l’usage rédactionnel, tandis que l’IA donne une vue plus large et contextualisée. La conclusion est nuancée : l’IA peut accélérer et faciliter la première exploration et l’identification des éléments du dossier, mais l’humain doit contrôler l’exactitude et décider du niveau de détail utile, notamment si le texte doit être repris tel quel dans une décision.

Troisième axe : la capacité de l’IA à produire un “premier jet” de constatations de faits (et, en creux, ses limites pour une décision complète). L’auteur affirme qu’il n’utilise pas, à ce stade, un outil d’IA générative pour rédiger des ordonnances ou des constatations déposées au dossier ; ses essais ont été réalisés après publication, afin d’éviter une influence sur la décision. Il insiste aussi sur des risques cognitifs spécifiques : l’“ancrage” (tendance à se laisser guider par une première proposition), la confiance excessive dans une réponse d’outil (“automation bias”) et le biais de confirmation (accepter plus facilement ce qui conforte une intuition). L’IA peut être partiellement ou totalement erronée, et même une réponse plausible peut orienter la réflexion de manière indue. Dans une première expérience, il demande à l’outil un texte mêlant faits et droit sur une théorie précise (atteinte à la liberté d’expression par une restriction de certaines activités de démarchage autour du vote par correspondance). Le résultat est décevant : réponse trop large (elle traite d’autres dispositions et d’autres parties), et analyse souvent superficielle, notamment sur la qualité pour agir (standing) où l’outil produit des formules générales plutôt que d’identifier précisément quels demandeurs sont concernés par cette restriction. L’auteur en tire une leçon méthodologique : les sorties dépendent fortement de la qualité des entrées et des consignes, et un juge doit déjà comprendre les enjeux factuels et juridiques pour formuler des requêtes pertinentes, évaluer les limites de l’outil et contrôler la pertinence et l’exactitude du résultat.

Il modifie alors son approche : plutôt que de demander une analyse juridique, il cible des constatations de faits détaillées, en donnant des instructions structurées très précises (définition de la disposition contestée, historique procédural, description des parties et de leurs compétences d’exécution, exemples de difficultés d’interprétation de termes vagues comme “présence physique” ou “compensation”, et effets concrets sur les activités de terrain et la liberté d’expression), avec exigence de références à la preuve. Cette fois, l’outil produit un document d’une dizaine de pages nettement plus utile, avec des exemples concrets d’activités réduites ou abandonnées par des organisations (annulation d’événements, bascule vers des formats virtuels, difficultés de recrutement de bénévoles, réduction de programmes d’assistance aux électeurs), et des citations de témoignages illustrant l’incertitude sur la portée de la règle (p. ex. la question de savoir si de petites aides matérielles pourraient être qualifiées de “compensation”). L’auteur souligne que cette amélioration provient d’une “itération” : affiner progressivement la demande pour l’aligner sur ce que le dossier contient réellement. Il explique aussi pourquoi l’outil peine lorsque la question suppose des inférences juridiques non explicitement formulées dans la preuve : au procès, les questions aux témoins ne reprennent pas sans cesse la “théorie de responsabilité” en termes juridiques, et les témoins ne doivent pas donner de conclusions de droit ; il faut donc guider l’outil vers les faits pertinents.

Quatrième axe : l’usage de l’IA pour relire et contrôler les écritures et brouillons. L’auteur présente un autre outil, Clearbrief, également basé sur le chargement de sources dans un espace sécurisé, mais intégré à Microsoft Word. Cette intégration facilite l’extraction de passages du dossier vers un projet de texte, avec insertion de références, et permet aussi de générer des chronologies, des tableaux thématiques et des résumés de dépositions (sans fonctionner comme un “chat” fondé sur des invites). Clearbrief dispose en outre d’un accès à des ressources juridiques (via LexisNexis et le domaine public) et peut évaluer dans quelle mesure une phrase d’un mémoire ou d’un projet d’opinion est effectivement soutenue par l’autorité citée, ce qui aide au contrôle des citations et à la détection d’affirmations insuffisamment étayées. Dans la pratique décrite, ces fonctions servent à préparer des conférences de procédure, à vérifier la précision des mémoires et des références au dossier, et à relire/corriger les projets avant publication.

En conclusion, l’auteur défend une position pragmatique : les outils d’IA générative ne remplacent pas le juge et ne doivent pas servir de substitut à la décision judiciaire, mais ils peuvent réduire une part importante du travail mécanique et chronophage (retrouver, regrouper et résumer des éléments du dossier, produire des chronologies, faciliter le contrôle de cohérence et de citations). Il estime que la peur suscitée par des cas médiatisés de mauvais usages ne doit pas conduire à un refus global : des professionnels ont toujours pu produire des références erronées ou des résumés infidèles, avec ou sans IA, et refuser ces outils ne fait que rendre plus difficile la détection de ces erreurs. Il ajoute que le risque d’un usage non critique existe aussi sans IA (copier-coller d’écritures partisanes, recherche juridique insuffisante) et que la bonne réponse réside dans la responsabilité et le contrôle, pas dans l’interdiction générale. Il propose enfin une logique “à la carte” : certains outils conviennent mieux aux grands dossiers factuels (recherche et synthèse à grande échelle), d’autres au travail quotidien (préparation d’audiences, vérification de citations). L’état de l’art, au moment de ses tests, ne permet pas de produire de façon fiable des décisions finales, mais l’évolution est rapide et des solutions apparaissent, y compris des outils dédiés au travail des juges. Dans tous les cas, il n’y a pas de substitut au jugement humain, en particulier pour formuler les bonnes questions, vérifier les réponses et assumer la responsabilité de la décision.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Le refus d’utiliser une application informatique est-il un manquement aux obligations du fonctionnaire?

La Cour administrative d’appel de Paris (3e chambre), par un arrêt du 14 novembre 2025 (n° 24PA04840), confirme le rejet par le tribunal administratif de Paris de la demande de Mme B., inspectrice du travail titularisée depuis 1991 et affectée en Île-de-France, qui sollicitait l’annulation d’un blâme prononcé par le ministre du travail le 16 janvier 2023.

Parmi divers arguments, ce qui suit (résumé) :

Un point central du dossier concerne le refus répété par la fonctionnaire d’utiliser l’application “Wikit”, outil informatique interne permettant de préparer et saisir les contrôles, suivre des procédures, mutualiser les pratiques et gérer des agendas partagés.

La cour constate que ce refus a entraîné un surcroît de travail pour le secrétariat (saisie des convocations et décisions). Mme B. invoquait l’inadaptation de l’outil, en se référant notamment à un rapport sénatorial du 25 septembre 2019. La cour juge toutefois que, malgré ces critiques, le refus persistant constitue un manquement à l’obéissance hiérarchique, d’autant que le code du travail (article R. 8124-9) impose à l’agent de rendre compte de ses actions selon les modalités définies par l’administration, notamment via le système d’information prévu pour partager les informations sur les actions et entreprises contrôlées.

Par ailleurs, la Cour conclut que le dossier établit une attitude de dénigrement et d’hostilité envers la hiérarchie directe à partir de novembre 2020 et un refus de se plier aux consignes de service sur Wikit, caractérisant un manquement à l’obéissance hiérarchique et à l’exigence de mesure dans l’expression. Le moyen tiré de l’inexactitude matérielle des faits est donc rejeté.

En d’autres termes, le refus d’utiliser une application, une suite informatique, un outil numérique etc. est un manquement à l’obéissance hiérarchique qui peut faire l’objet d’une sanction disciplinaire.

Me Philippe Ehrenström, avocat, LLM. CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Devoir de fidélité et diligence, Droit disciplinaire, droit français, Fonction publique | Tagué , , , , , | Laisser un commentaire

Les outils IA de traduction dans le secteur de la santé

L’article de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, in : van Kolfschooten et al. Discover Public Health, (2025) (https://doi.org/10.1186/s12982-025-01277-z) examine l’usage croissant, en Europe, d’outils de traduction fondés sur l’intelligence artificielle (IA) comme Google Translate et ChatGPT pour surmonter les barrières linguistiques entre soignants et patients.

Le point de départ est pratique : l’interprétariat professionnel est souvent difficile d’accès (coût, manque de disponibilité, droits variables selon les pays), alors que ces outils sont rapides, gratuits et omniprésents.

Les auteurs distinguent deux usages principaux : la traduction de textes (par exemple consignes de sortie, instructions de prise de médicaments, formulaires) et la traduction de la parole en temps réel (notamment via la fonction vocale de Google Translate).

Leur question est juridique et éthique : quels risques ces traductions automatisées font-elles peser sur les droits des patients, et dans quelle mesure le droit européen protège-t-il contre ces risques ?

Sur le plan technique, Google Translate repose surtout sur des modèles conçus pour la traduction, entraînés sur des paires de phrases alignées entre langues, et peut transformer la voix en texte puis en voix (reconnaissance vocale et synthèse). ChatGPT repose sur un modèle généraliste de langage, entraîné sur de très grands corpus non alignés, capable de produire une traduction écrite par prédiction de suites de mots plausibles. Dans les deux cas, il s’agit d’outils généralistes, non conçus ni validés pour un usage médical, ce qui compte juridiquement : leurs politiques d’utilisation déconseillent ou n’encadrent pas l’usage clinique, et surtout ils ne sont pas intégrés à des dispositifs de contrôle qualité et d’obligation de résultat comparables à ceux des dispositifs médicaux ou des services d’interprétariat.

Les auteurs combinent deux méthodes. D’une part, ils analysent les conditions et politiques publiques de Google Translate et de ChatGPT (conservation des données, transparence, responsabilité, garde-fous “santé”). D’autre part, ils analysent, de manière doctrinale, trois cadres juridiques européens susceptibles de s’appliquer : le Règlement général sur la protection des données (RGPD), le Règlement sur les dispositifs médicaux (MDR) et l’AI Act (règlement européen sur l’IA). Ils en tirent un constat central : la protection existe, mais elle est partielle et laisse des “zones grises” importantes lorsque des outils généralistes sont utilisés dans un contexte à haut risque comme les soins.

Le premier ensemble de risques concerne la vie privée et la confidentialité. Traduire une plainte, un diagnostic, une liste de médicaments ou une lettre médicale implique souvent de traiter des données particulièrement sensibles. Or, l’utilisation d’un service en ligne signifie typiquement que les informations sont transmises à un prestataire externe, parfois stockées, analysées ou réutilisées pour améliorer le service. Les politiques examinées indiquent que des données peuvent être conservées et réemployées (avec des possibilités d’opt-out limitées selon les versions et réglages), sans dispositif spécifique “santé” ni garanties compréhensibles pour un patient. Cela crée plusieurs points de friction pour un juriste : qui est responsable du traitement (l’hôpital, le médecin, le fournisseur de l’outil, ou plusieurs acteurs)? sur quelle base légale repose ce traitement et, surtout, l’éventuelle réutilisation ? quels flux transfrontières de données existent ? et comment informer le patient de façon suffisamment claire ? Les auteurs rappellent que des incidents réels (fuites, cyberattaques) illustrent que le risque n’est pas théorique : la donnée de santé est une cible, et la traduction peut devenir un canal involontaire d’exposition.

Le deuxième ensemble de risques touche l’autonomie du patient, le droit à l’information et le consentement éclairé. En médecine, comprendre est une condition du choix : si une traduction est inexacte, trop vague, ou manque des nuances (risques, alternatives, instructions), le patient peut accepter un acte sans en saisir la portée. Les auteurs s’appuient sur la jurisprudence de la Cour européenne des droits de l’homme, qui a déjà sanctionné des situations où l’information médicale n’était pas effectivement comprise par la personne (notamment lorsque la barrière linguistique n’avait pas été correctement surmontée). L’enjeu, pour le droit, n’est donc pas seulement d’“avoir fourni” une information, mais s’être assuré qu’elle est intelligible pour ce patient dans ce contexte. Or, une traduction automatisée peut échouer sur des points critiques (posologie, allergies, contre-indications) et, contrairement à un interprète humain, elle ne peut pas demander des clarifications pertinentes, ni vérifier activement la compréhension, ni jouer un rôle de médiation culturelle.

Le troisième ensemble de risques concerne les biais et la discrimination. Les auteurs expliquent que la qualité de la traduction varie selon les langues, les dialectes et les accents, notamment parce que les données d’entraînement sont inégalement riches. Cela peut conduire certains groupes à recevoir, de manière systématique, une communication moins fiable, avec des conséquences possibles sur la sécurité des soins et l’égalité d’accès. Ils relèvent aussi des biais de genre : pour certaines langues où le genre n’est pas marqué, des systèmes de traduction tendent à “deviner” et peuvent retomber sur des stéréotypes (par exemple en attribuant plus souvent des pronoms masculins ou en associant des traits différents selon le genre), ce qui peut, dans un contexte clinique, influencer la manière dont des symptômes sont compris ou retranscrits. Juridiquement, si l’outil contribue à une dégradation de la qualité des soins pour des groupes protégés, on peut entrer dans une logique de discrimination indirecte : une pratique apparemment neutre (utiliser un traducteur automatique) produit des effets défavorables disproportionnés sur certaines populations.

Le quatrième ensemble de risques porte sur la responsabilité en cas d’erreur. Si une mauvaise traduction entraîne un dommage (mauvaise prise de médicament, consentement invalide, retard de traitement), qui répond ? Les auteurs soulignent l’ambiguïté : le professionnel de santé a une obligation de diligence et ne peut pas se décharger sur un outil, mais le fournisseur de technologie peut aussi être en cause si l’outil est défectueux, trompeur, ou insuffisamment encadré. Dans la pratique, les conditions d’utilisation des plateformes tendent à limiter la responsabilité du fournisseur et à renvoyer la charge du “bon usage” vers l’utilisateur. Cette combinaison (usage clinique réel, mais outils conçus et contractuellement cadrés comme services généralistes) crée, selon les auteurs, un terrain propice aux litiges et à l’insécurité juridique, sans mécanisme simple de réparation pour le patient.

Sur l’état du droit européen, l’article conclut à une couverture fragmentée. Le MDR s’applique surtout aux produits “destinés” par le fabricant à une finalité médicale (diagnostic, traitement, prévention, etc.). Comme Google Translate et ChatGPT ne sont pas commercialisés comme dispositifs médicaux, ils échappent en principe à cette réglementation, ce qui signifie qu’ils ne passent pas par les exigences de validation, de documentation et de surveillance propres aux dispositifs médicaux. L’AI Act adopte une logique par niveaux de risque : les traducteurs généralistes relèvent typiquement d’un niveau d’obligations plus léger que les systèmes explicitement médicaux, même s’ils peuvent être utilisés dans des situations où l’erreur met en jeu la santé. Les obligations y sont surtout de transparence (informer qu’il s’agit d’une IA, etc.), ce que les auteurs jugent insuffisant face aux enjeux cliniques. Le RGPD, en revanche, s’applique dès qu’il y a traitement de données personnelles, et a fortiori de données de santé ; il impose une base légale, la minimisation, la sécurité, l’information, et souvent une analyse d’impact (DPIA) lorsque le risque est élevé. Mais, selon les auteurs, le RGPD ne “résout” pas tout : il encadre la donnée, pas la qualité médicale de la traduction ; et dans la chaîne de traitement, la clarification des rôles (responsable, sous-traitant, transferts internationaux) reste délicate, surtout avec des services grand public.

L’article propose enfin une voie opérationnelle, centrée sur des politiques internes et des choix d’architecture plutôt que sur une interdiction. L’idée est de réserver l’IA à des usages proportionnés au risque, avec des règles claires : quand l’utiliser, quand l’éviter, comment vérifier et documenter. Les auteurs insistent sur la formation des professionnels : connaître les limites, repérer les situations à enjeu (consentement, chirurgie, décisions lourdes, urgences), et utiliser des méthodes de vérification de compréhension, comme demander au patient de reformuler avec ses mots. Ils recommandent aussi d’investir dans des outils de traduction spécialisés et mieux gouvernés, idéalement déployés localement (ou dans des environnements maîtrisés) pour réduire les transferts vers des serveurs externes, et conçus avec une logique de “protection des données dès la conception”. Ils soulignent l’intérêt de partenariats où les institutions de santé gardent un contrôle réel sur l’outil (continuité de service, langues couvertes, mises à jour), afin d’éviter une dépendance excessive à des fournisseurs dont les priorités peuvent ne pas coïncider avec l’équité d’accès ou la sécurité des patients.

Pour des avocats suisses, l’intérêt principal de cette étude est méthodologique et pratique: elle montre que le risque ne se limite pas à une “erreur de traduction”, mais touche un faisceau de droits (confidentialité, information, égalité, accès aux soins, recours effectif) et que la réglementation, même dense, peut laisser un vide lorsque des outils généralistes sont détournés vers des usages cliniques. Le message final est de gouverner l’usage : définir des règles de déploiement, renforcer la transparence envers les patients, choisir des solutions techniques compatibles avec les exigences de protection des données, et conserver des solutions humaines (interprètes) pour les situations où l’exactitude et la compréhension priment sur la rapidité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

L’ »Opinion » récemment rendue par le Comité d’éthique du barreau de NY traite de l’usage des outils IA de transcription, dont nous avons déjà parlé ici (notamment : https://droitdutravailensuisse.com/2025/11/30/les-systemes-dia-de-transcription-gain-de-temps-ou-risque/ et https://droitdutravailensuisse.com/2025/07/30/lintelligence-artificielle-qui-transcrit-et-analyse-les-appels-telephoniques/). Elle est, plus précisément, consacrée aux enjeux déontologiques liés à l’usage d’outils d’intelligence artificielle pour enregistrer, transcrire et résumer des échanges entre avocat et client.

Les plateformes de visioconférence et de communication (par exemple Zoom ou Teams) rendent l’enregistrement beaucoup plus fréquent qu’à l’époque des conversations téléphoniques, parfois même par simple réglage par défaut, et les outils actuels ne se limitent plus à « capturer » un son mais produisent des transcriptions attribuant les propos à des locuteurs et, via des modèles génératifs, des résumés qui interprètent le sens et l’intention. La création de ces objets (enregistrement, transcription, résumé) soulève des risques nouveaux, à la fois sur le processus (collecte et traitement des données, sécurité, conservation) et sur les conséquences juridiques ultérieures (confidentialité, secret, privilège, preuve, discovery, gestion du risque).

L’opinion distingue deux situations: (i) l’avocat utilise un outil IA pour enregistrer/transcrire/résumer des conversations avec son client; (ii) le client utilise son propre outil IA pour le faire, situation en grande partie hors du contrôle de l’avocat. Dans les deux cas, le texte rappelle que l’avocat demeure tenu par les règles déontologiques pertinentes (compétence, confidentialité, supervision, interdiction de conduite trompeuse) et qu’il doit comprendre, à un niveau non technique mais réel, comment fonctionnent les outils utilisés et quels risques ils créent.

Lorsque l’initiative vient de l’avocat, le point de départ est l’exigence de loyauté et l’interdiction de comportements trompeurs: même en droit new-yorkais (souvent « one-party consent » pour l’enregistrement), la déontologie impose en principe de ne pas enregistrer une conversation avec un client à son insu. L’opinion considère que ce raisonnement demeure valable avec l’IA. Elle admet que le client s’attend généralement à ce que l’avocat prenne des notes et rédige un mémo, mais elle explique que la situation change dès lors qu’un résumé « IA » est produit à partir d’un enregistrement et d’une transcription préalable : ce ne sont pas seulement des notes, c’est un processus automatisé fondé sur un verbatim. La présence même d’un enregistrement (même si, ultérieurement, l’avocat ne conserve que le résumé) est jugée déterminante car elle peut modifier la manière dont le client s’exprime et lui ôte la possibilité de choisir ses mots en sachant qu’un verbatim est créé. En conséquence, l’opinion conclut que le client doit être informé et que son consentement doit être obtenu chaque fois que la conversation est enregistrée par un système « AI-empowered »; elle suggère aussi que, si l’avocat inscrit une politique de ce type dans la lettre de mission, il doit la divulguer et surtout la respecter strictement.

Le document ajoute une dimension de conformité juridique: au-delà de la déontologie, les règles étatiques américaines varient sur le consentement à l’enregistrement (certains États exigeant le consentement de toutes les parties) et certains États protègent spécifiquement les données biométriques, pouvant inclure les empreintes vocales (« voiceprints »). Comme les outils de transcription peuvent utiliser des caractéristiques biométriques de la voix pour identifier et attribuer les propos, l’opinion souligne le risque de violation de telles lois si l’usage est fait sans information ni consentement, et avertit que l’IA ne doit pas être considérée comme capable de déterminer automatiquement la légalité de l’enregistrement selon les juridictions.

Sur la confidentialité et le privilège, l’opinion insiste sur l’obligation de protéger les communications client et de préserver secret et privilège, ce qui implique une réflexion sur la conservation ou non des enregistrements, transcriptions et résumés. Elle met en balance des risques opposés : conserver un enregistrement peut, selon les cas, servir au client (par exemple dans une logique de « advice of counsel ») mais peut aussi exposer à la production en litige d’éléments défavorables (par exemple des propos spontanés, non mûris, pouvant être recherchés par une partie adverse). Elle demande donc à l’avocat d’évaluer les garanties de sécurité et de confidentialité offertes par le fournisseur : lieu et durée de stockage, conditions d’accès et de récupération, risque de production en procédure (discovery), utilisation éventuelle des données pour l’entraînement, existence de droits à suppression. Comme ces paramètres sont souvent fixés par le prestataire plutôt que par le cabinet, l’avocat doit, lorsque c’est pertinent, informer le client des risques de perte de confidentialité et de privilège, a fortiori si le client utilise ses propres outils.

Sur la compétence professionnelle, le texte rappelle deux exigences pratiques. Premièrement, l’avocat ne doit pas se reposer sur les sorties de l’IA : tout enregistrement, toute transcription et tout résumés destinés à être conservés ou susceptibles d’être invoqués ultérieurement doivent être relus et vérifiés par l’avocat afin d’en assurer l’exactitude. Le document vise explicitement le risque que l’IA introduise des erreurs, mais aussi le risque plus subtil que la formalisation écrite donne une importance accrue à des propos informels ou à un conseil donné « à chaud », et recommande une revue rapide après production pour corriger, nuancer ou compléter si nécessaire. Deuxièmement, la compétence implique une compréhension réelle des outils : savoir comment ils fonctionnent, connaître les conditions contractuelles, maîtriser les réglages (notamment désactiver un enregistrement activé par défaut), et prévoir la conduite à tenir en cas d’enregistrement involontaire (par exemple suppression, avec l’accord du client).

L’opinion traite enfin de la gouvernance interne: les règles relatives à la supervision exigent que les avocats encadrant des collaborateurs et du personnel assurent une formation spécifique sur l’usage des outils IA et sur les obligations associées, ainsi qu’une supervision continue. Autrement dit, la question n’est pas seulement individuelle (le choix de l’avocat) mais organisationnelle (politiques du cabinet, paramétrage des outils, procédures de contrôle).

Lorsque l’initiative vient du client, l’opinion décrit une zone de risque accrue, car l’avocat ne maîtrise ni l’outil, ni ses paramètres de sécurité, ni l’accès aux enregistrements/transcriptions/résumés, ce qui peut empêcher l’avocat d’assurer les devoirs rappelés plus haut. Elle souligne en particulier un risque de contentieux ultérieur si le client s’appuie sur un résumé généré par son outil sans que l’avocat ait pu le relire et en valider l’exactitude. L’opinion privilégie donc une clarification contractuelle dès le début de la relation : idéalement, obtenir l’accord du client pour ne pas utiliser d’outil d’enregistrement/transcription/synthèse sans notification préalable à l’avocat, ou pour recourir uniquement aux outils choisis/contrôlés par le cabinet. Si le client insiste pour utiliser un outil non approuvé, plusieurs réponses sont envisagées: demander que la conversation ne soit pas enregistrée; insérer dans la convention d’honoraires une clause indiquant que tout enregistrement/transcription/résumé généré par l’outil du client ne sera pas considéré comme opposable ou déterminant à l’égard de l’avocat tant qu’il n’a pas été communiqué rapidement pour permettre une vérification indépendante; et avertir le client des risques spécifiques pour la confidentialité et le privilège puisque le stockage et la sécurité seront hors contrôle du cabinet.

En synthèse, l’opinion ne proscrit pas l’usage de l’IA pour ces tâches mais encadre fortement la pratique: consentement préalable du client dès qu’il y a enregistrement, analyse au cas par cas de l’opportunité tactique et des risques (secret, privilège, conservation, exposition procédurale), vérification humaine systématique des transcriptions et résumés destinés à être conservés ou utilisés, maîtrise technique minimale des outils et de leurs réglages, et, lorsque le client utilise ses propres outils, mise en place de garde-fous contractuels et d’avertissements explicites afin de limiter les malentendus et les risques de confidentialité.

Committee on Professional Ethics, The New York City Bar Association, Formal Opinion 2025-6: Ethical Issues Affecting Use Of Ai To Record, Transcribe, And Summarize Conversations With Clients, 22 décembre 2025

(Source : https://www.nycbar.org/reports/formal-opinion-2025-6-ethical-issues-affecting-use-of-ai-to-record-transcribe-and-summarize-conversations-with-clients/#:~:text=The%20Professional%20Ethics%20Committee%20%28Michael%20E.%20Salzman%2C%20Chair%29,transcribe%20and%20create%20a%20summary%20of%20the%20conversation)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire