Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

L’article de Fortunato Costantino, The Right to Disconnect and the Right to Human Oversight of Algorithms as New Digital Subjective Rights, European Review of Digital Administration & Law – Erdal 2025, Volume 6, Issue 2, pp. 141-153 (https://www.erdalreview.eu/free-download/97912218237769.pdf) part d’un constat organisationnel et social: la numérisation du travail et l’usage croissant de technologies « intelligentes » transforment l’entreprise au point d’en « dématérialiser » une partie, en brouillant des repères classiques comme le lieu de travail, les horaires, la présence physique et la manière d’évaluer la performance.

L’auteur situe cette évolution dans un modèle où l’entreprise cherche davantage d’efficacité et de flexibilité, notamment via le travail « agile » (télétravail au sens large, orienté objectifs), et via des formes de « management algorithmique » dans lesquelles des outils informatiques participent, voire se substituent, à des décisions de gestion des ressources humaines.

Selon lui, ces changements créent des risques nouveaux pour les droits fondamentaux des travailleurs: d’un côté, l’hyper-connexion permanente (« always on ») qui peut conduire à une forme d’empiètement continu du travail sur la vie privée; de l’autre, l’opacité et les biais possibles des systèmes algorithmiques qui influencent des décisions importantes (recrutement, affectation, évaluation, discipline).

À partir de là, il défend l’idée qu’il faut reconnaître deux « droits subjectifs numériques » spécifiques : un droit à la déconnexion et un droit à une supervision humaine des algorithmes. Ces droits ne seraient pas de simples règles techniques d’organisation, mais bien des instruments de protection de la personnalité, de la dignité, de la liberté et de la sécurité des personnes au travail, et devraient, selon l’auteur, être pensés au niveau constitutionnel, plutôt que laissés à des règles dispersées ou à la seule négociation contractuelle.

Dans son analyse du travail agile, l’auteur insiste sur l’ambivalence de ce modèle. En théorie, il promet une autonomie accrue, un rapport de confiance, une organisation par objectifs, et des bénéfices possibles en matière de conciliation vie professionnelle-vie privée. En pratique, il peut aussi dériver vers une intensification et une dilution du temps de travail, en particulier lorsque la technologie rend possible une disponibilité permanente. Il rappelle que l’expérience de la pandémie a souvent réduit le travail agile à un télétravail contraint et continu depuis le domicile, ce qui a parfois accentué les effets négatifs. Il décrit un phénomène de chevauchement progressif entre temps professionnel et temps personnel, que la littérature qualifie de « porosité »: des fragments de travail s’infiltrent dans la sphère privée (messages, demandes urgentes, tâches « à finir »), et inversement des activités privées se glissent dans le temps de travail. L’enjeu n’est pas seulement de respecter des pauses minimales, mais de préserver une séparation réelle entre les sphères de vie. Ce brouillage entraîne, selon lui, un risque d’« surtravail numérique » et de surcharge cognitive et émotionnelle, avec des conséquences possibles sur la santé (insomnie, irritabilité, épuisement, stress, burnout). Il rattache ces préoccupations à l’obligation générale de protection de la santé et de l’intégrité du travailleur, qui impose à l’employeur d’anticiper les risques et de mettre en place des mesures préventives adaptées à l’état de la technique et des connaissances.

Sur le droit à la déconnexion, l’article critique l’approche italienne issue de la loi de 2017 sur le travail agile, qui impose que l’accord individuel définisse des périodes de repos et des mesures techniques ou organisationnelles permettant la déconnexion, mais sans reconnaître clairement un « droit » opposable de manière générale, ni prévoir de modalités concrètes ou de conséquences en cas de non-respect. Pour l’auteur, cette construction est trop faible : elle renvoie l’essentiel à la négociation individuelle, dans un contexte où le pouvoir de négociation est rarement équilibré, et elle cantonne la déconnexion aux travailleurs « agiles » alors que la connexion permanente concerne potentiellement tous les travailleurs équipés d’outils numériques. Il souligne aussi que, faute de cadrage précis, les accords d’entreprise restent souvent au niveau de principes généraux et ne garantissent pas une coupure effective. Il note qu’une intervention ultérieure a qualifié la déconnexion de « droit » pour les travailleurs en mode agile, mais en la reliant toujours à des accords et à des périodes de disponibilité convenues, ce qui laisse subsister des ambiguïtés et une protection inégale. Il discute ensuite les tentatives doctrinales de rattacher la déconnexion uniquement au droit au repos et aux règles sur la durée du travail, en relevant que cette approche est insuffisante: la déconnexion ne vise pas seulement à assurer un minimum d’heures de repos, mais à protéger un espace de vie privée et de liberté personnelle contre la pression diffuse et constante des sollicitations numériques, y compris lorsque la personne n’est pas en train de travailler au sens strict mais demeure « en alerte » parce qu’elle peut être contactée à tout moment. Dans cette perspective, la déconnexion devient un droit plus large, lié à la vie privée, à la santé, et au plein développement de la personne.

L’auteur appuie cette lecture par une comparaison européenne et par des développements au niveau de l’Union. Il évoque des cadres nationaux, comme ceux de la France et de l’Espagne, qui qualifient plus explicitement la déconnexion comme un droit et lui donnent une portée plus générale, notamment via un rôle de la négociation collective, plutôt qu’une dépendance à l’accord individuel. Il met surtout en avant une résolution du Parlement européen de janvier 2021 invitant la Commission à proposer une directive sur la déconnexion, avec un socle minimal harmonisé applicable à tous les secteurs et à toutes les formes de travail, et avec l’idée que la déconnexion est devenue une composante essentielle des nouveaux modes de travail numériques. L’auteur relie ce mouvement à une vision où la transition numérique du travail doit être encadrée pour éviter des usages « déshumanisés » de la technologie, et où l’innovation doit rester orientée vers des objectifs sociaux (bien-être, durabilité, participation), en cohérence avec des orientations européennes plus générales sur une industrie « centrée sur l’humain ».

Le second axe majeur de l’article concerne le « droit à la supervision humaine » des processus et décisions algorithmiques. L’auteur part de la vulnérabilité particulière du travailleur face à des systèmes capables de collecter, croiser et inférer une quantité considérable d’informations. Il décrit un risque d’asymétrie: des individus de plus en plus « transparents » (car fortement observables par les données) face à des pouvoirs de décision de plus en plus « opaques » (car difficiles à comprendre et à contester). Il insiste sur deux problèmes classiques des systèmes algorithmiques appliqués aux ressources humaines: l’opacité (la difficulté de comprendre comment une décision est produite, ce qui renvoie à l’image de la « boîte noire ») et les biais (les erreurs, préjugés ou discriminations qui peuvent être incorporés dès la conception, ou par les données d’entraînement, puis reproduits à grande échelle). Dans le contexte du travail, ces outils peuvent intervenir dans des étapes sensibles: recrutement et sélection, affectation, organisation des tâches, évaluation de performance, voire déclenchement de procédures disciplinaires ou décisions de licenciement fondées sur des indicateurs automatisés. Selon l’auteur, lorsque des décisions importantes sont prises ou préparées par des systèmes algorithmiques, une gouvernance adaptée devient indispensable pour garantir transparence, fiabilité, intelligibilité et contrôle, et pour permettre une vérification réelle de la légitimité et de l’équité des décisions.

Concrètement, l’article défend une approche de conformité et de gouvernance interne en deux temps. D’abord, une analyse de risque ex ante doit identifier quels processus RH sont automatisés, à quel degré, et où la délégation de pouvoir décisionnel à la machine augmente le risque d’atteinte aux droits fondamentaux ou aux droits contractuels. Ensuite, l’entreprise doit mettre en place des politiques, procédures et mécanismes de supervision humaine proportionnés à l’importance de la décision et à l’intensité de l’impact sur la personne, avec une capacité effective de corriger, compléter ou annuler une décision algorithmique et de la remplacer par une décision humaine lorsque c’est nécessaire. L’auteur mentionne les différents modèles généralement évoqués (humain « dans la boucle », humain « supervisant la boucle », humain « aux commandes ») pour illustrer des degrés d’intervention humaine, mais son point central est qu’une supervision humaine doit être réelle et opérante, notamment pour réduire le risque d’« automation bias », c’est-à-dire la tendance à faire trop confiance à une sortie algorithmique même lorsqu’elle est erronée.

Sur le plan juridique, l’auteur rattache cette exigence à plusieurs sources. Il relève d’abord que l’AI Act de l’Union européenne, entré en vigueur en août 2024, contient une disposition spécifique imposant une supervision humaine pour les systèmes d’IA « à haut risque », afin de prévenir ou minimiser les risques pour la santé, la sécurité et les droits fondamentaux. Il estime ensuite que, même si ce texte vise en priorité les systèmes à haut risque, une entreprise prudente devrait prévoir une supervision humaine plus large dès lors que l’analyse de risque révèle des impacts possibles sur la dignité, la liberté, l’égalité, la non-discrimination, la protection des données ou la santé et la sécurité, y compris pour des systèmes classés comme moins risqués. Il intègre également le droit de la protection des données dans la démonstration: les principes généraux du RGPD (finalité, minimisation, transparence, exactitude, responsabilité) limitent la collecte et l’usage des données des travailleurs, et le RGPD prévoit un cadre spécifique pour les décisions fondées exclusivement sur un traitement automatisé, avec des garanties telles que l’intervention humaine, la possibilité d’exprimer son point de vue et de contester la décision. Il ajoute qu’un décret italien récent sur la transparence des conditions de travail impose, lorsqu’il existe des systèmes automatisés de décision ou de surveillance liés à des aspects clés de la relation de travail, des obligations d’information renforcées, ainsi que des évaluations de risques et, dans certains cas, une analyse d’impact et une consultation préalable de l’autorité de protection des données. L’ensemble de ces normes illustre, selon lui, une tendance: la supervision humaine et la transparence deviennent des garanties structurantes face à l’automatisation dans la gestion du travail.

En conclusion, l’auteur considère que, même si plusieurs textes (nationaux et européens) contiennent déjà des éléments de protection, l’ensemble reste insuffisant tant que ces garanties ne sont pas élevées au rang de droits pleinement reconnus et cohérents, capables d’être invoqués et protégés de manière effective. Il plaide pour une reconnaissance plus nette, y compris au niveau des textes constitutionnels et des instruments européens de droits fondamentaux, afin d’empêcher que la « boulimie » technologique et la connexion permanente ne finissent par écraser la dignité et la personnalité des individus. Dans sa logique, le droit à la déconnexion et le droit à une supervision humaine des algorithmes sont les deux réponses les plus directes pour rééquilibrer le rapport entre efficacité numérique et protection de la personne, en évitant à la fois la normalisation d’une disponibilité permanente et l’acceptation passive de décisions opaques produites par des systèmes automatisés.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD | Tagué , , , , , | Laisser un commentaire

Les IA de transcription : problèmes, problèmes et problèmes

A propos d’Amy Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions Part 1: Why Conversational Data Creates Unique Legal Risk, 13 janvier 2026 (https://aiforlawyers.substack.com/p/ai-note-takers-wiretap-laws-and-the?utm_campaign=post-expanded-share&utm_medium=web&triedRedirect=true):

L’auteure part d’une scène devenue banale dans la pratique professionnelle : une réunion à distance entre avocats, à laquelle participe discrètement un assistant de prise de notes fondé sur l’intelligence artificielle. Ce «bot» n’est pas un simple dictaphone amélioré. Il enregistre l’audio, transcrit intégralement les échanges, capte des captures d’écran de la vidéo, extrait des noms et adresses e-mail depuis l’invitation de calendrier et peut même créer une empreinte vocale durable pour identifier chaque participant. Ce qui pouvait sembler anodin comme une simple aide administrative soulève en réalité des questions juridiques importantes

L’article montre que ces outils ne sont plus des exceptions. Depuis la pandémie, la visioconférence est devenue une infrastructure ordinaire du travail, et la transcription automatisée s’est imposée par défaut sur des plateformes comme Zoom, Teams ou Google Meet. Des services spécialisés tels qu’Otter.ai sont massivement utilisés, y compris dans les cabinets d’avocats, et le secteur des centres d’appels traite chaque jour des millions de conversations via des systèmes d’IA capables de transcrire, analyser et stocker les échanges. Beaucoup d’utilisateurs ignorent cependant ce qu’il advient réellement des données collectées.

L’auteure insiste sur le fait qu’une transcription de réunion n’est pas un simple fichier texte local. Selon l’architecture technique et les conditions contractuelles du fournisseur, le système peut conserver l’audio, des images, des métadonnées sur les participants, des identifiants persistants de locuteurs et des droits d’utilisation très larges au profit du prestataire. C’est précisément cet écart entre les attentes intuitives des utilisateurs et les capacités réelles des fournisseurs qui crée un risque juridique.

Le texte analyse ensuite pourquoi les données issues de conversations sont particulièrement précieuses pour l’entraînement des modèles d’IA. Contrairement aux données issues du web, ces échanges sont contextuels, structurés et liés à des situations réelles de travail. Ils contiennent non seulement des mots, mais aussi des problèmes concrets, des stratégies, des décisions et parfois des résultats mesurables. Dans les centres d’appels, ils sont même reliés à des dossiers clients et à des indicateurs de satisfaction. Pour les entreprises d’IA, ces informations constituent un matériau d’entraînement de très haute qualité, bien supérieur à des textes publics aléatoires.

Cette valeur technique s’accompagne toutefois d’un risque juridique accru. Des actions collectives ont déjà été intentées aux États-Unis contre des services comme Otter.ai et contre des systèmes de centres d’appels de grandes entreprises technologiques. Les plaignants soutiennent que ces fournisseurs ne sont pas de simples outils neutres de productivité, mais des tiers qui interceptent des communications privées et les exploitent commercialement.

L’auteure décrit ensuite comment, à partir d’une seule réunion, un assistant de type Otter peut créer un ensemble de données multimodales comprenant le contenu des propos, le contexte (qui parle, quand et avec qui), des images des participants et des données biométriques sous forme d’empreintes vocales. Pour l’entraînement de systèmes conversationnels, ce type de base de données est extrêmement attractif. Du point de vue de la protection de la personnalité, cela ressemble toutefois à une extraction systématique d’informations sensibles sans consentement clair et éclairé.

Le texte examine ensuite la position publique d’Otter.ai, qui reconnaît l’importance stratégique des transcriptions de réunions comme «système de référence» pour les entreprises. Cette valorisation commerciale confirme, selon l’auteure, que les conversations ne sont pas seulement utiles aux clients, mais aussi au fournisseur pour améliorer ses propres produits d’IA.

Une partie importante du post est consacrée à la comparaison entre l’utilisation de données issues du web et celle de conversations privées. Les débats juridiques sur le «web scraping» portent surtout sur le droit d’auteur. Les enregistrements de réunions, eux, relèvent d’un tout autre cadre: ils touchent au droit des écoutes, à la protection des données personnelles, au droit biométrique et à la sphère privée. Les échanges enregistrés n’étaient pas destinés à être publics et peuvent contenir des secrets professionnels, des informations médicales ou des stratégies d’affaires.

L’auteure se penche ensuite sur les arguments de «dé-identification» avancés par certains fournisseurs. Otter affirme par exemple anonymiser les données avant de les utiliser pour entraîner ses modèles. Le texte explique pourquoi cette défense est fragile. Même sans noms, le contexte d’une conversation permet souvent de réidentifier les personnes ou les organisations concernées. Lorsque des enregistrements audio, des images ou des empreintes vocales sont conservés, l’idée même d’anonymisation devient largement illusoire. De plus, Otter admet que les données intégrées dans des modèles déjà entraînés ne peuvent pratiquement plus être retirées, ce qui suggère une appropriation durable de la matière première fournie par les utilisateurs.

Un autre point critique concerne le mécanisme de consentement. Dans la pratique, c’est souvent la personne qui active le bot qui donne l’autorisation au fournisseur, et non l’ensemble des participants à la réunion. Les conditions générales d’Otter transfèrent explicitement la responsabilité d’informer et d’obtenir le consentement des autres participants à l’utilisateur qui a invité le bot. Selon les plaignants, cela transforme le fournisseur en tiers interceptant des communications sans consentement de toutes les parties.

L’article conclut en montrant que l’intérêt économique croissant pour les données conversationnelles renforce les arguments des plaignants. Plus ces données sont précieuses pour entraîner des modèles d’IA, plus il est plausible de soutenir que les fournisseurs ne se contentent pas de fournir un service, mais exploitent commercialement des communications privées. Cela alimente des revendications fondées sur le droit fédéral américain des écoutes (ECPA), sur des lois étatiques comme la CIPA californienne et sur des législations biométriques telles que la loi de l’Illinois (BIPA).

En filigrane, l’auteure invite les praticiens à ne pas banaliser la présence de ces assistants de prise de notes. Ils sont utiles, mais leur fonctionnement réel soulève des enjeux sérieux de transparence, de consentement et de responsabilité juridique, enjeux qui seront développés plus en détail dans la seconde partie de la série.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Xavier Rodriguez, juge fédéral (U.S. District Judge) au Texas, explique dans une publication récente (https://judicature.duke.edu/articles/judging-ai-generative-ai-courts/) comment des outils d’IA générative peuvent aider un juge dans des dossiers volumineux sans affaiblir l’exigence de justice et de rigueur. Il part d’une expérience concrète : un procès “bench trial” (décidé par le juge sans jury) particulièrement lourd, La Union Del Pueblo Entero v. Abbott, portant sur de nombreuses dispositions d’une loi électorale texane de 2021 (S.B. 1). Le dossier comprenait environ 80 témoins, près de 1 000 pièces et plus de 5 000 pages de transcription. Cette masse met en évidence un problème très simple mais décisif : retrouver rapidement, puis synthétiser, les éléments utiles au moment de rédiger des constatations de faits et des conclusions.

Premier apport décrit : la recherche et la localisation de documents. Les systèmes judiciaires de dépôt électronique permettent des recherches textuelles, mais avec des limites pratiques : recherches par mots-clés souvent trop larges ou trop étroites, documents non “lisibles” car non convertis correctement, impossibilité de restreindre finement la recherche à certains sous-ensembles, difficulté à exploiter des documents reçus mais pas encore déposés, et résultats inutilisables quand un terme renvoie à “tout le dossier”. Pour dépasser ces limites, la chambre du juge a utilisé une plateforme d’e-discovery (Merlin) après validation par le service informatique du tribunal sur les aspects de cybersécurité. Un corpus d’environ un millier de documents (transcriptions, pièces admises, écritures, projets de constatations, ordonnances antérieures) a été chargé sur un espace sécurisé créé pour le projet. L’outil a appliqué une reconnaissance de caractères et a offert une recherche combinant mots-clés et recherche “algorithmique”, permettant de retrouver plus vite des passages pertinents sans requêtes complexes. L’auteur souligne toutefois une précaution centrale pour tout usage judiciaire ou avocat : ne pas charger de données confidentielles, protégées par le secret professionnel, ou sensibles (santé, finances, etc.) sans vérifier précisément les garanties du prestataire, notamment l’absence de réutilisation des données non publiques pour entraîner le modèle et la solidité des mesures de sécurité.

Deuxième apport : la synthèse de textes, en particulier la synthèse de dépositions et de transcriptions. L’auteur rappelle que les résumés de témoignages sont une pratique courante, mais coûteuse en temps et en budget, et parfois peu flexibles : selon qu’ils sont structurés par témoin, par date ou par thème, ils peuvent être difficiles à exploiter pour une question précise, et ils obligent souvent à un va-et-vient répétitif entre résumé et transcription. Il décrit l’intérêt d’approches où le système ne “devine” pas librement mais répond à partir d’un ensemble fermé de documents, via une méthode souvent appelée “recherche puis rédaction” (retrieval-augmented generation) : le système commence par retrouver les passages les plus pertinents dans le corpus défini, puis génère une réponse en s’appuyant sur ces passages. L’idée est de réduire le risque d’erreur en forçant l’outil à se fonder sur le dossier. Dans son test, l’auteur compare un résumé produit par un stagiaire à une réponse générée par Merlin à partir d’une question simple sur la procédure de vote “curbside” au Texas. L’outil fournit en quelques secondes une synthèse transversale qui combine plusieurs sources (dépositions et témoignages de divers témoins) et ajoute des références vers les passages correspondants. Le résumé humain est plus resserré et directement orienté vers l’usage rédactionnel, tandis que l’IA donne une vue plus large et contextualisée. La conclusion est nuancée : l’IA peut accélérer et faciliter la première exploration et l’identification des éléments du dossier, mais l’humain doit contrôler l’exactitude et décider du niveau de détail utile, notamment si le texte doit être repris tel quel dans une décision.

Troisième axe : la capacité de l’IA à produire un “premier jet” de constatations de faits (et, en creux, ses limites pour une décision complète). L’auteur affirme qu’il n’utilise pas, à ce stade, un outil d’IA générative pour rédiger des ordonnances ou des constatations déposées au dossier ; ses essais ont été réalisés après publication, afin d’éviter une influence sur la décision. Il insiste aussi sur des risques cognitifs spécifiques : l’“ancrage” (tendance à se laisser guider par une première proposition), la confiance excessive dans une réponse d’outil (“automation bias”) et le biais de confirmation (accepter plus facilement ce qui conforte une intuition). L’IA peut être partiellement ou totalement erronée, et même une réponse plausible peut orienter la réflexion de manière indue. Dans une première expérience, il demande à l’outil un texte mêlant faits et droit sur une théorie précise (atteinte à la liberté d’expression par une restriction de certaines activités de démarchage autour du vote par correspondance). Le résultat est décevant : réponse trop large (elle traite d’autres dispositions et d’autres parties), et analyse souvent superficielle, notamment sur la qualité pour agir (standing) où l’outil produit des formules générales plutôt que d’identifier précisément quels demandeurs sont concernés par cette restriction. L’auteur en tire une leçon méthodologique : les sorties dépendent fortement de la qualité des entrées et des consignes, et un juge doit déjà comprendre les enjeux factuels et juridiques pour formuler des requêtes pertinentes, évaluer les limites de l’outil et contrôler la pertinence et l’exactitude du résultat.

Il modifie alors son approche : plutôt que de demander une analyse juridique, il cible des constatations de faits détaillées, en donnant des instructions structurées très précises (définition de la disposition contestée, historique procédural, description des parties et de leurs compétences d’exécution, exemples de difficultés d’interprétation de termes vagues comme “présence physique” ou “compensation”, et effets concrets sur les activités de terrain et la liberté d’expression), avec exigence de références à la preuve. Cette fois, l’outil produit un document d’une dizaine de pages nettement plus utile, avec des exemples concrets d’activités réduites ou abandonnées par des organisations (annulation d’événements, bascule vers des formats virtuels, difficultés de recrutement de bénévoles, réduction de programmes d’assistance aux électeurs), et des citations de témoignages illustrant l’incertitude sur la portée de la règle (p. ex. la question de savoir si de petites aides matérielles pourraient être qualifiées de “compensation”). L’auteur souligne que cette amélioration provient d’une “itération” : affiner progressivement la demande pour l’aligner sur ce que le dossier contient réellement. Il explique aussi pourquoi l’outil peine lorsque la question suppose des inférences juridiques non explicitement formulées dans la preuve : au procès, les questions aux témoins ne reprennent pas sans cesse la “théorie de responsabilité” en termes juridiques, et les témoins ne doivent pas donner de conclusions de droit ; il faut donc guider l’outil vers les faits pertinents.

Quatrième axe : l’usage de l’IA pour relire et contrôler les écritures et brouillons. L’auteur présente un autre outil, Clearbrief, également basé sur le chargement de sources dans un espace sécurisé, mais intégré à Microsoft Word. Cette intégration facilite l’extraction de passages du dossier vers un projet de texte, avec insertion de références, et permet aussi de générer des chronologies, des tableaux thématiques et des résumés de dépositions (sans fonctionner comme un “chat” fondé sur des invites). Clearbrief dispose en outre d’un accès à des ressources juridiques (via LexisNexis et le domaine public) et peut évaluer dans quelle mesure une phrase d’un mémoire ou d’un projet d’opinion est effectivement soutenue par l’autorité citée, ce qui aide au contrôle des citations et à la détection d’affirmations insuffisamment étayées. Dans la pratique décrite, ces fonctions servent à préparer des conférences de procédure, à vérifier la précision des mémoires et des références au dossier, et à relire/corriger les projets avant publication.

En conclusion, l’auteur défend une position pragmatique : les outils d’IA générative ne remplacent pas le juge et ne doivent pas servir de substitut à la décision judiciaire, mais ils peuvent réduire une part importante du travail mécanique et chronophage (retrouver, regrouper et résumer des éléments du dossier, produire des chronologies, faciliter le contrôle de cohérence et de citations). Il estime que la peur suscitée par des cas médiatisés de mauvais usages ne doit pas conduire à un refus global : des professionnels ont toujours pu produire des références erronées ou des résumés infidèles, avec ou sans IA, et refuser ces outils ne fait que rendre plus difficile la détection de ces erreurs. Il ajoute que le risque d’un usage non critique existe aussi sans IA (copier-coller d’écritures partisanes, recherche juridique insuffisante) et que la bonne réponse réside dans la responsabilité et le contrôle, pas dans l’interdiction générale. Il propose enfin une logique “à la carte” : certains outils conviennent mieux aux grands dossiers factuels (recherche et synthèse à grande échelle), d’autres au travail quotidien (préparation d’audiences, vérification de citations). L’état de l’art, au moment de ses tests, ne permet pas de produire de façon fiable des décisions finales, mais l’évolution est rapide et des solutions apparaissent, y compris des outils dédiés au travail des juges. Dans tous les cas, il n’y a pas de substitut au jugement humain, en particulier pour formuler les bonnes questions, vérifier les réponses et assumer la responsabilité de la décision.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Le refus d’utiliser une application informatique est-il un manquement aux obligations du fonctionnaire?

La Cour administrative d’appel de Paris (3e chambre), par un arrêt du 14 novembre 2025 (n° 24PA04840), confirme le rejet par le tribunal administratif de Paris de la demande de Mme B., inspectrice du travail titularisée depuis 1991 et affectée en Île-de-France, qui sollicitait l’annulation d’un blâme prononcé par le ministre du travail le 16 janvier 2023.

Parmi divers arguments, ce qui suit (résumé) :

Un point central du dossier concerne le refus répété par la fonctionnaire d’utiliser l’application “Wikit”, outil informatique interne permettant de préparer et saisir les contrôles, suivre des procédures, mutualiser les pratiques et gérer des agendas partagés.

La cour constate que ce refus a entraîné un surcroît de travail pour le secrétariat (saisie des convocations et décisions). Mme B. invoquait l’inadaptation de l’outil, en se référant notamment à un rapport sénatorial du 25 septembre 2019. La cour juge toutefois que, malgré ces critiques, le refus persistant constitue un manquement à l’obéissance hiérarchique, d’autant que le code du travail (article R. 8124-9) impose à l’agent de rendre compte de ses actions selon les modalités définies par l’administration, notamment via le système d’information prévu pour partager les informations sur les actions et entreprises contrôlées.

Par ailleurs, la Cour conclut que le dossier établit une attitude de dénigrement et d’hostilité envers la hiérarchie directe à partir de novembre 2020 et un refus de se plier aux consignes de service sur Wikit, caractérisant un manquement à l’obéissance hiérarchique et à l’exigence de mesure dans l’expression. Le moyen tiré de l’inexactitude matérielle des faits est donc rejeté.

En d’autres termes, le refus d’utiliser une application, une suite informatique, un outil numérique etc. est un manquement à l’obéissance hiérarchique qui peut faire l’objet d’une sanction disciplinaire.

Me Philippe Ehrenström, avocat, LLM. CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans Devoir de fidélité et diligence, Droit disciplinaire, droit français, Fonction publique | Tagué , , , , , | Laisser un commentaire

Les outils IA de traduction dans le secteur de la santé

L’article de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, in : van Kolfschooten et al. Discover Public Health, (2025) (https://doi.org/10.1186/s12982-025-01277-z) examine l’usage croissant, en Europe, d’outils de traduction fondés sur l’intelligence artificielle (IA) comme Google Translate et ChatGPT pour surmonter les barrières linguistiques entre soignants et patients.

Le point de départ est pratique : l’interprétariat professionnel est souvent difficile d’accès (coût, manque de disponibilité, droits variables selon les pays), alors que ces outils sont rapides, gratuits et omniprésents.

Les auteurs distinguent deux usages principaux : la traduction de textes (par exemple consignes de sortie, instructions de prise de médicaments, formulaires) et la traduction de la parole en temps réel (notamment via la fonction vocale de Google Translate).

Leur question est juridique et éthique : quels risques ces traductions automatisées font-elles peser sur les droits des patients, et dans quelle mesure le droit européen protège-t-il contre ces risques ?

Sur le plan technique, Google Translate repose surtout sur des modèles conçus pour la traduction, entraînés sur des paires de phrases alignées entre langues, et peut transformer la voix en texte puis en voix (reconnaissance vocale et synthèse). ChatGPT repose sur un modèle généraliste de langage, entraîné sur de très grands corpus non alignés, capable de produire une traduction écrite par prédiction de suites de mots plausibles. Dans les deux cas, il s’agit d’outils généralistes, non conçus ni validés pour un usage médical, ce qui compte juridiquement : leurs politiques d’utilisation déconseillent ou n’encadrent pas l’usage clinique, et surtout ils ne sont pas intégrés à des dispositifs de contrôle qualité et d’obligation de résultat comparables à ceux des dispositifs médicaux ou des services d’interprétariat.

Les auteurs combinent deux méthodes. D’une part, ils analysent les conditions et politiques publiques de Google Translate et de ChatGPT (conservation des données, transparence, responsabilité, garde-fous “santé”). D’autre part, ils analysent, de manière doctrinale, trois cadres juridiques européens susceptibles de s’appliquer : le Règlement général sur la protection des données (RGPD), le Règlement sur les dispositifs médicaux (MDR) et l’AI Act (règlement européen sur l’IA). Ils en tirent un constat central : la protection existe, mais elle est partielle et laisse des “zones grises” importantes lorsque des outils généralistes sont utilisés dans un contexte à haut risque comme les soins.

Le premier ensemble de risques concerne la vie privée et la confidentialité. Traduire une plainte, un diagnostic, une liste de médicaments ou une lettre médicale implique souvent de traiter des données particulièrement sensibles. Or, l’utilisation d’un service en ligne signifie typiquement que les informations sont transmises à un prestataire externe, parfois stockées, analysées ou réutilisées pour améliorer le service. Les politiques examinées indiquent que des données peuvent être conservées et réemployées (avec des possibilités d’opt-out limitées selon les versions et réglages), sans dispositif spécifique “santé” ni garanties compréhensibles pour un patient. Cela crée plusieurs points de friction pour un juriste : qui est responsable du traitement (l’hôpital, le médecin, le fournisseur de l’outil, ou plusieurs acteurs)? sur quelle base légale repose ce traitement et, surtout, l’éventuelle réutilisation ? quels flux transfrontières de données existent ? et comment informer le patient de façon suffisamment claire ? Les auteurs rappellent que des incidents réels (fuites, cyberattaques) illustrent que le risque n’est pas théorique : la donnée de santé est une cible, et la traduction peut devenir un canal involontaire d’exposition.

Le deuxième ensemble de risques touche l’autonomie du patient, le droit à l’information et le consentement éclairé. En médecine, comprendre est une condition du choix : si une traduction est inexacte, trop vague, ou manque des nuances (risques, alternatives, instructions), le patient peut accepter un acte sans en saisir la portée. Les auteurs s’appuient sur la jurisprudence de la Cour européenne des droits de l’homme, qui a déjà sanctionné des situations où l’information médicale n’était pas effectivement comprise par la personne (notamment lorsque la barrière linguistique n’avait pas été correctement surmontée). L’enjeu, pour le droit, n’est donc pas seulement d’“avoir fourni” une information, mais s’être assuré qu’elle est intelligible pour ce patient dans ce contexte. Or, une traduction automatisée peut échouer sur des points critiques (posologie, allergies, contre-indications) et, contrairement à un interprète humain, elle ne peut pas demander des clarifications pertinentes, ni vérifier activement la compréhension, ni jouer un rôle de médiation culturelle.

Le troisième ensemble de risques concerne les biais et la discrimination. Les auteurs expliquent que la qualité de la traduction varie selon les langues, les dialectes et les accents, notamment parce que les données d’entraînement sont inégalement riches. Cela peut conduire certains groupes à recevoir, de manière systématique, une communication moins fiable, avec des conséquences possibles sur la sécurité des soins et l’égalité d’accès. Ils relèvent aussi des biais de genre : pour certaines langues où le genre n’est pas marqué, des systèmes de traduction tendent à “deviner” et peuvent retomber sur des stéréotypes (par exemple en attribuant plus souvent des pronoms masculins ou en associant des traits différents selon le genre), ce qui peut, dans un contexte clinique, influencer la manière dont des symptômes sont compris ou retranscrits. Juridiquement, si l’outil contribue à une dégradation de la qualité des soins pour des groupes protégés, on peut entrer dans une logique de discrimination indirecte : une pratique apparemment neutre (utiliser un traducteur automatique) produit des effets défavorables disproportionnés sur certaines populations.

Le quatrième ensemble de risques porte sur la responsabilité en cas d’erreur. Si une mauvaise traduction entraîne un dommage (mauvaise prise de médicament, consentement invalide, retard de traitement), qui répond ? Les auteurs soulignent l’ambiguïté : le professionnel de santé a une obligation de diligence et ne peut pas se décharger sur un outil, mais le fournisseur de technologie peut aussi être en cause si l’outil est défectueux, trompeur, ou insuffisamment encadré. Dans la pratique, les conditions d’utilisation des plateformes tendent à limiter la responsabilité du fournisseur et à renvoyer la charge du “bon usage” vers l’utilisateur. Cette combinaison (usage clinique réel, mais outils conçus et contractuellement cadrés comme services généralistes) crée, selon les auteurs, un terrain propice aux litiges et à l’insécurité juridique, sans mécanisme simple de réparation pour le patient.

Sur l’état du droit européen, l’article conclut à une couverture fragmentée. Le MDR s’applique surtout aux produits “destinés” par le fabricant à une finalité médicale (diagnostic, traitement, prévention, etc.). Comme Google Translate et ChatGPT ne sont pas commercialisés comme dispositifs médicaux, ils échappent en principe à cette réglementation, ce qui signifie qu’ils ne passent pas par les exigences de validation, de documentation et de surveillance propres aux dispositifs médicaux. L’AI Act adopte une logique par niveaux de risque : les traducteurs généralistes relèvent typiquement d’un niveau d’obligations plus léger que les systèmes explicitement médicaux, même s’ils peuvent être utilisés dans des situations où l’erreur met en jeu la santé. Les obligations y sont surtout de transparence (informer qu’il s’agit d’une IA, etc.), ce que les auteurs jugent insuffisant face aux enjeux cliniques. Le RGPD, en revanche, s’applique dès qu’il y a traitement de données personnelles, et a fortiori de données de santé ; il impose une base légale, la minimisation, la sécurité, l’information, et souvent une analyse d’impact (DPIA) lorsque le risque est élevé. Mais, selon les auteurs, le RGPD ne “résout” pas tout : il encadre la donnée, pas la qualité médicale de la traduction ; et dans la chaîne de traitement, la clarification des rôles (responsable, sous-traitant, transferts internationaux) reste délicate, surtout avec des services grand public.

L’article propose enfin une voie opérationnelle, centrée sur des politiques internes et des choix d’architecture plutôt que sur une interdiction. L’idée est de réserver l’IA à des usages proportionnés au risque, avec des règles claires : quand l’utiliser, quand l’éviter, comment vérifier et documenter. Les auteurs insistent sur la formation des professionnels : connaître les limites, repérer les situations à enjeu (consentement, chirurgie, décisions lourdes, urgences), et utiliser des méthodes de vérification de compréhension, comme demander au patient de reformuler avec ses mots. Ils recommandent aussi d’investir dans des outils de traduction spécialisés et mieux gouvernés, idéalement déployés localement (ou dans des environnements maîtrisés) pour réduire les transferts vers des serveurs externes, et conçus avec une logique de “protection des données dès la conception”. Ils soulignent l’intérêt de partenariats où les institutions de santé gardent un contrôle réel sur l’outil (continuité de service, langues couvertes, mises à jour), afin d’éviter une dépendance excessive à des fournisseurs dont les priorités peuvent ne pas coïncider avec l’équité d’accès ou la sécurité des patients.

Pour des avocats suisses, l’intérêt principal de cette étude est méthodologique et pratique: elle montre que le risque ne se limite pas à une “erreur de traduction”, mais touche un faisceau de droits (confidentialité, information, égalité, accès aux soins, recours effectif) et que la réglementation, même dense, peut laisser un vide lorsque des outils généralistes sont détournés vers des usages cliniques. Le message final est de gouverner l’usage : définir des règles de déploiement, renforcer la transparence envers les patients, choisir des solutions techniques compatibles avec les exigences de protection des données, et conserver des solutions humaines (interprètes) pour les situations où l’exactitude et la compréhension priment sur la rapidité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

L’ »Opinion » récemment rendue par le Comité d’éthique du barreau de NY traite de l’usage des outils IA de transcription, dont nous avons déjà parlé ici (notamment : https://droitdutravailensuisse.com/2025/11/30/les-systemes-dia-de-transcription-gain-de-temps-ou-risque/ et https://droitdutravailensuisse.com/2025/07/30/lintelligence-artificielle-qui-transcrit-et-analyse-les-appels-telephoniques/). Elle est, plus précisément, consacrée aux enjeux déontologiques liés à l’usage d’outils d’intelligence artificielle pour enregistrer, transcrire et résumer des échanges entre avocat et client.

Les plateformes de visioconférence et de communication (par exemple Zoom ou Teams) rendent l’enregistrement beaucoup plus fréquent qu’à l’époque des conversations téléphoniques, parfois même par simple réglage par défaut, et les outils actuels ne se limitent plus à « capturer » un son mais produisent des transcriptions attribuant les propos à des locuteurs et, via des modèles génératifs, des résumés qui interprètent le sens et l’intention. La création de ces objets (enregistrement, transcription, résumé) soulève des risques nouveaux, à la fois sur le processus (collecte et traitement des données, sécurité, conservation) et sur les conséquences juridiques ultérieures (confidentialité, secret, privilège, preuve, discovery, gestion du risque).

L’opinion distingue deux situations: (i) l’avocat utilise un outil IA pour enregistrer/transcrire/résumer des conversations avec son client; (ii) le client utilise son propre outil IA pour le faire, situation en grande partie hors du contrôle de l’avocat. Dans les deux cas, le texte rappelle que l’avocat demeure tenu par les règles déontologiques pertinentes (compétence, confidentialité, supervision, interdiction de conduite trompeuse) et qu’il doit comprendre, à un niveau non technique mais réel, comment fonctionnent les outils utilisés et quels risques ils créent.

Lorsque l’initiative vient de l’avocat, le point de départ est l’exigence de loyauté et l’interdiction de comportements trompeurs: même en droit new-yorkais (souvent « one-party consent » pour l’enregistrement), la déontologie impose en principe de ne pas enregistrer une conversation avec un client à son insu. L’opinion considère que ce raisonnement demeure valable avec l’IA. Elle admet que le client s’attend généralement à ce que l’avocat prenne des notes et rédige un mémo, mais elle explique que la situation change dès lors qu’un résumé « IA » est produit à partir d’un enregistrement et d’une transcription préalable : ce ne sont pas seulement des notes, c’est un processus automatisé fondé sur un verbatim. La présence même d’un enregistrement (même si, ultérieurement, l’avocat ne conserve que le résumé) est jugée déterminante car elle peut modifier la manière dont le client s’exprime et lui ôte la possibilité de choisir ses mots en sachant qu’un verbatim est créé. En conséquence, l’opinion conclut que le client doit être informé et que son consentement doit être obtenu chaque fois que la conversation est enregistrée par un système « AI-empowered »; elle suggère aussi que, si l’avocat inscrit une politique de ce type dans la lettre de mission, il doit la divulguer et surtout la respecter strictement.

Le document ajoute une dimension de conformité juridique: au-delà de la déontologie, les règles étatiques américaines varient sur le consentement à l’enregistrement (certains États exigeant le consentement de toutes les parties) et certains États protègent spécifiquement les données biométriques, pouvant inclure les empreintes vocales (« voiceprints »). Comme les outils de transcription peuvent utiliser des caractéristiques biométriques de la voix pour identifier et attribuer les propos, l’opinion souligne le risque de violation de telles lois si l’usage est fait sans information ni consentement, et avertit que l’IA ne doit pas être considérée comme capable de déterminer automatiquement la légalité de l’enregistrement selon les juridictions.

Sur la confidentialité et le privilège, l’opinion insiste sur l’obligation de protéger les communications client et de préserver secret et privilège, ce qui implique une réflexion sur la conservation ou non des enregistrements, transcriptions et résumés. Elle met en balance des risques opposés : conserver un enregistrement peut, selon les cas, servir au client (par exemple dans une logique de « advice of counsel ») mais peut aussi exposer à la production en litige d’éléments défavorables (par exemple des propos spontanés, non mûris, pouvant être recherchés par une partie adverse). Elle demande donc à l’avocat d’évaluer les garanties de sécurité et de confidentialité offertes par le fournisseur : lieu et durée de stockage, conditions d’accès et de récupération, risque de production en procédure (discovery), utilisation éventuelle des données pour l’entraînement, existence de droits à suppression. Comme ces paramètres sont souvent fixés par le prestataire plutôt que par le cabinet, l’avocat doit, lorsque c’est pertinent, informer le client des risques de perte de confidentialité et de privilège, a fortiori si le client utilise ses propres outils.

Sur la compétence professionnelle, le texte rappelle deux exigences pratiques. Premièrement, l’avocat ne doit pas se reposer sur les sorties de l’IA : tout enregistrement, toute transcription et tout résumés destinés à être conservés ou susceptibles d’être invoqués ultérieurement doivent être relus et vérifiés par l’avocat afin d’en assurer l’exactitude. Le document vise explicitement le risque que l’IA introduise des erreurs, mais aussi le risque plus subtil que la formalisation écrite donne une importance accrue à des propos informels ou à un conseil donné « à chaud », et recommande une revue rapide après production pour corriger, nuancer ou compléter si nécessaire. Deuxièmement, la compétence implique une compréhension réelle des outils : savoir comment ils fonctionnent, connaître les conditions contractuelles, maîtriser les réglages (notamment désactiver un enregistrement activé par défaut), et prévoir la conduite à tenir en cas d’enregistrement involontaire (par exemple suppression, avec l’accord du client).

L’opinion traite enfin de la gouvernance interne: les règles relatives à la supervision exigent que les avocats encadrant des collaborateurs et du personnel assurent une formation spécifique sur l’usage des outils IA et sur les obligations associées, ainsi qu’une supervision continue. Autrement dit, la question n’est pas seulement individuelle (le choix de l’avocat) mais organisationnelle (politiques du cabinet, paramétrage des outils, procédures de contrôle).

Lorsque l’initiative vient du client, l’opinion décrit une zone de risque accrue, car l’avocat ne maîtrise ni l’outil, ni ses paramètres de sécurité, ni l’accès aux enregistrements/transcriptions/résumés, ce qui peut empêcher l’avocat d’assurer les devoirs rappelés plus haut. Elle souligne en particulier un risque de contentieux ultérieur si le client s’appuie sur un résumé généré par son outil sans que l’avocat ait pu le relire et en valider l’exactitude. L’opinion privilégie donc une clarification contractuelle dès le début de la relation : idéalement, obtenir l’accord du client pour ne pas utiliser d’outil d’enregistrement/transcription/synthèse sans notification préalable à l’avocat, ou pour recourir uniquement aux outils choisis/contrôlés par le cabinet. Si le client insiste pour utiliser un outil non approuvé, plusieurs réponses sont envisagées: demander que la conversation ne soit pas enregistrée; insérer dans la convention d’honoraires une clause indiquant que tout enregistrement/transcription/résumé généré par l’outil du client ne sera pas considéré comme opposable ou déterminant à l’égard de l’avocat tant qu’il n’a pas été communiqué rapidement pour permettre une vérification indépendante; et avertir le client des risques spécifiques pour la confidentialité et le privilège puisque le stockage et la sécurité seront hors contrôle du cabinet.

En synthèse, l’opinion ne proscrit pas l’usage de l’IA pour ces tâches mais encadre fortement la pratique: consentement préalable du client dès qu’il y a enregistrement, analyse au cas par cas de l’opportunité tactique et des risques (secret, privilège, conservation, exposition procédurale), vérification humaine systématique des transcriptions et résumés destinés à être conservés ou utilisés, maîtrise technique minimale des outils et de leurs réglages, et, lorsque le client utilise ses propres outils, mise en place de garde-fous contractuels et d’avertissements explicites afin de limiter les malentendus et les risques de confidentialité.

Committee on Professional Ethics, The New York City Bar Association, Formal Opinion 2025-6: Ethical Issues Affecting Use Of Ai To Record, Transcribe, And Summarize Conversations With Clients, 22 décembre 2025

(Source : https://www.nycbar.org/reports/formal-opinion-2025-6-ethical-issues-affecting-use-of-ai-to-record-transcribe-and-summarize-conversations-with-clients/#:~:text=The%20Professional%20Ethics%20Committee%20%28Michael%20E.%20Salzman%2C%20Chair%29,transcribe%20and%20create%20a%20summary%20of%20the%20conversation)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des Données

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

A propos de Walker, Christina and Walker, Christina and Birrer, Alena and Birrer, Alena and Wack, Morgan and Wack, Morgan and Schiff, Kaylyn and Schiff, Daniel and Messina, JP, Beyond Deception: A Functional Typology of Political Deepfakes (November 03, 2025). (Available at SSRN: https://ssrn.com/abstract=5717943. Voir aussi : https://www.techpolicy.press/scrutinizing-the-many-faces-of-political-deepfakes/):

L’article part du constat que la recherche et le débat public traitent souvent les deepfakes politiques comme s’ils étaient surtout des vidéos très réalistes destinées à tromper l’électeur et à provoquer un scandale. Or, dans les faits, les usages observés sont beaucoup plus variés.

Les auteurs prennent comme point de départ des épisodes concrets, par exemple des vidéos attribuées au président Zelensky diffusées en 2023, dont certaines étaient des parodies grossières, d’autres de la propagande peu efficace, et quelques-unes réellement trompeuses.

Cette diversité crée un angle mort si l’on reste dans une logique binaire “authentique vs. mensonger” : on risque de sur-réglementer des contenus expressifs ou satiriques, et de sous-préparer les réponses aux contenus réellement dangereux. Ils rappellent aussi que les deepfakes ne menacent pas seulement par leur capacité à convaincre, mais aussi par leur capacité à installer le doute et à offrir un “prétexte au mensonge” : un acteur pris en défaut peut rejeter une preuve authentique en affirmant qu’il s’agit d’un faux, ce qui fragilise l’écosystème informationnel et la confiance collective.

Pour dépasser cette vision réductrice, les auteurs proposent une typologie fonctionnelle, conçue pour décrire comment un deepfake politique “fonctionne” dans la communication politique, plutôt que de présumer son effet.

Ils retiennent une définition large du deepfake politique : un contenu audio, image ou vidéo, partiellement ou totalement synthétique, dont le but ou l’effet est d’influencer des acteurs, des institutions ou des processus politiques ; cette définition inclut aussi des manipulations simples (“cheapfakes”) et ne suppose pas nécessairement l’usage de techniques de deep learning. Point important pour des juristes : l’unité d’analyse n’est pas seulement le fichier (la vidéo ou l’image), mais “l’instance de partage” — le même contenu peut être classé différemment selon qui le diffuse, avec quel texte d’accompagnement, dans quel contexte et via quel canal.

La typologie est organisée en cinq dimensions qui se combinent :

La première, le contenu, décrit ce que montre le deepfake pris isolément : qui ou quoi est visé (un politicien, un groupe, une institution, un processus comme le vote, un enjeu, etc.), le “genre” (divertissement/expressif, éducatif, propagande, mobilisation symbolique, publicité, rumeur/gossip, contenu incohérent), le contexte suggéré (scandale, crime, crise, élection, guerre, relations internationales, enjeux touchant des groupes marginalisés, débats sur la régulation des deepfakes, etc.), le ton du créateur envers la cible (positif, négatif, neutre/ambigu), et d’éventuels dommages représentés (violence, haine, stéréotypes, atteintes à des normes démocratiques, ou aucun).

La deuxième dimension, le design, décrit la “fabrication” : support (audio/image/vidéo), techniques (montage simple, échange de visage, génération par modèle, clonage de voix, découpage/assemblage audio ou vidéo), degré de réalisme (réaliste, “étrange”, exagéré, stylisé type mème), et part de synthèse (entièrement synthétique, surtout synthétique, surtout authentique, authentique). Les auteurs insistent sur un point contre-intuitif mais utile en pratique : réalisme et sophistication technique ne se confondent pas, car des manipulations simples peuvent paraître crédibles, tandis que des contenus entièrement générés peuvent être volontairement caricaturaux.

La troisième dimension, l’intentionnalité, vise ce que cherche à obtenir le diffuseur au moment du partage : persuasion politique, promotion de théories complotistes, divertissement, marketing, propagation d’un récit/rumeur, ou démarche éducative (sensibilisation), ainsi que le ton du diffuseur envers la cible et l’éventuel “timing” stratégique (publication calée sur un événement très visible).

La quatrième dimension, la divulgation, décrit si et comment le caractère synthétique est signalé : qui divulgue (créateur/diffuseur, plateforme, concepteur du modèle via filigrane ou métadonnées, ou personne), où (dans le contenu, dans le texte du post, ailleurs), sous quelle forme (texte, marque visuelle, métadonnées, autre), avec quelle visibilité (élevée à nulle) et quel degré de formalisme.

La cinquième dimension, la dissémination, porte sur la circulation : type d’acteur (célèbre ou non hors ligne, grand ou petit nombre d’abonnés en ligne), type de plateforme (interactive ou non, one-to-many ou one-to-one), et schéma de diffusion (coordonné ou non, automatisé ou non).

Pour montrer l’intérêt concret de cette grille, l’article l’applique à 70 cas “saillants” observés autour de l’élection présidentielle américaine de 2024, collectés dans une fenêtre de quatre semaines (deux semaines avant et deux après) selon une base d’incidents dédiée.

Résultat principal : le scénario souvent redouté d’une vague de deepfakes hyperréalistes, négatifs et massivement diffusés n’est pas ce qui domine dans cet échantillon.

La plupart des contenus visent un individu politique (environ 86%), relèvent du registre expressif/divertissant (environ 84%), sont des images plutôt que des vidéos (environ 84%), et sont fréquemment stylisés en “mèmes” (environ 43% dans la catégorie “mème-ifié”). Les contenus créés avec des outils de génération avancés sont majoritaires (près de 89%), et une large part est entièrement synthétique (environ 80%).

Sur le fond, les deepfakes pro-cible sont au moins aussi fréquents que les deepfakes anti-cible : environ la moitié expriment un ton positif envers la personne représentée, contre un peu plus de 40% négatifs (le reste étant neutre ou ambigu). Autre point saillant pour des praticiens : la divulgation est le plus souvent absente (dans environ 86% des cas), et la diffusion provient majoritairement de comptes peu connus avec peu d’abonnés (environ 76%), ce qui suggère une production abondante mais pas nécessairement portée par des acteurs institutionnels très visibles.

Les auteurs proposent ensuite une classification simplifiée en 2×2 pour parler plus clairement des familles de deepfakes, en croisant le réalisme (réaliste vs. non réaliste) et le ton (positif vs. négatif). Cela donne quatre catégories : des deepfakes réalistes et négatifs (“darkfakes”), qui correspondent au cas le plus “inquiétant” dans l’imaginaire public, mais qui ne représentent ici qu’une petite minorité (de l’ordre de 10–12% selon le comptage présenté) et proviennent uniquement de comptes à faible audience ; des deepfakes réalistes et positifs (“glowfakes”), également rares (environ 10%) ; des deepfakes non réalistes et positifs (“fanfakes”), les plus fréquents (environ 43–44%), qui valorisent un candidat comme dans une fiction de fan ; et des deepfakes non réalistes et négatifs (“foefakes”), aussi fréquents (environ 35%), qui caricaturent l’adversaire, souvent sur un mode narratif ou culturel (héros/vilains).

Le message sous-jacent est que l’essor d’outils puissants ne se traduit pas mécaniquement par davantage de contenus trompeurs : dans cet échantillon, la génération avancée est souvent mobilisée pour des productions positives, expressives ou satiriques, tandis que des attaques peuvent passer par des montages plus simples, parfois plus “contrôlables” pour atteindre un effet précis.

Dans la discussion, les auteurs soulignent que la typologie sert d’abord à créer un langage commun pour comparer des cas, mesurer des tendances et concevoir des réponses proportionnées. Ils reconnaissent aussi des limites importantes : données surtout anglophones, centrées sur des plateformes et une période spécifiques, et classification qui comporte une part de jugement.

Surtout, ils insistent sur la difficulté à mesurer l’impact réel : il est plus facile de catégoriser des impacts possibles que de prouver ce qui a effectivement changé dans l’opinion ou dans un résultat électoral. Ils ajoutent donc, en complément, une sous-typologie des impacts qui distingue le type d’impact (réputationnel, électoral, institutionnel, cohésion sociale, réglementaire, éducatif), l’échelle (de l’individu à la société), la probabilité (réalisé, plausible, spéculatif) et la temporalité (immédiat, différé, durable). Un point utile pour la gouvernance est l’idée que les dommages les plus importants peuvent être cumulatifs et systémiques : même des contenus “mèmes” apparemment peu dangereux peuvent, par accumulation, contribuer à éroder la confiance, à brouiller les repères et à polariser durablement, ce qui n’est pas bien traité par des réponses focalisées sur chaque incident pris isolément.

Sur le plan pratique, la proposition centrale est de mieux “instrumenter” l’observation : incident reporting plus standardisé, analyses comparables entre pays et événements, et réponses plus ciblées selon les profils (par exemple, distinguer les contenus réalistes sans divulgation, diffusés de manière coordonnée, des contenus ouvertement satiriques). Pour les plateformes et régulateurs, l’article suggère qu’une politique efficace ne peut pas se limiter à traquer l’hyperréalisme trompeur ; elle doit aussi tenir compte des usages expressifs, de l’absence fréquente de divulgation, des canaux de diffusion (y compris one-to-one), et du risque d’effets cumulatifs.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Droit de la protection des données

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

Quelques réflexions tirées du livre blanc de nLighten, Où se trouvent vraiment vos données ?, (accessible ici : https://www.nlighten.com/fr/whitepapers/ou-se-trouvent-vraiment-vos-donnees/):

Le livre blanc explique que, dans l’économie numérique, la question déterminante n’est plus seulement « où » les données sont stockées, mais surtout « qui » peut y accéder et sous l’égide de quel droit.

Il part d’un constat opérationnel : beaucoup d’organisations ne savent pas précisément où résident leurs données, quels acteurs techniques y ont accès et quel cadre juridique s’applique en pratique.

Dans la perspective européenne présentée, l’Union redéfinit la confiance numérique autour d’un principe de contrôle effectif : les données liées à des personnes en Europe doivent rester gouvernées par des règles européennes, non seulement sur le papier mais dans la réalité technique et contractuelle. Cette orientation est rattachée au droit fondamental à la protection des données (Charte des droits fondamentaux, art. 8) et au RGPD, dont la portée territoriale peut s’étendre à des organisations situées hors UE lorsqu’elles traitent des données de personnes se trouvant dans l’UE (notamment via l’offre de biens/services ou le suivi de comportement).

Le document insiste ensuite sur une distinction souvent mal comprise mais centrale pour les décisions cloud : la résidence des données et la souveraineté des données ne sont pas la même chose.

La résidence renvoie au lieu physique où les données sont stockées ou traitées.

La souveraineté renvoie à la juridiction qui régit l’accès, les obligations et, surtout, la capacité d’une autorité étrangère à exiger un accès, même si les données sont physiquement en Europe.

Autrement dit, héberger « en UE » ne suffit pas si le fournisseur ou la chaîne de sous-traitance reste soumis à des lois étrangères susceptibles d’imposer une divulgation, ou de créer un risque d’accès incompatible avec les exigences européennes. Le message est simple : la localisation est un élément, mais le contrôle juridique et technique est l’enjeu décisif.

Dans cette logique, la publication décrit un durcissement de l’application des règles en Europe : les autorités de protection des données seraient passées d’une posture principalement pédagogique à une approche plus coercitive, centrée sur les transferts internationaux, la responsabilité du responsable de traitement et la capacité à démontrer des garanties effectives. Elle cite des exemples emblématiques de sanctions et de mesures correctrices.

Elle souligne surtout que, pour une entreprise, le risque ne se limite pas à l’amende : une injonction de cesser d’utiliser un outil ou un service peut désorganiser une activité, imposer une migration en urgence, interrompre des fonctions critiques (mesure d’audience, messagerie, relation client) et créer un choc de conformité avec des effets commerciaux et réputationnels.

Le socle juridique européen mis en avant articule plusieurs instruments qui convergent vers un message unique : les transferts et les accès transfrontaliers doivent être maîtrisés et, lorsque des lois étrangères créent un risque d’accès disproportionné, des mesures supplémentaires deviennent nécessaires. Le RGPD encadre strictement les transferts (art. 44 à 49) et prévoit des sanctions élevées. Les recommandations 01/2020 du Comité européen de la protection des données sont présentées comme une méthode pratique : évaluer la législation du pays tiers, apprécier le niveau de protection réel et, si besoin, compléter les garanties (techniques, organisationnelles, contractuelles). À ce cadre s’ajoutent, selon la publication, l’EU Data Act, le Cybersecurity Act (avec une logique de certification des services TIC et cloud), et le programme « Digital Decade » qui fixe une ambition d’infrastructure européenne « sécurisée, souveraine et durable ».

L’ensemble est décrit non comme un empilement théorique, mais comme une orientation politique et réglementaire cohérente : réduire la dépendance juridique et technique à des acteurs soumis à des juridictions non européennes.

Un point important du document est la critique du « mythe de l’hébergement européen ».

L’idée qu’un centre de données situé dans l’UE garantirait automatiquement la conformité est qualifiée de dangereuse, car elle ignore la dimension de juridiction applicable au fournisseur, à l’opérateur, aux prestataires et à la chaîne de sous-traitance.. L’argument, tel que formulé, est que la souveraineté n’est plus une conformité « de niche », mais un facteur de résilience et de compétitivité, notamment pour les usages sensibles (IA, santé, finance, industrie connectée).

Pour rendre la notion opérationnelle, la publication propose une approche « full-stack » en trois couches, qui vise à passer du droit écrit à une architecture de conformité intégrée. Première couche, l’infrastructure : centres de données situés et détenus dans l’UE, alignement sur des normes de sécurité et de conception (le document cite ISO 27001 et EN 50600), et prise en compte d’exigences de durabilité. Deuxième couche, la plateforme : services cloud/SaaS sous juridiction européenne, maîtrise des clés de chiffrement dans l’UE, gestion du cycle de vie des données, et portabilité/interopérabilité conformément à l’esprit du Data Act afin d’éviter l’enfermement chez un fournisseur. Troisième couche, la gouvernance et la preuve : analyses d’impact sur la protection des données (AIPD) menées de façon continue, analyses d’impact sur les transferts lorsque des sous-traitants hors UE interviennent, et clauses contractuelles assurant la primauté du droit européen dans toute sous-traitance. L’idée directrice est qu’une entreprise doit pouvoir démontrer, de façon vérifiable, où circulent les données, quelles mesures réduisent le risque d’accès illégal, et comment elle conserve une capacité de contrôle.

Enfin, il faut relever quand même que le document a aussi une dimension de positionnement commercial pour son auteur, mais il explique bien le faux sentiment de sécurité qui résulterait de la seule localisation des données (à supposer qu’elle fusse complètement possible).

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Meilleurs vœux pour 2026!

Publié dans Divers | Tagué , , , | Laisser un commentaire

La surveillance automatisée des employés dans le secteur logistique

Par une décision du 23 décembre 2025 (n° 492830), le Conseil d’État statue sur le recours d’Amazon France Logistique contre la délibération SAN-2023-021 du 27 décembre 2023 par laquelle la formation restreinte de la CNIL avait prononcé une amende administrative de 32 millions d’euros, assortie d’une mesure de publicité. La sanction faisait suite à des contrôles menés en novembre 2019 dans des locaux administratifs et deux entrepôts, puis à des échanges contradictoires.

La CNIL avait retenu plusieurs manquements au fondement de licéité (article 6, §1, f) RGPD – intérêt légitime), plusieurs manquements au principe de minimisation (article 5, §1, c) RGPD), deux manquements à l’information (articles 12 et 13 RGPD) et un manquement à la sécurité (article 32 RGPD). Devant le Conseil d’État, Amazon demandait principalement l’annulation de la décision de sanction en tant qu’elle retenait des manquements aux articles 5 et 6 et prononçait une sanction en conséquence, subsidiairement une réduction de l’amende, et sollicitait un renvoi préjudiciel à la CJUE sur l’interprétation du RGPD.

Le Conseil d’État commence par cadrer l’examen des griefs relatifs à l’article 6, §1, f) RGPD. Il écarte d’abord l’argument selon lequel la CNIL aurait considéré les salariés et intérimaires comme « personnes vulnérables » au sens du considérant 75 du RGPD pour opérer la mise en balance entre intérêt légitime et droits des personnes : il constate que, dans la délibération, la référence à une vulnérabilité n’intervenait que pour justifier la publicité de la sanction, et non pour caractériser le manquement servant de base à l’amende.

Il examine ensuite trois indicateurs de suivi de l’activité des salariés, que la CNIL avait jugés disproportionnés et donc dépourvus de base juridique au titre de l’intérêt légitime. S’agissant d’abord de l’indicateur « stow machine gun », la CNIL avait vu un dispositif particulièrement intrusif, assimilable à une surveillance continue « à la seconde » des gestes et délais sur les tâches « directes », allant au-delà des attentes raisonnables des salariés et portant atteinte à la vie privée et aux conditions de travail respectueuses de la santé et de la sécurité.

Le Conseil d’État réévalue les faits : l’indicateur n’est activé que pour une tâche spécifique de rangement (l’une des quatre tâches « directes »), et ne se déclenche que lorsque moins de 1,25 seconde sépare deux lectures de codes-barres, afin de signaler une succession anormalement rapide de gestes pouvant révéler une erreur de manipulation ou de rangement. Dans cette configuration, il juge que l’indicateur ne peut pas être regardé comme imposant des contraintes de vitesse portant atteinte aux droits des salariés, qu’il demeure compatible avec ce qu’un employeur logistique peut raisonnablement attendre, et qu’il sert un intérêt légitime reconnu (qualité et sécurité des processus). Il en déduit une erreur d’appréciation de la CNIL : le traitement en temps réel de cet indicateur n’est pas dépourvu de base juridique au titre de l’article 6, §1, f).

Le Conseil d’État procède de manière analogue pour l’indicateur « idle time » (temps d’inactivité), que la CNIL critiquait notamment pour des finalités de gestion des stocks/commandes, de support immédiat au salarié, de contrôle du temps de travail, de formation et d’évaluation. Il relève que cet indicateur ne se déclenche qu’au-delà de dix minutes consécutives d’inactivité du scanner portatif, qu’il n’est pas émis pour des inactivités plus courtes, même répétées, et qu’il n’a pas vocation à encadrer les pauses légales ou conventionnelles. Le Conseil d’État admet que l’outil peut avoir un effet sur la sphère personnelle, car un salarié peut être amené à expliquer certaines interruptions (parfois liées à sa vie privée), mais estime que, compte tenu du seuil de déclenchement et des finalités invoquées, l’atteinte n’est pas excessive. Là encore, il retient une erreur d’appréciation : pas de manquement à l’article 6, §1, f) sur ce point.

Enfin, pour l’indicateur « temps de latence », mesurant de l’inactivité en début et fin de journée et autour des périodes de pause, le Conseil d’État insiste sur le fait qu’il n’est traité que pendant une durée limitée immédiatement avant ou après les pauses, périodes où les salariés peuvent répondre à des impératifs personnels. Il juge qu’il ne porte pas une atteinte excessive à la vie privée ni aux conditions de travail, et réforme également la délibération en tant qu’elle y voyait une absence de base légale pour la gestion des stocks et des commandes.

L’issue sur l’article 6 est donc nette : les trois traitements en temps réel précités ne peuvent être qualifiés de traitements disproportionnés dépourvus de fondement au titre de l’intérêt légitime, contrairement à l’analyse de la CNIL.

Le Conseil d’État examine ensuite les manquements au principe de minimisation (article 5, §1, c) RGPD) tels que retenus par la CNIL, centrés sur la conservation, de manière indifférenciée, d’un ensemble d’indicateurs de qualité et de productivité pendant 31 jours. Les finalités invoquées par Amazon étaient notamment la réaffectation et le conseil/accompagnement des salariés, la planification du travail, et l’établissement de rapports hebdomadaires de performance incluant des statistiques de qualité/productivité ainsi que des données brutes relatives à des erreurs qualité.

Le Conseil d’État rappelle la logique de responsabilité (« accountability ») : il appartient au responsable de traitement de démontrer la nécessité des données et de la durée de conservation au regard des finalités. Il constate qu’Amazon n’établit pas la nécessité, pour ces différentes finalités, de conserver chacun des indicateurs litigieux pendant une durée aussi longue de 31 jours, et valide l’analyse de disproportion portant à la fois sur la nature, le nombre et le niveau très élevé de précision des données conservées, ainsi que sur la durée. Il ajoute un point méthodologique important : dans le contrôle de la minimisation, la CNIL n’était pas tenue de rechercher si un traitement moins volumineux ou sur une durée plus courte aurait été « aussi efficace » pour l’entreprise ; la charge de la démonstration de la nécessité pèse sur le responsable. Le manquement à l’article 5 est donc confirmé.

Sur la sanction, le Conseil d’État rappelle le cadre applicable : l’article 20, IV, 7° de la loi « Informatique et Libertés » renvoie aux critères de l’article 83 RGPD, et les amendes doivent être effectives, proportionnées et dissuasives, dans les plafonds prévus (notamment pour les manquements aux articles 5 et 6). Il statue d’abord sur la motivation : la formation restreinte devait énoncer les considérations de droit et de fait fondant sa décision, sans qu’un texte impose de détailler une « formule de calcul » chiffrée du montant ; la motivation n’était donc pas insuffisante du seul fait de l’absence d’explicitation arithmétique. Il écarte aussi le grief d’ambiguïté : lorsque seuls certains traitements ont été sanctionnés, la délibération indique que l’amende se fonde, pour les finalités de suivi/évaluation, uniquement sur ceux expressément condamnés.

Le Conseil d’État traite ensuite la condition de faute pour infliger une amende, en se référant à l’interprétation de la CJUE : l’imposition d’une amende suppose une violation « fautive » (délibérée ou par négligence), et un responsable peut être sanctionné s’il ne pouvait ignorer le caractère infractionnel de son comportement, même sans conscience explicite d’enfreindre le RGPD. Il juge que, compte tenu du volume important de données conservées et de l’incapacité d’Amazon à démontrer la nécessité de la durée de 31 jours, la CNIL pouvait caractériser une négligence grave à l’égard d’un principe fondamental (minimisation), et que la société ne pouvait ignorer le caractère infractionnel. Il précise enfin que le caractère « inédit » des traitements n’a pas été utilisé par la CNIL comme un facteur aggravant autonome, mais seulement au titre de l’appréciation de la nature, gravité et durée au sens de l’article 83.

Vient alors l’étape de la réformation du montant de la sanction.

Le Conseil d’État tire ici les conséquences de ce qu’il vient de juger sur l’article 6 : les traitements en temps réel des indicateurs « stow machine gun », « idle time » et « temps de latence » ne constituent pas des manquements au fondement de licéité. En revanche, le manquement de minimisation lié à la conservation indifférenciée sur 31 jours est confirmé. Il relève aussi qu’Amazon ne contestait pas d’autres manquements retenus par la CNIL, qui restent donc acquis dans le litige : défaut d’information des intérimaires sur la politique de confidentialité RH (articles 12 et 13), insuffisance d’information sur la vidéosurveillance dans deux entrepôts (article 13), et insuffisances de sécurisation de l’accès au logiciel de vidéosurveillance pour certaines caméras (article 32, avec deux manquements).

Compte tenu de cet ensemble, mais en l’absence des manquements à l’article 6 qui avaient contribué à fonder le niveau de la sanction initiale, le Conseil d’État ramène l’amende de 32 millions à 15 millions d’euros, en estimant qu’il s’agit d’une « juste appréciation » des circonstances. Il rejette la demande de renvoi préjudiciel à la CJUE, faute de doute raisonnable sur l’interprétation des règles en cause.

Enfin, le Conseil d’État tire les conséquences de la réformation sur la publicité : la décision, qui modifie le montant, implique que la CNIL assure la publication de la décision du Conseil d’État selon les mêmes modalités que celles retenues pour la délibération initiale. Il met à la charge de la CNIL 3 000 euros au titre des frais irrépétibles, et rejette le surplus des conclusions d’Amazon.

La portée pratique de l’arrêt tient donc à un double mouvement : d’une part, un contrôle concret de proportionnalité au stade de l’intérêt légitime, avec une lecture factuelle fine des conditions de déclenchement et de la finalité opérationnelle d’indicateurs en temps réel en environnement logistique ; d’autre part, une confirmation exigeante de l’« accountability » en matière de minimisation et de durées de conservation, l’entreprise devant démontrer la nécessité de la conservation pour chaque finalité invoquée.

(Conseil d’État 492830, lecture du 23 décembre 2025, ECLI:FR:CECHR:2025:492830.20251223 ; https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2025-12-23/492830)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Publié dans droit européen, droit français, intelligence artificielle, Protection des données, RGPD | Tagué , , , , , , | Laisser un commentaire