Category Archives: Protection des données

Les outils IA de traduction dans le secteur de la santé

L’étude de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, analyse l’usage d’outils de traduction IA (Google Translate, ChatGPT) dans le secteur de la santé. Elle relève des risques majeurs : confidentialité des données de santé, traductions inexactes compromettant information et consentement, inégalités selon les langues et accents, et flou sur la responsabilité en cas de dommage. Le droit européen (RGPD, MDR, AI Act) protège partiellement car ces outils généralistes échappent souvent aux règles des dispositifs médicaux. Les auteurs prônent une gouvernance stricte : usage proportionné, vérification humaine, formation, et solutions mieux maîtrisées. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

Le Comité d’éthique professionnelle du barreau de NY a publié une « opinion » traitant de l’impact des règles de déontologie professionnelle sur les appels audio et vidéo entre les avocats et leurs clients, lorsque l’avocat ou le client souhaite utiliser un outil d’intelligence artificielle (IA) pour enregistrer, transcrire et créer un résumé de la conversation. Les avocats sont libres de choisir de ne pas utiliser l’IA pour enregistrer ces conversations, mais le fait de choisir de le faire crée d’importantes obligations éthiques. L’avis conclut qu’un avocat doit obtenir le consentement de son client avant d’enregistrer l’appel, qu’il doit déterminer si l’enregistrement, la transcription et la synthèse sont judicieux d’un point de vue tactique dans les circonstances particulières, notamment en ce qui concerne les questions de confidentialité et de privilège, et qu’il doit vérifier l’exactitude du travail produit s’il existe une possibilité que la transcription ou la synthèse soit conservée et potentiellement utilisée comme référence. Si un avocat sait qu’un client enregistre un appel à l’aide d’un outil d’IA, il doit informer le client des inconvénients d’une telle pratique. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

La surveillance automatisée des employés dans le secteur logistique

Le Conseil d’État (23.12.2025) réforme la sanction CNIL infligée à Amazon. Il juge que trois indicateurs de suivi en temps réel (« stow machine gun », « idle time », « latence »), déclenchés selon des seuils et finalités opérationnelles, ne sont pas disproportionnés et disposent d’une base légale d’intérêt légitime : pas de manquement à l’art. 6 RGPD. En revanche, il confirme un manquement à la minimisation (art. 5) lié à la conservation indifférenciée d’indicateurs sur 31 jours, ainsi que des manquements non contestés (information, sécurité). L’amende est réduite de 32 à 15 M€. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection des données, RGPD | Tagué , , , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Quand la protection des données se perd dans le droit du travail

Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite

Publié dans droit européen, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Le désapprentissage machine et le droit à l’effacement: difficultés pratiques

Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite

Publié dans intelligence artificielle, Protection des données, Techno-labrador | Tagué , , | Laisser un commentaire