Category Archives: Protection de la personnalité

Lunettes de réalité augmentée et protection des données

L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Données personnelles : pseudonymisation ou anonymisation?

Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

L’IA qui prédit le crime avant qu’il ne se réalise?

Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite

Publié dans discrimination, droit européen, Droit pénal, intelligence artificielle, Protection de la personnalité | Laisser un commentaire

Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

La numérisation et l’IA transforment l’organisation du travail, avec deux risques majeurs: l’hyper-connexion qui efface la frontière vie privée/vie professionnelle et favorise surcharge et atteintes à la santé, et l’opacité et les biais des algorithmes utilisés en RH. Il convient de reconnaître deux droits subjectifs opposables : un droit général à la déconnexion et un droit à une supervision humaine réelle des décisions ou outils algorithmiques. Lire la suite

Publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung

Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection de la personnalité | Tagué , , , | Laisser un commentaire

Quand la protection des données se perd dans le droit du travail

Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite

Publié dans droit européen, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire

Les compétences comportementales dans l’évaluation des salariés

La Cour de cassation (15 oct. 2025, n° 22-20.716) confirme l’illicéité du dispositif d’« entretien de développement individuel » de la société Laitière de Vitré. Les critères comportementaux utilisés (« bon sens », « optimisme », « honnêteté ») sont jugés trop vagues et subjectifs, sans lien suffisant avec l’activité professionnelle. L’évaluation des salariés doit reposer sur des critères précis, objectifs et pertinents, strictement liés aux compétences professionnelles. Lire la suite

Publié dans droit français, Protection de la personnalité | Tagué , , , , , | Laisser un commentaire