Tag Archives: protection des données

Biais algorithmique : le juge entre protection des données et non-discrimination

Comment les juridictions de l’UE traitent-elles les biais algorithmiques à la lumière du droit de la non-discrimination ? Il faut distinguer la discrimination, juridiquement encadrée, du simple biais. Il existe une typologie des décisions judiciaires selon leur prise en compte ou non du risque discriminatoire. Empiriquement, les juges mobilisent surtout le droit des données, plus accessible, mais celui-ci ne remplace pas le droit de la non-discrimination, nécessaire pour qualifier et sanctionner les inégalités. Lire la suite

Publié dans droit européen, droits fondamentaux, intelligence artificielle, Libertés, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Preuve en matière de discrimination : limites à la communication de données de tiers ?

Le droit à la preuve peut justifier la communication de documents contenant des données personnelles de tiers, notamment pour établir une discrimination. La communication n’est licite que si elle est indispensable et proportionnée. Le juge doit vérifier la nécessité des pièces, limiter leur périmètre et veiller au respect du RGPD, en particulier au principe de minimisation. Les données non utiles doivent être occultées et leur usage strictement encadré par le juge. Lire la suite

Publié dans discrimination, droit français, droits fondamentaux, Egalité femmes-hommers, intelligence artificielle, Procédure | Tagué , , , , | Laisser un commentaire

Les conditions d’utilisation des réseaux sociaux

Sur les grandes plateformes sociales, le consentement est surtout intégré aux conditions d’utilisation, mais dans des conditions peu satisfaisantes. Ces textes sont trop longs, difficiles à lire et souvent vagues sur les données collectées, leur partage, leur durée de conservation et les choix réels offerts à l’utilisateur. En pratique, l’utilisateur accepte pour accéder au service, sans véritable option distincte ni retrait simple. Les conditions d’utilisations servent davantage à protéger la plateforme qu’à permettre un consentement réellement libre et éclairé. Lire la suite

Publié dans Conditions d'utilisation, intelligence artificielle, Protection des données, réseaux sociaux | Tagué , , | Laisser un commentaire

Lunettes de réalité augmentée et protection des données

L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Quand la protection des données se perd dans le droit du travail

Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite

Publié dans droit européen, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire

L’IA peut-elle désapprendre ce qu’elle a appris ? Le désapprentissage machine

L’article de A. Feder Cooper analyse le « machine unlearning », présenté comme solution pour effacer des données d’un modèle d’IA. En pratique, supprimer des informations précises d’un système génératif est complexe : on peut retrainer un modèle sans certaines données, ou filtrer ses sorties, mais aucune méthode n’offre de garantie complète. Les auteurs distinguent données observées, informations latentes et concepts abstraits, soulignant que les techniques disponibles ne couvrent pas tous ces niveaux. Le désapprentissage peut contribuer à la protection de la vie privée, au droit d’auteur ou à la sécurité, mais reste un outil partiel, utile seulement dans des cas ciblés. Lire la suite

Publié dans droit d'auteur, intelligence artificielle, Protection des données, Techno-labrador | Tagué , , , , | Laisser un commentaire