Category Archives: Protection des données

Le recrutement automatisé vu du Royaume-Uni

Dans le recrutement, beaucoup d’employeurs présentent les outputs de systèmes d’IA comme de simples aides alors que cela constitue en réalité des décisions automatisées, faute d’intervention humaine réelle. Il existe des lacunes fréquentes sur l’information donnée aux candidats concernant le contrôle des biais, les analyses d’impact et le choix de la base juridique. L’automatisation reste possible et utile, mais elle doit être mieux qualifiée, mieux expliquée et entourée de garanties effectives, notamment un vrai droit de contestation. Lire la suite

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , | Laisser un commentaire

Tarification algorithmique : repenser l’équité des prix

L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite

Publié dans discrimination, Droit US, intelligence artificielle, Protection des données | Tagué , , , , | Laisser un commentaire

Biais algorithmique : le juge entre protection des données et non-discrimination

Comment les juridictions de l’UE traitent-elles les biais algorithmiques à la lumière du droit de la non-discrimination ? Il faut distinguer la discrimination, juridiquement encadrée, du simple biais. Il existe une typologie des décisions judiciaires selon leur prise en compte ou non du risque discriminatoire. Empiriquement, les juges mobilisent surtout le droit des données, plus accessible, mais celui-ci ne remplace pas le droit de la non-discrimination, nécessaire pour qualifier et sanctionner les inégalités. Lire la suite

Publié dans droit européen, droits fondamentaux, intelligence artificielle, Libertés, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

La protection des données après la mort ?

Quid de la protection des données après le décès dans un contexte numérique ? Le RGPD exclut les personnes décédées, laissant aux États des approches diverses. Trois enjeux : nature des droits (succession ou droit propre des proches), prise en compte de la volonté du défunt, et exercice des droits par les survivants. Les solutions varient fortement en Europe. En Suisse, toute règle spécifique a été abandonnée lors de la révision de la LPD, créant un vide. Une évolution future apparaît toutefois probable, notamment en lien avec la réforme des successions. Lire la suite

Publié dans droit européen, droits fondamentaux, nouvelle LPD, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , , | Laisser un commentaire

Les conditions d’utilisation des réseaux sociaux

Sur les grandes plateformes sociales, le consentement est surtout intégré aux conditions d’utilisation, mais dans des conditions peu satisfaisantes. Ces textes sont trop longs, difficiles à lire et souvent vagues sur les données collectées, leur partage, leur durée de conservation et les choix réels offerts à l’utilisateur. En pratique, l’utilisateur accepte pour accéder au service, sans véritable option distincte ni retrait simple. Les conditions d’utilisations servent davantage à protéger la plateforme qu’à permettre un consentement réellement libre et éclairé. Lire la suite

Publié dans Conditions d'utilisation, intelligence artificielle, Protection des données, réseaux sociaux | Tagué , , | Laisser un commentaire

Lunettes de réalité augmentée et protection des données

L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Données personnelles : pseudonymisation ou anonymisation?

Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Action publique, aide sociale et systèmes de décision algorithmique

La promesse d’harmoniser les décisions publiques par des outils algorithmiques est souvent exagérée. Dans le cas belge REDI (aide sociale), l’outil standardise certains calculs mais n’a que peu réduit les différences constatées précédemment entre communes. Les effets dépendent surtout du contexte : contraintes de financement, règles internes, et désaccords des travailleurs sociaux sur ce qui est juste. Les agents adaptent, limitent ou contournent l’outil, ce qui réduit l’harmonisation attendue. Lire la suite

Publié dans AVS et assurances sociales, droit européen, intelligence artificielle, Libertés, Protection des données | Tagué , , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire