Category Archives: discrimination

Tarification algorithmique : repenser l’équité des prix

L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite

Publié dans discrimination, Droit US, intelligence artificielle, Protection des données | Tagué , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Preuve en matière de discrimination : limites à la communication de données de tiers ?

Le droit à la preuve peut justifier la communication de documents contenant des données personnelles de tiers, notamment pour établir une discrimination. La communication n’est licite que si elle est indispensable et proportionnée. Le juge doit vérifier la nécessité des pièces, limiter leur périmètre et veiller au respect du RGPD, en particulier au principe de minimisation. Les données non utiles doivent être occultées et leur usage strictement encadré par le juge. Lire la suite

Publié dans discrimination, droit français, droits fondamentaux, Egalité femmes-hommers, intelligence artificielle, Procédure | Tagué , , , , | Laisser un commentaire

Régulation algorithmique et affaiblissement de l’Etat de droit – à propos de l’algorithmic rule by law

Lorsque l’administration applique le droit via des systèmes algorithmiques, cela entraîne des risques pour les mécanismes de l’Etat de droit. La traduction des règles en code n’est en effet pas neutre : elle fige des choix d’interprétation, déplace la discrétion vers l’amont, rigidifie l’application et peut amplifier des politiques injustes ou discriminatoires à grande échelle, avec opacité et de moindres voies de recours. Il faut donc traiter l’automatisation comme un choix normatif, renforcer contrôle, transparence, voies de contestation et contre-pouvoirs. Lire la suite

Publié dans discrimination, droit européen, intelligence artificielle, Libertés | Tagué , , , , | Laisser un commentaire

L’IA qui prédit le crime avant qu’il ne se réalise?

Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite

Publié dans discrimination, droit européen, Droit pénal, intelligence artificielle, Protection de la personnalité | Laisser un commentaire

Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

La numérisation et l’IA transforment l’organisation du travail, avec deux risques majeurs: l’hyper-connexion qui efface la frontière vie privée/vie professionnelle et favorise surcharge et atteintes à la santé, et l’opacité et les biais des algorithmes utilisés en RH. Il convient de reconnaître deux droits subjectifs opposables : un droit général à la déconnexion et un droit à une supervision humaine réelle des décisions ou outils algorithmiques. Lire la suite

Publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD | Tagué , , , , , | Laisser un commentaire

Les outils IA de traduction dans le secteur de la santé

L’étude de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, analyse l’usage d’outils de traduction IA (Google Translate, ChatGPT) dans le secteur de la santé. Elle relève des risques majeurs : confidentialité des données de santé, traductions inexactes compromettant information et consentement, inégalités selon les langues et accents, et flou sur la responsabilité en cas de dommage. Le droit européen (RGPD, MDR, AI Act) protège partiellement car ces outils généralistes échappent souvent aux règles des dispositifs médicaux. Les auteurs prônent une gouvernance stricte : usage proportionné, vérification humaine, formation, et solutions mieux maîtrisées. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Dépasser l’équité algorithmique

Le débat sur « l’équité des algorithmes » se trompe souvent de cible : les dommages viennent surtout de l’usage concret des systèmes (objectifs, procédures, recours, incitations), pas des seules métriques de biais. Se focaliser sur la discrimination occulte d’autres enjeux majeurs : perte de garanties procédurales, décisions fondées sur des risques futurs, impossibilité de contester, stigmatisation, et blocage de réformes structurelles. Il propose de penser des « bureaucraties algorithmiques » combinant règles, humains et outils, avec objectifs explicites, voies de contestation et évaluations orientées vers les effets réels. Lire la suite

Publié dans discrimination, intelligence artificielle, recrutement | Tagué , , , | Laisser un commentaire

Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung

Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection de la personnalité | Tagué , , , | Laisser un commentaire