Category Archives: intelligence artificielle

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Dépasser l’équité algorithmique

Le débat sur « l’équité des algorithmes » se trompe souvent de cible : les dommages viennent surtout de l’usage concret des systèmes (objectifs, procédures, recours, incitations), pas des seules métriques de biais. Se focaliser sur la discrimination occulte d’autres enjeux majeurs : perte de garanties procédurales, décisions fondées sur des risques futurs, impossibilité de contester, stigmatisation, et blocage de réformes structurelles. Il propose de penser des « bureaucraties algorithmiques » combinant règles, humains et outils, avec objectifs explicites, voies de contestation et évaluations orientées vers les effets réels. Lire la suite

Publié dans discrimination, intelligence artificielle, recrutement | Tagué , , , | Laisser un commentaire

Discriminatory automated recruitment assisted by artificial intelligence (AI)

AI-assisted automated recruitment can reproduce or exacerbate discrimination (based on gender, origin, age, disability). These systems, classified as high-risk systems, are subject to data protection law, which grants candidates certain rights (information, opposition to a solely automated decision, human review, communication of the underlying logic). These rights can be enforced in litigation, with certain practical difficulties, particularly with regard to procedural law. Lire la suite

Publié dans intelligence artificielle, nouvelle LPD, recrutement, RGPD | Tagué , , | Laisser un commentaire

Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung

Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection de la personnalité | Tagué , , , | Laisser un commentaire

Quand la protection des données se perd dans le droit du travail

Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite

Publié dans droit européen, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)

Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Et si l’IA corrigeait les examens en droit ?

Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Licencié pour avoir dénoncé des robots humanoïdes dangereux?

Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite

Publié dans Droit US, intelligence artificielle, Licenciement abusif | Tagué , , , , , | Laisser un commentaire

Les systèmes d’IA de transcription : gain de temps ou risque ?

Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite

Publié dans intelligence artificielle, Procédure | Tagué , , | Laisser un commentaire