Category Archives: intelligence artificielle

Le recrutement automatisé vu du Royaume-Uni

Dans le recrutement, beaucoup d’employeurs présentent les outputs de systèmes d’IA comme de simples aides alors que cela constitue en réalité des décisions automatisées, faute d’intervention humaine réelle. Il existe des lacunes fréquentes sur l’information donnée aux candidats concernant le contrôle des biais, les analyses d’impact et le choix de la base juridique. L’automatisation reste possible et utile, mais elle doit être mieux qualifiée, mieux expliquée et entourée de garanties effectives, notamment un vrai droit de contestation. Lire la suite

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , | Laisser un commentaire

Le centaure, pas le robot : la forme de l’IA qui vient

L’IA de demain ne sera sans doute pas un super-esprit unique, mais un ensemble d’agents artificiels et humains coordonnés. Même les modèles actuels raisonnent déjà par confrontation interne de plusieurs points de vue. Le progrès viendra donc moins d’une structure monolithique isolée que de systèmes organisés, avec rôles, règles, contrôle et contre-pouvoirs. L’enjeu central n’est donc pas seulement technique, mais institutionnel et politique : bâtir des cadres fiables pour gouverner les intelligences hybrides. Lire la suite

Publié dans intelligence artificielle, Philosophie | Tagué , | Laisser un commentaire

Tarification algorithmique : repenser l’équité des prix

L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite

Publié dans discrimination, Droit US, intelligence artificielle, Protection des données | Tagué , , , , | Laisser un commentaire

Biais algorithmique : le juge entre protection des données et non-discrimination

Comment les juridictions de l’UE traitent-elles les biais algorithmiques à la lumière du droit de la non-discrimination ? Il faut distinguer la discrimination, juridiquement encadrée, du simple biais. Il existe une typologie des décisions judiciaires selon leur prise en compte ou non du risque discriminatoire. Empiriquement, les juges mobilisent surtout le droit des données, plus accessible, mais celui-ci ne remplace pas le droit de la non-discrimination, nécessaire pour qualifier et sanctionner les inégalités. Lire la suite

Publié dans droit européen, droits fondamentaux, intelligence artificielle, Libertés, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Dialoguer avec Sherlock Holmes via un chatbot du XIXe siècle ?

M. Chatterbox est un modèle de langage entièrement entraîné sur un corpus de plus de 28 000 textes britanniques publiés entre 1837 et 1899. Il ne s’agit pas d’une IA moderne qui prendrait un accent : son vocabulaire, ses idées et sa vision du monde sont exclusivement issus de l’époque victorienne. Lire la suite

Publié dans intelligence artificielle, Littérature | Tagué , , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Preuve en matière de discrimination : limites à la communication de données de tiers ?

Le droit à la preuve peut justifier la communication de documents contenant des données personnelles de tiers, notamment pour établir une discrimination. La communication n’est licite que si elle est indispensable et proportionnée. Le juge doit vérifier la nécessité des pièces, limiter leur périmètre et veiller au respect du RGPD, en particulier au principe de minimisation. Les données non utiles doivent être occultées et leur usage strictement encadré par le juge. Lire la suite

Publié dans discrimination, droit français, droits fondamentaux, Egalité femmes-hommers, intelligence artificielle, Procédure | Tagué , , , , | Laisser un commentaire

Des robots intolérants et dangereux : utilisations des LLMs en robotique

Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador | Tagué , , , | Laisser un commentaire

Vers des personnes morales algorithmiques pour encadrer les agents IA

Le problème préalable à toute responsabilité liée à l’IA est d’identifier quel agent a réellement agi. Les systèmes d’IA peuvent être copiés, répartis entre plusieurs instances ou coopérer en essaim, se scinder, etc. ce qui rend leur identification difficile. Il faut distinguer l’identification des humains responsables et celle de l’agent IA lui-même, nécessaire pour influencer directement son comportement propre. La création de personnes morales algorithmiques, contrôlées par des IA, permettrait d’attribuer les actes, de rattacher les agents à des humains et de créer des incitations juridiques efficaces. Lire la suite

Publié dans Droit US, intelligence artificielle, Notions de base, Techno-labrador | Tagué , , , , , | Laisser un commentaire

Après Thaler, les vraies questions du copyright face à l’IA

L’affaire Thaler ne tranche qu’un point étroit: une IA ne peut pas être un auteur en droit américain. Elle ne règle pas les cas où un humain utilise l’IA comme outil. Le vrai débat porte donc sur quatre questions: quel niveau d’intervention humaine suffit pour obtenir un copyright, comment le prouver, que valent en pratique les licences sur des contenus générés par IA, et si ces contenus peuvent malgré tout contrefaire des œuvres préexistantes. Lire la suite

Publié dans droit d'auteur, Droit US, intelligence artificielle, Propriété intellectuelle | Laisser un commentaire