Tag Archives: IA

Le casse-tête juridique de la responsabilité de l’IA en droit US

Les régimes classiques de responsabilité ne conviennent pas aux dommages causés par l’IA. L’IA n’est ni un simple produit, ni un animal, ni un enfant, ni un mandataire, et elle ne devrait pas non plus recevoir une personnalité juridique – selon certains auteurs en tout cas. En raison de son opacité technique et de son imprévisibilité, l’utilisateur ordinaire ne devrait pas répondre d’une simple négligence. Proposition d’un « bouclier de négligence » : l’utilisateur ne serait responsable que s’il connaissait ou ignorait consciemment le risque, tandis que les développeurs supporteraient davantage d’obligations. Lire la suite

Publié dans Droit US, intelligence artificielle, personnalité juridique | Tagué , , , , | Laisser un commentaire

E pluribus unum : l’avenir de l’IA ?

L’avenir de l’IA ne réside pas dans un modèle unique toujours plus puissant, mais dans des communautés d’agents différents. Comme en science, la diversité des approches permet d’explorer davantage d’hypothèses, d’éviter les consensus prématurés et de combiner prudence et innovation. Cette organisation répond aux critiques sur le manque de créativité, la monoculture intellectuelle et l’opacité des modèles. Pour les juristes, l’idée clé est procédurale : une IA fiable dépendra moins d’un « cerveau » isolé que d’un dispositif contradictoire, pluraliste et vérifiable Lire la suite

Publié dans intelligence artificielle, Philosophie, Techno-labrador | Tagué , , , , | Laisser un commentaire

Le biais d’auto-préférence des IA de recrutement

Un outil d’IA utilisé pour trier des CV peut favoriser les candidatures rédigées ou reformulées par le même modèle. À profil égal, le système ne juge donc pas seulement les compétences, mais aussi un style rédactionnel proche du sien. Les candidats utilisant le même modèle que l’évaluateur sont 23 % à 60 % plus souvent présélectionnés. Ce risque peut pénaliser les candidats sans accès au « bon » outil IA. Des mesures simples, comme des instructions plus strictes au modèle ou l’usage de plusieurs modèles, réduisent fortement ce biais. Lire la suite

Publié dans intelligence artificielle, recrutement | Tagué , , , , , | Laisser un commentaire

Un agent IA peut-il avoir des droits ?

La question des droits des agents IA ne doit pas être confondue avec celle de leur conscience ou de leur dignité. Ces droits pourraient être limités et fonctionnels : identifier l’agent, encadrer ses actes, répartir les responsabilités, permettre la traçabilité ou limiter le pouvoir des entreprises qui le contrôlent. Il ne s’agit pas d’humaniser l’IA, mais d’adapter le droit à des systèmes autonomes déjà actifs. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, personnalité juridique, Qualification du contrat | Tagué , , , , , | Laisser un commentaire

Le recrutement automatisé vu du Royaume-Uni

Dans le recrutement, beaucoup d’employeurs présentent les outputs de systèmes d’IA comme de simples aides alors que cela constitue en réalité des décisions automatisées, faute d’intervention humaine réelle. Il existe des lacunes fréquentes sur l’information donnée aux candidats concernant le contrôle des biais, les analyses d’impact et le choix de la base juridique. L’automatisation reste possible et utile, mais elle doit être mieux qualifiée, mieux expliquée et entourée de garanties effectives, notamment un vrai droit de contestation. Lire la suite

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , | Laisser un commentaire

Le centaure, pas le robot : la forme de l’IA qui vient

L’IA de demain ne sera sans doute pas un super-esprit unique, mais un ensemble d’agents artificiels et humains coordonnés. Même les modèles actuels raisonnent déjà par confrontation interne de plusieurs points de vue. Le progrès viendra donc moins d’une structure monolithique isolée que de systèmes organisés, avec rôles, règles, contrôle et contre-pouvoirs. L’enjeu central n’est donc pas seulement technique, mais institutionnel et politique : bâtir des cadres fiables pour gouverner les intelligences hybrides. Lire la suite

Publié dans intelligence artificielle, Philosophie | Tagué , | Laisser un commentaire

Tarification algorithmique : repenser l’équité des prix

L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite

Publié dans discrimination, Droit US, intelligence artificielle, Protection des données | Tagué , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Des robots intolérants et dangereux : utilisations des LLMs en robotique

Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador | Tagué , , , | Laisser un commentaire

Vers des personnes morales algorithmiques pour encadrer les agents IA

Le problème préalable à toute responsabilité liée à l’IA est d’identifier quel agent a réellement agi. Les systèmes d’IA peuvent être copiés, répartis entre plusieurs instances ou coopérer en essaim, se scinder, etc. ce qui rend leur identification difficile. Il faut distinguer l’identification des humains responsables et celle de l’agent IA lui-même, nécessaire pour influencer directement son comportement propre. La création de personnes morales algorithmiques, contrôlées par des IA, permettrait d’attribuer les actes, de rattacher les agents à des humains et de créer des incitations juridiques efficaces. Lire la suite

Publié dans Droit US, intelligence artificielle, Notions de base, Techno-labrador | Tagué , , , , , | Laisser un commentaire