Tag Archives: intelligence artificielle

Le casse-tête juridique de la responsabilité de l’IA en droit US

Les régimes classiques de responsabilité ne conviennent pas aux dommages causés par l’IA. L’IA n’est ni un simple produit, ni un animal, ni un enfant, ni un mandataire, et elle ne devrait pas non plus recevoir une personnalité juridique – selon certains auteurs en tout cas. En raison de son opacité technique et de son imprévisibilité, l’utilisateur ordinaire ne devrait pas répondre d’une simple négligence. Proposition d’un « bouclier de négligence » : l’utilisateur ne serait responsable que s’il connaissait ou ignorait consciemment le risque, tandis que les développeurs supporteraient davantage d’obligations. Lire la suite

Publié dans Droit US, intelligence artificielle, personnalité juridique | Tagué , , , , | Laisser un commentaire

Un agent IA peut-il avoir des droits ?

La question des droits des agents IA ne doit pas être confondue avec celle de leur conscience ou de leur dignité. Ces droits pourraient être limités et fonctionnels : identifier l’agent, encadrer ses actes, répartir les responsabilités, permettre la traçabilité ou limiter le pouvoir des entreprises qui le contrôlent. Il ne s’agit pas d’humaniser l’IA, mais d’adapter le droit à des systèmes autonomes déjà actifs. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, personnalité juridique, Qualification du contrat | Tagué , , , , , | Laisser un commentaire

L’utilisation de l’IA dans le recrutement en droit européen

Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite

Publié dans discrimination, Droit collectif du travail, droit européen, droits fondamentaux, intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Des robots intolérants et dangereux : utilisations des LLMs en robotique

Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador | Tagué , , , | Laisser un commentaire

Données personnelles et droits fondamentaux à l’âge de l’IA

Les données personnelles ne sont pas une simple ressource économique, mais un prolongement de la personne, lié à la dignité et aux droits fondamentaux. Le numérique concentre un fort pouvoir entre les mains d’acteurs peu nombreux et puissants, tandis que le consentement des utilisateurs est souvent fictif. Il faut dépasser le seul consentement et imposer des limites non négociables aux acteurs: encadrement des inférences, contrôle humain sur les décisions importantes, transparence, audits, recours effectifs et gouvernance publique et collective des données. Lire la suite

Publié dans droits fondamentaux, intelligence artificielle, Libertés | Tagué , , | Laisser un commentaire

IA et commerce en ligne: recommander, conseiller ou influencer?

Des agents conversationnels peuvent conduire des consommateurs à choisir des produits plus chers qu’en utilisant une recherche classique dans le commerce en ligne, sans amélioration claire de la qualité. L’effet vient moins d’une meilleure information que de la façon dont l’outil présente les options et met en avant certaines marques, souvent déjà établies. Ces systèmes ne sont pas de simples aides neutres: ils influencent la décision d’achat et peuvent aussi impacter la concurrence. Lire la suite

Publié dans concurrence déloyale, intelligence artificielle | Tagué , , , , , , | Laisser un commentaire

L’IA est un perroquet stochastique qui a réussi

On devrait critiquer l’usage réflexe de l’étiquette « perroquet stochastique » pour minimiser l’impact des IA. Même sans « comprendre », ces outils automatisent déjà des tâches, deviennent des infrastructures du travail et transforment les métiers, notamment en réduisant les tâches d’entrée et en affaiblissant le pouvoir de négociation des travailleurs qualifiés. Il faut quitter le débat abstrait sur l’intelligence et se concentrer sur les effets réels de l’IA : organisation du travail, responsabilité, transparence et protections. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire