-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Littérature
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- personnalité juridique
- Philosophie
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Robots
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: IA
Le casse-tête juridique de la responsabilité de l’IA en droit US
Les régimes classiques de responsabilité ne conviennent pas aux dommages causés par l’IA. L’IA n’est ni un simple produit, ni un animal, ni un enfant, ni un mandataire, et elle ne devrait pas non plus recevoir une personnalité juridique – selon certains auteurs en tout cas. En raison de son opacité technique et de son imprévisibilité, l’utilisateur ordinaire ne devrait pas répondre d’une simple négligence. Proposition d’un « bouclier de négligence » : l’utilisateur ne serait responsable que s’il connaissait ou ignorait consciemment le risque, tandis que les développeurs supporteraient davantage d’obligations. Lire la suite
E pluribus unum : l’avenir de l’IA ?
L’avenir de l’IA ne réside pas dans un modèle unique toujours plus puissant, mais dans des communautés d’agents différents. Comme en science, la diversité des approches permet d’explorer davantage d’hypothèses, d’éviter les consensus prématurés et de combiner prudence et innovation. Cette organisation répond aux critiques sur le manque de créativité, la monoculture intellectuelle et l’opacité des modèles. Pour les juristes, l’idée clé est procédurale : une IA fiable dépendra moins d’un « cerveau » isolé que d’un dispositif contradictoire, pluraliste et vérifiable Lire la suite
Publié dans intelligence artificielle, Philosophie, Techno-labrador
Tagué agents, futur, IA, modèle unique, multi-ageents
Laisser un commentaire
Le biais d’auto-préférence des IA de recrutement
Un outil d’IA utilisé pour trier des CV peut favoriser les candidatures rédigées ou reformulées par le même modèle. À profil égal, le système ne juge donc pas seulement les compétences, mais aussi un style rédactionnel proche du sien. Les candidats utilisant le même modèle que l’évaluateur sont 23 % à 60 % plus souvent présélectionnés. Ce risque peut pénaliser les candidats sans accès au « bon » outil IA. Des mesures simples, comme des instructions plus strictes au modèle ou l’usage de plusieurs modèles, réduisent fortement ce biais. Lire la suite
Un agent IA peut-il avoir des droits ?
La question des droits des agents IA ne doit pas être confondue avec celle de leur conscience ou de leur dignité. Ces droits pourraient être limités et fonctionnels : identifier l’agent, encadrer ses actes, répartir les responsabilités, permettre la traçabilité ou limiter le pouvoir des entreprises qui le contrôlent. Il ne s’agit pas d’humaniser l’IA, mais d’adapter le droit à des systèmes autonomes déjà actifs. Lire la suite
Le recrutement automatisé vu du Royaume-Uni
Dans le recrutement, beaucoup d’employeurs présentent les outputs de systèmes d’IA comme de simples aides alors que cela constitue en réalité des décisions automatisées, faute d’intervention humaine réelle. Il existe des lacunes fréquentes sur l’information donnée aux candidats concernant le contrôle des biais, les analyses d’impact et le choix de la base juridique. L’automatisation reste possible et utile, mais elle doit être mieux qualifiée, mieux expliquée et entourée de garanties effectives, notamment un vrai droit de contestation. Lire la suite
Publié dans intelligence artificielle, Protection des données, recrutement
Tagué IA, ico, recrutement, recrutement automatisé, UK
Laisser un commentaire
Le centaure, pas le robot : la forme de l’IA qui vient
L’IA de demain ne sera sans doute pas un super-esprit unique, mais un ensemble d’agents artificiels et humains coordonnés. Même les modèles actuels raisonnent déjà par confrontation interne de plusieurs points de vue. Le progrès viendra donc moins d’une structure monolithique isolée que de systèmes organisés, avec rôles, règles, contrôle et contre-pouvoirs. L’enjeu central n’est donc pas seulement technique, mais institutionnel et politique : bâtir des cadres fiables pour gouverner les intelligences hybrides. Lire la suite
Tarification algorithmique : repenser l’équité des prix
L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite
Publié dans discrimination, Droit US, intelligence artificielle, Protection des données
Tagué algorithme, équité, fixation, IA, prix
Laisser un commentaire
L’utilisation de l’IA dans le recrutement en droit européen
Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite
Des robots intolérants et dangereux : utilisations des LLMs en robotique
Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite
Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador
Tagué IA, intelligence artificielle, LLMs, Robots
Laisser un commentaire
Vers des personnes morales algorithmiques pour encadrer les agents IA
Le problème préalable à toute responsabilité liée à l’IA est d’identifier quel agent a réellement agi. Les systèmes d’IA peuvent être copiés, répartis entre plusieurs instances ou coopérer en essaim, se scinder, etc. ce qui rend leur identification difficile. Il faut distinguer l’identification des humains responsables et celle de l’agent IA lui-même, nécessaire pour influencer directement son comportement propre. La création de personnes morales algorithmiques, contrôlées par des IA, permettrait d’attribuer les actes, de rattacher les agents à des humains et de créer des incitations juridiques efficaces. Lire la suite