-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Littérature
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Philosophie
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Robots
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
Le recrutement automatisé vu du Royaume-Uni
Dans le recrutement, beaucoup d’employeurs présentent les outputs de systèmes d’IA comme de simples aides alors que cela constitue en réalité des décisions automatisées, faute d’intervention humaine réelle. Il existe des lacunes fréquentes sur l’information donnée aux candidats concernant le contrôle des biais, les analyses d’impact et le choix de la base juridique. L’automatisation reste possible et utile, mais elle doit être mieux qualifiée, mieux expliquée et entourée de garanties effectives, notamment un vrai droit de contestation. Lire la suite
Publié dans intelligence artificielle, Protection des données, recrutement
Tagué IA, ico, recrutement, recrutement automatisé, UK
Laisser un commentaire
Le centaure, pas le robot : la forme de l’IA qui vient
L’IA de demain ne sera sans doute pas un super-esprit unique, mais un ensemble d’agents artificiels et humains coordonnés. Même les modèles actuels raisonnent déjà par confrontation interne de plusieurs points de vue. Le progrès viendra donc moins d’une structure monolithique isolée que de systèmes organisés, avec rôles, règles, contrôle et contre-pouvoirs. L’enjeu central n’est donc pas seulement technique, mais institutionnel et politique : bâtir des cadres fiables pour gouverner les intelligences hybrides. Lire la suite
Tarification algorithmique : repenser l’équité des prix
L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite
Publié dans discrimination, Droit US, intelligence artificielle, Protection des données
Tagué algorithme, équité, fixation, IA, prix
Laisser un commentaire
Biais algorithmique : le juge entre protection des données et non-discrimination
Comment les juridictions de l’UE traitent-elles les biais algorithmiques à la lumière du droit de la non-discrimination ? Il faut distinguer la discrimination, juridiquement encadrée, du simple biais. Il existe une typologie des décisions judiciaires selon leur prise en compte ou non du risque discriminatoire. Empiriquement, les juges mobilisent surtout le droit des données, plus accessible, mais celui-ci ne remplace pas le droit de la non-discrimination, nécessaire pour qualifier et sanctionner les inégalités. Lire la suite
Dialoguer avec Sherlock Holmes via un chatbot du XIXe siècle ?
M. Chatterbox est un modèle de langage entièrement entraîné sur un corpus de plus de 28 000 textes britanniques publiés entre 1837 et 1899. Il ne s’agit pas d’une IA moderne qui prendrait un accent : son vocabulaire, ses idées et sa vision du monde sont exclusivement issus de l’époque victorienne. Lire la suite
L’utilisation de l’IA dans le recrutement en droit européen
Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite
Preuve en matière de discrimination : limites à la communication de données de tiers ?
Le droit à la preuve peut justifier la communication de documents contenant des données personnelles de tiers, notamment pour établir une discrimination. La communication n’est licite que si elle est indispensable et proportionnée. Le juge doit vérifier la nécessité des pièces, limiter leur périmètre et veiller au respect du RGPD, en particulier au principe de minimisation. Les données non utiles doivent être occultées et leur usage strictement encadré par le juge. Lire la suite
Des robots intolérants et dangereux : utilisations des LLMs en robotique
Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite
Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador
Tagué IA, intelligence artificielle, LLMs, Robots
Laisser un commentaire
Vers des personnes morales algorithmiques pour encadrer les agents IA
Le problème préalable à toute responsabilité liée à l’IA est d’identifier quel agent a réellement agi. Les systèmes d’IA peuvent être copiés, répartis entre plusieurs instances ou coopérer en essaim, se scinder, etc. ce qui rend leur identification difficile. Il faut distinguer l’identification des humains responsables et celle de l’agent IA lui-même, nécessaire pour influencer directement son comportement propre. La création de personnes morales algorithmiques, contrôlées par des IA, permettrait d’attribuer les actes, de rattacher les agents à des humains et de créer des incitations juridiques efficaces. Lire la suite
Après Thaler, les vraies questions du copyright face à l’IA
L’affaire Thaler ne tranche qu’un point étroit: une IA ne peut pas être un auteur en droit américain. Elle ne règle pas les cas où un humain utilise l’IA comme outil. Le vrai débat porte donc sur quatre questions: quel niveau d’intervention humaine suffit pour obtenir un copyright, comment le prouver, que valent en pratique les licences sur des contenus générés par IA, et si ces contenus peuvent malgré tout contrefaire des œuvres préexistantes. Lire la suite