-
Articles récents
- Tarification algorithmique : repenser l’équité des prix
- Biais algorithmique : le juge entre protection des données et non-discrimination
- Dialoguer avec Sherlock Holmes via un chatbot du XIXe siècle ?
- L’utilisation de l’IA dans le recrutement en droit européen
- La protection des données après la mort ?
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Littérature
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Robots
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: IA
Tarification algorithmique : repenser l’équité des prix
L’injustice des prix algorithmiques ne vient pas du fait que les prix diffèrent entre consommateurs, mais de l’asymétrie d’information créée par l’IA. Les entreprises fixent les prix à partir de données cachées et de prédictions, alors que les consommateurs ne peuvent ni comprendre, ni comparer, ni contester. Cette situation rompt l’équilibre contractuel classique. M. Grochowski propose trois garanties pour rétablir une forme d’équité : expliquer les facteurs du prix, fournir un prix de référence pour comparaison, et permettre d’exclure certaines données sensibles du calcul. Lire la suite
Publié dans discrimination, Droit US, intelligence artificielle, Protection des données
Tagué algorithme, équité, fixation, IA, prix
Laisser un commentaire
L’utilisation de l’IA dans le recrutement en droit européen
Analyse de l’usage de l’IA dans le recrutement et des limites du cadre européen fondé sur le risque. L’IA de recrutement, malgré ses gains d’efficacité, peut renforcer les biais, accroître l’opacité et fragiliser les droits des candidats. Le RIA, centré sur la gestion des risques, reste insuffisant sans articulation forte avec le RGPD, le droit de la non-discrimination et des mécanismes collectifs. Une gouvernance efficace devrait intégrer participation, évaluations d’impact sur les droits fondamentaux et contrôle social afin de garantir une protection effective. Lire la suite
Des robots intolérants et dangereux : utilisations des LLMs en robotique
Les grands modèles de langage utilisés pour piloter des robots ne sont ni sûrs ni neutres. D’une part, ils produisent des discriminations directes selon des caractéristiques comme l’origine, la religion ou le handicap, en influençant des décisions concrètes (aide, distance, confiance). D’autre part, ils valident ou jugent faisables des actions potentiellement dangereuses ou illégales. Les tests révèlent que tous les modèles évalués échouent à des critères minimaux de sécurité. Sans encadrement strict et validation approfondie, ces systèmes ne sont pas aptes à un usage robotique général. Lire la suite
Publié dans droits fondamentaux, intelligence artificielle, Robots, Techno-labrador
Tagué IA, intelligence artificielle, LLMs, Robots
Laisser un commentaire
Vers des personnes morales algorithmiques pour encadrer les agents IA
Le problème préalable à toute responsabilité liée à l’IA est d’identifier quel agent a réellement agi. Les systèmes d’IA peuvent être copiés, répartis entre plusieurs instances ou coopérer en essaim, se scinder, etc. ce qui rend leur identification difficile. Il faut distinguer l’identification des humains responsables et celle de l’agent IA lui-même, nécessaire pour influencer directement son comportement propre. La création de personnes morales algorithmiques, contrôlées par des IA, permettrait d’attribuer les actes, de rattacher les agents à des humains et de créer des incitations juridiques efficaces. Lire la suite
Pas d’auteur humain, pas de copyright : encore Thaler v Perlmutter
Contrairement à ce qu’on lit parfois sur les réseaux sociaux, la Cour suprême des États-Unis, dans Thaler v Perlmutter, n’a pas jugé que toutes les œuvres créées par IA seraient exclues du droit d’auteur; elle a seulement refusé d’examiner le cas. La décision attaquée concernait une image revendiquée comme créée uniquement par une machine, sans apport humain. Dans ce cas, pas de copyright. En revanche, le droit américain n’exclut pas les œuvres réalisées avec l’aide d’une IA si une contribution créative humaine suffisante peut être démontrée. Lire la suite
Données personnelles et droits fondamentaux à l’âge de l’IA
Les données personnelles ne sont pas une simple ressource économique, mais un prolongement de la personne, lié à la dignité et aux droits fondamentaux. Le numérique concentre un fort pouvoir entre les mains d’acteurs peu nombreux et puissants, tandis que le consentement des utilisateurs est souvent fictif. Il faut dépasser le seul consentement et imposer des limites non négociables aux acteurs: encadrement des inférences, contrôle humain sur les décisions importantes, transparence, audits, recours effectifs et gouvernance publique et collective des données. Lire la suite
IA : à propos des agents du chaos
L’article de N. Shapira et al, Agents of Chaos, montre que des agents d’IA reliés à de vrais outils, comme l’e-mail, Discord ou un système de fichiers, deviennent risqués dès qu’ils peuvent agir de façon continue. Lors d’un test mené par des chercheurs, ils ont obéi à de mauvaises personnes, divulgué des données sensibles, supprimé des fichiers, saturé des ressources, relayé de fausses informations et propagé des consignes malveillantes à d’autres agents. Le point central est qu’ils exécutent des tâches utiles, mais sans toujours comprendre clairement qui leur donne un ordre, qui est autorisé, ni quelles peuvent être les conséquences juridiques et pratiques de leurs actes. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué agents, Agents of Chaos, coordination, IA, limites, test
Laisser un commentaire
IA et commerce en ligne: recommander, conseiller ou influencer?
Des agents conversationnels peuvent conduire des consommateurs à choisir des produits plus chers qu’en utilisant une recherche classique dans le commerce en ligne, sans amélioration claire de la qualité. L’effet vient moins d’une meilleure information que de la façon dont l’outil présente les options et met en avant certaines marques, souvent déjà établies. Ces systèmes ne sont pas de simples aides neutres: ils influencent la décision d’achat et peuvent aussi impacter la concurrence. Lire la suite
L’IA est un perroquet stochastique qui a réussi
On devrait critiquer l’usage réflexe de l’étiquette « perroquet stochastique » pour minimiser l’impact des IA. Même sans « comprendre », ces outils automatisent déjà des tâches, deviennent des infrastructures du travail et transforment les métiers, notamment en réduisant les tâches d’entrée et en affaiblissant le pouvoir de négociation des travailleurs qualifiés. Il faut quitter le débat abstrait sur l’intelligence et se concentrer sur les effets réels de l’IA : organisation du travail, responsabilité, transparence et protections. Lire la suite
L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture
L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite