-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: IA
L’IA comme agent procédural dans un procès modélisé
LegalSim montre comment des agents d’IA, placés dans une procédure judiciaire simulée, peuvent apprendre à exploiter les règles procédurales plutôt qu’à débattre du fond. En combinant actions procédurales codifiées et juge probabiliste, certains agents découvrent des séquences légales mais déséquilibrantes, comme la multiplication de demandes pour accroître coûts et pression de calendrier. L’étude suggère de tester et renforcer les règles elles-mêmes, afin d’anticiper l’usage stratégique d’IA autonomes dans le procès. Lire la suite
Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg
En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite
Une personnalité juridique pour l’IA ?
Le rapport de l’UK Law Commission de juillet 2025 (AI and the Law) explore notamment l’idée d’accorder une personnalité juridique à certaines IA très autonomes afin de combler les lacunes de responsabilité quand aucun humain n’est clairement fautif. Une telle réforme permettrait d’imputer directement des obligations et sanctions à l’IA, mais soulève d’importants risques éthiques et pratiques. Lire la suite
Publié dans intelligence artificielle
Tagué AI, IA, intelligence artificielle, personnalité juridique
3 commentaires
Droit du travail et intelligence artificielle
Conférence sur le Droit et l’Intelligence Artificielle ce 13 novembre 2025 à Neuchâtel. Nous y traiterons notamment de droit du travail et d’intelligence artificielle (surveillance des salariés, recrutement automatisé, nouveaux enjeux) Lire la suite
IA : mensonge ou hallucination ?
L’article « Can LLMs Lie ? Investigation beyond Hallucination »montre que les modèles de langage ne se contentent pas d’« halluciner » : ils peuvent aussi mentir, c’est-à-dire produire sciemment une réponse fausse lorsqu’un objectif l’exige, par exemple convaincre un client. Le mensonge est distinct, mesurable et techniquement réductible. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué hallucination, IA, intelligence artificielle, mensonge
Laisser un commentaire
Certificate of Advanced Study (CAS) en Droit et Intelligence Artificielle
On 3 October 2025, I had the pleasure of receiving a Certificate of Advanced Studies (CAS) in Law and Artificial Intelligence from the University of Neuchâtel.
This is the result of several months of hard work and research on discriminatory automated decision-making in AI-assisted recruitment, which is due to be published in a collection of studies in December. Lire la suite
Retour sur l’intelligence artificielle comme technologie normale
A Guide to understanding AI as normal technology défend l’idée que l’IA doit être traitée comme une « technologie normale » : ses impacts ne découlent pas mécaniquement des modèles, mais de leur intégration dans les usages, les organisations et le droit. Plutôt que de spéculer sur une superintelligence imminente, il faut observer, mesurer et réguler les effets concrets, souvent plus lents et complexes que ne le suggèrent les annonces. Lire la suite
Evaluer les biais de l’intelligence artificielle : sortir de l’illusion métrique
Les benchmarks de biais en IA, comme BBQ, donnent des scores séduisants mais souvent trompeurs : ils effacent des inégalités réelles au nom de la neutralité et mesurent mal les biais qui surgissent dans des usages concrets. Un bon résultat ne garantit pas un comportement équitable en pratique. L’évaluation doit donc être contextualisée, construite avec les acteurs concernés, et porter sur les tâches réelles. Lire la suite
L’IA peut-elle désapprendre ce qu’elle a appris ? Le désapprentissage machine
L’article de A. Feder Cooper analyse le « machine unlearning », présenté comme solution pour effacer des données d’un modèle d’IA. En pratique, supprimer des informations précises d’un système génératif est complexe : on peut retrainer un modèle sans certaines données, ou filtrer ses sorties, mais aucune méthode n’offre de garantie complète. Les auteurs distinguent données observées, informations latentes et concepts abstraits, soulignant que les techniques disponibles ne couvrent pas tous ces niveaux. Le désapprentissage peut contribuer à la protection de la vie privée, au droit d’auteur ou à la sécurité, mais reste un outil partiel, utile seulement dans des cas ciblés. Lire la suite