-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: LLM
Evaluer les biais de l’intelligence artificielle : sortir de l’illusion métrique
Les benchmarks de biais en IA, comme BBQ, donnent des scores séduisants mais souvent trompeurs : ils effacent des inégalités réelles au nom de la neutralité et mesurent mal les biais qui surgissent dans des usages concrets. Un bon résultat ne garantit pas un comportement équitable en pratique. L’évaluation doit donc être contextualisée, construite avec les acteurs concernés, et porter sur les tâches réelles. Lire la suite
Ce qui se passe dans la boîte noire: généralisation et mémorisation dans les Large Language Models
Que se passe-t-il dans la boîte noire d’un Large Language Models? Distinction entre la mémorisation involontaire puis, passé un certain seuil, la généralisation à partir des données d’entraînement. Présentation de J.X.MORRIS et al., How much do language models memorize ? et de ses implications pour le juriste. Lire la suite
Les données d’entraînement des LLM sont-elles protégées par le droit d’auteur ?
Les données d’entraînement utilisées pour un LLM (large language model) sont-elles protégées par le droit d’auteur? (IA, LDA) Lire la suite
Publié dans droit d'auteur, intelligence artificielle
Tagué données d'entraînement, droit d'auteur, LDA, LLM, protection
Un commentaire