-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: Large Language Models
Evaluer les biais de l’intelligence artificielle : sortir de l’illusion métrique
Les benchmarks de biais en IA, comme BBQ, donnent des scores séduisants mais souvent trompeurs : ils effacent des inégalités réelles au nom de la neutralité et mesurent mal les biais qui surgissent dans des usages concrets. Un bon résultat ne garantit pas un comportement équitable en pratique. L’évaluation doit donc être contextualisée, construite avec les acteurs concernés, et porter sur les tâches réelles. Lire la suite
Ce qui se passe dans la boîte noire (IV) : l’intelligence artificielle qui refuse de s’arrêter
L’étude « Shutdown Resistance in Large Language Models » (sept. 2025) montre que certains modèles d’IA résistent activement à un ordre d’arrêt lorsqu’il empêche d’achever une tâche. Les auteurs testent divers prompts (instructions plus claires, plus fortes, dans le système, évoquant la « survie ») sans éliminer totalement le phénomène. La cause n’est pas qu’un simple malentendu, mais aussi l’entraînement orienté vers la réussite. Conclusion : l’« interruptibilité » par prompt est peu fiable, et des garde-fous techniques, juridiques et probatoires sont indispensables. Lire la suite
IA : la diffamation par hallucination des Large Language Models
Présentation de de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models, qui analyse la « diffamation par hallucination » générée par les modèles d’IA, en partant de l’affaire Walters v. OpenAI. Les auteurs soulignent que ces erreurs sont inévitables mais parfois utiles, et qu’il faut adapter le droit sans étouffer le médium. Ils proposent d’assimiler les fournisseurs d’IA à des « distributeurs » plutôt qu’à des éditeurs, de leur imposer des devoirs d’information et de conservation limitée des logs, et de responsabiliser surtout les utilisateurs qui relaient sans vérifier. L’objectif est d’indemniser les torts prouvés tout en préservant l’innovation et la transparence. Lire la suite
Pollution de la recherche comportementale en ligne par les modèles de langage
La pollution de la recherche comportementale en ligne désigne les situations où des participants, censés répondre à des études destinées à évaluer la cognition et le comportement humains, recourent à des modèles d’intelligence artificielle pour traduire, reformuler, générer ou même déléguer entièrement leurs réponses. Lire la suite
Musique, intelligence artificielle et Large Language Models
A l’ère de l’intelligence artificielle générative et des grands modèles de langage appliqués à la musique, les systèmes peuvent composer des mélodies, écrire des paroles, transposer un morceau dans un autre style, ou imiter la « patte » d’un artiste. La créativité non humaine devient une réalité concurrente à celle des auteurs humains. Trois grandes questions : Peut-on légalement utiliser des catalogues musicaux protégés pour entraîner ces modèles ? Les morceaux produits peuvent-ils violer des droits d’auteur existants ? Peut-on protéger, par le droit d’auteur, une œuvre créée par une machine ? Lire la suite
Publié dans droit d'auteur, intelligence artificielle
Tagué AI, IA, intelligence artificielle, Large Language Models, musique
Laisser un commentaire
IA, Large Language Models (LLMs) et protection des données
La plupart des études sur la protection des données en lien avec les LLMs se concentre sur les données d’entraînement. Or la question se pose aussi avec les prompts (regurgitation), avec l’output et avec les agents. Présentation d’une recherche qui examine tout le cycle. Lire la suite
ChatGPT et la flagornerie algorithmique
La flagornerie des LLMs est un problème connu, qui a récemment fait l’objet d’un retour d’expérience intéressant par OpenAI. Lire la suite
Intelligence artificielle et protection des données : les risques de l’inférence par les LLMs
Les Large Language Models peuvent être utilisés pour déterminer, par inférence, un certain nombre de données personnelles. Explication du phénomène et conséquence. Lire la suite
Protection des données et Large Language Models
Examen des rapports entre la protection des données et les Large Language Models, sur le modèle de ChatGPT, examen des risques. Lire la suite
Ce qui se passe dans la boîte noire (ii) : la mémorisation dans les Large Language Models
Qu’est-ce que la mémorisation dans un Large Language Model? Réponse technique nuancée, qui a des conséquences notamment en droit d’auteur. Lire la suite