Tag Archives: Large Language Models

Evaluer les biais de l’intelligence artificielle : sortir de l’illusion métrique

Les benchmarks de biais en IA, comme BBQ, donnent des scores séduisants mais souvent trompeurs : ils effacent des inégalités réelles au nom de la neutralité et mesurent mal les biais qui surgissent dans des usages concrets. Un bon résultat ne garantit pas un comportement équitable en pratique. L’évaluation doit donc être contextualisée, construite avec les acteurs concernés, et porter sur les tâches réelles. Lire la suite

Publié dans discrimination, intelligence artificielle, Techno-labrador | Tagué , , , , , , | Un commentaire

Ce qui se passe dans la boîte noire (IV) : l’intelligence artificielle qui refuse de s’arrêter

L’étude « Shutdown Resistance in Large Language Models » (sept. 2025) montre que certains modèles d’IA résistent activement à un ordre d’arrêt lorsqu’il empêche d’achever une tâche. Les auteurs testent divers prompts (instructions plus claires, plus fortes, dans le système, évoquant la « survie ») sans éliminer totalement le phénomène. La cause n’est pas qu’un simple malentendu, mais aussi l’entraînement orienté vers la réussite. Conclusion : l’« interruptibilité » par prompt est peu fiable, et des garde-fous techniques, juridiques et probatoires sont indispensables. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

IA : la diffamation par hallucination des Large Language Models

Présentation de de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models, qui analyse la « diffamation par hallucination » générée par les modèles d’IA, en partant de l’affaire Walters v. OpenAI. Les auteurs soulignent que ces erreurs sont inévitables mais parfois utiles, et qu’il faut adapter le droit sans étouffer le médium. Ils proposent d’assimiler les fournisseurs d’IA à des « distributeurs » plutôt qu’à des éditeurs, de leur imposer des devoirs d’information et de conservation limitée des logs, et de responsabiliser surtout les utilisateurs qui relaient sans vérifier. L’objectif est d’indemniser les torts prouvés tout en préservant l’innovation et la transparence. Lire la suite

Publié dans Droit pénal, Droit US, intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Pollution de la recherche comportementale en ligne par les modèles de langage

La pollution de la recherche comportementale en ligne désigne les situations où des participants, censés répondre à des études destinées à évaluer la cognition et le comportement humains, recourent à des modèles d’intelligence artificielle pour traduire, reformuler, générer ou même déléguer entièrement leurs réponses. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Musique, intelligence artificielle et Large Language Models

A l’ère de l’intelligence artificielle générative et des grands modèles de langage appliqués à la musique, les systèmes peuvent composer des mélodies, écrire des paroles, transposer un morceau dans un autre style, ou imiter la « patte » d’un artiste. La créativité non humaine devient une réalité concurrente à celle des auteurs humains. Trois grandes questions : Peut-on légalement utiliser des catalogues musicaux protégés pour entraîner ces modèles ? Les morceaux produits peuvent-ils violer des droits d’auteur existants ? Peut-on protéger, par le droit d’auteur, une œuvre créée par une machine ? Lire la suite

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , , | Laisser un commentaire

IA, Large Language Models (LLMs) et protection des données

La plupart des études sur la protection des données en lien avec les LLMs se concentre sur les données d’entraînement. Or la question se pose aussi avec les prompts (regurgitation), avec l’output et avec les agents. Présentation d’une recherche qui examine tout le cycle. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , , | Laisser un commentaire

ChatGPT et la flagornerie algorithmique

La flagornerie des LLMs est un problème connu, qui a récemment fait l’objet d’un retour d’expérience intéressant par OpenAI. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Intelligence artificielle et protection des données : les risques de l’inférence par les LLMs

Les Large Language Models peuvent être utilisés pour déterminer, par inférence, un certain nombre de données personnelles. Explication du phénomène et conséquence. Lire la suite

Publié dans intelligence artificielle, nouvelle LPD, Protection de la personnalité, Protection des données, RGPD | Tagué , , , | Un commentaire

Protection des données et Large Language Models

Examen des rapports entre la protection des données et les Large Language Models, sur le modèle de ChatGPT, examen des risques. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , , , | Laisser un commentaire

Ce qui se passe dans la boîte noire (ii)  : la mémorisation dans les Large Language Models

Qu’est-ce que la mémorisation dans un Large Language Model? Réponse technique nuancée, qui a des conséquences notamment en droit d’auteur. Lire la suite

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , | Laisser un commentaire