Tag Archives: LLMs

IA, Large Language Models (LLMs) et protection des données

La plupart des études sur la protection des données en lien avec les LLMs se concentre sur les données d’entraînement. Or la question se pose aussi avec les prompts (regurgitation), avec l’output et avec les agents. Présentation d’une recherche qui examine tout le cycle. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , , | Laisser un commentaire

ChatGPT et la flagornerie algorithmique

La flagornerie des LLMs est un problème connu, qui a récemment fait l’objet d’un retour d’expérience intéressant par OpenAI. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Le désalignement émergent dans les Large Language Models

Objectif : tester si l’apprentissage d’un comportement nuisible dans un domaine restreint (le code) pouvait influencer défavorablement la conduite du Large Language Model dans des contextes complètement différents. Spoiler: on dirait bien que oui. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Protection des données et Large Language Models

Examen des rapports entre la protection des données et les Large Language Models, sur le modèle de ChatGPT, examen des risques. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , , , | Laisser un commentaire