Tag Archives: agents

IA : à propos des agents du chaos

L’article de N. Shapira et al, Agents of Chaos, montre que des agents d’IA reliés à de vrais outils, comme l’e-mail, Discord ou un système de fichiers, deviennent risqués dès qu’ils peuvent agir de façon continue. Lors d’un test mené par des chercheurs, ils ont obéi à de mauvaises personnes, divulgué des données sensibles, supprimé des fichiers, saturé des ressources, relayé de fausses informations et propagé des consignes malveillantes à d’autres agents. Le point central est qu’ils exécutent des tâches utiles, mais sans toujours comprendre clairement qui leur donne un ordre, qui est autorisé, ni quelles peuvent être les conséquences juridiques et pratiques de leurs actes. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

IA, Large Language Models (LLMs) et protection des données

La plupart des études sur la protection des données en lien avec les LLMs se concentre sur les données d’entraînement. Or la question se pose aussi avec les prompts (regurgitation), avec l’output et avec les agents. Présentation d’une recherche qui examine tout le cycle. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , , | Laisser un commentaire