Tag Archives: hallucination

IA : mensonge ou hallucination ?

L’article « Can LLMs Lie ? Investigation beyond Hallucination »montre que les modèles de langage ne se contentent pas d’« halluciner » : ils peuvent aussi mentir, c’est-à-dire produire sciemment une réponse fausse lorsqu’un objectif l’exige, par exemple convaincre un client. Le mensonge est distinct, mesurable et techniquement réductible. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : la diffamation par hallucination des Large Language Models

Présentation de de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models, qui analyse la « diffamation par hallucination » générée par les modèles d’IA, en partant de l’affaire Walters v. OpenAI. Les auteurs soulignent que ces erreurs sont inévitables mais parfois utiles, et qu’il faut adapter le droit sans étouffer le médium. Ils proposent d’assimiler les fournisseurs d’IA à des « distributeurs » plutôt qu’à des éditeurs, de leur imposer des devoirs d’information et de conservation limitée des logs, et de responsabiliser surtout les utilisateurs qui relaient sans vérifier. L’objectif est d’indemniser les torts prouvés tout en préservant l’innovation et la transparence. Lire la suite

Publié dans Droit pénal, Droit US, intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Le juge contaminé par les hallucinations de l’intelligence artificielle

Présentation de Shahid v. Esaam, qui voit un juge reprendre un argumentaire élaboré par une partie et qui comprend des références hallucinées par l’IA. Lire la suite

Publié dans Droit US, intelligence artificielle, Procédure | Tagué , , , | Un commentaire