Tag Archives: OpenAI

IA : pourquoi les hallucinations ?

Les hallucinations des modèles de langage ne sont pas des anomalies mystérieuses mais le produit de leur entraînement et surtout de leur évaluation. Le pré-entraînement conduit à des erreurs sur les faits rares, impossibles à généraliser statistiquement. Le post-entraînement aggrave le phénomène car les benchmarks dominants notent comme à un QCM : mieux vaut deviner qu’admettre son ignorance. La solution proposée est de modifier ces évaluations pour récompenser l’expression d’incertitude et réduire les réponses fausses mais assurées. Lire la suite

Publié dans intelligence artificielle | Tagué , , | Un commentaire

ChatGPT et la flagornerie algorithmique

La flagornerie des LLMs est un problème connu, qui a récemment fait l’objet d’un retour d’expérience intéressant par OpenAI. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire