Retour aux recherches
Aygalic Jara

Aygalic Jara

LinkedIn

Aygalic Jara

Les hallucinations sont un phénomène où la sortie d’un modèle de langues génératif (LLM) apparait dépourvue de sens, non factuelle ou encore en contradiction avec les instructions données. Ce phénomène représente un frein à l’adoption et au déploiement responsable des LLMs dans les applications où la fiabilité est un aspect critique. Nous pouvons citer les exemples des applications bancaires ou de la santé. C’est pour cela que nous travaillons sur la détection, quantification et mitigation des hallucinations dans les LLMs. LISN (Laboratoire Interdisciplinaire de Science Numérique)