Dans le domaine de l'intelligence artificielle, l'hallucination fait référence à la production d'informations ou de déclarations incorrectes.
L'hallucination survient notamment à cause des données d'entraînement qui contiennent des erreurs ou des informations trompeuses.
Il est donc important de contre-vérifier les informations fournies par les robots conversationnels pour s'assurer de leur exactitude.
« Le problème principal est que […] les réponses de ChatGPT […] ont généralement l’air d’être correctes. Elles sont aussi très faciles à produire par des gens qui n’ont ni l’expertise ni le désir de vérifier si la réponse fournie est factuelle. » – Mike Sharples, professeur en technologies éducatives