Un estudio publicado en la revista Nature demuestra que los métodos actuales de evaluación de modelos de lenguaje de gran escala, basados en precisión, incentivan inadvertidamente que estos sistemas generen información falsa pero plausible, conocida como alucinaciones. La investigación, liderada por científicos especializados en teoría del aprendizaje, propone reformular el problema como un asunto de incentivos y sugiere nuevos métodos de evaluación que penalicen explícitamente los errores.