Definición breve
Las alucinaciones ocurren cuando un modelo de lenguaje genera información incorrecta o inventada que parece plausible.
Explicación del concepto
Los modelos de lenguaje generan texto basado en patrones estadísticos, no en conocimiento verificado.
Esto puede llevar a respuestas incorrectas presentadas con alta confianza.
Cómo funciona
Las alucinaciones pueden aparecer cuando:
- el modelo no tiene suficiente información
- la pregunta es ambigua
- el prompt es poco claro
Por qué es importante
Comprender las alucinaciones es esencial para usar modelos de lenguaje de forma segura y responsable.
Ejemplo conceptual
Un modelo puede inventar referencias académicas inexistentes.
Ejemplo en Python
response = model.generate(prompt)
Conceptos relacionados
- Ingeniería de Prompts
- Alignment
- Retrieval Augmented Generation
Resumen
Las alucinaciones son uno de los principales desafíos en el uso de modelos de lenguaje.