Perplejidad

Definición breve

La perplejidad es una métrica utilizada para evaluar modelos de lenguaje que mide qué tan bien un modelo predice una secuencia de texto.

Explicación del concepto

La perplejidad se utiliza principalmente en modelos de lenguaje y refleja el nivel de “incertidumbre” del modelo al predecir la siguiente palabra en una secuencia.

Un modelo con baja perplejidad asigna altas probabilidades a las palabras correctas, lo que indica un mejor rendimiento.

En términos simples, la perplejidad mide cuántas opciones “posibles” considera el modelo en promedio al hacer una predicción.

  • Baja perplejidad → el modelo está seguro y predice bien
  • Alta perplejidad → el modelo está inseguro y predice peor

Cómo funciona

La perplejidad está relacionada con la probabilidad que el modelo asigna a una secuencia de palabras.

Perplexity = 2^{-\frac{1}{N} \sum \log_2 P(w_i)}

Donde:

  • P(wi)P(w_i)P(wi​) es la probabilidad de cada palabra
  • NNN es el número total de palabras

Cuanto mayor sea la probabilidad asignada a la secuencia real, menor será la perplejidad.

Por qué es importante

La perplejidad es una métrica clave para evaluar modelos de lenguaje.

Sus beneficios incluyen:

  • medir la calidad del modelo en tareas de predicción de texto
  • comparar diferentes modelos de lenguaje
  • evaluar el progreso durante el entrenamiento

Es ampliamente utilizada en NLP para evaluar modelos generativos.

Por qué es importante

La perplejidad es una métrica clave para evaluar modelos de lenguaje.

Sus beneficios incluyen:

  • medir la calidad del modelo en tareas de predicción de texto
  • comparar diferentes modelos de lenguaje
  • evaluar el progreso durante el entrenamiento

Es ampliamente utilizada en NLP para evaluar modelos generativos.

Ejemplo en PyTorch

La perplejidad se calcula a partir de la función de pérdida (cross-entropy).

import torch
loss = torch.tensor(1.5)
perplexity = torch.exp(loss)
print(perplexity)

Este cálculo convierte la pérdida en una métrica interpretable para modelos de lenguaje.

Conceptos relacionados

  • Modelos de lenguaje
  • Entropía cruzada (cross-entropy)
  • Evaluación de lenguaje
  • Probabilidad
  • NLP

Resumen

La perplejidad es una métrica fundamental para evaluar modelos de lenguaje que mide qué tan bien un modelo predice secuencias de texto. Valores bajos indican un modelo más preciso y confiable, mientras que valores altos reflejan mayor incertidumbre en las predicciones.