Entropía cruzada vs Puntuación de Brier

Definición corta

La entropía cruzada y la puntuación de Brier son funciones de pérdida utilizadas para evaluar modelos probabilísticos. Ambas comparan probabilidades predichas con resultados reales, pero difieren en cómo penalizan los errores.

Definición detallada

La Entropía cruzada y la Puntuación de Brier son dos métricas fundamentales para evaluar modelos que producen probabilidades, como clasificadores binarios o redes neuronales.

Entropía cruzada

La entropía cruzada mide la discrepancia entre la distribución real y la distribución predicha mediante una función logarítmica:

  • Penaliza fuertemente las predicciones muy incorrectas y seguras
  • Si el modelo asigna probabilidad cercana a 0 a la clase correcta → la pérdida crece rápidamente
  • Es la función estándar en entrenamiento de redes neuronales

👉 Intuición: “Castiga mucho la confianza equivocada”

Puntuación de Brier

La puntuación de Brier mide el error cuadrático entre la probabilidad predicha y el resultado real:

  • Penaliza los errores de forma suave y simétrica
  • No explota como la entropía cruzada
  • Es más interpretable como una media de errores

👉 Intuición: “Mide qué tan lejos estás, sin exagerar”

entropia cruzada vs puntuacion de brier
entropia cruzada vs puntuacion de brier

Diferencias clave

AspectoEntropía cruzadaPuntuación de Brier
Tipo de funciónLogarítmicaCuadrática
Penalización de erroresMuy agresivaSuave
Sensibilidad a confianza incorrectaAltaModerada
Uso en entrenamientoMuy comúnMenos común
InterpretabilidadMenorMayor

Intuición visual

  • Entropía cruzada:
    • Crece muy rápido cuando p → 0 (y la clase real es 1)
    • Tiene forma asimétrica
  • Brier Score:
    • Curva parabólica
    • Penaliza de forma gradual

¿Cuándo usar cada una?

Usa entropía cruzada cuando:

  • Estás entrenando redes neuronales
  • Quieres castigar predicciones muy equivocadas
  • Te importa la optimización eficiente

Usa Brier Score cuando:

  • Quieres evaluar calibración de probabilidades
  • Buscas interpretabilidad
  • Estás comparando modelos probabilísticos

💡 Insight clave

Un modelo puede tener buena precisión pero mala calibración.

  • La entropía cruzada optimiza el aprendizaje
  • La puntuación de Brier evalúa qué tan bien calibradas están las probabilidades

Ejemplo conceptual

Supongamos que la clase real es 1:

Probabilidad predichaEntropía cruzadaBrier Score
0.9BajaBaja
0.5MediaMedia
0.1Muy altaAlta

👉 La entropía cruzada castiga mucho más el caso 0.1 que Brier.

Conceptos relacionados

  • Entropía
  • Función de pérdida
  • Calibración de probabilidades
  • Log-loss
  • Evaluación de modelos

Ejemplo en Python

Python
import numpy as np
import matplotlib.pyplot as plt
p = np.linspace(0.01, 1, 200)
# Entropía cruzada (y=1)
cross_entropy = -np.log(p)
# Brier Score (y=1)
brier = (p - 1) ** 2
plt.plot(p, cross_entropy, label="Entropía cruzada")
plt.plot(p, brier, label="Brier Score")
plt.xlabel("Probabilidad predicha (clase correcta)")
plt.ylabel("Pérdida")
plt.title("Entropía cruzada vs Brier Score")
plt.legend()
plt.grid(True)
plt.show()

Conclusión

La diferencia fundamental es filosófica:

  • Entropía cruzada: optimiza el aprendizaje penalizando fuertemente los errores graves
  • Brier Score: mide la calidad probabilística de forma equilibrada

Ambas son herramientas esenciales, pero sirven propósitos distintos dentro del ciclo de vida de un modelo.

Ejemplo en Python

Este concepto incluye un ejemplo práctico en Python para ayudarte a entenderlo mejor:

👉 Ver código en GitHub