Calibración vs precisión

Confianza correcta vs aciertos correctos

La calibración y la precisión son dos formas distintas de evaluar un modelo: una mide qué tan confiables son sus probabilidades, y la otra qué tan correctas son sus predicciones.

👉 Un modelo puede ser muy preciso y aun así estar mal calibrado.


Definición corta

  • Precisión: proporción de predicciones correctas
  • Calibración: qué tan bien las probabilidades reflejan la realidad

🧠 Intuición

  • Precisión responde:
    👉 “¿Cuántas veces acierta el modelo?”
  • Calibración responde:
    👉 “¿Cuán fiable es la confianza del modelo?”

Precisión → aciertos Calibración → confianza

📊 Ejemplo simple

Modelo A:90% precisión Pero predice 0.9 → acierta 70% → mal calibradoModelo B:80% precisión Predice 0.8 → acierta 80% → bien calibrado

🔄 Diferencia clave

MétricaQué mide
Precisiónexactitud
Calibraciónconfiabilidad

📊 Ejemplo conceptual

Modelo muy preciso ↓ Pero sobreconfianza ↓ Mala calibración

🧠 Caso extremo

🔹 Modelo sobreconfiado

Predice 0.99 ↓ Acierta solo 0.7 ↓ Peligroso

🔹 Modelo subconfiante

Predice 0.6 ↓ Acierta 0.9 ↓ Poco útil

🧠 Interpretación práctica

  • precisión → rendimiento
  • calibración → confianza

👉 ambas son necesarias.


📊 Relación entre ambas

Buen modelo ↓ Alta precisión + buena calibración

🧠 Uso en machine learning

🔹 Precisión importante en:

  • clasificación general
  • benchmarks
  • evaluación básica

🔹 Calibración importante en:

  • medicina
  • finanzas
  • sistemas críticos
  • toma de decisiones

📊 Ejemplo conceptual

Modelo ↓ Predicción ↓ Confianza ↓ Decisión

🧠 Métricas asociadas

  • Precisión → accuracy, F1
  • Calibración → ECE, Brier Score

📊 Ejemplo conceptual

Evaluación ↓ Exactitud + calibración ↓ Modelo confiable

📊 Ejemplo en Python (conceptual)

# precisión
accuracy = sum(y_true == y_pred) / len(y_true)
# calibración (conceptual)
# comparar probabilidad predicha vs frecuencia real

🧠 Qué muestra este ejemplo

  • diferencia entre métricas
  • evaluación dual
  • importancia práctica

⚠️ Errores comunes

Pensar que precisión alta implica buen modelo

Puede estar mal calibrado.


Ignorar la calibración

Crítico en aplicaciones reales.


Evaluar solo accuracy

Insuficiente para decisiones.


📊 Ejemplo conceptual en ML

Modelo ↓ Predicciones ↓ Precisión + calibración ↓ Confianza real

🧠 Interpretación profunda

Esta comparación refleja un principio clave:

👉 Un buen modelo no solo acierta, sino que sabe cuándo confiar en sí mismo

Conclusión

  • Precisión mide aciertos
  • Calibración mide confianza

👉 Ambos son esenciales para evaluar correctamente un modelo.

Related Concepts