Precisión vs exhaustividad

Exactitud de las predicciones positivas vs capacidad de encontrar todos los positivos

La precisión y la exhaustividad son dos métricas fundamentales para evaluar modelos de clasificación, especialmente en problemas binarios y datasets desbalanceados.

👉 La diferencia clave es:

  • precisión → qué tan correctas son las predicciones positivas
  • exhaustividad → cuántos positivos reales logra encontrar el modelo

Definición corta

  • Precisión mide calidad de los positivos predichos
  • Exhaustividad mide cobertura de los positivos reales

🔹 Precisión

La precisión responde:

👉 “Cuando el modelo dice positivo, ¿cuántas veces tiene razón?”

Fórmula

Precisioˊn=VPVP+FP\text{Precisión}=\frac{VP}{VP+FP}


👉 donde:

  • VP = verdaderos positivos
  • FP = falsos positivos

📊 Ejemplo conceptual

Muchos falsos positivos ↓ Precisión baja

🔹 Exhaustividad

La exhaustividad responde:

👉 “¿Cuántos positivos reales encontró el modelo?”

Fórmula

Exhaustividad=VPVP+FN\text{Exhaustividad}=\frac{VP}{VP+FN}


👉 donde:

  • FN = falsos negativos

📊 Ejemplo conceptual

Muchos positivos perdidos ↓ Exhaustividad baja

🔄 Comparación directa

MétricaPregunta principal
Precisión“¿Cuántos positivos predichos eran correctos?”
Exhaustividad“¿Cuántos positivos reales encontré?”

📊 Ejemplo conceptual

Precisión → calidad Exhaustividad → cobertura

🧠 Trade-off

Frecuentemente existe un equilibrio:

Mayor precisión ↓ Menor exhaustividad

Mayor exhaustividad ↓ Más falsos positivos

👉 depende del umbral de decisión.


🧠 Ejemplos reales

🔹 Medicina

  • alta exhaustividad → detectar todas las enfermedades posibles

🔹 Spam

  • alta precisión → evitar marcar emails normales como spam

📊 Ejemplo conceptual

Problema crítico ↓ Elegir métrica más importante

🧠 Relación con matriz de confusión

Real / PredicciónPositivoNegativo
PositivoVPFN
NegativoFPVN

👉 precisión y exhaustividad dependen directamente de esta matriz.


🧠 Relación con F1-score

El F1-score combina ambas métricas.

F1=2PrecisioˊnExhaustividadPrecisioˊn+ExhaustividadF1=2\cdot\frac{\text{Precisión}\cdot\text{Exhaustividad}}{\text{Precisión}+\text{Exhaustividad}}


📊 Ejemplo conceptual

Precisión + exhaustividad ↓ Balance → F1-score

🧠 Uso en machine learning

Estas métricas se usan en:

  • clasificación binaria
  • detección de fraude
  • medicina
  • sistemas de búsqueda
  • moderación de contenido

📊 Ejemplo conceptual

Predicciones ↓ Errores ↓ Precisión y exhaustividad

📊 Ejemplo en Python




Python
from sklearn.metrics import precision_score, recall_score
y_true = [1, 0, 1, 1]
y_pred = [1, 0, 0, 1]
print(precision_score(y_true, y_pred))
print(recall_score(y_true, y_pred))

Ejemplo en PyTorch (conceptual)

# calcular VP, FP y FN manualmente

🧠 Qué muestran estos ejemplos

  • evaluación de positivos
  • impacto de errores
  • diferencias entre métricas

⚠️ Errores comunes

Usar solo accuracy

Puede ocultar problemas graves.


Ignorar el desbalance de clases

Afecta interpretación.


Maximizar una métrica ignorando la otra

Puede generar modelos inútiles.


📊 Ejemplo conceptual en ML

Modelo ↓ Predicciones ↓ Precisión vs exhaustividad ↓ Trade-off

🧠 Interpretación profunda

Esta comparación refleja un principio clave:

👉 Encontrar positivos y evitar falsos positivos son objetivos diferentes

Comprender el equilibrio entre:

  • precisión
  • exhaustividad

es esencial para diseñar sistemas confiables.

Conclusión

  • Precisión mide qué tan fiables son las predicciones positivas
  • Exhaustividad mide cuántos positivos reales detecta el modelo

👉 Ambas métricas son esenciales para evaluar clasificadores correctamente.

Related Concepts