Precisión

Definición breve

La precisión es una métrica de evaluación que mide la proporción de predicciones positivas correctas entre todas las predicciones positivas realizadas por el modelo.

Explicación del concepto

La precisión es una métrica clave en problemas de clasificación, especialmente cuando los falsos positivos son costosos.

Responde a la pregunta:

👉 De todas las veces que el modelo predijo “positivo”, ¿cuántas eran realmente correctas?

Se centra en la calidad de las predicciones positivas, no en la cantidad total de aciertos.

Cómo se calcula

La precisión se calcula utilizando:

  • Verdaderos positivos (TP)
  • Falsos positivos (FP)

Fórmula clave

Precisioˊn=TPTP+FP\text{Precisión} = \frac{TP}{TP + FP}Precisioˊn=TP+FPTP​

Interpretación

  • Alta precisión → pocas falsas alarmas
  • Baja precisión → muchas predicciones positivas incorrectas

Por qué es importante

La precisión es fundamental cuando los falsos positivos tienen un alto costo.

Ejemplos:

  • detección de fraude
  • diagnóstico médico
  • sistemas de seguridad

Permite evaluar qué tan confiables son las predicciones positivas del modelo.

Ejemplo conceptual

Si un modelo detecta 10 casos como positivos y 8 son correctos:

  • Precisión = 8 / 10 = 0.8

Esto significa que el 80% de las predicciones positivas fueron correctas.

Ejemplo en PyTorch

Un ejemplo básico de cálculo de precisión:

tp = ((preds == 1) & (labels == 1)).sum().item()
fp = ((preds == 1) & (labels == 0)).sum().item()
precision = tp / (tp + fp)

Conceptos relacionados

Resumen

La precisión mide qué proporción de las predicciones positivas de un modelo son correctas. Es una métrica esencial en problemas de clasificación donde es importante minimizar los falsos positivos y asegurar la fiabilidad de las decisiones del modelo.