Definición breve
La precisión es una métrica de evaluación que mide la proporción de predicciones positivas correctas entre todas las predicciones positivas realizadas por el modelo.
Explicación del concepto
La precisión es una métrica clave en problemas de clasificación, especialmente cuando los falsos positivos son costosos.
Responde a la pregunta:
👉 De todas las veces que el modelo predijo “positivo”, ¿cuántas eran realmente correctas?
Se centra en la calidad de las predicciones positivas, no en la cantidad total de aciertos.
Cómo se calcula
La precisión se calcula utilizando:
- Verdaderos positivos (TP)
- Falsos positivos (FP)
Fórmula clave
Precisioˊn=TP+FPTP
Interpretación
- Alta precisión → pocas falsas alarmas
- Baja precisión → muchas predicciones positivas incorrectas
Por qué es importante
La precisión es fundamental cuando los falsos positivos tienen un alto costo.
Ejemplos:
- detección de fraude
- diagnóstico médico
- sistemas de seguridad
Permite evaluar qué tan confiables son las predicciones positivas del modelo.
Ejemplo conceptual
Si un modelo detecta 10 casos como positivos y 8 son correctos:
- Precisión = 8 / 10 = 0.8
Esto significa que el 80% de las predicciones positivas fueron correctas.
Ejemplo en PyTorch
Un ejemplo básico de cálculo de precisión:
tp = ((preds == 1) & (labels == 1)).sum().item()fp = ((preds == 1) & (labels == 0)).sum().item()precision = tp / (tp + fp)
Conceptos relacionados
Resumen
La precisión mide qué proporción de las predicciones positivas de un modelo son correctas. Es una métrica esencial en problemas de clasificación donde es importante minimizar los falsos positivos y asegurar la fiabilidad de las decisiones del modelo.