Regla de Bayes

Actualizando probabilidades con nueva información

La Regla de Bayes permite actualizar la probabilidad de una hipótesis cuando se observa nueva evidencia.

👉 Es la base de la inferencia bayesiana y muchos modelos de machine learning.

Definición corta

La Regla de Bayes calcula la probabilidad de AAA dado BBB usando la probabilidad de BBB dado AAA.

Definición matemática

P(AB)=P(BA)P(A)P(B)P(A\mid B)=\frac{P(B\mid A)P(A)}{P(B)}

P(A)P(A)

P(BA)P(B\mid A)

P(B¬A)P(B\mid \neg A)

P(AB)=P(BA)P(A)P(B)0.68,  P(B)0.25P(A\mid B)=\frac{P(B\mid A)P(A)}{P(B)}\approx 0.68,\; P(B)\approx 0.25


👉 donde:

  • P(A)P(A): probabilidad previa (prior)
  • P(BA)P(B|A): verosimilitud (likelihood)
  • P(B)P(B): evidencia
  • P(AB)P(A|B): probabilidad posterior

🧠 Intuición

La Regla de Bayes responde:

👉 “¿Cómo cambia mi creencia sobre AA al observar BB?”


Creencia inicial ↓ Nueva evidencia ↓ Creencia actualizada

📊 Componentes clave

Prior → lo que crees antes Likelihood → evidencia Posterior → lo que crees después

📊 Ejemplo simple

Supongamos:

  • enfermedad rara
  • test médico
P(enfermedad) = bajo Test positivo ↓ Actualizar probabilidad

👉 Bayes combina ambas informaciones.


🔄 Relación con probabilidad condicional

Parte de:P(A,B)=P(AB)P(B)=P(BA)P(A)P(A,B)=P(A|B)P(B)=P(B|A)P(A)


👉 reorganizando obtenemos Bayes.


🧠 Interpretación probabilística

PosteriorLikelihood×Prior\text{Posterior} \propto \text{Likelihood} \times \text{Prior}Posterior∝Likelihood×Prior


👉 aprendizaje como actualización.


📊 Ejemplo conceptual

Datos ↓ Modelo ↓ Actualizar creencias

🧠 Uso en machine learning

La Regla de Bayes se usa en:

  • Naive Bayes
  • modelos bayesianos
  • inferencia probabilística
  • aprendizaje con incertidumbre

📊 Ejemplo conceptual

Entrada X ↓ Modelo ↓ P(Y|X)

🧠 Ejemplo en ML

  • clasificación:

P(clasedatos)P(clase | datos)

👉 base de predicción probabilística.


📊 Ejemplo en Python

# ejemplo simple
P_A = 0.1
P_B_given_A = 0.8
P_B = 0.2
P_A_given_B = (P_B_given_A * P_A) / P_B
print(P_A_given_B)

🧠 Qué muestra este ejemplo

  • actualización de probabilidad
  • integración de evidencia
  • inferencia

⚠️ Errores comunes

Confundir P(A|B) con P(B|A)

Son diferentes.


Ignorar el prior

Es clave.


Subestimar P(B)

Debe considerarse correctamente.


📊 Ejemplo conceptual en ML

Datos ↓ Bayes ↓ Posterior ↓ Decisión

🧠 Interpretación profunda

La Regla de Bayes refleja un principio fundamental:

👉 Aprender es actualizar creencias con evidencia

Conclusión

La Regla de Bayes permite actualizar probabilidades en función de nueva evidencia, siendo clave en inferencia y machine learning.

👉 Es uno de los conceptos más importantes en todo el campo.


Related Concepts