Probabilidad conjunta

Probabilidad de que ocurran múltiples eventos simultáneamente

La probabilidad conjunta mide la probabilidad de que dos o más eventos ocurran al mismo tiempo. Es uno de los conceptos fundamentales en probabilidad y estadística, y es clave para entender modelos probabilísticos, redes neuronales y aprendizaje automático.

Definición corta

La probabilidad conjunta es la probabilidad de que varios eventos ocurran simultáneamente.

Definición detallada

Para dos eventos AAA y BBB:P(A,B)=P(AB)P(A, B) = P(A \cap B)

👉 Representa la probabilidad de que A y B ocurran juntos.

Intuición

La probabilidad conjunta responde:

👉 “¿Qué tan probable es que ambas cosas pasen al mismo tiempo?”

Ejemplo

  • Evento A: “llueve”
  • Evento B: “hace frío”

P(A,B)P(A, B)

👉 Probabilidad de que llueva Y haga frío.

Interpretación

  • Considera múltiples variables
  • Captura relaciones entre eventos
  • Base de modelos probabilísticos

Relación con otros conceptos

  • Probabilidad marginal
  • Probabilidad condicional
  • Regla de Bayes
  • Independencia

Regla del producto

P(A,B)=P(AB)P(B)P(A, B) = P(A | B) \cdot P(B)

👉 También:P(A,B)=P(BA)P(A)P(A, B) = P(B | A) \cdot P(A)

Caso especial: eventos independientes

Si AAA y BBB son independientes:P(A,B)=P(A)P(B)P(A, B) = P(A) \cdot P(B)👉 No se afectan entre sí.

Ejemplo paso a paso

Supongamos:P(A)=0.5,P(B)=0.4P(A) = 0.5, \quad P(B) = 0.4

Si son independientes:P(A,B)=0.5×0.4=0.2P(A, B) = 0.5 \times 0.4 = 0.2

Distribución conjunta

Para variables discretas:

ABP(A,B)
000.2
010.3
100.1
110.4

👉 Describe completamente la relación entre variables.

Probabilidad conjunta en redes neuronales

🔹 1. Modelos generativos

Aprenden:P(X,Y)P(X, Y)P(X,Y)

👉 distribución completa de datos.

🔹 2. Modelos autoregresivos

P(x1,x2,...,xn)P(x_1, x_2, …, x_n)P(x1​,x2​,…,xn​)

Se descompone como:P(x1)P(x2x1)P(x3x1,x2)...P(x_1) P(x_2|x_1) P(x_3|x_1,x_2) …P(x1​)P(x2​∣x1​)P(x3​∣x1​,x2​)…

🔹 3. NLP (Lenguaje)

Modelos predicen:

👉 probabilidad conjunta de secuencias de palabras

🔹 4. Redes bayesianas

Representan:

👉 dependencias entre variables

Ejemplo conceptual

P(palabra1, palabra2, palabra3)

👉 Probabilidad de una frase completa.

Relación con marginalización

P(A)=BP(A,B)P(A) = \sum_B P(A, B)

👉 Se obtiene la probabilidad marginal.

Ejemplo en Python

# Probabilidad conjunta independiente
P_A = 0.5
P_B = 0.4
P_joint = P_A * P_B
print("P(A, B):", P_joint)

Ejemplo con datos

import numpy as np
# Distribución conjunta
joint = np.array([
[0.2, 0.3],
[0.1, 0.4]
])
print("Distribución conjunta:\n", joint)
print("Suma total:", joint.sum())

Ejemplo con marginalización

# Marginal sobre filas
P_A = joint.sum(axis=1)
print("P(A):", P_A)

Ejemplo en PyTorch

import torch
joint = torch.tensor([
[0.2, 0.3],
[0.1, 0.4]
])
P_A = torch.sum(joint, dim=1)
print("Marginal P(A):", P_A)

Ejemplo en modelos secuenciales

import numpy as np
# Probabilidades condicionales
P1 = 0.5
P2_given_1 = 0.6
P3_given_12 = 0.7
joint = P1 * P2_given_1 * P3_given_12
print("Probabilidad conjunta:", joint)

Qué muestra este ejemplo

  • Cómo combinar probabilidades
  • Base de modelos secuenciales
  • Uso en ML

Errores comunes

Asumir independencia siempre

No siempre es válido.

Confundir con probabilidad condicional

Son conceptos distintos.

No normalizar distribuciones

La suma debe ser 1.

Ejemplo conceptual en ML

Imagen + etiquetaP(imagen, etiqueta)

👉 Base de clasificación.

Interpretación profunda

La probabilidad conjunta permite:

  • modelar relaciones complejas
  • construir modelos generativos
  • analizar dependencias
  • descomponer problemas complejos

👉 Es la base de cómo los modelos entienden datos.

Conclusión

La probabilidad conjunta describe la probabilidad de múltiples eventos simultáneamente y es fundamental para modelar relaciones entre variables en machine learning.

👉 Es el punto de partida para entender modelos probabilísticos avanzados.

Related Concepts

  • Probabilidad marginal
  • Probabilidad condicional
  • Regla de Bayes
  • Independencia
  • Distribuciones