Redes neuronales probabilísticas

Modelos que predicen distribuciones en lugar de valores

Las redes neuronales probabilísticas son modelos que, en lugar de producir una única predicción, generan una distribución de probabilidad sobre las posibles salidas.

👉 Permiten representar explícitamente la incertidumbre y variabilidad en los datos.


Definición corta

Las redes neuronales probabilísticas producen salidas probabilísticas en lugar de valores deterministas.


📐 Fundamento matemático

P(yx,θ)P(y \mid x,\theta)


👉 donde:

  • xx: entrada
  • yy: salida
  • θ\theta: parámetros del modelo

🧠 Intuición

Una red probabilística responde:

👉 “No solo te doy una respuesta, sino qué tan probable es cada posible respuesta”


Entrada ↓ Distribución de salida ↓ Predicción + incertidumbre

🔄 Diferencia con redes neuronales clásicas

Redes clásicasRedes probabilísticas
salida puntualdistribución
deterministaprobabilística
sin incertidumbrecon incertidumbre

📊 Ejemplo conceptual

Red clásica → y = 5 Red probabilística → y ~ distribución

🧠 Tipos de salidas probabilísticas

🔹 Clasificación

  • distribución categórica
  • softmax

🔹 Regresión

  • distribución normal
  • predicción de media y varianza

📊 Ejemplo conceptual

Regresión ↓ Media + varianza ↓ Distribución completa

🧠 Relación con redes neuronales bayesianas

  • redes probabilísticas → salida probabilística
  • redes bayesianas → pesos probabilísticos

👉 ambas modelan incertidumbre, pero en niveles distintos.


📊 Ejemplo conceptual

Pesos inciertos → BNN Salida incierta → red probabilística

🧠 Uso en machine learning

Las redes probabilísticas se usan en:

  • predicción con incertidumbre
  • modelos generativos
  • detección de anomalías
  • sistemas críticos

📊 Ejemplo conceptual

Datos ↓ Modelo probabilístico ↓ Distribución ↓ Decisión

🧠 Ventajas

  • modelan incertidumbre
  • más informativas
  • mejor toma de decisiones

🧠 Desventajas

  • más complejas
  • requieren diseño cuidadoso
  • mayor costo computacional

🧠 Funciones de pérdida típicas

  • log-likelihood
  • cross-entropy
  • KL divergence

📊 Ejemplo conceptual

Distribución predicha ↓ Comparar con datos ↓ Optimización

📊 Ejemplo en Python (conceptual)

import numpy as np
# modelo que predice media y desviación
mean = 5
std = 1
samples = np.random.normal(mean, std, 5)
print(samples)

🧠 Qué muestra este ejemplo

  • predicción probabilística
  • variabilidad
  • incertidumbre

📊 Ejemplo en PyTorch

import torch
mean = torch.tensor([5.0])
std = torch.tensor([1.0])
dist = torch.distributions.Normal(mean, std)
print(dist.sample((5,)))

⚠️ Errores comunes

Pensar que solo aplican a modelos bayesianos

No necesariamente.


Ignorar calibración

Probabilidades deben ser fiables.


Confundir con ruido

Es incertidumbre estructurada.


📊 Ejemplo conceptual en ML

Entrada ↓ Distribución ↓ Rango de predicción ↓ Decisión informada

🧠 Interpretación profunda

Las redes neuronales probabilísticas reflejan un principio clave:

👉 El mundo no es determinista, y los modelos tampoco deberían serlo

Permiten:

  • representar incertidumbre
  • mejorar robustez
  • tomar decisiones más seguras

Conclusión

Las redes neuronales probabilísticas producen distribuciones de salida en lugar de valores únicos, permitiendo modelar incertidumbre de forma explícita.

👉 Son clave para aplicaciones donde la confianza en la predicción es tan importante como la predicción misma.


Related Concepts