Cómo los modelos entienden la incertidumbre y aprenden de los datos
Las redes neuronales no operan en un mundo determinista: trabajan con datos ruidosos, incompletos y variables. La probabilidad y la estadística proporcionan el marco matemático para modelar la incertidumbre, interpretar resultados y evaluar el rendimiento.
Mientras que el cálculo permite aprender y la optimización ajusta parámetros, la probabilidad y la estadística responden a:
👉 “¿Qué tan seguros estamos de lo que el modelo predice?”
🧠 ¿Por qué son esenciales?
En redes neuronales:
- Los datos se modelan como distribuciones
- Las predicciones representan probabilidades
- La incertidumbre se cuantifica matemáticamente
- El rendimiento se evalúa con métricas estadísticas
👉 En esencia: permiten pasar de resultados numéricos a decisiones informadas.
🧩 Conceptos fundamentales de probabilidad
🔹 Variable aleatoria
Representa un valor incierto.
👉 Ejemplo:
- Clasificación → etiqueta desconocida
- Predicción → valor futuro
🔹 Distribución de probabilidad
Describe cómo se distribuyen los valores posibles.
👉 Tipos:
- Discreta
- Continua
🔹 Función de masa (PMF)
Probabilidad de valores discretos.
🔹 Función de densidad (PDF)
Probabilidad en variables continuas.
🔹 Función de distribución acumulada (CDF)
Probabilidad acumulada hasta un valor.
📊 Medidas clave
🔹 Esperanza matemática
Valor promedio esperado.
👉 Base de:
- Predicciones
- Funciones de pérdida
🔹 Varianza
Mide la dispersión de los datos.
🔹 Desviación estándar
Raíz de la varianza.
👉 Indica incertidumbre.
🔹 Covarianza
Relación entre dos variables.
🔹 Correlación
Versión normalizada de la covarianza.
👉 Mide dependencia lineal.
🔗 Relaciones probabilísticas
🔹 Probabilidad conjunta
Probabilidad de múltiples eventos simultáneamente.
🔹 Probabilidad marginal
Probabilidad de un evento ignorando otros.
🔹 Probabilidad condicional
Probabilidad de un evento dado otro.
🔹 Independencia
Eventos sin influencia mutua.
🔹 Regla de Bayes
Actualiza probabilidades con nueva evidencia.
👉 Fundamental en:
- Modelos probabilísticos
- Inferencia
📉 Teoría de la información (clave en deep learning)
🔹 Entropía
Mide la incertidumbre de una distribución.
🔹 Entropía cruzada
Mide la diferencia entre dos distribuciones.
👉 Base de la función de pérdida en clasificación.
🔹 Información mutua
Cantidad de información compartida entre variables.
🔹 Divergencia KL
Mide cuánto difieren dos distribuciones.
👉 Muy usada en:
- Modelos generativos
- VAEs
🎯 Distribuciones importantes
🔹 Distribución normal (gaussiana)
La más utilizada.
👉 Características:
- Simétrica
- Definida por media y varianza
🔹 Distribución uniforme
Todos los valores tienen la misma probabilidad.
🔹 Distribución Bernoulli
Resultados binarios (0 o 1).
🔹 Distribución binomial
Extensión de Bernoulli.
🔹 Distribución multinomial
Para múltiples categorías.
📊 Estadística aplicada
🔹 Media
Promedio de los datos.
🔹 Mediana
Valor central.
🔹 Moda
Valor más frecuente.
🔹 Percentiles
Dividen los datos en proporciones.
🔹 Cuartiles
División en cuatro partes.
📉 Inferencia estadística
🔹 Estimación puntual
Un valor estimado.
🔹 Intervalo de confianza
Rango probable de un valor.
🔹 Muestreo
Selección de subconjuntos de datos.
🔹 Error estándar
Variabilidad de una estimación.
🔹 Pruebas de hipótesis
Evaluación de supuestos.
🔹 Valor p
Probabilidad de observar resultados bajo una hipótesis.
📈 Modelos estadísticos básicos
🔹 Regresión lineal
Predicción continua.
🔹 Regresión logística
Clasificación binaria.
⚠️ Conceptos clave en ML
🔹 Sesgo (bias estadístico)
Error sistemático.
🔹 Varianza (modelo)
Sensibilidad a los datos.
🔹 Trade-off bias-varianza
Equilibrio entre:
- Simplicidad
- Capacidad
🔹 Overfitting
Modelo demasiado ajustado al entrenamiento.
🔹 Underfitting
Modelo demasiado simple.
🔗 Conexión con redes neuronales
| Componente | Concepto probabilístico |
|---|---|
| Output (softmax) | Distribución de probabilidad |
| Loss | Entropía cruzada |
| Predicción | Variable aleatoria |
| Evaluación | Métricas estadísticas |
| Generalización | Bias-varianza |
🚀 Ruta recomendada dentro de este sub-hub
Para dominar este dominio:
- Variable aleatoria
- Distribuciones
- Esperanza y varianza
- Probabilidad condicional
- Regla de Bayes
- Entropía y entropía cruzada
- Divergencia KL
- Bias-varianza
📚 Entradas del diccionario en esta sección
Explora cada concepto en profundidad:
- Variable aleatoria
- Distribución de probabilidad
- PMF
- CDF
- Esperanza
- Varianza
- Desviación estándar
- Covarianza
- Correlación
- Probabilidad conjunta
- Probabilidad marginal
- Probabilidad condicional
- Independencia
- Regla de Bayes
- Entropía
- Entropía cruzada
- Información mutua
- Divergencia KL
- Distribución normal
- Distribución uniforme
- Distribución Bernoulli
- Distribución binomial
- Distribución multinomial
- Media
- Mediana
- Moda
- Percentiles
- Cuartiles
- Estimación puntual
- Intervalo de confianza
- Muestreo
- Error estándar
- Pruebas de hipótesis
- Valor p
- Regresión lineal
- Regresión logística
- Sesgo
- Varianza
- Bias-varianza
- Overfitting
- Underfitting
✨ Conclusión
La probabilidad y la estadística permiten a las redes neuronales ir más allá de simples cálculos:
les permiten razonar bajo incertidumbre, generalizar y tomar decisiones informadas.
Sin este marco, los modelos serían cajas negras sin interpretación.
🧠 Siguiente paso
Después de dominar este sub-hub, continúa con:
👉 Geometría y Espacios de Representación — donde descubrirás cómo las redes neuronales organizan y transforman la información en espacios de alta dimensión.