Distribución normal (Gaussiana)

La forma fundamental de la incertidumbre en machine learning

La distribución normal, también conocida como distribución Gaussiana, es una de las distribuciones de probabilidad más importantes en estadística y machine learning. Describe cómo se distribuyen los datos alrededor de una media, formando la clásica curva en forma de campana.

👉 Es fundamental para modelar ruido, inicializar redes y entender datos reales.

Definición corta

La distribución normal es una distribución continua caracterizada por una media y una desviación estándar, donde los datos se concentran alrededor del centro.

Definición detallada

La función de densidad de probabilidad es:f(x)=1σ2πexp((xμ)22σ2)f(x) = \frac{1}{\sigma \sqrt{2\pi}} \exp\left(-\frac{(x – \mu)^2}{2\sigma^2}\right)

👉 Donde:

  • μ\muμ = media
  • σ\sigmaσ = desviación estándar

Propiedades clave

  • Simétrica alrededor de la media
  • Forma de campana
  • Media = mediana = moda
  • Controlada por μ\muμ y σ\sigmaσ

Intuición

La distribución normal describe:

👉 “Dónde es más probable encontrar valores”

Ejemplo

  • Altura de personas
  • Ruido en sensores
  • Errores de medición

👉 Muchos fenómenos reales siguen esta distribución.

Regla empírica (68–95–99.7)

IntervaloPorcentaje
±1σ68%
±2σ95%
±3σ99.7%

👉 La mayoría de los valores están cerca de la media.

Visualización conceptual

        ^
| *
| * *
| * *
| * *
| * *
--------+-------------------->
μ-σ μ μ+σ

Estandarización (Z-score)

z=xμσz = \frac{x – \mu}{\sigma}z=σx−μ​

👉 Convierte datos a:

  • media = 0
  • desviación estándar = 1

Distribución normal en redes neuronales

🔹 1. Inicialización de pesos

Pesos inicializados como:WN(0,σ2)W \sim \mathcal{N}(0, \sigma^2)W∼N(0,σ2)

👉 Mejora estabilidad del entrenamiento.

🔹 2. Ruido y regularización

Se añade ruido gaussiano para:

  • mejorar generalización
  • evitar overfitting

🔹 3. Modelado probabilístico

Ejemplo:

  • regresión gaussiana
  • modelos bayesianos

🔹 4. Batch Normalization

Normaliza activaciones hacia distribución normal.

Ejemplo paso a paso

μ=0,σ=1\mu = 0, \quad \sigma = 1

Valores típicos:

  • 0 → muy probable
  • ±1 → probable
  • ±3 → raro

Relación con otros conceptos

  • Varianza
  • Covarianza
  • Probabilidad
  • Entropía
  • Distribuciones

Ejemplo en Python

import numpy as np
data = np.random.normal(loc=0, scale=1, size=1000)
print("Media:", np.mean(data))
print("Std:", np.std(data))

Ejemplo de densidad

import numpy as np
from scipy.stats import norm
x = np.linspace(-3, 3, 100)
pdf = norm.pdf(x, loc=0, scale=1)
print(pdf[:5])

Ejemplo en PyTorch

import torch
data = torch.normal(mean=0.0, std=1.0, size=(1000,))
print("Media:", data.mean().item())
print("Std:", data.std().item())

Ejemplo en inicialización de red

import torch
# Inicialización de pesos
W = torch.randn(3, 3) * 0.01
print("Pesos:\n", W)

Ejemplo con ruido

import torch
x = torch.tensor([1.0, 2.0, 3.0])
noise = torch.normal(mean=0.0, std=0.1, size=x.shape)
x_noisy = x + noise
print("Original:", x)
print("Con ruido:", x_noisy)

Qué muestra este ejemplo

  • Generación de datos gaussianos
  • Uso en inicialización
  • Introducción de ruido

Errores comunes

Asumir que todos los datos son normales

No siempre es cierto.

Ignorar outliers

La distribución normal los penaliza fuertemente.

Confundir varianza y desviación estándar

σ2\sigma^2σ2 vs σ\sigmaσ

Ejemplo conceptual en ML

Errores del modelo → distribución normal → optimización basada en L2

Interpretación profunda

La distribución normal permite:

  • modelar incertidumbre
  • describir ruido
  • diseñar algoritmos robustos
  • entender datos reales

👉 Es la base de gran parte de la estadística moderna.

Conclusión

La distribución normal (Gaussiana) es una de las herramientas más fundamentales para modelar datos, ruido e incertidumbre. Está presente en múltiples áreas del machine learning, desde inicialización hasta optimización.

👉 Entenderla es clave para entender cómo se comportan los datos y los modelos.

Related Concepts