Hessiano

La matriz que describe la curvatura de una función

El Hessiano es una matriz que contiene todas las segundas derivadas parciales de una función multivariable. Describe cómo cambia la pendiente (gradiente), es decir, la curvatura de la función.

👉 Es fundamental para entender la forma de la superficie de pérdida en machine learning.

Definición corta

El Hessiano es una matriz de segundas derivadas que describe la curvatura de una función.

Definición detallada

Para una función f(x1,x2,...,xn)f(x_1, x_2, …, x_n)f(x1​,x2​,…,xn​), el Hessiano es:H=[2fx122fx1x22fx2x12fx22]H = \begin{bmatrix} \frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1 \partial x_2} & \cdots \\ \frac{\partial^2 f}{\partial x_2 \partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots \\ \vdots & \vdots & \ddots \end{bmatrix}

👉 Es una matriz cuadrada de tamaño n×nn \times nn×n.

Intuición

El Hessiano responde:

👉 “¿Cómo cambia la pendiente en diferentes direcciones?”

Interpretación

  • Gradiente → dirección
  • Hessiano → forma

Gradiente → inclinación  
Hessiano → curvatura

Interpretación geométrica

  • describe si la función es convexa o no
  • indica si estamos en un valle, colina o silla

Clasificación con el Hessiano

TipoCondición
MínimoHessiano positivo definido
MáximoHessiano negativo definido
Saddle pointHessiano indefinido

Ejemplo simple

f(x,y)=x2+y2f(x, y) = x^2 + y^2


Hessiano:H=[2002]H = \begin{bmatrix} 2 & 0 \\ 0 & 2 \end{bmatrix}

👉 Positivo definido → mínimo.

Relación con otros conceptos

  • Gradiente
  • Aproximación de Taylor
  • Optimización
  • Puntos críticos

Hessiano en machine learning

🔹 1. Optimización

Métodos de segundo orden:

  • Newton
  • L-BFGS

🔹 2. Curvatura de la pérdida

Permite entender:

  • estabilidad
  • convergencia

🔹 3. Escalado del aprendizaje

Curvatura alta:

👉 requiere pasos pequeños

🔹 4. Saddle points

Detecta regiones problemáticas.

Relación con Taylor

f(x)f(x0)+f(x0)(xx0)+12(xx0)TH(xx0)f(x) \approx f(x_0) + \nabla f(x_0)(x-x_0) + \frac{1}{2}(x-x_0)^T H (x-x_0)

👉 Hessiano captura la curvatura.

Ejemplo conceptual

Superficie plana → Hessiano ≈ 0  
Curva pronunciada → Hessiano grande

Ejemplo paso a paso

f(x,y)=x2y2f(x, y) = x^2 – y^2

Hessiano:H=[2002]H = \begin{bmatrix} 2 & 0 \\ 0 & -2 \end{bmatrix}

👉 Indefinido → punto silla.


Ejemplo en Python

import numpy as np
# Hessiano manual
H = np.array([
[2, 0],
[0, 2]
])
print("Hessiano:\n", H)

Ejemplo en PyTorch (automático)

import torch
from torch.autograd.functional import hessian
def f(x):
return x[0]**2 + x[1]**2
x = torch.tensor([1.0, 2.0])
H = hessian(f, x)
print("Hessiano:\n", H)

Ejemplo con saddle point

import torch
from torch.autograd.functional import hessian
def f(x):
return x[0]**2 - x[1]**2
x = torch.tensor([0.0, 0.0])
H = hessian(f, x)
print("Hessiano:\n", H)

Qué muestra este ejemplo

  • Curvatura de funciones
  • Clasificación de puntos
  • Uso en ML

Errores comunes

Ignorar el Hessiano

Puede ocultar problemas de convergencia.

Confundir con gradiente

Son conceptos distintos.


Asumir convexidad

No todas las funciones lo son.

Ejemplo conceptual en ML

Superficie de pérdida  

Hessiano analiza curvatura

Optimización eficiente

Interpretación profunda

El Hessiano permite:

  • analizar curvatura
  • mejorar optimización
  • detectar mínimos y saddle points
  • entender la geometría del aprendizaje

👉 Es clave para comprender cómo se comportan los modelos en profundidad.

Conclusión

El Hessiano describe la curvatura de una función y es esencial para analizar optimización, estabilidad y comportamiento de modelos. Complementa al gradiente y permite entender mejor la superficie de pérdida.

👉 Si el gradiente indica “hacia dónde ir”, el Hessiano indica “cómo es el terreno”.

Related Concepts