Cómo medir el cambio respecto a una variable en funciones multivariables
La derivada parcial mide cómo cambia una función con múltiples variables cuando solo una variable cambia y las demás se mantienen constantes.
👉 Es la base del gradiente, el Jacobiano y el entrenamiento de redes neuronales.
Definición corta
La derivada parcial mide el cambio de una función respecto a una variable, manteniendo las demás constantes.
Definición detallada
Para una función:
La derivada parcial respecto a xi es:
👉 Indica cuánto cambia la función al variar solo xi.
Intuición
La derivada parcial responde:
👉 “¿Qué pasa si solo cambio una variable y dejo las demás fijas?”
Función multivariable
↓
Cambio en una sola variable
↓
Derivada parcial
Interpretación geométrica
- es la pendiente en una dirección específica
- se obtiene “cortando” la superficie
👉 Cada derivada parcial corresponde a una dirección.
Ejemplo simple
👉 Cada variable tiene su propia derivada.
Relación con otros conceptos
- Derivada
- Gradiente
- Jacobiano
- Hessiano
Relación con el gradiente
El gradiente es:
👉 Vector de derivadas parciales.
Ejemplo conceptual
x cambia → impacto en f
y cambia → impacto en f
→ derivadas parciales separadas
Derivadas parciales en redes neuronales
🔹 1. Backpropagation
Calcula derivadas parciales:
👉 de cada peso
🔹 2. Ajuste de parámetros
Cada peso tiene:
👉 su propia derivada
🔹 3. Gradiente
Vector de derivadas parciales.
🔹 4. Sensibilidad
Permite saber:
👉 qué variable importa más
Ejemplo paso a paso
Ejemplo conceptual
f depende de x e y
↓
derivada parcial analiza cada uno por separado
Reglas básicas
🔹 Linealidad
🔹 Constantes
Variables fijas → tratadas como constantes
🔹 Regla de la cadena
👉 Fundamental en redes neuronales.
Ejemplo en Python
import numpy as npdef f(x, y): return x**2 + y**2def partial_x(x, y, h=1e-5): return (f(x + h, y) - f(x, y)) / hdef partial_y(x, y, h=1e-5): return (f(x, y + h) - f(x, y)) / hprint("df/dx:", partial_x(2, 3))print("df/dy:", partial_y(2, 3))
Ejemplo en PyTorch
import torchx = torch.tensor(2.0, requires_grad=True)y = torch.tensor(3.0, requires_grad=True)z = x**2 + y**2z.backward()print("df/dx:", x.grad)print("df/dy:", y.grad)
Ejemplo con función más compleja
import torchx = torch.tensor(2.0, requires_grad=True)y = torch.tensor(3.0, requires_grad=True)z = x**2 + 3*x*yz.backward()print("df/dx:", x.grad)print("df/dy:", y.grad)
Qué muestra este ejemplo
- Cálculo de derivadas parciales
- Base del gradiente
- Uso en ML
Errores comunes
Olvidar fijar otras variables
Clave en derivadas parciales.
Confundir con derivada total
Son distintos conceptos.
Errores en regla de la cadena
Muy comunes en redes profundas.
Ejemplo conceptual en ML
Pesos del modelo
↓
Derivadas parciales
↓
Actualización individual
Interpretación profunda
Las derivadas parciales permiten:
- analizar funciones multivariables
- construir gradientes
- entrenar redes neuronales
- entender sensibilidad por variable
👉 Son el mecanismo que permite ajustar cada parámetro de un modelo.
Conclusión
La derivada parcial mide cómo cambia una función respecto a cada variable individualmente. Es la base del gradiente y del entrenamiento en redes neuronales.
👉 Cada peso en un modelo se ajusta gracias a una derivada parcial.