Derivada parcial

Cómo medir el cambio respecto a una variable en funciones multivariables

La derivada parcial mide cómo cambia una función con múltiples variables cuando solo una variable cambia y las demás se mantienen constantes.

👉 Es la base del gradiente, el Jacobiano y el entrenamiento de redes neuronales.

Definición corta

La derivada parcial mide el cambio de una función respecto a una variable, manteniendo las demás constantes.

Definición detallada

Para una función:f(x1,x2,...,xn)f(x_1, x_2, …, x_n)

La derivada parcial respecto a xix_ixi​ es:fxi\frac{\partial f}{\partial x_i}

👉 Indica cuánto cambia la función al variar solo xix_ixi​.

Intuición

La derivada parcial responde:

👉 “¿Qué pasa si solo cambio una variable y dejo las demás fijas?”

Función multivariable  

Cambio en una sola variable

Derivada parcial

Interpretación geométrica

  • es la pendiente en una dirección específica
  • se obtiene “cortando” la superficie

👉 Cada derivada parcial corresponde a una dirección.

Ejemplo simple

f(x,y)=x2+y2f(x, y) = x^2 + y^2

fx=2x\frac{\partial f}{\partial x} = 2xfy=2y\frac{\partial f}{\partial y} = 2y

👉 Cada variable tiene su propia derivada.

Relación con otros conceptos

  • Derivada
  • Gradiente
  • Jacobiano
  • Hessiano

Relación con el gradiente

El gradiente es:f=[fx1fx2]\nabla f = \begin{bmatrix} \frac{\partial f}{\partial x_1} \\ \frac{\partial f}{\partial x_2} \\ \vdots \end{bmatrix}

👉 Vector de derivadas parciales.

Ejemplo conceptual

x cambia → impacto en f  
y cambia → impacto en f
→ derivadas parciales separadas

Derivadas parciales en redes neuronales

🔹 1. Backpropagation

Calcula derivadas parciales:

👉 de cada peso

🔹 2. Ajuste de parámetros

Cada peso tiene:

👉 su propia derivada

🔹 3. Gradiente

Vector de derivadas parciales.

🔹 4. Sensibilidad

Permite saber:

👉 qué variable importa más

Ejemplo paso a paso

f(x,y)=x2+3xyf(x, y) = x^2 + 3xy

fx=2x+3y\frac{\partial f}{\partial x} = 2x + 3yfy=3x\frac{\partial f}{\partial y} = 3x

Ejemplo conceptual

f depende de x e y  

derivada parcial analiza cada uno por separado

Reglas básicas

🔹 Linealidad

(f+g)x=fx+gx\frac{\partial (f + g)}{\partial x} = \frac{\partial f}{\partial x} + \frac{\partial g}{\partial x}

🔹 Constantes

Variables fijas → tratadas como constantes

🔹 Regla de la cadena

fx=fuux\frac{\partial f}{\partial x} = \frac{\partial f}{\partial u} \cdot \frac{\partial u}{\partial x}

👉 Fundamental en redes neuronales.

Ejemplo en Python

import numpy as np
def f(x, y):
return x**2 + y**2
def partial_x(x, y, h=1e-5):
return (f(x + h, y) - f(x, y)) / h
def partial_y(x, y, h=1e-5):
return (f(x, y + h) - f(x, y)) / h
print("df/dx:", partial_x(2, 3))
print("df/dy:", partial_y(2, 3))

Ejemplo en PyTorch

import torch
x = torch.tensor(2.0, requires_grad=True)
y = torch.tensor(3.0, requires_grad=True)
z = x**2 + y**2
z.backward()
print("df/dx:", x.grad)
print("df/dy:", y.grad)

Ejemplo con función más compleja

import torch
x = torch.tensor(2.0, requires_grad=True)
y = torch.tensor(3.0, requires_grad=True)
z = x**2 + 3*x*y
z.backward()
print("df/dx:", x.grad)
print("df/dy:", y.grad)

Qué muestra este ejemplo

  • Cálculo de derivadas parciales
  • Base del gradiente
  • Uso en ML

Errores comunes

Olvidar fijar otras variables

Clave en derivadas parciales.

Confundir con derivada total

Son distintos conceptos.

Errores en regla de la cadena

Muy comunes en redes profundas.

Ejemplo conceptual en ML

Pesos del modelo  

Derivadas parciales

Actualización individual

Interpretación profunda

Las derivadas parciales permiten:

  • analizar funciones multivariables
  • construir gradientes
  • entrenar redes neuronales
  • entender sensibilidad por variable

👉 Son el mecanismo que permite ajustar cada parámetro de un modelo.

Conclusión

La derivada parcial mide cómo cambia una función respecto a cada variable individualmente. Es la base del gradiente y del entrenamiento en redes neuronales.

👉 Cada peso en un modelo se ajusta gracias a una derivada parcial.

Related Concepts