Derivada total

Cómo medir el cambio completo cuando todas las variables influyen

La derivada total mide cómo cambia una función cuando todas sus variables pueden cambiar simultáneamente, teniendo en cuenta sus dependencias.

👉 Es clave cuando las variables no son independientes, como en modelos encadenados o redes neuronales.

Definición corta

La derivada total mide el cambio total de una función considerando todas las variables y sus dependencias.

Definición detallada

Para una función:f(x,y)f(x, y)

El diferencial total es:df=fxdx+fydydf = \frac{\partial f}{\partial x} dx + \frac{\partial f}{\partial y} dy

👉 Describe el cambio total en fff.

Intuición

La derivada total responde:

👉 “Si todo cambia a la vez, ¿cuál es el efecto total?”

Cambio en x  
+ cambio en y

Cambio total en f

Interpretación geométrica

  • combinación de múltiples pendientes
  • describe movimiento en el espacio

👉 Es una suma ponderada de cambios.

Ejemplo simple

f(x,y)=x2+y2f(x, y) = x^2 + y^2

df=2xdx+2ydydf = 2x\,dx + 2y\,dy

👉 Cambio total depende de ambos.

Relación con otros conceptos

  • Derivada parcial
  • Gradiente
  • Jacobiano
  • Regla de la cadena

Relación con el gradiente

df=fdxdf = \nabla f \cdot dx

👉 Producto punto entre:

  • gradiente
  • cambio en variables

Ejemplo conceptual

Vector de cambios  

Gradiente

Cambio total en función

Caso importante: variables dependientes

Si:z=f(x,y),y=g(x)z = f(x, y), \quad y = g(x)

Entonces:dzdx=fx+fydydx\frac{dz}{dx} = \frac{\partial f}{\partial x} + \frac{\partial f}{\partial y} \cdot \frac{dy}{dx}

👉 Regla de la cadena completa.

Ejemplo paso a paso

z=x2+y2,y=x2z = x^2 + y^2, \quad y = x^2

dzdx=2x+2y2x\frac{dz}{dx} = 2x + 2y \cdot 2x

Sustituyendo y=x2y = x^2y=x2:=2x+4x3= 2x + 4x^3


📊 Ejemplo conceptual

Variable depende de otra  

Cambio indirecto

Derivada total captura todo

Derivada total en machine learning

🔹 1. Backpropagation

Calcula derivadas totales:

👉 a través de múltiples capas

🔹 2. Regla de la cadena

Base de todo el aprendizaje.

🔹 3. Redes neuronales

Cada parámetro afecta indirectamente la salida.

🔹 4. Sensibilidad global

Incluye efectos directos e indirectos.

Ejemplo conceptual

Entrada  

Capas intermedias

Salida

Derivada total fluye hacia atrás

Forma general

Para múltiples variables:df=ifxidxidf = \sum_i \frac{\partial f}{\partial x_i} dx_i

👉 suma de todos los efectos.

Ejemplo en Python

Python
import numpy as np
# f(x,y) = x^2 + y^2
# y = x^2
def total_derivative(x):
y = x**2
df_dx = 2*x
df_dy = 2*y
dy_dx = 2*x
return df_dx + df_dy * dy_dx
print(total_derivative(2))

Ejemplo en PyTorch

Python
import torch
x = torch.tensor(2.0, requires_grad=True)
y = x**2
z = x**2 + y**2
z.backward()
print("Derivada total:", x.grad)

Ejemplo encadenado

Python
import torch
x = torch.tensor(2.0, requires_grad=True)
a = x**2
b = a + 1
c = b**3
c.backward()
print("Derivada total:", x.grad)

Qué muestra este ejemplo

  • Dependencias entre variables
  • Regla de la cadena
  • Base de backpropagation

Errores comunes

Ignorar dependencias

Pierde información clave.

Confundir con derivada parcial

No son lo mismo.

No aplicar regla de la cadena

Error crítico en ML.

Ejemplo conceptual en ML

Parámetro  

Múltiples capas

Impacto total en pérdida

Interpretación profunda

La derivada total permite:

  • capturar efectos completos
  • modelar sistemas complejos
  • entender flujos de información
  • entrenar redes neuronales

👉 Es la base matemática del aprendizaje profundo.

Conclusión

La derivada total mide el cambio completo de una función considerando todas las variables y sus dependencias. Es esencial para entender cómo fluye la información en sistemas complejos.

👉 Es la versión “completa” de la derivada en entornos reales.

Related Concepts