Derivada

Cómo medir el cambio instantáneo de una función

La derivada mide qué tan rápido cambia una función respecto a una variable. Es uno de los conceptos más importantes en matemáticas y la base del aprendizaje en redes neuronales.

👉 Sin derivadas, no existirían gradientes, optimización ni backpropagation.

Definición corta

La derivada mide la tasa de cambio instantánea de una función

Definición detallada

La derivada de una función f(x)f(x)f(x) se define como:f(x)=limh0f(x+h)f(x)hf'(x) = \lim_{h \to 0} \frac{f(x + h) – f(x)}{h}f′(x)=h→0lim​hf(x+h)−f(x)​

👉 Representa el cambio infinitesimal en la función.

Intuición

La derivada responde:

👉 “¿Qué tan rápido está cambiando esta función en este punto?”


Función → curva  
Derivada → pendiente de la curva

Interpretación geométrica

  • es la pendiente de la tangente
  • describe inclinación local

Ejemplo simple

f(x)=x2f(x) = x^2f(x)=x2


Derivada:f(x)=2xf'(x) = 2xf′(x)=2x


👉 En x=2x = 2x=2: pendiente = 4

Relación con otros conceptos

  • Gradiente
  • Jacobiano
  • Hessiano
  • Aproximación de Taylor

Tipos de derivadas

🔹 1. Derivada ordinaria

Una variable → una función

🔹 2. Derivadas parciales

Múltiples variablesfx\frac{\partial f}{\partial x}

🔹 3. Derivada total

Considera todas las variables.

Ejemplo con derivadas parciales

f(x,y)=x2+y2f(x, y) = x^2 + y^2

fx=2x,fy=2y\frac{\partial f}{\partial x} = 2x, \quad \frac{\partial f}{\partial y} = 2y

Derivadas en redes neuronales

🔹 1. Backpropagation

Calcula derivadas de la función de pérdida:

👉 ajusta pesos

🔹 2. Gradiente

Vector de derivadas.

🔹 3. Optimización

Permite minimizar la pérdida.

🔹 4. Sensibilidad

Indica qué variables influyen más.

Ejemplo conceptual

Entrada  

Función

Derivada → sensibilidad

Reglas básicas

🔹 Regla de la suma

(f+g)=f+g(f + g)’ = f’ + g’(f+g)′=f′+g′

🔹 Regla del producto

(fg)=fg+fg(fg)’ = f’g + fg’

🔹 Regla de la cadena

(f(g(x)))=f(g(x))g(x)(f(g(x)))’ = f'(g(x)) \cdot g'(x)

👉 Fundamental en redes neuronales.

Ejemplo paso a paso

f(x)=3x2+2xf(x) = 3x^2 + 2x


f(x)=6x+2f'(x) = 6x + 2


Ejemplo en Python

import numpy as np
def f(x):
return x**2
def derivative(x, h=1e-5):
return (f(x + h) - f(x)) / h
print("Derivada aproximada:", derivative(2))

Ejemplo en PyTorch

import torch
x = torch.tensor(2.0, requires_grad=True)
y = x**2
y.backward()
print("Derivada:", x.grad)

Ejemplo con función compuesta

import torch
x = torch.tensor(2.0, requires_grad=True)
y = (x**2 + 1)**3
y.backward()
print("Derivada:", x.grad)

Qué muestra este ejemplo

  • Cálculo de derivadas
  • Base del gradiente
  • Uso en ML

Errores comunes

Confundir derivada con valor de la función

Son conceptos distintos.

Ignorar la regla de la cadena

Clave en redes profundas.

Problemas numéricos

Derivadas mal calculadas → errores.

Ejemplo conceptual en ML

Función de pérdida  

Derivadas

Actualización de pesos

Interpretación profunda

La derivada permite:

  • medir cambio
  • optimizar funciones
  • entrenar modelos
  • entender sensibilidad

👉 Es el núcleo matemático del aprendizaje automático.

Conclusión

La derivada mide cómo cambia una función y es la base de gradientes, optimización y aprendizaje en redes neuronales.

👉 Sin derivadas, no hay aprendizaje.

Related Concepts