Cómo medir el cambio instantáneo de una función
La derivada mide qué tan rápido cambia una función respecto a una variable. Es uno de los conceptos más importantes en matemáticas y la base del aprendizaje en redes neuronales.
👉 Sin derivadas, no existirían gradientes, optimización ni backpropagation.
Definición corta
La derivada mide la tasa de cambio instantánea de una función
Definición detallada
La derivada de una función f(x) se define como:f′(x)=h→0limhf(x+h)−f(x)
👉 Representa el cambio infinitesimal en la función.
Intuición
La derivada responde:
👉 “¿Qué tan rápido está cambiando esta función en este punto?”
Función → curva
Derivada → pendiente de la curva
Interpretación geométrica
- es la pendiente de la tangente
- describe inclinación local
Ejemplo simple
f(x)=x2
Derivada:f′(x)=2x
👉 En x=2: pendiente = 4
Relación con otros conceptos
- Gradiente
- Jacobiano
- Hessiano
- Aproximación de Taylor
Tipos de derivadas
🔹 1. Derivada ordinaria
Una variable → una función
🔹 2. Derivadas parciales
Múltiples variables
🔹 3. Derivada total
Considera todas las variables.
Ejemplo con derivadas parciales
Derivadas en redes neuronales
🔹 1. Backpropagation
Calcula derivadas de la función de pérdida:
👉 ajusta pesos
🔹 2. Gradiente
Vector de derivadas.
🔹 3. Optimización
Permite minimizar la pérdida.
🔹 4. Sensibilidad
Indica qué variables influyen más.
Ejemplo conceptual
Entrada
↓
Función
↓
Derivada → sensibilidad
Reglas básicas
🔹 Regla de la suma
(f+g)′=f′+g′
🔹 Regla del producto
🔹 Regla de la cadena
👉 Fundamental en redes neuronales.
Ejemplo paso a paso
Ejemplo en Python
import numpy as npdef f(x): return x**2def derivative(x, h=1e-5): return (f(x + h) - f(x)) / hprint("Derivada aproximada:", derivative(2))
Ejemplo en PyTorch
import torchx = torch.tensor(2.0, requires_grad=True)y = x**2y.backward()print("Derivada:", x.grad)
Ejemplo con función compuesta
import torchx = torch.tensor(2.0, requires_grad=True)y = (x**2 + 1)**3y.backward()print("Derivada:", x.grad)
Qué muestra este ejemplo
- Cálculo de derivadas
- Base del gradiente
- Uso en ML
Errores comunes
Confundir derivada con valor de la función
Son conceptos distintos.
Ignorar la regla de la cadena
Clave en redes profundas.
Problemas numéricos
Derivadas mal calculadas → errores.
Ejemplo conceptual en ML
Función de pérdida
↓
Derivadas
↓
Actualización de pesos
Interpretación profunda
La derivada permite:
- medir cambio
- optimizar funciones
- entrenar modelos
- entender sensibilidad
👉 Es el núcleo matemático del aprendizaje automático.
Conclusión
La derivada mide cómo cambia una función y es la base de gradientes, optimización y aprendizaje en redes neuronales.
👉 Sin derivadas, no hay aprendizaje.
Related Concepts
- Gradiente
- Jacobiano
- Hessiano
- Regla de la cadena
- Backpropagation