Aproximación de Taylor

Cómo aproximar funciones complejas con polinomios simples

La aproximación de Taylor permite representar una función complicada como una suma de términos polinómicos basados en sus derivadas en un punto específico.

👉 Es fundamental en machine learning para entender gradientes, optimización y comportamiento local de funciones.

Definición corta

La aproximación de Taylor expresa una función como una suma de términos basados en sus derivadas.

Definición detallada

Para una función f(x)f(x)f(x), su expansión de Taylor alrededor de un punto aaa es:f(x)=f(a)+f(a)(xa)+f(a)2!(xa)2+...f(x) = f(a) + f'(a)(x – a) + \frac{f»(a)}{2!}(x – a)^2 + …f(x)=f(a)+f′(a)(x−a)+2!f′′(a)​(x−a)2+…

Intuición

La aproximación de Taylor responde:

👉 “¿Cómo se comporta esta función cerca de un punto?”

Idea clave

  • orden 1 → línea (aproximación lineal)
  • orden 2 → curva (cuadrática)
  • órdenes superiores → mayor precisión

Casos importantes

🔹 Aproximación de primer orden

f(x)f(a)+f(a)(xa)f(x) \approx f(a) + f'(a)(x – a)

👉 Línea tangente.

🔹 Aproximación de segundo orden

f(x)f(a)+f(a)(xa)+f(a)2(xa)2f(x) \approx f(a) + f'(a)(x – a) + \frac{f»(a)}{2}(x – a)^2

👉 Captura curvatura.

Ejemplo clásico

f(x)=exf(x) = e^x


Expansión en a=0a = 0a=0:ex1+x+x22+x36+...e^x \approx 1 + x + \frac{x^2}{2} + \frac{x^3}{6} + …

Relación con otros conceptos

  • Derivada
  • Gradiente
  • Hessiano
  • Optimización

Aproximación de Taylor en machine learning

🔹 1. Gradiente descendente

Usa aproximación de primer orden:f(x+ϵ)f(x)+f(x)ϵf(x + \epsilon) \approx f(x) + \nabla f(x)\epsilonf(x+ϵ)≈f(x)+∇f(x)ϵ


🔹 2. Métodos de segundo orden

Incluyen:

  • Newton
  • Quasi-Newton

f(x)f(x0)+f(x0)(xx0)+12(xx0)TH(xx0)f(x) \approx f(x_0) + \nabla f(x_0)(x-x_0) + \frac{1}{2}(x-x_0)^T H (x-x_0)

🔹 3. Análisis local

Permite entender:

👉 cómo cambia una función cerca de un punto

🔹 4. Estabilidad y optimización

Se usa para:

👉 analizar convergencia


📊 Ejemplo paso a paso

f(x)=x2f(x) = x^2

En a=2a = 2a=2:

  • f(2)=4f(2) = 4f(2)=4
  • f(2)=4f'(2) = 4f′(2)=4

Aproximación:f(x)4+4(x2)f(x) \approx 4 + 4(x – 2)


👉 Aproximación lineal.

Interpretación geométrica

  • orden 1 → tangente
  • orden 2 → parabólica
  • orden n → mejor ajuste local

📊 Ejemplo conceptual

Función curva  

Taylor (orden 1) → línea

Taylor (orden 2) → curva aproximada

Ejemplo en Python

import numpy as np
def f(x):
return np.exp(x)
# Aproximación de Taylor de orden 2 en 0
def taylor(x):
return 1 + x + (x**2)/2
x = 0.5
print("Real:", f(x))
print("Taylor:", taylor(x))

Ejemplo con derivadas

import numpy as np
def f(x):
return x**2
a = 2
x = 2.1
approx = f(a) + 2*a*(x - a)
print("Real:", f(x))
print("Aprox:", approx)

Ejemplo en PyTorch

import torch
def f(x):
return x**2
x = torch.tensor(2.0, requires_grad=True)
y = f(x)
y.backward()
grad = x.grad
x_new = 2.1
approx = f(x) + grad * (x_new - x)
print("Aproximación:", approx.item())

Ejemplo con segundo orden

import numpy as np
def f(x):
return np.exp(x)
x = 0.5
approx = 1 + x + (x**2)/2
print("Taylor orden 2:", approx)

Qué muestra este ejemplo

  • Aproximaciones locales
  • Uso de derivadas
  • Base de optimización

Errores comunes

Usar Taylor lejos del punto

Pierde precisión.

Ignorar términos superiores

Puede afectar resultados.


Confundir aproximación con igualdad

Es solo una estimación.

Ejemplo conceptual en ML

Función de pérdida  

Aproximación local

Optimización paso a paso

Interpretación profunda

La aproximación de Taylor permite:

  • entender funciones localmente
  • diseñar algoritmos de optimización
  • analizar estabilidad
  • construir modelos más eficientes

👉 Es la base matemática detrás del aprendizaje iterativo.

Conclusión

La aproximación de Taylor es una herramienta esencial para simplificar funciones complejas y analizar su comportamiento local. Es clave en optimización, gradientes y aprendizaje automático.

👉 Entender Taylor es entender cómo los modelos “navegan” funciones complejas.

Related Concepts

  • Derivada
  • Gradiente
  • Hessiano
  • Optimización
  • Descenso de gradiente