Cómo los vectores se transforman sin romper la estructura
Una transformación lineal es una función que toma vectores de un espacio y los transforma en otro (o el mismo), preservando la estructura lineal: suma y multiplicación por escalares.
👉 Es el concepto matemático detrás de capas neuronales, proyecciones, rotaciones y escalados.
Definición corta
Una transformación lineal es una función que preserva suma y multiplicación escalar.
Definición detallada
Una función T:V→W es lineal si:
👉 Estas dos propiedades definen completamente la linealidad.
Intuición
La transformación lineal responde:
👉 “¿Cómo puedo transformar vectores sin romper su estructura?”
Ejemplo
- Escalar vectores
- Rotar vectores
- Proyectar vectores
Entrada → transformación → salida
pero mantiene relaciones lineales
Representación matricial
Toda transformación lineal puede representarse como:T(x)=Ax
👉 Donde:
- A = matriz
- x = vector
Relación con otros conceptos
- Matriz
- Espacio vectorial
- Base
- Subespacio
📊 Propiedades clave
🔹 Preserva el origen
🔹 Preserva líneas y planos
👉 estructuras lineales se mantienen
🔹 Determinada por una matriz
👉 completamente definida por A
Tipos de transformaciones
🔹 Escalado
🔹 Rotación
Cambia dirección, no magnitud.
🔹 Proyección
Reduce dimensión.
🔹 Reflexión
Invierte dirección.
🧠 Transformaciones en redes neuronales
🔹 1. Capas densas
y=Wx+b
👉 Wx es transformación lineal.
🔹 2. Embeddings
Transforman datos a nuevos espacios.
🔹 3. Proyección de características
Reduce o cambia dimensión.
🔹 4. Atención (Transformers)
Matrices:
👉 transforman queries, keys, values
Ejemplo paso a paso
👉 Escalado en eje X.
Núcleo (kernel) e imagen
🔹 Kernel
🔹 Imagen
Im(T)={Ax}
👉 Define cómo transforma el espacio.
Ejemplo conceptual
Espacio original
↓
Transformación
↓
Espacio transformado
Ejemplo en Python
import numpy as npA = np.array([ [2, 0], [0, 1]])x = np.array([1, 2])y = A @ xprint("Resultado:", y)
Ejemplo en PyTorch
import torchA = torch.tensor([ [2.0, 0.0], [0.0, 1.0]])x = torch.tensor([1.0, 2.0])y = A @ xprint("Resultado:", y)
Ejemplo con capa neuronal
import torchimport torch.nn as nnlayer = nn.Linear(2, 2)x = torch.tensor([[1.0, 2.0]])y = layer(x)print("Salida:", y)
Ejemplo de proyección
import numpy as npA = np.array([ [1, 0], [0, 0]])x = np.array([3, 4])y = A @ xprint("Proyección:", y)
Qué muestra este ejemplo
- Transformación mediante matrices
- Base de redes neuronales
- Cambios de espacio
Errores comunes
Confundir con funciones no lineales
Ej: ReLU no es lineal.
Olvidar el término bias
b rompe linealidad → es transformación afín.
Pensar que todas las transformaciones son reversibles
No siempre.
📊 Ejemplo conceptual en ML
Entrada → W*x → activación
↓
Aprendizaje de representaciones
Interpretación profunda
Las transformaciones lineales permiten:
- cambiar representaciones
- proyectar datos
- aprender estructuras
- construir modelos
👉 Son el núcleo matemático de las redes neuronales.
Conclusión
La transformación lineal es el mecanismo fundamental mediante el cual los modelos de machine learning transforman datos. Es la base de capas neuronales, proyecciones y representaciones.
👉 Entender transformaciones lineales es entender cómo aprenden los modelos.
Related Concepts
- Matriz
- Espacio vectorial
- Base
- Subespacio
- PCA