Transformación lineal

Cómo los vectores se transforman sin romper la estructura

Una transformación lineal es una función que toma vectores de un espacio y los transforma en otro (o el mismo), preservando la estructura lineal: suma y multiplicación por escalares.

👉 Es el concepto matemático detrás de capas neuronales, proyecciones, rotaciones y escalados.

Definición corta

Una transformación lineal es una función que preserva suma y multiplicación escalar.

Definición detallada

Una función T:VWT: V \rightarrow WT:V→W es lineal si:T(u+v)=T(u)+T(v)T(u + v) = T(u) + T(v)T(αv)=αT(v)T(\alpha v) = \alpha T(v)

👉 Estas dos propiedades definen completamente la linealidad.

Intuición

La transformación lineal responde:

👉 “¿Cómo puedo transformar vectores sin romper su estructura?”

Ejemplo

  • Escalar vectores
  • Rotar vectores
  • Proyectar vectores

Entrada → transformación → salida  
pero mantiene relaciones lineales

Representación matricial

Toda transformación lineal puede representarse como:T(x)=AxT(x) = AxT(x)=Ax


👉 Donde:

  • AAA = matriz
  • xxx = vector

Relación con otros conceptos

  • Matriz
  • Espacio vectorial
  • Base
  • Subespacio

📊 Propiedades clave

🔹 Preserva el origen

T(0)=0T(0) = 0

🔹 Preserva líneas y planos

👉 estructuras lineales se mantienen

🔹 Determinada por una matriz

👉 completamente definida por AAA

Tipos de transformaciones

🔹 Escalado

T(x)=2xT(x) = 2x

🔹 Rotación

Cambia dirección, no magnitud.

🔹 Proyección

Reduce dimensión.

🔹 Reflexión

Invierte dirección.


🧠 Transformaciones en redes neuronales

🔹 1. Capas densas

y=Wx+by = Wx + by=Wx+b

👉 WxWxWx es transformación lineal.

🔹 2. Embeddings

Transforman datos a nuevos espacios.

🔹 3. Proyección de características

Reduce o cambia dimensión.

🔹 4. Atención (Transformers)

Matrices:

👉 transforman queries, keys, values

Ejemplo paso a paso

A=[2001]A = \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix}x=[1,2]x = [1, 2]


T(x)=[2,2]T(x) = [2, 2]


👉 Escalado en eje X.

Núcleo (kernel) e imagen

🔹 Kernel

ker(T)={x:T(x)=0}\text{ker}(T) = \{x : T(x)=0\}

🔹 Imagen

Im(T)={Ax}\text{Im}(T) = \{Ax\}Im(T)={Ax}


👉 Define cómo transforma el espacio.

Ejemplo conceptual

Espacio original  

Transformación

Espacio transformado

Ejemplo en Python

import numpy as np
A = np.array([
[2, 0],
[0, 1]
])
x = np.array([1, 2])
y = A @ x
print("Resultado:", y)

Ejemplo en PyTorch

import torch
A = torch.tensor([
[2.0, 0.0],
[0.0, 1.0]
])
x = torch.tensor([1.0, 2.0])
y = A @ x
print("Resultado:", y)

Ejemplo con capa neuronal

import torch
import torch.nn as nn
layer = nn.Linear(2, 2)
x = torch.tensor([[1.0, 2.0]])
y = layer(x)
print("Salida:", y)

Ejemplo de proyección

import numpy as np
A = np.array([
[1, 0],
[0, 0]
])
x = np.array([3, 4])
y = A @ x
print("Proyección:", y)

Qué muestra este ejemplo

  • Transformación mediante matrices
  • Base de redes neuronales
  • Cambios de espacio

Errores comunes

Confundir con funciones no lineales

Ej: ReLU no es lineal.


Olvidar el término bias

bbb rompe linealidad → es transformación afín.

Pensar que todas las transformaciones son reversibles

No siempre.


📊 Ejemplo conceptual en ML

Entrada → W*x → activación  

Aprendizaje de representaciones

Interpretación profunda

Las transformaciones lineales permiten:

  • cambiar representaciones
  • proyectar datos
  • aprender estructuras
  • construir modelos

👉 Son el núcleo matemático de las redes neuronales.

Conclusión

La transformación lineal es el mecanismo fundamental mediante el cual los modelos de machine learning transforman datos. Es la base de capas neuronales, proyecciones y representaciones.

👉 Entender transformaciones lineales es entender cómo aprenden los modelos.

Related Concepts