Vectores propios (Eigenvectors)

Las direcciones fundamentales de una transformación

Los vectores propios (eigenvectors) son vectores especiales que no cambian de dirección cuando se aplica una transformación lineal (una matriz). Solo se escalan por un factor, llamado valor propio.

👉 Junto con los valores propios, forman la base para entender cómo una matriz transforma el espacio.

Definición corta

Un vector propio es un vector que, al aplicarle una matriz, solo cambia su magnitud, no su dirección.

Definición detallada

Dada una matriz AAA, un vector vvv es un vector propio si:Av=λvA v = \lambda v

👉 Donde:

  • vv = vector propio
  • λ\lambda = valor propio asociado

Intuición

Cuando aplicas una transformación:

  • La mayoría de vectores cambian dirección
  • Pero algunos vectores especiales permanecen alineados

👉 Esos son los vectores propios

Interpretación geométrica

Una matriz transforma el espacio (rotación, escalado, deformación).

Los vectores propios son:

👉 las direcciones que permanecen “estables” bajo esa transformación.

Visualmente

  • Un círculo → elipse
  • Los ejes de la elipse → vectores propios

Ejemplo simple

A=[2003]A = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix}

Vectores propios:

  • [1,0][1, 0][1,0] → dirección X
  • [0,1][0, 1][0,1] → dirección Y

👉 Se mantienen en la misma dirección, solo cambian de tamaño.

Relación con valores propios

Cada vector propio tiene un valor propio asociado:Av=λvA v = \lambda v

👉 El valor propio indica cuánto se escala el vector.

Vectores propios en redes neuronales

🔹 1. Interpretación de capas

Permiten entender:

  • qué direcciones del espacio son importantes
  • cómo se transforman los datos

🔹 2. PCA (Análisis de componentes principales)

Los vectores propios:

👉 representan las direcciones de mayor varianza

🔹 3. Dinámica de entrenamiento

En matrices de pesos:

  • indican direcciones dominantes
  • afectan estabilidad

🔹 4. Compresión y reducción de dimensionalidad

Permiten:

  • reducir dimensiones
  • mantener información relevante

Ejemplo paso a paso

A=[4213]A = \begin{bmatrix} 4 & 2 \\ 1 & 3 \end{bmatrix}

Valores propios (ya calculados):λ=5,2\lambda = 5, 2

Para cada valor propio:(AλI)v=0(A – \lambda I)v = 0

👉 Se obtiene el vector propio correspondiente.

Relación con otros conceptos

Ejemplo en Python

import numpy as np
A = np.array([
[4, 2],
[1, 3]
])
eigenvalues, eigenvectors = np.linalg.eig(A)
print("Valores propios:", eigenvalues)
print("Vectores propios:\n", eigenvectors)

Ejemplo en PyTorch

import torch
A = torch.tensor([
[4.0, 2.0],
[1.0, 3.0]
])
eigenvalues, eigenvectors = torch.linalg.eig(A)
print("Valores propios:", eigenvalues)
print("Vectores propios:\n", eigenvectors)

Ejemplo conceptual

Transformación:
Un círculo → elipse

👉 Direcciones principales = vectores propios
👉 Escalado = valores propios

Errores comunes

Confundir con valores propios

Uno es vector, otro es escalar.

Pensar que siempre existen suficientes vectores propios

No todas las matrices son diagonalizables.

Ignorar vectores propios complejos

Pueden aparecer en muchas aplicaciones.

Aplicación en deep learning

Matriz de pesos WWW

WxW \cdot x

👉 Los vectores propios de WWW:

  • indican direcciones dominantes
  • muestran cómo se transforma la información

Interpretación profunda

Los vectores propios permiten:

  • descomponer transformaciones complejas
  • identificar direcciones clave
  • entender estructuras ocultas en datos
  • analizar modelos profundamente

👉 Son la base de muchas técnicas avanzadas.