Las direcciones fundamentales de una transformación
Los vectores propios (eigenvectors) son vectores especiales que no cambian de dirección cuando se aplica una transformación lineal (una matriz). Solo se escalan por un factor, llamado valor propio.
👉 Junto con los valores propios, forman la base para entender cómo una matriz transforma el espacio.
Definición corta
Un vector propio es un vector que, al aplicarle una matriz, solo cambia su magnitud, no su dirección.
Definición detallada
Dada una matriz A, un vector v es un vector propio si:
👉 Donde:
- = vector propio
- = valor propio asociado
Intuición
Cuando aplicas una transformación:
- La mayoría de vectores cambian dirección
- Pero algunos vectores especiales permanecen alineados
👉 Esos son los vectores propios
Interpretación geométrica
Una matriz transforma el espacio (rotación, escalado, deformación).
Los vectores propios son:
👉 las direcciones que permanecen “estables” bajo esa transformación.
Visualmente
- Un círculo → elipse
- Los ejes de la elipse → vectores propios
Ejemplo simple
Vectores propios:
- [1,0] → dirección X
- [0,1] → dirección Y
👉 Se mantienen en la misma dirección, solo cambian de tamaño.
Relación con valores propios
Cada vector propio tiene un valor propio asociado:
👉 El valor propio indica cuánto se escala el vector.
Vectores propios en redes neuronales
🔹 1. Interpretación de capas
Permiten entender:
- qué direcciones del espacio son importantes
- cómo se transforman los datos
🔹 2. PCA (Análisis de componentes principales)
Los vectores propios:
👉 representan las direcciones de mayor varianza
🔹 3. Dinámica de entrenamiento
En matrices de pesos:
- indican direcciones dominantes
- afectan estabilidad
🔹 4. Compresión y reducción de dimensionalidad
Permiten:
- reducir dimensiones
- mantener información relevante
Ejemplo paso a paso
Valores propios (ya calculados):
Para cada valor propio:
👉 Se obtiene el vector propio correspondiente.
Relación con otros conceptos
- Valores propios
- Matriz
- Transformación lineal
- PCA
- Espacio vectorial
Ejemplo en Python
import numpy as npA = np.array([ [4, 2], [1, 3]])eigenvalues, eigenvectors = np.linalg.eig(A)print("Valores propios:", eigenvalues)print("Vectores propios:\n", eigenvectors)
Ejemplo en PyTorch
import torchA = torch.tensor([ [4.0, 2.0], [1.0, 3.0]])eigenvalues, eigenvectors = torch.linalg.eig(A)print("Valores propios:", eigenvalues)print("Vectores propios:\n", eigenvectors)
Ejemplo conceptual
Transformación:
Un círculo → elipse
👉 Direcciones principales = vectores propios
👉 Escalado = valores propios
Errores comunes
Confundir con valores propios
Uno es vector, otro es escalar.
Pensar que siempre existen suficientes vectores propios
No todas las matrices son diagonalizables.
Ignorar vectores propios complejos
Pueden aparecer en muchas aplicaciones.
Aplicación en deep learning
Matriz de pesos W
👉 Los vectores propios de W:
- indican direcciones dominantes
- muestran cómo se transforma la información
Interpretación profunda
Los vectores propios permiten:
- descomponer transformaciones complejas
- identificar direcciones clave
- entender estructuras ocultas en datos
- analizar modelos profundamente
👉 Son la base de muchas técnicas avanzadas.