La estructura fundamental para representar datos en redes neuronales
Un vector es una colección ordenada de números (escalares). Es una de las estructuras más importantes en matemáticas y en redes neuronales, ya que permite representar datos, activaciones, pesos y embeddings.
Mientras que un escalar representa una sola cantidad, un vector permite representar múltiples características simultáneamente.
Definición corta
Un vector es una lista ordenada de valores numéricos que representa una magnitud en una o más dimensiones.
Definición detallada
Un vector se puede entender como una estructura matemática que contiene múltiples escalares organizados en un orden específico:
Cada elemento del vector representa una dimensión o característica.
En redes neuronales:
- Un vector puede representar una entrada completa
- Una activación de una capa
- Un embedding semántico
- Un conjunto de pesos
👉 Es la unidad básica para trabajar con datos en modelos de deep learning.
Intuición
Imagina que quieres describir una casa:
- Tamaño → 120 m²
- Número de habitaciones → 3
- Edad → 10 años
Esto se puede representar como un vector:
[120, 3, 10]
👉 Cada posición tiene significado.
👉 El orden importa.
Tipos de vectores
🔹 Vector fila
🔹 Vector columna
👉 En redes neuronales, los vectores columna son más comunes en notación matemática.
Dimensionalidad
La dimensión de un vector es el número de elementos que contiene.
Ejemplo:
[1.2, 0.7, -3.1] → dimensión 3
👉 En deep learning:
- Más dimensiones = mayor capacidad de representación
- Pero también mayor complejidad
Operaciones clave con vectores
🔹 Suma de vectores
[1,2]+[3,4]=[4,6]
🔹 Multiplicación por escalar
🔹 Producto escalar
👉 Mide similitud entre vectores.
🔹 Norma (longitud)
La longitud de un vector indica su magnitud.
Vectores en redes neuronales
Los vectores aparecen en todas partes:
1. Entrada del modelo
Cada muestra de datos es un vector.
x = [edad, ingresos, historial_credito]
2. Activaciones
Cada capa produce un vector de activaciones.
3. Pesos
Los pesos de una neurona pueden formar un vector.
4. Embeddings
Representaciones densas de palabras o imágenes.
Ejemplo:
"gato" → [0.21, -0.44, 0.88, ...]
Interpretación geométrica
Un vector también puede verse como un punto o dirección en el espacio.
En 2D:
- Un vector es una flecha en el plano
En 3D:
- Una flecha en el espacio
En alta dimensión:
- No se puede visualizar, pero sigue teniendo estructura geométrica
👉 Las redes neuronales operan en estos espacios.
Relación con otros conceptos
- Un vector está formado por escalares
- Una matriz es una colección de vectores
- Un tensor generaliza vectores y matrices
Ejemplo en Python
# Un vector como lista de Pythonvector = [1.2, 0.7, -3.1]print("Vector:", vector)print("Primer elemento:", vector[0])print("Dimensión:", len(vector))
Ejemplo en NumPy
import numpy as npv1 = np.array([1, 2, 3])v2 = np.array([4, 5, 6])# Sumasuma = v1 + v2# Producto escalardot = np.dot(v1, v2)print("v1:", v1)print("v2:", v2)print("Suma:", suma)print("Producto escalar:", dot)
Ejemplo en PyTorch
import torchx = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)w = torch.tensor([0.5, -0.3, 0.8], requires_grad=True)# Producto escalarz = torch.dot(x, w)loss = (z - 1.0) ** 2loss.backward()print("Salida z:", z.item())print("Gradiente de x:", x.grad)print("Gradiente de w:", w.grad)
Ejemplo con gradientes en PyTorch
import torchx = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)w = torch.tensor([0.5, -0.3, 0.8], requires_grad=True)# Producto escalarz = torch.dot(x, w)loss = (z - 1.0) ** 2loss.backward()print("Salida z:", z.item())print("Gradiente de x:", x.grad)print("Gradiente de w:", w.grad)
Qué muestra este ejemplo
xes un vector de entradawes un vector de pesos- Se calcula un producto escalar
- Se obtiene una salida escalar
- Se calculan gradientes vectoriales
👉 Esto es exactamente lo que ocurre dentro de una neurona.
Errores comunes
Confundir vector con lista sin estructura
Un vector tiene significado matemático, no es solo una lista.
Ignorar la dimensión
La dimensionalidad es crítica en redes neuronales.
Orden incorrecto
El orden de los elementos importa.
Ejemplo conceptual en una neurona
Una neurona recibe un vector de entrada:
Y pesos:
Calcula:
👉 Esto es un producto escalar entre vectores.
Interpretación profunda
Los vectores permiten:
- Representar información estructurada
- Capturar relaciones entre variables
- Transformar datos entre espacios
- Construir representaciones semánticas
En deep learning moderno, especialmente en NLP, los vectores (embeddings) son el núcleo de la representación del conocimiento.
Conclusión
El vector es la estructura fundamental para representar datos en redes neuronales. Permite trabajar con múltiples características al mismo tiempo y es la base sobre la que se construyen operaciones más complejas como matrices y tensores.
Dominar los vectores significa entender cómo fluye la información dentro de un modelo.