Vector

La estructura fundamental para representar datos en redes neuronales

Un vector es una colección ordenada de números (escalares). Es una de las estructuras más importantes en matemáticas y en redes neuronales, ya que permite representar datos, activaciones, pesos y embeddings.

Mientras que un escalar representa una sola cantidad, un vector permite representar múltiples características simultáneamente.

Definición corta

Un vector es una lista ordenada de valores numéricos que representa una magnitud en una o más dimensiones.

Definición detallada

Un vector se puede entender como una estructura matemática que contiene múltiples escalares organizados en un orden específico:x=[x1,x2,x3,...,xn]x = [x_1, x_2, x_3, …, x_n]

Cada elemento del vector representa una dimensión o característica.

En redes neuronales:

  • Un vector puede representar una entrada completa
  • Una activación de una capa
  • Un embedding semántico
  • Un conjunto de pesos

👉 Es la unidad básica para trabajar con datos en modelos de deep learning.

Intuición

Imagina que quieres describir una casa:

  • Tamaño → 120 m²
  • Número de habitaciones → 3
  • Edad → 10 años

Esto se puede representar como un vector:

[120, 3, 10]

👉 Cada posición tiene significado.
👉 El orden importa.

Tipos de vectores

🔹 Vector fila

[1,2,3][1, 2, 3]

🔹 Vector columna

[123]\begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}

👉 En redes neuronales, los vectores columna son más comunes en notación matemática.

Dimensionalidad

La dimensión de un vector es el número de elementos que contiene.

Ejemplo:

[1.2, 0.7, -3.1] → dimensión 3

👉 En deep learning:

  • Más dimensiones = mayor capacidad de representación
  • Pero también mayor complejidad

Operaciones clave con vectores

🔹 Suma de vectores

[1,2]+[3,4]=[4,6][1, 2] + [3, 4] = [4, 6][1,2]+[3,4]=[4,6]

🔹 Multiplicación por escalar

2[1,2,3]=[2,4,6]2 \cdot [1, 2, 3] = [2, 4, 6]

🔹 Producto escalar

[1,2][3,4]=(1×3)+(2×4)=11[1, 2] \cdot [3, 4] = (1×3) + (2×4) = 11

👉 Mide similitud entre vectores.

🔹 Norma (longitud)

La longitud de un vector indica su magnitud.

Vectores en redes neuronales

Los vectores aparecen en todas partes:

1. Entrada del modelo

Cada muestra de datos es un vector.

x = [edad, ingresos, historial_credito]

2. Activaciones

Cada capa produce un vector de activaciones.

3. Pesos

Los pesos de una neurona pueden formar un vector.

4. Embeddings

Representaciones densas de palabras o imágenes.

Ejemplo:

"gato" → [0.21, -0.44, 0.88, ...]

Interpretación geométrica

Un vector también puede verse como un punto o dirección en el espacio.

En 2D:

  • Un vector es una flecha en el plano

En 3D:

  • Una flecha en el espacio

En alta dimensión:

  • No se puede visualizar, pero sigue teniendo estructura geométrica

👉 Las redes neuronales operan en estos espacios.

Relación con otros conceptos

  • Un vector está formado por escalares
  • Una matriz es una colección de vectores
  • Un tensor generaliza vectores y matrices

Ejemplo en Python

Python
# Un vector como lista de Python
vector = [1.2, 0.7, -3.1]
print("Vector:", vector)
print("Primer elemento:", vector[0])
print("Dimensión:", len(vector))

Ejemplo en NumPy

import numpy as np
v1 = np.array([1, 2, 3])
v2 = np.array([4, 5, 6])
# Suma
suma = v1 + v2
# Producto escalar
dot = np.dot(v1, v2)
print("v1:", v1)
print("v2:", v2)
print("Suma:", suma)
print("Producto escalar:", dot)

Ejemplo en PyTorch

Python
import torch
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
w = torch.tensor([0.5, -0.3, 0.8], requires_grad=True)
# Producto escalar
z = torch.dot(x, w)
loss = (z - 1.0) ** 2
loss.backward()
print("Salida z:", z.item())
print("Gradiente de x:", x.grad)
print("Gradiente de w:", w.grad)

Ejemplo con gradientes en PyTorch

Python
import torch
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
w = torch.tensor([0.5, -0.3, 0.8], requires_grad=True)
# Producto escalar
z = torch.dot(x, w)
loss = (z - 1.0) ** 2
loss.backward()
print("Salida z:", z.item())
print("Gradiente de x:", x.grad)
print("Gradiente de w:", w.grad)

Qué muestra este ejemplo

  • x es un vector de entrada
  • w es un vector de pesos
  • Se calcula un producto escalar
  • Se obtiene una salida escalar
  • Se calculan gradientes vectoriales

👉 Esto es exactamente lo que ocurre dentro de una neurona.

Errores comunes

Confundir vector con lista sin estructura

Un vector tiene significado matemático, no es solo una lista.

Ignorar la dimensión

La dimensionalidad es crítica en redes neuronales.

Orden incorrecto

El orden de los elementos importa.

Ejemplo conceptual en una neurona

Una neurona recibe un vector de entrada:x=[x1,x2,x3]x = [x_1, x_2, x_3]

Y pesos:w=[w1,w2,w3]w = [w_1, w_2, w_3]

Calcula:z=wx+bz = w \cdot x + b

👉 Esto es un producto escalar entre vectores.

Interpretación profunda

Los vectores permiten:

  • Representar información estructurada
  • Capturar relaciones entre variables
  • Transformar datos entre espacios
  • Construir representaciones semánticas

En deep learning moderno, especialmente en NLP, los vectores (embeddings) son el núcleo de la representación del conocimiento.

Conclusión

El vector es la estructura fundamental para representar datos en redes neuronales. Permite trabajar con múltiples características al mismo tiempo y es la base sobre la que se construyen operaciones más complejas como matrices y tensores.

Dominar los vectores significa entender cómo fluye la información dentro de un modelo.

Related Concepts

  • Escalar
  • Matriz
  • Tensor
  • Producto escalar
  • Norma
  • Embedding
  • Espacio vectorial
  • Activación