Matriz

La estructura clave para transformar datos en redes neuronales

Una matriz es una estructura bidimensional de números (escalares) organizada en filas y columnas. Es uno de los conceptos más importantes en redes neuronales, ya que permite representar transformaciones lineales entre vectores.

Si el vector representa datos, la matriz representa cómo esos datos se transforman.


Definición corta

Una matriz es una tabla rectangular de números organizada en filas y columnas.


Definición detallada

Una matriz se representa como:W=[w11w12w21w22]W = \begin{bmatrix} w_{11} & w_{12} & \cdots \\ w_{21} & w_{22} & \cdots \\ \vdots & \vdots & \ddots \end{bmatrix}W=​w11​w21​⋮​w12​w22​⋮​⋯⋯⋱​​

Cada elemento wijw_{ij}wij​ es un escalar ubicado en la fila iii y columna jjj.

👉 En redes neuronales:

  • Las matrices representan pesos entre capas
  • Definen cómo un vector de entrada se transforma en otro vector

Intuición

Imagina que tienes un vector de entrada:

[altura, peso, edad]

Y quieres transformarlo en otro vector:

[riesgo_salud, score_fitness]

La matriz actúa como una regla de transformación que convierte un conjunto de características en otro.

👉 Es como una máquina que recibe un vector y devuelve otro.


📏 Dimensiones de una matriz

Una matriz tiene forma:(m×n)(m \times n)(m×n)

  • mmm = número de filas
  • nnn = número de columnas

Ejemplo:

Matriz 2x3:
[
[1, 2, 3],
[4, 5, 6]
]

👉 En redes neuronales:

  • Las dimensiones deben ser compatibles con los vectores de entrada

🔄 Operaciones clave

🔹 Multiplicación matriz-vector

La operación más importante en deep learning:z=Wxz = W \cdot xz=W⋅x

Ejemplo:W=[1234],x=[56]W = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}, \quad x = \begin{bmatrix} 5 \\ 6 \end{bmatrix}W=[13​24​],x=[56​]

Resultado:z=[1×5+2×63×5+4×6]=[1739]z = \begin{bmatrix} 1×5 + 2×6 \\ 3×5 + 4×6 \end{bmatrix} = \begin{bmatrix} 17 \\ 39 \end{bmatrix}z=[1×5+2×63×5+4×6​]=[1739​]

👉 Cada fila de la matriz produce una salida.


🔹 Multiplicación matriz-matriz

Permite combinar múltiples transformaciones.

👉 Usado en redes profundas.


🔹 Transposición

Intercambia filas por columnas.WTW^TWT

👉 Muy importante en:

  • Backpropagation
  • Ajustes de dimensiones

🔹 Producto elemento a elemento

Multiplicación posición por posición.

👉 Usado en:

  • Atención
  • Redes recurrentes

🧠 Matrices en redes neuronales

Las matrices son el núcleo de las redes neuronales.

1. Pesos entre capas

Cada capa tiene una matriz de pesos:z=Wx+bz = W \cdot x + bz=W⋅x+b

👉 Donde:

  • xxx = vector de entrada
  • WWW = matriz de pesos
  • bbb = bias

2. Transformaciones de datos

Cada capa transforma el espacio de entrada en otro espacio.


3. Redes profundas

Multiplicaciones sucesivas de matrices:xW1W2W3x \rightarrow W_1 \rightarrow W_2 \rightarrow W_3x→W1​→W2​→W3​


4. Batch processing

Matrices permiten procesar múltiples muestras simultáneamente.


📐 Interpretación geométrica

Una matriz representa una transformación lineal.

Puede:

  • Rotar
  • Escalar
  • Reflejar
  • Proyectar

👉 En redes neuronales:

  • Cada capa cambia la geometría del espacio de datos

Relación con otros conceptos

  • Una matriz está formada por vectores
  • Un vector es una colección de escalares
  • Un tensor generaliza matrices a más dimensiones

Ejemplo en Python

# Matriz como lista de listas
W = [
[1, 2],
[3, 4]
]
print("Matriz:", W)
print("Elemento [0][1]:", W[0][1])

Ejemplo en NumPy

import numpy as np
W = np.array([
[1, 2],
[3, 4]
])
x = np.array([5, 6])
z = np.dot(W, x)
print("Matriz W:\n", W)
print("Vector x:", x)
print("Resultado z:", z)

Ejemplo en PyTorch

import torch
W = torch.tensor([
[1.0, 2.0],
[3.0, 4.0]
])
x = torch.tensor([5.0, 6.0])
z = torch.matmul(W, x)
print("W:\n", W)
print("x:", x)
print("z:", z)

Qué muestra este ejemplo

  • W es una matriz de pesos
  • x es un vector de entrada
  • z es el resultado de la transformación
  • loss es un escalar
  • Los gradientes se calculan para cada elemento

👉 Esto refleja exactamente una capa neuronal real.

Errores comunes

Dimensiones incompatibles

No todas las matrices pueden multiplicarse.

Confundir filas con columnas

Esto puede romper el modelo.

Ignorar la forma (shape)

El shape es crítico en deep learning.

Ejemplo conceptual de una capa

Entrada:x=[x1,x2,x3]x = [x_1, x_2, x_3]

Pesos:W=[w11w12w13w21w22w23]W = \begin{bmatrix} w_{11} & w_{12} & w_{13} \\ w_{21} & w_{22} & w_{23} \end{bmatrix}

Salida:z=Wxz = W \cdot x

👉 Resultado: vector de dimensión 2.

Interpretación profunda

Las matrices permiten:

  • Mapear datos entre espacios
  • Aprender transformaciones complejas
  • Construir jerarquías de representación
  • Escalar modelos a gran tamaño

En redes modernas, millones o miles de millones de parámetros están organizados en matrices.

Conclusión

La matriz es la estructura que permite a las redes neuronales transformar datos de forma sistemática y escalable. Es el corazón de cada capa y la herramienta que convierte entradas en representaciones cada vez más útiles.

Sin matrices, no habría redes neuronales modernas.

Related Concepts