Inicio/Tecnologías/CXL (Compute Express Link): La revolución en la memoria y el procesamiento de datos
Tecnologías

CXL (Compute Express Link): La revolución en la memoria y el procesamiento de datos

Descubre cómo CXL (Compute Express Link) transforma la arquitectura de servidores y centros de datos al permitir memoria compartida entre procesadores, GPUs y aceleradores. Analizamos sus versiones, ventajas frente a PCIe y NVLink, y su impacto en inteligencia artificial, edge computing y el futuro de la computación.

1 oct 2025
8 min
CXL (Compute Express Link): La revolución en la memoria y el procesamiento de datos

CXL (Compute Express Link) es una innovadora tecnología de interfaz que revoluciona la forma en que procesadores y memoria trabajan juntos en sistemas informáticos modernos. A medida que los procesadores y GPUs se vuelven más potentes, el cuello de botella de la memoria se intensifica, por lo que en 2025 el interés por CXL crece rápidamente. CXL permite agrupar memoria y recursos de procesamiento en un único pool, distribuyéndolos de manera flexible entre dispositivos y optimizando el rendimiento en servidores, centros de datos y aplicaciones de inteligencia artificial.

¿Qué es CXL y para qué sirve?

CXL (Compute Express Link) es una interfaz de alta velocidad que conecta procesadores, memoria y aceleradores como GPUs o chips de IA. A diferencia del estándar PCI Express tradicional, que simplemente transfiere datos entre dispositivos, CXL permite que varios dispositivos accedan y trabajen de forma conjunta sobre la misma memoria física.

En otras palabras, mientras que antes cada procesador o tarjeta gráfica tenía su propia memoria dedicada, con CXL todos pueden acceder a un pool de memoria compartido. Esto significa:

  • Se eliminan las copias innecesarias de datos entre diferentes memorias;
  • Se reduce la latencia en la transferencia de información;
  • Los recursos de servidores y centros de datos se utilizan de forma mucho más eficiente.

En la práctica, CXL resuelve varios desafíos clave:

  • Acelera el entrenamiento de modelos de IA gracias al acceso rápido a grandes volúmenes de datos;
  • Facilita la escalabilidad de los servidores al convertir la memoria en un recurso flexible;
  • Mejora la eficiencia energética de los sistemas de computación.

En definitiva, CXL está diseñado para eliminar los cuellos de botella de la memoria y preparar la infraestructura para las demandas futuras, desde centros de datos en la nube hasta ordenadores personales.

Versiones de CXL: 1.0, 2.0 y 3.0

La tecnología CXL (Compute Express Link) avanza rápidamente y, para 2025, ya existen varias versiones del estándar.

CXL 1.0

Lanzada en 2019, la primera versión ofrecía compatibilidad básica con PCI Express y permitía que los procesadores accedieran directamente a la memoria de los dispositivos conectados mediante CXL. Sin embargo, sus funcionalidades eran limitadas.

CXL 2.0

En 2020, CXL 2.0 introdujo una mejora clave: el memory pooling o agrupación de memoria, permitiendo que todos los dispositivos del sistema accedan a un recurso de memoria común y que este se asigne dinámicamente según las necesidades de procesadores, GPUs y aceleradores.

Esto es especialmente relevante para centros de datos y servicios en la nube, donde la carga de trabajo varía constantemente.

CXL 3.0

En 2022, la especificación se actualizó a CXL 3.0, que incluye:

  • Mayor ancho de banda;
  • Soporte para topologías más complejas (varios dispositivos compartiendo la misma memoria);
  • Mejor escalabilidad para supercomputadoras y servidores de IA.

En esencia, CXL 3.0 permite construir sistemas donde la memoria actúa como un gran pool de recursos compartidos a nivel de centro de datos.

Así, las versiones 2.0 y 3.0 representan pasos importantes para desvincular la memoria de un procesador concreto, abriendo el camino a sistemas informáticos más flexibles y potentes.

CXL y la gestión de la memoria

Una de las grandes ventajas de CXL (Compute Express Link) es su nuevo enfoque para la gestión de memoria.

En arquitecturas tradicionales, la memoria está asignada de forma rígida a cada procesador: por ejemplo, si una CPU tiene 64 GB de RAM, solo esa CPU puede usarla. Lo mismo ocurre con GPUs y otros aceleradores, cada uno con su propia memoria dedicada.

Con CXL, estas barreras desaparecen. Ahora, los dispositivos pueden conectarse a un pool de memoria compartida y utilizarla según la demanda, lo que implica:

  • Procesadores, GPUs y aceleradores de IA pueden operar sobre los mismos datos sin necesidad de copiar información;
  • La carga de trabajo se distribuye de manera dinámica;
  • La utilización de la memoria es mucho más eficiente.

Ejemplo: un servidor con 1 TB de memoria compartida puede asignarla de forma flexible entre procesadores y tarjetas gráficas, dependiendo de las tareas activas.

Esto es especialmente relevante para el entrenamiento de redes neuronales y el procesamiento de grandes volúmenes de datos, donde el acceso rápido a la RAM o VRAM es crítico.

Ya hemos analizado cómo evoluciona la memoria DDR6 y en qué se diferencia de DDR5, pero la llegada de CXL supone mucho más que un nuevo estándar de módulos: introduce una arquitectura de memoria completamente nueva que puede transformar el futuro de la computación.

Descubre cómo la memoria DDR6 está redefiniendo el rendimiento de PCs y servidores

Aplicaciones de CXL: centros de datos e inteligencia artificial

En 2025, el sector donde CXL (Compute Express Link) tiene mayor impacto es el de los centros de datos y la inteligencia artificial.

Centros de datos y entornos cloud

En centros de datos modernos, uno de los grandes retos es la distribución desigual de la memoria entre servidores: algunos procesadores tienen recursos infrautilizados mientras a otros les falta memoria. Con CXL, es posible crear un pool de memoria común y distribuir los recursos de manera dinámica, optimizando el uso del hardware y reduciendo el coste de las operaciones.

Inteligencia artificial

El entrenamiento de grandes modelos de IA requiere enormes cantidades de RAM y VRAM. Tradicionalmente, los datos deben copiarse de forma constante entre la CPU y la GPU, generando demoras.

Con CXL, procesadores y aceleradores pueden acceder a los mismos conjuntos de datos de forma directa, acelerando el entrenamiento de modelos y haciendo la infraestructura mucho más flexible.

Edge Computing

El uso de CXL en Edge Computing -computación distribuida en el borde de la red- es especialmente interesante. Aquí, la capacidad de procesar datos de manera rápida y eficiente es fundamental, y una memoria compartida permite asignar recursos exactamente donde se necesitan.

CXL no es solo una nueva interfaz, sino un componente clave para el futuro de la nube y la inteligencia artificial.

Conoce cómo el Edge Computing está revolucionando el procesamiento de datos y la IA

CXL frente a PCIe y NVLink

Para comprender la singularidad de CXL (Compute Express Link), es útil compararlo con otras tecnologías clave del sector.

PCIe y CXL

  • PCI Express (PCIe): es el bus estándar para transferir datos entre procesadores, tarjetas gráficas y unidades SSD;
  • CXL: se apoya sobre PCIe pero añade una capa que permite el uso compartido de la memoria y reduce la latencia.

En resumen, PCIe se encarga solo de mover datos, mientras que CXL permite que procesadores y aceleradores trabajen sobre los mismos datos sin duplicaciones.

Ya hemos analizado en detalle qué es PCIe 6.0 y cómo supera a PCIe 5.0, y sobre esta base evoluciona CXL.

Lee más sobre PCIe 6.0 y sus ventajas en velocidad para PCs y servidores

CXL y NVLink

NVLink es una tecnología exclusiva de NVIDIA que conecta sus GPUs entre sí y con la CPU, ofreciendo un gran ancho de banda, pero con limitaciones importantes:

  • Funciona solo dentro del ecosistema NVIDIA;
  • Está enfocada principalmente en aceleradores gráficos.

Por el contrario, CXL es un estándar abierto respaldado por empresas como Intel, AMD, NVIDIA, Microsoft y otras, apto para CPUs, GPUs, FPGAs, chips de IA y memoria de servidor.

El futuro de CXL

La tecnología CXL (Compute Express Link) está en sus primeras etapas de adopción, pero todo indica que será la base de los sistemas informáticos del futuro.

Principales áreas de desarrollo:

  • Servidores y centros de datos: distribución flexible de memoria, reducción de costes y aumento del rendimiento;
  • Inteligencia artificial: aceleración del entrenamiento de modelos de lenguaje y sistemas generativos;
  • Tarjetas gráficas y GPUs: nuevos escenarios de uso compartido entre VRAM y RAM, especialmente valioso para juegos y aplicaciones gráficas;
  • Ordenadores personales: aunque hoy CXL está enfocado al sector corporativo, a futuro podría transformar la arquitectura de los PCs domésticos.

Según expertos, para finales de la década CXL será un componente imprescindible de servidores y supercomputadoras, y formará parte de las especificaciones estándar de los nuevos procesadores.

Conclusión

CXL no es solo una interfaz nueva, sino un cambio fundamental en la arquitectura de los ordenadores. Permite a procesadores, GPUs y otros dispositivos trabajar sobre una memoria común, eliminando copias de datos y reduciendo la latencia.

Hoy ya se utiliza en soluciones de servidor y centros de datos, y mañana podría ser el estándar de todos los sistemas de alto rendimiento. Si PCIe 6.0 marca el ritmo en velocidad de transferencia, CXL redefine el modo en que memoria y procesadores colaboran.

En los próximos años, veremos cómo esta tecnología impacta en la computación en la nube, la inteligencia artificial y el futuro de los PCs personales.

Etiquetas:

cxl
memoria compartida
centros de datos
inteligencia artificial
servidores
pcie
nvlink
edge computing

Artículos Similares