Descubre cómo CXL (Compute Express Link) transforma la arquitectura de servidores y centros de datos al permitir memoria compartida entre procesadores, GPUs y aceleradores. Analizamos sus versiones, ventajas frente a PCIe y NVLink, y su impacto en inteligencia artificial, edge computing y el futuro de la computación.
CXL (Compute Express Link) es una innovadora tecnología de interfaz que revoluciona la forma en que procesadores y memoria trabajan juntos en sistemas informáticos modernos. A medida que los procesadores y GPUs se vuelven más potentes, el cuello de botella de la memoria se intensifica, por lo que en 2025 el interés por CXL crece rápidamente. CXL permite agrupar memoria y recursos de procesamiento en un único pool, distribuyéndolos de manera flexible entre dispositivos y optimizando el rendimiento en servidores, centros de datos y aplicaciones de inteligencia artificial.
CXL (Compute Express Link) es una interfaz de alta velocidad que conecta procesadores, memoria y aceleradores como GPUs o chips de IA. A diferencia del estándar PCI Express tradicional, que simplemente transfiere datos entre dispositivos, CXL permite que varios dispositivos accedan y trabajen de forma conjunta sobre la misma memoria física.
En otras palabras, mientras que antes cada procesador o tarjeta gráfica tenía su propia memoria dedicada, con CXL todos pueden acceder a un pool de memoria compartido. Esto significa:
En la práctica, CXL resuelve varios desafíos clave:
En definitiva, CXL está diseñado para eliminar los cuellos de botella de la memoria y preparar la infraestructura para las demandas futuras, desde centros de datos en la nube hasta ordenadores personales.
La tecnología CXL (Compute Express Link) avanza rápidamente y, para 2025, ya existen varias versiones del estándar.
Lanzada en 2019, la primera versión ofrecía compatibilidad básica con PCI Express y permitía que los procesadores accedieran directamente a la memoria de los dispositivos conectados mediante CXL. Sin embargo, sus funcionalidades eran limitadas.
En 2020, CXL 2.0 introdujo una mejora clave: el memory pooling o agrupación de memoria, permitiendo que todos los dispositivos del sistema accedan a un recurso de memoria común y que este se asigne dinámicamente según las necesidades de procesadores, GPUs y aceleradores.
Esto es especialmente relevante para centros de datos y servicios en la nube, donde la carga de trabajo varía constantemente.
En 2022, la especificación se actualizó a CXL 3.0, que incluye:
En esencia, CXL 3.0 permite construir sistemas donde la memoria actúa como un gran pool de recursos compartidos a nivel de centro de datos.
Así, las versiones 2.0 y 3.0 representan pasos importantes para desvincular la memoria de un procesador concreto, abriendo el camino a sistemas informáticos más flexibles y potentes.
Una de las grandes ventajas de CXL (Compute Express Link) es su nuevo enfoque para la gestión de memoria.
En arquitecturas tradicionales, la memoria está asignada de forma rígida a cada procesador: por ejemplo, si una CPU tiene 64 GB de RAM, solo esa CPU puede usarla. Lo mismo ocurre con GPUs y otros aceleradores, cada uno con su propia memoria dedicada.
Con CXL, estas barreras desaparecen. Ahora, los dispositivos pueden conectarse a un pool de memoria compartida y utilizarla según la demanda, lo que implica:
Ejemplo: un servidor con 1 TB de memoria compartida puede asignarla de forma flexible entre procesadores y tarjetas gráficas, dependiendo de las tareas activas.
Esto es especialmente relevante para el entrenamiento de redes neuronales y el procesamiento de grandes volúmenes de datos, donde el acceso rápido a la RAM o VRAM es crítico.
Ya hemos analizado cómo evoluciona la memoria DDR6 y en qué se diferencia de DDR5, pero la llegada de CXL supone mucho más que un nuevo estándar de módulos: introduce una arquitectura de memoria completamente nueva que puede transformar el futuro de la computación.
Descubre cómo la memoria DDR6 está redefiniendo el rendimiento de PCs y servidores
En 2025, el sector donde CXL (Compute Express Link) tiene mayor impacto es el de los centros de datos y la inteligencia artificial.
En centros de datos modernos, uno de los grandes retos es la distribución desigual de la memoria entre servidores: algunos procesadores tienen recursos infrautilizados mientras a otros les falta memoria. Con CXL, es posible crear un pool de memoria común y distribuir los recursos de manera dinámica, optimizando el uso del hardware y reduciendo el coste de las operaciones.
El entrenamiento de grandes modelos de IA requiere enormes cantidades de RAM y VRAM. Tradicionalmente, los datos deben copiarse de forma constante entre la CPU y la GPU, generando demoras.
Con CXL, procesadores y aceleradores pueden acceder a los mismos conjuntos de datos de forma directa, acelerando el entrenamiento de modelos y haciendo la infraestructura mucho más flexible.
El uso de CXL en Edge Computing -computación distribuida en el borde de la red- es especialmente interesante. Aquí, la capacidad de procesar datos de manera rápida y eficiente es fundamental, y una memoria compartida permite asignar recursos exactamente donde se necesitan.
CXL no es solo una nueva interfaz, sino un componente clave para el futuro de la nube y la inteligencia artificial.
Conoce cómo el Edge Computing está revolucionando el procesamiento de datos y la IA
Para comprender la singularidad de CXL (Compute Express Link), es útil compararlo con otras tecnologías clave del sector.
En resumen, PCIe se encarga solo de mover datos, mientras que CXL permite que procesadores y aceleradores trabajen sobre los mismos datos sin duplicaciones.
Ya hemos analizado en detalle qué es PCIe 6.0 y cómo supera a PCIe 5.0, y sobre esta base evoluciona CXL.
Lee más sobre PCIe 6.0 y sus ventajas en velocidad para PCs y servidores
NVLink es una tecnología exclusiva de NVIDIA que conecta sus GPUs entre sí y con la CPU, ofreciendo un gran ancho de banda, pero con limitaciones importantes:
Por el contrario, CXL es un estándar abierto respaldado por empresas como Intel, AMD, NVIDIA, Microsoft y otras, apto para CPUs, GPUs, FPGAs, chips de IA y memoria de servidor.
La tecnología CXL (Compute Express Link) está en sus primeras etapas de adopción, pero todo indica que será la base de los sistemas informáticos del futuro.
Principales áreas de desarrollo:
Según expertos, para finales de la década CXL será un componente imprescindible de servidores y supercomputadoras, y formará parte de las especificaciones estándar de los nuevos procesadores.
CXL no es solo una interfaz nueva, sino un cambio fundamental en la arquitectura de los ordenadores. Permite a procesadores, GPUs y otros dispositivos trabajar sobre una memoria común, eliminando copias de datos y reduciendo la latencia.
Hoy ya se utiliza en soluciones de servidor y centros de datos, y mañana podría ser el estándar de todos los sistemas de alto rendimiento. Si PCIe 6.0 marca el ritmo en velocidad de transferencia, CXL redefine el modo en que memoria y procesadores colaboran.
En los próximos años, veremos cómo esta tecnología impacta en la computación en la nube, la inteligencia artificial y el futuro de los PCs personales.