Inicio/Tecnologías/ReRAM y PCM: El Futuro de la Memoria para Hardware de IA
Tecnologías

ReRAM y PCM: El Futuro de la Memoria para Hardware de IA

El auge de la inteligencia artificial ha puesto a la memoria en el centro del rendimiento y la eficiencia energética. Tecnologías emergentes como ReRAM y PCM están transformando la computación en memoria y acelerando el desarrollo de hardware de IA, aunque todavía enfrentan retos de escalabilidad, coste e integración.

28 ene 2026
14 min
ReRAM y PCM: El Futuro de la Memoria para Hardware de IA

El crecimiento de la inteligencia artificial ha transformado las exigencias hacia el hardware informático más rápido que cualquier ola tecnológica anterior. Si antes el rendimiento dependía principalmente de la velocidad del procesador, hoy la memoria -con sus latencias, ancho de banda y consumo energético- es el factor clave para la escalabilidad de redes neuronales y la eficiencia de los chips de IA.

El auge de las nuevas memorias: ReRAM y PCM

En este contexto, las nuevas tecnologías de memoria como ReRAM y PCM están acaparando cada vez más atención. Se consideran alternativas o complementos a las tradicionales DRAM y NAND, especialmente en aplicaciones de inteligencia artificial y computación en memoria. Estas tecnologías prometen reducir el consumo energético, minimizar latencias y acercar el almacenamiento de datos al lugar donde se realiza el procesamiento.

Sin embargo, existe una brecha significativa entre los prototipos de laboratorio y la integración real en hardware de IA. Es fundamental entender qué propiedades de ReRAM y PCM son realmente demandadas, dónde ya se aplican en la práctica y qué aspectos aún son una promesa de futuro. Este artículo explora precisamente eso: sin marketing ni futurismo, solo lo que realmente funciona.

Por qué la memoria clásica es el cuello de botella en IA

En los sistemas modernos de inteligencia artificial, el cuello de botella rara vez son los bloques de cómputo, sino la memoria. Las GPU y aceleradores especializados pueden ejecutar enormes cantidades de operaciones en paralelo, pero la eficiencia de esa potencia depende directamente de la rapidez con la que reciben los datos. Aquí es donde la arquitectura clásica comienza a mostrar sus limitaciones.

El problema radica en la separación entre cómputo y memoria. La DRAM está físicamente separada de los bloques de procesamiento, y la NAND se usa aún más lejos como almacenamiento. En redes neuronales, esto implica un traslado constante de pesos y activaciones a través de buses de datos. Incluso con gran ancho de banda, las latencias y el gasto energético en la transferencia pueden igualar o superar el propio coste del cálculo.

Esto es especialmente notorio en IA: el entrenamiento y la inferencia de redes neuronales no son operaciones lógicas complejas, sino enormes cantidades de multiplicaciones y sumas de matrices, que requieren acceso continuo a la memoria. Como resultado, los bloques de cómputo permanecen inactivos esperando datos, y el consumo energético del sistema se dispara no por el procesamiento, sino por el movimiento de bits.

Al llegar a la llamada memory wall, la industria se enfrenta a limitaciones que no pueden resolverse solo con escalado. Aumentar la frecuencia de la DRAM ofrece poco beneficio, y multiplicar los canales de memoria complica y encarece los chips. Esto ha cambiado el foco: de acelerar el cómputo, a replantear el papel de la memoria en la arquitectura de hardware de IA.

Surgen así enfoques donde la memoria deja de ser un simple almacén pasivo y empieza a participar directamente en los cálculos. La idea de la computación en memoria surge como una respuesta lógica a las limitaciones fundamentales del modelo clásico.

¿Qué es la computación en memoria y por qué la necesitan las redes neuronales?

La computación en memoria es una aproximación arquitectónica en la que las operaciones se realizan directamente donde se almacenan los datos, sin transferencias constantes a un bloque de cómputo separado. En IA, esto implica abandonar el esquema tradicional de "memoria → procesador → memoria", que es el principal causante de latencias y sobreconsumo de energía.

Para las redes neuronales, este enfoque es especialmente lógico. La mayoría de los cálculos se reducen a multiplicar matrices de pesos por datos de entrada y acumular los resultados. Si los pesos ya están en las celdas de memoria, el proceso físico de lectura puede aprovecharse como parte del cálculo, por ejemplo, sumando corrientes o cambiando resistencias. Así, los datos no se mueven y el resultado se genera directamente dentro del array de memoria.

La principal ventaja es la drástica reducción del consumo energético: transferir datos entre memoria y cómputo consume mucho más que las propias operaciones aritméticas. Para sistemas de IA, especialmente en centros de datos y dispositivos edge, esto es crítico: la limitación no es el rendimiento, sino el calor y el presupuesto energético.

Además, este enfoque escala mejor. En lugar de aumentar la frecuencia o complejidad de los núcleos de cómputo, se expanden los arrays de memoria, donde cada celda participa en los cálculos. Esto abre la puerta a arquitecturas neuromórficas y matriciales que imitan el funcionamiento de las redes neuronales biológicas.

No obstante, la computación en memoria es imposible en DRAM y NAND clásicas sin graves compromisos. Estas memorias no están diseñadas para operaciones analógicas ni para paralelismo a nivel de celda. Por ello, la atención se ha desplazado a tipos alternativos como ReRAM y PCM, mejor adaptadas físicamente a los requisitos de carga de IA.

ReRAM: memoria resistiva y sus verdaderas ventajas

La ReRAM (memoria resistiva) almacena datos no en carga eléctrica, como la DRAM, ni en un flotante, como la NAND, sino en la resistencia del material. Una celda ReRAM puede estar en un estado de alta o baja resistencia, y el cambio entre ambos se logra con breves impulsos eléctricos. Esta simplicidad física hace que la tecnología sea especialmente atractiva para IA.

La ventaja principal de ReRAM es su compatibilidad natural con la computación en memoria. Al modificar las resistencias de las celdas, se pueden codificar los pesos de la red neuronal directamente en el array de memoria. Al aplicar un voltaje, las corrientes se suman según las leyes de la física y la multiplicación de matriz por vector ocurre de forma intrínseca. No es aritmética digital, sino un cálculo analógico realizado en paralelo por miles de celdas.

En términos de eficiencia energética, ReRAM supera a la DRAM por varios órdenes de magnitud. La energía se emplea en la interacción local de los datos, no en su traslado. Para aceleradores de IA, esto permite realizar inferencias con mínimo calentamiento, lo cual es crucial para dispositivos periféricos, sensores autónomos y sistemas móviles.

Otra ventaja es la alta densidad de almacenamiento: las celdas ReRAM pueden escalarse a tamaños muy pequeños y la tecnología es compatible con integración tridimensional, lo que la hace potencialmente adecuada para reemplazar parte de la DRAM o incluso la NAND en chips de IA especializados.

Actualmente, ReRAM ya no es solo una tecnología de laboratorio. Sus prototipos se utilizan en aceleradores neuromórficos y coprocesadores matriciales experimentales, especialmente donde el trabajo con pesos de redes neuronales es primordial. Sin embargo, presenta limitaciones importantes: inestabilidad de las resistencias, variabilidad de parámetros y dificultades para controlar con precisión los estados analógicos.

Estos retos no hacen inviable a ReRAM, pero sí limitan su ámbito de aplicación. Por ahora, no puede reemplazar la DRAM en cómputo general, pero en arquitecturas de IA especializadas sus ventajas son decisivas.

PCM: memoria de cambio de fase entre DRAM y NAND

La PCM (memoria de cambio de fase) funciona cambiando el estado de fase de un material, generalmente un calcogenuro. En estado amorfo, el material tiene alta resistencia; en estado cristalino, baja. El cambio se logra mediante impulsos térmicos precisos, lo que diferencia a PCM de la DRAM y la ReRAM en su física subyacente.

PCM ocupa una posición intermedia entre la memoria volátil y la no volátil: es más rápida que la NAND, no pierde datos al apagar el equipo y puede almacenar información con mayor densidad que la DRAM. Esta combinación la convirtió en uno de los primeros candidatos para la "memoria universal", un intento de cerrar la brecha entre velocidad y capacidad.

En IA, PCM es atractiva principalmente por la estabilidad de sus estados: a diferencia de la ReRAM, donde las resistencias pueden variar, los estados de fase de PCM son más predecibles y controlables. Esto es importante para almacenar pesos de redes neuronales con alta precisión y reproducibilidad.

Asimismo, PCM es apta para cálculos parcialmente analógicos: modificando el grado de cristalización, se pueden codificar no solo valores binarios, sino también niveles intermedios, lo que permite almacenar pesos con menor resolución. En IA, esto permite un equilibrio entre precisión y eficiencia energética, especialmente durante la inferencia.

Pero PCM también tiene desventajas: el cambio de fase requiere calor, lo que incrementa el consumo energético y limita la velocidad de escritura. Su vida útil de reescritura es menor que la de la DRAM, y los efectos térmicos dificultan el escalado de la densidad. Por ello, PCM no ha reemplazado a la memoria volátil en masa.

En la práctica, PCM se usa en aceleradores y sistemas de almacenamiento especializados con énfasis en cargas de IA, donde la no volatilidad y la previsibilidad son más importantes que la máxima velocidad de escritura. Así, no es una solución universal, sino una herramienta para tareas arquitectónicas concretas.

ReRAM y PCM frente a DRAM y NAND: de la teoría a la práctica

Comparar los nuevos tipos de memoria con DRAM y NAND de forma directa es erróneo. ReRAM y PCM no pretenden reemplazar toda la jerarquía de memoria, sino que su valor se manifiesta en escenarios concretos, sobre todo en IA. Aquí es donde las diferencias tecnológicas se vuelven prácticas.

La DRAM sigue siendo la memoria más rápida para acceso aleatorio, pero es volátil, difícil de escalar en densidad y requiere intercambio constante de datos con los bloques de cómputo, lo que en redes neuronales implica altas latencias y un gran consumo energético. La NAND, por su parte, es demasiado lenta y orientada al almacenamiento, por lo que es inútil para el trabajo activo de modelos.

ReRAM y PCM no destacan por la velocidad de una sola operación, sino por su arquitectura: permiten reducir o eliminar el traslado de datos, el principal obstáculo de los sistemas de IA. En inferencia, esto se traduce en menores consumos, menos calor y mayor densidad de cálculos por superficie de chip.

ReRAM sobresale en cálculos analógicos y paralelismo masivo, ideal como acelerador matricial, donde miles de celdas participan simultáneamente en el procesamiento. En estos casos, ReRAM no compite con DRAM, sino que reemplaza bloques de cómputo, convirtiendo la memoria en procesador.

PCM, en cambio, es una solución de compromiso: puede servir como memoria no volátil para almacenar pesos entre ejecuciones de modelos o como alternativa densa, aunque más lenta, a la DRAM en aceleradores de IA. Se emplea donde se requiere previsibilidad y estabilidad, incluso a costa de la velocidad de escritura.

En la práctica, ni ReRAM ni PCM sustituyen completamente a DRAM o NAND. En su lugar, surgen arquitecturas híbridas: DRAM para la lógica de control, NAND para almacenamiento y las nuevas memorias para gestionar pesos y cálculos dentro de los bloques de IA. Es en este papel donde resultan realmente útiles.

Dónde funcionan ya estas memorias en hardware de IA

Pese a la intensa investigación, ReRAM y PCM rara vez aparecen en dispositivos de consumo masivo. Su ámbito real de aplicación es el hardware especializado de IA, donde la arquitectura se diseña para modelos y cargas específicas en lugar de la universalidad.

ReRAM se utiliza principalmente en aceleradores experimentales y pre-serie enfocados en computación en memoria. Estos chips procesan inferencias de redes neuronales con pesos fijos, por ejemplo, en visión por computadora, reconocimiento de señales y dispositivos edge. Aquí, la eficiencia energética y la mínima latencia son más importantes que la precisión absoluta, y la naturaleza analógica de ReRAM resulta ideal donde se toleran pequeñas imprecisiones.

El uso de ReRAM destaca especialmente en arquitecturas neuromórficas, donde los arrays de memoria actúan como sinapsis y los cálculos se realizan aprovechando las propiedades físicas del material. Esto posibilita módulos de IA compactos y de bajo consumo capaces de operar de forma autónoma, un requisito clave en sistemas integrados y periféricos.

PCM, a diferencia de ReRAM, ya cuenta con experiencia industrial. Se ha utilizado en soluciones especializadas como memoria no volátil con menores latencias que la NAND. En IA, PCM almacena pesos de modelos y datos intermedios, permitiendo mantener el estado y arrancar rápidamente sin recarga desde almacenamiento lento.

En servidores y sistemas de investigación, PCM se prueba como parte de memorias multinivel entre DRAM y NAND, permitiendo mantener modelos grandes cerca de los bloques de cómputo y reducir el tiempo de acceso durante la inferencia. Esto es especialmente relevante para redes neuronales de gran tamaño, donde los pesos ocupan decenas o cientos de gigabytes.

Es importante destacar que en productos reales, ReRAM y PCM casi siempre funcionan en conjunto con memorias clásicas. No reemplazan DRAM o NAND, sino que las complementan, asumiendo las tareas más críticas: la gestión de pesos y los cálculos repetitivos de IA. Esta arquitectura híbrida es hoy la opción más viable.

Limitaciones, escalabilidad y coste

A pesar de sus prometedoras características, ReRAM y PCM están lejos de ser una solución universal. Sus principales problemas no tienen que ver con el principio operativo, sino con la física de los materiales y la complejidad de la fabricación industrial, factores que hoy restringen su adopción masiva en hardware de IA.

En ReRAM, el gran reto es la variabilidad de las celdas: incluso dentro de un mismo array, las resistencias pueden variar notablemente o derivar con el tiempo por el calor y los ciclos de escritura. En los cálculos analógicos, esto significa acumulación de errores y necesidad de calibración compleja. Cuanto mayor es el array, más difícil es garantizar resultados estables y reproducibles.

PCM enfrenta otras limitaciones: el cambio de fase requiere calor, lo que aumenta el consumo y complica la gestión térmica del chip. Además, su vida útil de reescritura es menor que la de DRAM, lo que la hace menos apta para cargas de entrenamiento intensivas. El escalado en densidad se topa con efectos térmicos entre celdas adyacentes.

El coste es un problema aparte: la producción de ReRAM y PCM requiere nuevos materiales, pasos tecnológicos adicionales y altos niveles de control de calidad, lo que encarece los chips respecto a la memoria clásica a igual volumen de fabricación. Hasta que alcancen escala, su uso está justificado solo en aceleradores de IA de nicho.

Además, existe el desafío del software: la computación en memoria requiere nuevos modelos de programación, compiladores y algoritmos adaptados a la naturaleza inexacta y analógica de estos cálculos. Sin un ecosistema de software, incluso la memoria más eficiente seguirá siendo un experimento.

Por todo ello, ReRAM y PCM se encuentran hoy en una zona de compromiso tecnológico: ya han demostrado su utilidad en IA, pero su escalabilidad está limitada por la física, el coste y la integración. Por eso, la industria avanza hacia una integración cuidadosa de estas tecnologías en arquitecturas híbridas, más que a su sustitución total.

Conclusión

Las nuevas memorias ReRAM y PCM no surgieron como una mera evolución de la DRAM o la NAND, sino como respuesta a las limitaciones fundamentales del hardware para IA. En redes neuronales, el cuello de botella ya no es el cálculo, sino el movimiento de datos, y aquí es donde la arquitectura tradicional dejó de escalar.

ReRAM ha demostrado ser una herramienta eficaz para la computación en memoria y arquitecturas neuromórficas, permitiendo reducir drásticamente el consumo y acercar el almacenamiento de pesos al cálculo, aunque requiere calibración compleja y no es válida para tareas generales. PCM, por su parte, ocupa el nicho de memoria estable y no volátil entre DRAM y NAND, útil para almacenar pesos y acelerar la inferencia en sistemas de IA especializados.

La experiencia demuestra que ninguna de estas tecnologías reemplaza completamente la memoria clásica. El futuro real pasa por arquitecturas híbridas, donde DRAM, NAND, ReRAM y PCM coexisten, cada una resolviendo su función. Así se logra la máxima eficiencia sin forzar una sola tecnología a ser universal.

Para el hardware de IA, esto implica un cambio de paradigma: la memoria deja de ser un componente pasivo y pasa a ser parte activa del cálculo. Y es en este nuevo papel donde las nuevas memorias ya están encontrando su lugar, no en promesas de marketing, sino en soluciones arquitectónicas reales.

Etiquetas:

inteligencia artificial
memoria
ReRAM
PCM
hardware IA
computación en memoria
DRAM
NAND

Artículos Similares