O avanço da IA tornou a memória o novo gargalo do hardware, superando o papel dos processadores. ReRAM e PCM surgem como soluções inovadoras, permitindo computação em memória e maior eficiência energética, transformando como redes neurais são implementadas e escaladas em chips de IA.
O rápido avanço da inteligência artificial transformou radicalmente as exigências sobre o hardware computacional, superando qualquer onda tecnológica anterior. Se antes o desempenho dependia do processador, hoje a memória - suas latências, largura de banda e consumo de energia - tornou-se o fator-chave, especialmente para ReRAM e PCM em aplicações de IA e computação em memória. A memória frequentemente limita a escalabilidade das redes neurais e a eficiência dos chips de IA.
Os sistemas modernos de inteligência artificial raramente são limitados pelo poder de processamento; o obstáculo está cada vez mais na memória. GPUs e aceleradores especializados executam operações em massa em paralelo, mas sua eficiência depende da velocidade com que recebem dados. É aqui que a arquitetura tradicional começa a falhar.
O problema reside na separação física entre memória e processamento. A DRAM está fora dos arrays de computação e a NAND ainda mais distante, usada como armazenamento. Em redes neurais, isso significa movimentar pesos e ativações constantemente pelos barramentos. Mesmo com alta largura de banda, as latências e o gasto energético da transferência de dados podem igualar ou até superar o custo das próprias operações.
Isso é especialmente notável em tarefas de IA, onde o treinamento e inferência de redes neurais envolvem operações massivas com matrizes. O resultado é um paradoxo: as unidades de processamento ficam ociosas esperando dados, e o aumento do consumo de energia é mais devido à movimentação de bits do que ao cálculo em si.
O chamado memory wall trouxe limitações que não podem ser superadas apenas escalando hardware. Aumentar a frequência da DRAM pouco adianta, e multiplicar canais de memória encarece e complica os chips. Por isso, o foco migrou: de acelerar o processamento para repensar o papel da memória na arquitetura de IA.
Surgem, então, abordagens onde a memória deixa de ser um repositório passivo e passa a participar diretamente dos cálculos. A computação em memória torna-se uma resposta lógica aos limites da arquitetura clássica.
A computação em memória é uma abordagem arquitetural na qual operações são realizadas no próprio local onde os dados residem, eliminando a transferência constante para blocos de processamento separados. Em IA, isso significa abandonar o esquema tradicional "memória → processador → memória", fonte das maiores latências e desperdício energético.
Para redes neurais, isso faz todo sentido. A maior parte dos cálculos é multiplicação de matrizes de pesos por entradas e acumulação de resultados. Se os pesos já estão nas células de memória, o próprio processo físico de leitura pode ser parte do cálculo - por exemplo, somando correntes ou alterando resistências. Assim, o resultado é formado diretamente no array de memória, sem movimentação de dados.
A principal vantagem é a drástica redução do consumo energético. Transferir dados entre memória e lógica gasta muito mais energia do que as operações aritméticas. Para sistemas de IA, especialmente em data centers e dispositivos edge, isso é crítico: o limite não é a performance, mas o calor e o orçamento energético.
Outro benefício é a escalabilidade. Em vez de aumentar a frequência ou complexidade dos núcleos de processamento, pode-se simplesmente ampliar os arrays de memória, onde cada célula participa do cálculo. Isso abre caminho para arquiteturas neuromórficas e matriciais, que imitam o funcionamento das redes neurais biológicas.
No entanto, a computação em memória é inviável com DRAM e NAND tradicionais sem grandes concessões. Estes tipos não suportam bem operações analógicas nem paralelismo em nível de célula. Por isso, o foco da indústria se volta para alternativas como ReRAM e PCM, fisicamente mais adequadas às demandas da IA.
A ReRAM (memória resistiva) armazena dados na resistência do material, em vez de carga (DRAM) ou floating gate (NAND). Cada célula pode estar em estado de alta ou baixa resistência, alternando entre eles com pulsos elétricos curtos. Essa simplicidade física torna a tecnologia especialmente interessante para IA.
Seu principal diferencial é a compatibilidade natural com computação em memória. Alterando resistências das células, é possível codificar pesos de redes neurais diretamente no array. Ao aplicar tensão, as correntes se somam conforme as leis da física e a multiplicação matriz-vetor acontece quase "automaticamente". Trata-se de um cálculo analógico, feito em paralelo em milhares de células.
Em termos de eficiência energética, a ReRAM supera a DRAM em várias ordens de magnitude. O gasto ocorre na interação local dos dados, não em sua transferência. Isso possibilita inferência com baixíssima dissipação térmica - crucial para sensores autônomos, dispositivos móveis e sistemas edge.
Outra vantagem é a alta densidade de armazenamento. As células podem ser miniaturizadas e a tecnologia suporta integração 3D. Torna-se, assim, uma substituta potencial para parte da DRAM e até NAND em chips de IA especializados, onde eficiência supera a versatilidade.
A ReRAM já não é uma mera curiosidade de laboratório. Protótipos são usados em aceleradores neuromórficos e coprocessadores matriciais, especialmente para manipulação de pesos neurais. Porém, desafios como instabilidade de resistência, variação de parâmetros e controle preciso de estados analógicos ainda limitam sua adoção em massa.
Essas questões não inviabilizam a ReRAM, mas restringem seu uso a nichos onde suas vantagens são decisivas.
A PCM (memória de mudança de fase) funciona alterando o estado físico de um material - normalmente um calcogeneto. No estado amorfo, tem alta resistência; no cristalino, baixa. A transição ocorre por pulsos térmicos precisos, tornando a PCM fundamentalmente diferente de DRAM e ReRAM.
Em propriedades, a PCM ocupa posição intermediária entre memória volátil e não volátil. É mais rápida que a NAND, não volátil e pode armazenar dados mais densamente que a DRAM. Por isso, figurou como candidata à "memória universal", tentando fechar o gap entre velocidade e capacidade.
Para IA, o atrativo é a estabilidade dos estados. Ao contrário da ReRAM, onde resistências podem variar, os estados de fase da PCM são mais previsíveis e fáceis de controlar - importante para armazenar pesos de redes neurais com precisão e reprodutibilidade.
Além disso, a PCM se adapta bem a cálculos parcialmente analógicos. Alterando o grau de cristalização, pode armazenar não só valores binários, mas intermediários, permitindo pesos de menor resolução - um meio-termo entre precisão e eficiência, útil para inferência.
Contudo, há limitações. A troca de fase exige calor, elevando o consumo e limitando a velocidade de escrita. Sua durabilidade também é menor que a da DRAM, e efeitos térmicos dificultam a escalabilidade. Por isso, a PCM não se tornou substituta em massa da memória operacional.
Na prática, a PCM tem nichos em aceleradores especializados e sistemas de armazenamento focados em IA, onde são cruciais a não volatilidade e previsibilidade, não necessariamente a máxima velocidade de escrita.
Comparar ReRAM e PCM diretamente com DRAM e NAND é um erro. Eles não buscam substituir toda a hierarquia de memória, mas agregam valor em cenários específicos, sobretudo na IA.
A DRAM segue sendo a memória de acesso aleatório mais veloz, mas é volátil, limitada em densidade e exige troca constante com blocos de processamento - resultando em atrasos e alto consumo energético a cada passagem dos pesos. Já a NAND é lenta e voltada ao armazenamento, não ao cálculo, tornando-se inútil para o trabalho ativo de modelos.
ReRAM e PCM não vencem em velocidade isolada, mas sim na arquitetura. Elas minimizam ou eliminam a movimentação de dados - o principal gargalo dos sistemas de IA. No inferência, isso significa consumo energético e térmico reduzidos, com maior densidade computacional por área.
A força da ReRAM está no cálculo analógico e paralelismo massivo. Não é ideal para tarefas universais, mas brilha como aceleradora matricial, onde milhares de células participam simultaneamente do processamento. Aqui, ela não concorre com a DRAM, mas substitui blocos de processamento, tornando a memória em processador.
A PCM, por sua vez, é um compromisso: pode funcionar como memória não volátil para armazenar pesos entre execuções ou como alternativa mais densa à DRAM em aceleradores de IA. É usada quando estabilidade e previsibilidade são vitais, mesmo sacrificando velocidade de escrita.
Na prática, nenhuma das duas elimina DRAM e NAND. O futuro está em arquiteturas híbridas: DRAM para lógica de controle, NAND para armazenamento, e novas memórias para pesos e processamento dentro dos blocos de IA.
Apesar do intenso desenvolvimento, ReRAM e PCM ainda são raras em dispositivos de consumo em larga escala. Sua aplicação real está em hardware de IA especializado, projetado para modelos e cargas específicas.
A ReRAM é mais utilizada em aceleradores experimentais ou pré-série voltados à computação em memória. Esses chips são empregados na inferência de redes neurais com pesos fixos - em visão computacional, reconhecimento de sinais e dispositivos edge, onde eficiência energética e latência mínima superam a precisão absoluta. Sua natureza analógica é adequada para tarefas que toleram pequenas imprecisões.
Em arquiteturas neuromórficas, o uso da ReRAM se destaca: arrays de memória correspondem diretamente aos sinapses, e os cálculos decorrem das propriedades físicas do material. Isso permite módulos de IA compactos e frios, funcionando sem refrigeração ativa - ideal para sistemas embarcados e periféricos.
A PCM, ao contrário, já tem histórico de implementação industrial. Utilizada como memória não volátil com latência menor que a da NAND, serve para armazenar pesos e dados intermediários de modelos de IA, facilitando inicializações rápidas sem recarregar dados de armazenamentos lentos.
Em servidores e sistemas de pesquisa, a PCM é testada como parte de uma memória multinível, entre DRAM e NAND. Isso aproxima grandes modelos dos blocos de processamento, reduzindo o tempo de acesso durante a inferência - fundamental em redes neurais de dezenas ou centenas de gigabytes.
Importante notar: ReRAM e PCM quase sempre atuam em conjunto com memórias clássicas, complementando - e não substituindo - DRAM ou NAND, especialmente nas funções mais críticas de IA, como manipulação de pesos e cálculos repetitivos.
Apesar de seus atrativos, ReRAM e PCM ainda estão longe de serem soluções universais. Os principais desafios são físicos e industriais, não conceituais.
Na ReRAM, a variabilidade das células é o maior entrave: mesmo em um único array, as resistências podem divergir e variar com o tempo, complicando cálculos analógicos devido ao acúmulo de erros e necessidade de calibração complexa. Quanto maior o array, mais difícil garantir estabilidade.
A PCM enfrenta outros obstáculos. A troca de fase exige aquecimento, elevando o consumo e complicando o gerenciamento térmico. Sua durabilidade é menor que a da DRAM, limitando seu uso em cargas intensivas de treinamento; além disso, a densidade é afetada por efeitos térmicos entre células vizinhas.
Outro ponto crítico é o custo. Produzir ReRAM e PCM requer novos materiais, etapas de fabricação adicionais e controle preciso, tornando-as mais caras que memórias tradicionais em pequeno volume. Até atingirem escala, seu uso faz sentido apenas em aceleradores de IA de nicho.
Também há desafios de software: a computação em memória exige novos modelos de programação e algoritmos adaptados à natureza imprecisa e analógica dos cálculos. Sem uma base sólida de software, mesmo a memória mais eficiente permanece experimental.
Assim, ReRAM e PCM hoje ocupam um espaço de compromisso tecnológico: comprovadamente úteis para IA, mas limitadas por física, custo e integração. Por isso, o setor caminha para arquiteturas híbridas, não para a substituição total das memórias convencionais.
As memórias ReRAM e PCM não surgiram como meros avanços de DRAM ou NAND, mas como respostas a limitações fundamentais do hardware de IA. Para redes neurais, o obstáculo deixou de ser o cálculo e passou a ser a movimentação de dados, que a arquitetura clássica não consegue mais escalar.
A ReRAM se provou eficiente na computação em memória e em arquiteturas neuromórficas, reduzindo drasticamente o consumo e aproximando o armazenamento de pesos dos cálculos, mas requer calibração complexa e não serve para tarefas universais. A PCM ocupou o espaço de memória não volátil estável entre DRAM e NAND, útil para armazenar pesos e acelerar a inferência em sistemas especializados.
Na prática, nenhuma dessas tecnologias substitui totalmente as memórias clássicas. O futuro está nas arquiteturas híbridas, onde DRAM, NAND, ReRAM e PCM coexistem, cada uma cumprindo seu papel. Isso maximiza a eficiência sem tentar tornar uma tecnologia universal.
Para o hardware de IA, isso representa uma mudança de paradigma: a memória deixa de ser passiva e passa a ser parte ativa do processamento. E é justamente nessa função que as novas memórias já encontram seu espaço - não em promessas de marketing, mas em soluções arquitetônicas reais.