▲
- A NVIDIA planeja distribuir até 800.000 unidades de módulos SOCAMM em 2024 para produtos de inteligência artificial.
- Os módulos SOCAMM são soluções modulares que facilitam a atualização de memória em PCs e servidores de IA.
- Essa tecnologia aumenta a eficiência energética e a velocidade de memória, beneficiando dispositivos de IA.
- O objetivo é estabelecer o SOCAMM como padrão para dispositivos com baixo consumo de energia e alta performance.
A NVIDIA está se preparando para uma grande distribuição. A gigante da tecnologia planeja enviar até 800.000 unidades de seus módulos SOCAMM para produtos AI ainda neste ano. Essa movimentação busca aprimorar o desempenho e a eficiência de seus dispositivos focados em inteligência artificial, oferecendo uma solução de memória mais flexível e fácil de atualizar.
Módulos SOCAMM para produtos AI: Uma Nova Abordagem da NVIDIA
Os módulos SOCAMM, ou System-on-Chip Advanced Memory Module, são uma novidade que a NVIDIA apresentou. Eles foram pensados para tornar a atualização da memória em equipamentos de inteligência artificial mais simples. Isso significa que, com essa tecnologia, quem usa esses dispositivos terá mais facilidade para melhorar o desempenho e a eficiência da memória.
A ideia por trás do SOCAMM é oferecer uma solução modular. Diferente de outras memórias que são fixas, o SOCAMM pode ser trocado. Na prática, isso permite que a memória seja atualizada em PCs e servidores de IA com mais agilidade, sem a necessidade de soldagem complexa. Basta soltar três parafusos para o procedimento.
Essa memória tem como base o DRAM LPDDR. Essa tecnologia é normalmente usada em celulares e aparelhos que precisam de baixo consumo de energia. No entanto, o SOCAMM se destaca porque, ao contrário do HBM e do LPDDR5X, ele não é soldado diretamente na placa, permitindo sua substituição.
A NVIDIA mostrou essa tecnologia no evento GTC, onde a plataforma GB300 Blackwell já utilizava a memória SOCAMM. Isso já sinalizava que a empresa pretendia adotar um novo formato de memória para vários de seus produtos de IA, visando uma transição para soluções mais modernas e adaptáveis.
Leia também:
Produção e Expectativas para o SOCAMM
A NVIDIA pretende fabricar entre 600.000 e 800.000 unidades do módulo SOCAMM neste ano. Embora esse número seja menor do que a quantidade de memória HBM que a NVIDIA recebeu de seus parceiros em 2025, a previsão é que a produção aumente significativamente no próximo ano. Essa expansão será impulsionada principalmente pela chegada do SOCAMM 2.
A Micron é a empresa que fabrica os módulos SOCAMM para a NVIDIA atualmente. No entanto, há conversas em andamento com outras grandes fabricantes, como Samsung e SK Hynix. A ideia é que elas também possam produzir esses módulos futuramente, o que pode aumentar a disponibilidade no mercado. Essa iniciativa da NVIDIA de expandir os fornecedores de memória está alinhada com a crescente demanda por componentes em dispositivos de IA. Além disso, tecnologias da própria NVIDIA, como a redução do uso de VRAM em placas de vídeo, mostram o foco da empresa em otimização de recursos.
Os módulos SOCAMM oferecem uma largura de banda de memória entre 150 e 250 GB/s. Isso é mais do que as soluções RDIMM, LPDDR5X e LPCAMM, que são bem conhecidas em plataformas móveis. Essa velocidade, junto com a possibilidade de troca, faz do SOCAMM uma opção flexível para computadores e servidores de IA. A NVIDIA também tem focado em desenvolver GPUs voltadas para o mercado chinês de IA, reforçando sua presença global nesse setor.
A expectativa é que o SOCAMM se torne o padrão para dispositivos de IA que precisam de baixo consumo de energia. A combinação de um formato compacto, modularidade e maior eficiência energética faz com que essa solução se posicione bem no mercado. A indústria de tecnologia como um todo está voltada para o avanço da inteligência artificial, com empresas como a Samsung planejando ampliar os recursos de IA em seus dispositivos Galaxy. Isso demonstra a importância de módulos como o SOCAMM.
O SOCAMM se destaca por ser mais eficiente em termos de energia em comparação com o RDIMM, além de trazer uma largura de banda superior. Embora os detalhes exatos da melhoria de eficiência ainda não sejam públicos, a NVIDIA aposta nessas características para entregar produtos de IA com maior desempenho e menor consumo. A busca por eficiência energética é uma tendência em todo o setor de hardware, e podemos observar movimentos no mercado de CPUs, onde a AMD tem crescido enquanto a Intel perde espaço.
Este módulo personalizado não é apenas compacto, mas também oferece modularidade. A capacidade de ser trocado significa que os usuários podem atualizar seus dispositivos de forma mais prática, sem a necessidade de substituir toda a placa-mãe. Isso representa um avanço para o mercado de desenvolvimento de IA em dispositivos móveis e outras plataformas.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.