Processadores AMD elevam a capacidade de IA em PCs com mais memória e modelos grandes

Atualizações da AMD permitem executar modelos de IA avançados diretamente no PC com mais memória gráfica, melhorando privacidade e desempenho.
Atualizado há 14 horas atrás
Processadores AMD elevam a capacidade de IA em PCs com mais memória e modelos grandes
AMD traz IA avançada para PCs com mais memória gráfica, elevando privacidade e desempenho. (Imagem/Reprodução: Wccftech)
Resumo da notícia
    • A AMD anunciou suporte para modelos de IA de grande porte nas plataformas de computadores pessoais com até 96 GB de memória gráfica.
    • Com essa inovação, usuários podem executar modelos complexos de IA, como o Llama 4 Scout, no seu próprio PC.
    • Essa capacidade promove maior privacidade, menor latência e autonomia na utilização de assistentes de IA avançados.
    • A expansão da memória gráfica e do tamanho do contexto processa maiores quantidades de dados, impulsionando a adoção de IA local.
CONTINUA DEPOIS DA PUBLICIDADE

A AMD está expandindo as capacidades de inteligência artificial em computadores pessoais. Uma recente atualização de driver permite que os processadores da linha Ryzen AI MAX+ suportem até 96 GB de memória gráfica. Essa novidade permite executar modelos de linguagem grandes (LLMs) diretamente no seu PC, como o Llama 4 Scout da Meta, abrindo caminho para assistentes de IA mais robustos e locais.

Processadores AMD Elevam a IA em PCs

A AMD tem se destacado por integrar poder de processamento de IA em computadores de uso geral. Suas plataformas de unidade de processamento acelerado (APU), como as das linhas Strix Point e Strix Halo, já oferecem um desempenho de IA de alto nível, graças aos motores XDNA. Essa tecnologia tem sido um pilar para a evolução da inteligência artificial em dispositivos de consumo.

Recentemente, a AMD avançou ainda mais com a inteligência artificial em dispositivos locais, o chamado edge AI. Por meio do seu driver mais recente, o Adrenalin Edition 25.8.1, a empresa adicionou suporte para modelos de LLM com até 128 bilhões de parâmetros. Essa capacidade é um marco, possibilitando que PCs rodem modelos complexos sem depender de servidores externos.

CONTINUA DEPOIS DA PUBLICIDADE

Com essa atualização, usuários de PC podem agora aproveitar modelos como o Llama 4 Scout da Meta, que é uma implementação baseada em MoE (Mixture-of-Experts). Embora o Llama 4 Scout utilize 17 bilhões de parâmetros em tempo de execução, a otimização da AMD garante taxas de processamento (TPS) eficientes, tornando-o um assistente de IA local. Para o desenvolvimento de novas tecnologias com esse potencial, engenheiros e especialistas são cruciais na evolução de chips de IA.

A habilidade de executar esses modelos localmente significa mais privacidade, menor latência e a possibilidade de usar a IA mesmo sem conexão à internet. Isso representa um passo importante para a democratização do acesso a ferramentas avançadas de inteligência artificial. Essa novidade se alinha com o que empresas como o Google têm feito para aprimorar o modo AI com novas funcionalidades.

Leia também:

Memória e Capacidade para Grandes Modelos de IA

Um dos destaques dessa atualização é a capacidade de disponibilizar uma memória gráfica robusta. Com a tecnologia Variable Graphics Memory (VGM) da AMD, os usuários podem alocar até 96 GB de memória para a unidade de processamento gráfico integrada (iGPU). Isso é fundamental para que modelos de IA de grande escala possam funcionar de forma eficaz nos computadores pessoais.

A memória gráfica expandida permite que os sistemas suportem modelos de IA que exigem grandes volumes de dados e cálculos. Essa capacidade diferencia os processadores AMD no cenário atual, onde a demanda por poder de processamento de IA local tem crescido. Ter 96GB de memória RAM é uma especificação de alto desempenho.

Além disso, a AMD fez progressos significativos no tamanho do contexto dos modelos. Enquanto o padrão da indústria para processadores de consumo costumava ser de cerca de 4096 tokens, a empresa conseguiu aumentar esse limite em várias vezes. Agora, é possível atingir um comprimento de contexto de 256.000 tokens, o que oferece um controle maior sobre o fluxo de trabalho e elimina preocupações com o desempenho. Paralelamente, empresas como a NVIDIA também estão fazendo novos pedidos de chips de IA na TSMC para atender à crescente demanda do mercado.

CONTINUA DEPOIS DA PUBLICIDADE

Essa expansão da memória e do contexto é crucial para aplicações que exigem que a IA “lembre” e processe grandes quantidades de informações de uma só vez, como na geração de texto longo ou em interações complexas. Esses números mostram que a “febre da computação de IA” está realmente se espalhando para os PCs de consumo, mudando a forma como interagimos com a tecnologia.

Atualmente, as plataformas Strix Halo estão disponíveis em um número limitado de dispositivos, e podem não ser facilmente acessíveis. Alguns desses modelos chegam a custar mais de US$ 2.000. No entanto, os avanços da AMD na computação de IA indicam um futuro promissor, tornando o “poder da IA” mais disponível, mesmo que os dispositivos atuais exijam um investimento maior.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via AMD Blog

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.