NVIDIA e AMD disputam liderança em benchmarks de IA com novas GPUs

Descubra como as GPUs NVIDIA Blackwell B200 e AMD MI325X se saíram nos testes MLPerf Inference, com recordes e competição acirrada.
Atualizado há 20 horas
NVIDIA e AMD disputam liderança em benchmarks de IA com novas GPUs
GPUs NVIDIA Blackwell B200 e AMD MI325X brilham nos testes MLPerf Inference. (Imagem/Reprodução: Wccftech)
Resumo da notícia
    • As GPUs NVIDIA Blackwell B200 e AMD Instinct MI325X foram testadas nos benchmarks MLPerf Inference v5.0.
    • Comparar o desempenho das novas GPUs em tarefas de inteligência artificial.
    • Os resultados impactam o mercado de aceleradores de IA, influenciando escolhas de empresas e desenvolvedores.
    • A NVIDIA superou recordes, enquanto a AMD busca competir com a geração anterior da rival.
CONTINUA DEPOIS DA PUBLICIDADE

Resultados recentes dos benchmarks MLPerf Inference v5.0 mostram o desempenho das novas GPUs NVIDIA Blackwell B200 e AMD Instinct MI325X. A NVIDIA apresentou ganhos significativos com a B200, enquanto a AMD posiciona sua MI325X frente à geração anterior da NVIDIA. Estes testes avaliam a performance em tarefas de inteligência artificial.

Os benchmarks MLPerf Inference são uma referência importante no setor. Eles medem quão bem o hardware e o software lidam com tarefas de inferência de IA, que é basicamente usar um modelo de IA já treinado para fazer previsões ou análises. Não se trata apenas da potência bruta da GPU; otimizações de software e suporte para novos ecossistemas e cargas de trabalho de IA também são cruciais.

NVIDIA Blackwell quebra recordes nos Benchmarks MLPerf Inference

A NVIDIA, mais uma vez, destacou-se nos resultados. O sistema GB200 NVL72, que conecta 72 GPUs NVIDIA Blackwell B200 para funcionarem como uma única GPU massiva, entregou uma taxa de transferência até 30 vezes maior no benchmark Llama 3.1 405B em comparação com a submissão anterior usando o NVIDIA H200 NVL8.

Esse salto de desempenho é atribuído a mais do que o triplo do desempenho por GPU individual e a um domínio de interconexão NVIDIA NVLink 9 vezes maior. É interessante notar que, neste benchmark específico (Llama 3.1 405B), apenas a NVIDIA e seus parceiros submeteram e publicaram resultados.

Quando se trata de modelos de linguagem grandes (LLMs), duas métricas de latência são chave para a experiência do usuário: o Time to First Token (TTFT), que é o tempo até o usuário começar a ver uma resposta, e o Time Per Output Token (TPOT), que mede a rapidez com que os “pedaços” da resposta (tokens) são entregues.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

No novo benchmark Llama 2 70B Interactive, que exige respostas mais rápidas (TPOT 5x menor e TTFT 4.4x menor), a NVIDIA também mostrou força. Uma submissão usando um sistema NVIDIA DGX B200 com oito GPUs Blackwell triplicou o desempenho em comparação com um sistema similar equipado com oito GPUs NVIDIA H200.

A combinação da arquitetura Blackwell e sua pilha de software otimizada oferece novos níveis de desempenho em inferência, essenciais para tarefas complexas como simulação de direção autônoma, abrindo caminho para que as AI factories entreguem maior inteligência, maior taxa de transferência e taxas de token mais rápidas, impactando áreas como a educação auxiliada por IA.

AMD Instinct MI325X entra na disputa

A AMD também marcou presença nos benchmarks com seu mais recente acelerador, o Instinct MI325X 256 GB. Os resultados foram submetidos para uma configuração com oito dessas GPUs.

Os números posicionam a solução da AMD em paridade com o sistema H200 da geração anterior da NVIDIA nos testes Llama2-70b. A generosa capacidade de memória de 256 GB da MI325X certamente ajuda com LLMs massivos (Large Language Models), como os que buscam simular aspectos da mente humana. No entanto, ainda há uma diferença considerável em relação ao desempenho da nova Blackwell B200.

No teste Stable Diffusion XL, que avalia a geração de imagens, a MI325X também ficou atrás das soluções Hopper (H100 e H200) e Blackwell (B200) da NVIDIA na configuração de 8 GPUs testada.

CONTINUA DEPOIS DA PUBLICIDADE

Com a NVIDIA já sinalizando a chegada da plataforma “Ultra” B300 ainda este ano, a AMD precisará manter o ritmo tanto no desenvolvimento de hardware quanto de software para continuar competitiva. A empresa já tem planos para a série Instinct MI350.

Dados dos Testes e Otimização Contínua

Analisando os dados específicos de alguns testes (configuração de 8 GPUs):

  • Llama2-70b-99 (Server):
    • Blackwell B200 (1000W): 98443
    • Hopper H200 (700W): 30420
    • Instinct MI325X (1000W): 30724
    • Hopper H100 (700W): 29916
  • Stable-Diffusion-XL (Server):
    • Blackwell B200 (1000W): 28.44
    • Hopper H200 (700W): 18.30
    • Hopper H100 (700W): 16.04
    • Instinct MI325X (1000W): 16.18

Os benchmarks também incluíram resultados para a série Hopper H200 da NVIDIA, que continua recebendo otimizações. Comparado ao ano passado, o desempenho de inferência dessas GPUs aumentou em 50%, um ganho substancial para empresas que ainda dependem dessa plataforma.

Esses resultados dos benchmarks MLPerf Inference v5.0 reforçam a competição acirrada no mercado de aceleradores de IA, mostrando como o cenário da inteligência artificial continua a evoluir rapidamente, impulsionado tanto por avanços de hardware quanto por otimizações de software.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.