RTX 5090 DeepSeek R1 supera RX 7900 XTX em desempenho de inferência com grande vantagem

RTX 5090 DeepSeek R1: desempenho superior em inferência de IA, superando a RX 7900 XTX. Saiba mais sobre essa nova GPU e seus incríveis resultados!
Atualizado há 33 dias atrás
RTX 5090 DeepSeek R1

Outros destaques

Tesla líder em AI
NotebookLM da Google
Foldable iPhone da Apple
Modelo QwQ-32B da Alibaba
Snapdragon X85

A RTX 5090 DeepSeek R1 da NVIDIA demonstra desempenho superior em inferência com os modelos de IA DeepSeek R1, superando a RX 7900 XTX da AMD. Os novos Tensor Cores de quinta geração são o principal motivo para essa vantagem.

CONTINUA DEPOIS DA PUBLICIDADE

RTX 5090 DeepSeek R1: GPUs acessam modelos de raciocínio DeepSeek

As GPUs de consumo podem ser a melhor opção para executar modelos LLM de ponta em máquinas locais. Tanto a NVIDIA quanto a AMD estão investindo em ambientes adequados para essa execução. Recentemente, a AMD demonstrou o poder da GPU RDNA 3 com o modelo DeepSeek R1 LLM. Agora, a NVIDIA respondeu com benchmarks de inferência em suas novas GPUs RTX Blackwell. Os números mostram o domínio da GeForce RTX 5090 DeepSeek R1.

Em vários modelos DeepSeek R1, a GeForce RTX 5090 lidera em relação à Radeon RX 7900 XTX e à geração anterior. A GPU executou até 200 tokens por segundo no Distill Qwen 7b e Distill Llama 8b. Isso representa quase o dobro do desempenho da RX 7900 XTX da AMD. O resultado demonstra o poder da IA nas GPUs NVIDIA. Com o amplo suporte “RTX on AI”, veremos IA de ponta em PCs com mais frequência.

Executando o DeepSeek R1 em GPUs RTX da NVIDIA

Para quem deseja executar o DeepSeek R1 em GPUs RTX da NVIDIA, a empresa publicou um blog com um guia. O processo é tão simples quanto executar qualquer chatbot na internet. A NVIDIA explica que o modelo DeepSeek-R1, com 671 bilhões de parâmetros, está disponível como um microserviço de visualização NVIDIA NIM em build.nvidia.com. Este microserviço pode entregar até 3.872 tokens por segundo em um único sistema NVIDIA HGX H200.

Desenvolvedores podem testar a API, que em breve estará disponível para download como um microserviço NIM. Este faz parte da plataforma de software NVIDIA AI Enterprise. O microserviço DeepSeek-R1 NIM simplifica as implementações com suporte a APIs padrão do setor. Empresas podem maximizar a segurança e a privacidade de dados executando o microserviço NIM em sua infraestrutura de computação acelerada preferida.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Com o NVIDIA NIM, desenvolvedores e entusiastas podem testar o modelo de IA em suas builds locais. Isso garante a proteção dos dados e pode oferecer melhor desempenho, dependendo das capacidades do hardware. Usuários interessados em modelos de linguagem podem conferir este artigo sobre o OpenAI o3-mini, um modelo de raciocínio acessível.

Além disso, com o contínuo avanço da inteligência artificial, vale a pena conferir este podcast da Engadget sobre como o DeepSeek está revolucionando o mundo da IA. Para quem busca melhorar o desempenho gráfico em jogos, este artigo sobre o mod DLSS para Skyrim pode ser interessante.

Por fim, a reunião de Jensen Huang com Trump para discutir o futuro dos mercados de IA demonstra a importância crescente deste setor. E para os entusiastas de jogos, a notícia sobre o crescimento do mercado de jogos em 2025 impulsionado por títulos como GTA 6 e Civ 7 certamente chama a atenção.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via WCCFtech

CONTINUA DEPOIS DA PUBLICIDADE
André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.