Poder computacional avança de MIPS para exaflops em décadas e transforma a IA

Descubra como a evolução do poder computacional, de MIPS para exaflops, está transformando a inteligência artificial e seu impacto no futuro.
Atualizado há 5 horas
Poder computacional avança de MIPS para exaflops em décadas e transforma a IA
A evolução do poder computacional está moldando o futuro da inteligência artificial. (Imagem/Reprodução: Venturebeat)
Resumo da notícia
    • O poder computacional evoluiu de MIPS para exaflops em poucas décadas, impulsionando avanços na inteligência artificial.
    • Você pode esperar aplicações mais rápidas e complexas de IA, desde assistentes virtuais até pesquisas científicas.
    • Essa evolução pode acelerar descobertas científicas e melhorar tecnologias do dia a dia, mas também levanta questões sobre sustentabilidade e uso responsável.
    • A Nvidia anunciou um sistema de servidor único que atinge exaflops, mostrando a velocidade dessa transformação.
CONTINUA DEPOIS DA PUBLICIDADE

O aumento exponencial do poder computacional e IA está transformando a inteligência artificial. Em poucos anos, sistemas passaram de MIPS para exaflops, impulsionando avanços inimagináveis. Essa evolução abre portas para novas aplicações e levanta questões sobre o futuro da tecnologia e seu impacto na sociedade. Afinal, qual o limite dessa capacidade e como podemos usá-la de forma responsável?

Um Salto Quântico na Capacidade Computacional

Durante a recente conferência Nvidia GTC, a empresa revelou o que descreveu como o primeiro sistema de servidor de rack único capaz de atingir um exaflop – um bilhão de bilhões, ou um quintilhão, de operações de ponto flutuante (FLOPS) por segundo. Essa inovação se baseia no mais recente sistema GB200 NVL72, que incorpora as mais recentes unidades de processamento gráfico (GPUs) Blackwell da Nvidia. Um rack de computador padrão tem cerca de 1,80 metro de altura, um pouco mais de 90 centímetros de profundidade e menos de 60 centímetros de largura.

Essa notícia demonstra como a tecnologia evoluiu rapidamente, permitindo que um único rack alcance o poder de supercomputadores inteiros de alguns anos atrás. Essa evolução levanta questões sobre o futuro da computação e seu impacto em diversas áreas, desde a inteligência artificial até a pesquisa científica.

Reduzindo um Exaflop: de Frontier para Blackwell

Alguns aspectos do anúncio me chamaram a atenção. Primeiro, o primeiro computador do mundo capaz de exaflop foi instalado há poucos anos, em 2022, no Oak Ridge National Laboratory. Para efeito de comparação, o supercomputador “Frontier” construído pela HPE e alimentado por GPUs e CPUs da AMD, originalmente consistia em 74 racks de servidores. O novo sistema Nvidia alcançou uma densidade de desempenho cerca de 73 vezes maior em apenas três anos, o que equivale a um aumento de desempenho de três vezes a cada ano. Esse avanço reflete um progresso notável na densidade de computação, eficiência energética e design arquitetônico.

A velocidade com que a tecnologia evolui é impressionante. A capacidade de reduzir o tamanho e aumentar o desempenho dos computadores tem um impacto significativo em diversas áreas, desde a pesquisa científica até o desenvolvimento de novas tecnologias. Essa evolução também levanta questões sobre a necessidade de equilibrar o poder computacional com a eficiência energética e a sustentabilidade.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

Em segundo lugar, é preciso dizer que, embora ambos os sistemas atinjam o marco da exaescala, eles são construídos para diferentes desafios, um otimizado para velocidade, o outro para precisão. A especificação exaflop da Nvidia é baseada em matemática de menor precisão – especificamente operações de ponto flutuante de 4 e 8 bits – considerada ideal para cargas de trabalho de IA, incluindo tarefas como treinar e executar grandes modelos de linguagem (LLMs). Esses cálculos priorizam a velocidade em vez da precisão. Em contrapartida, a classificação exaflop para Frontier foi alcançada usando matemática de precisão dupla de 64 bits, o padrão ouro para simulações científicas onde a precisão é crítica.

A escolha entre velocidade e precisão depende da aplicação. Para tarefas que exigem alta precisão, como simulações científicas, a matemática de 64 bits é essencial. No entanto, para tarefas de IA, onde a velocidade é mais importante, a matemática de menor precisão pode ser suficiente. Essa flexibilidade permite que os sistemas sejam otimizados para diferentes tipos de cargas de trabalho.

Percorremos um Longo Caminho (Muito Rápido)

Esse nível de progresso parece quase inacreditável, especialmente quando me lembro do estado da arte quando comecei minha carreira na indústria de computação. Meu primeiro emprego profissional foi como programador no DEC KL 1090. Essa máquina, parte da série PDP-10 de mainframes de tempo compartilhado da DEC, oferecia 1,8 milhão de instruções por segundo (MIPS). Além do desempenho da CPU, a máquina se conectava a telas de tubo de raios catódicos (CRT) por meio de cabos fixos. Não havia recursos gráficos, apenas texto claro em um fundo escuro. E, claro, sem Internet. Usuários remotos se conectavam por linhas telefônicas usando modems rodando em velocidades de até 1.200 bits por segundo.

A evolução da computação é impressionante. As máquinas que antes ocupavam salas inteiras agora cabem em nossos bolsos, com um poder de processamento inimaginável. Essa evolução transformou a forma como vivemos, trabalhamos e nos comunicamos.

500 Bilhões de Vezes Mais Computação

Embora comparar MIPS com FLOPS dê uma noção geral do progresso, é importante lembrar que essas métricas medem diferentes cargas de trabalho de computação. MIPS reflete a velocidade de processamento de inteiros, o que é útil para computação de propósito geral, particularmente em aplicações de negócios. FLOPS mede o desempenho de ponto flutuante, que é crucial para cargas de trabalho científicas e o grande poder de processamento por trás da IA moderna, como a matemática de matrizes e a álgebra linear usadas para treinar e executar modelos de aprendizado de máquina (ML).

CONTINUA DEPOIS DA PUBLICIDADE

A capacidade de processamento de informações cresceu exponencialmente. Se você busca entender mais sobre o assunto, existem diversos capacidade computacional e IA que abordam essa temática.

Embora não seja uma comparação direta, a pura escala da diferença entre MIPS então e FLOPS agora fornece uma ilustração poderosa do rápido crescimento no desempenho da computação. Usando-os como uma heurística aproximada para medir o trabalho realizado, o novo sistema Nvidia é aproximadamente 500 bilhões de vezes mais poderoso do que a máquina DEC. Esse tipo de salto exemplifica o crescimento exponencial do poder computacional e IA ao longo de uma única carreira profissional e levanta a questão: se tanto progresso é possível em 40 anos, o que os próximos 5 podem trazer?

A Nvidia, por sua vez, ofereceu algumas pistas. Na GTC, a empresa compartilhou um roteiro prevendo que seu sistema de rack completo de próxima geração baseado na arquitetura UltraVera Rubin” fornecerá 14 vezes o desempenho do rack Blackwell Ultra lançado este ano, atingindo algo entre 14 e 15 exaflops em trabalho otimizado para IA no próximo ano ou dois.

Igualmente notável é a eficiência. Atingir esse nível de desempenho em um único rack significa menos espaço físico por unidade de trabalho, menos materiais e potencialmente menor uso de energia por operação, embora as demandas absolutas de energia desses sistemas permaneçam imensas.

A IA Realmente Precisa de Todo Esse Poder de Computação?

Embora tais ganhos de desempenho sejam de fato impressionantes, a indústria de IA está agora lidando com uma questão fundamental: quanta capacidade de computação é realmente necessária e a que custo? A corrida para construir novos data centers de IA massivos está sendo impulsionada pelas crescentes demandas de computação de exaescala e modelos de IA cada vez mais capazes.

O esforço mais ambicioso é o Project Stargate de US$ 500 bilhões, que prevê 20 data centers nos EUA, cada um abrangendo meio milhão de pés quadrados. Uma onda de outros projetos de hiperescala está em andamento ou em estágios de planejamento em todo o mundo, à medida que empresas e países se esforçam para garantir que tenham a infraestrutura para suportar as cargas de trabalho de IA do amanhã.

Alguns analistas agora se preocupam que possamos estar superconstruindo a capacidade do data center de IA. A preocupação se intensificou após o lançamento do R1, um modelo de raciocínio da DeepSeek da China que requer significativamente menos computação do que muitos de seus pares. A Microsoft mais tarde cancelou contratos de aluguel com vários provedores de data center, provocando especulações de que poderia estar recalibrando suas expectativas para a demanda futura de infraestrutura de IA.

No entanto, The Register sugeriu que essa retirada pode ter mais a ver com alguns dos data centers de IA planejados não terem capacidade suficientemente robusta para suportar as necessidades de energia e resfriamento dos sistemas de IA de próxima geração. Já, os modelos de IA estão ultrapassando os limites do que a infraestrutura atual pode suportar. A MIT Technology Review relatou que essa pode ser a razão pela qual muitos data centers na China estão lutando e falhando, tendo sido construídos com especificações que não são ideais para a necessidade atual, muito menos para as dos próximos anos.

Inferência de IA Demanda Mais FLOPs

Os modelos de raciocínio realizam a maior parte de seu trabalho em tempo de execução por meio de um processo conhecido como inferência. Esses modelos alimentam algumas das aplicações mais avançadas e intensivas em recursos hoje, incluindo assistentes de pesquisa profunda e a onda emergente de sistemas de IA agentic.

Embora o DeepSeek-R1 inicialmente tenha assustado a indústria ao pensar que a IA futura poderia exigir menos poder de computação, o CEO da Nvidia, Jensen Huang, reagiu fortemente. Falando à CNBC, ele rebateu essa percepção: “Foi a conclusão exatamente oposta que todos tiveram.” Ele acrescentou que a IA de raciocínio consome 100 vezes mais computação do que a IA de não raciocínio.

À medida que a IA continua a evoluir de modelos de raciocínio para agentes autônomos e além, a demanda por computação provavelmente aumentará mais uma vez. Os próximos avanços podem vir não apenas em linguagem ou visão, mas em coordenação de agentes de IA, simulações de fusão ou até mesmo gêmeos digitais em grande escala, cada um possibilitado pelo tipo de salto de capacidade de computação que acabamos de testemunhar.

Aparentemente na hora certa, a OpenAI acaba de anunciar US$ 40 bilhões em novos financiamentos, a maior rodada de financiamento de tecnologia privada já registrada. A empresa disse em uma postagem no blog que o financiamento “nos permite impulsionar ainda mais as fronteiras da pesquisa de IA, dimensionar nossa infraestrutura de computação e fornecer ferramentas cada vez mais poderosas para os 500 milhões de pessoas que usam o ChatGPT todas as semanas”.

Por que tanto capital está fluindo para a IA? As razões variam da competitividade à segurança nacional. Embora um fator em particular se destaque, como exemplificado por uma manchete da McKinsey: “A IA pode aumentar os lucros corporativos em US$ 4,4 trilhões por ano.”

O Que Vem a Seguir? É Palpite de Qualquer Um

Em sua essência, os sistemas de informação são sobre abstrair a complexidade, seja por meio de um sistema de roteamento de veículos de emergência que eu escrevi em Fortran, uma ferramenta de relatório de desempenho do aluno construída em COBOL ou sistemas de IA modernos acelerando a descoberta de medicamentos. O objetivo sempre foi o mesmo: dar maior sentido ao mundo.

Agora, com a poderosa IA começando a aparecer, estamos cruzando um limiar. Pela primeira vez, podemos ter o poder de computação e a inteligência para enfrentar problemas que antes estavam além do alcance humano.

O colunista do New York Times, Kevin Roose, capturou recentemente este momento bem: “Toda semana, conheço engenheiros e empresários trabalhando em IA que me dizem que a mudança – grande mudança, mudança que abala o mundo, o tipo de transformação que nunca vimos antes – está ao virar da esquina.” E isso nem sequer conta os avanços que chegam a cada semana.

Ainda recentemente, vimos o GPT-4o da OpenAI gerar imagens quase perfeitas a partir de texto, o Google lançar o que pode ser o modelo de raciocínio mais avançado ainda no Gemini 2.5 Pro e a Runway revelar um modelo de vídeo com consistência de personagem e cena de tomada para tomada, algo que o VentureBeat observa ter iludido a maioria dos geradores de vídeo de IA até agora.

O que vem a seguir é realmente um palpite. Não sabemos se a poderosa IA será um avanço ou um colapso, se ajudará a resolver a energia de fusão ou liberará novos riscos biológicos. Mas com cada vez mais FLOPS vindo online nos próximos cinco anos, uma coisa parece certa: a inovação virá rápido – e com força. Está claro, também, que à medida que os FLOPS escalam, também devem nossas conversas sobre responsabilidade, regulamentação e restrição.

Para ficar por dentro das novidades do mundo da tecnologia, você pode conferir diversos artigos, como este sobre design de vidro para o iPhone Pro.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Via VentureBeat

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.