▲
- O poder de computação evoluiu de milhões para bilhões de operações por segundo, impulsionando a IA.
- Você pode esperar avanços em automação e soluções complexas em diversos setores devido a essa evolução.
- Essa transformação pode reduzir custos e aumentar a eficiência em empresas e no cotidiano das pessoas.
- O crescimento também levanta questões sobre sustentabilidade e o futuro da infraestrutura tecnológica.
No cenário atual da tecnologia, o aumento exponencial do poder de computação está moldando a próxima geração da inteligência artificial. Em poucas décadas, a indústria saiu de processadores que executavam milhões de instruções por segundo para máquinas capazes de realizar bilhões de bilhões de operações em um piscar de olhos, abrindo espaço para modelos mais complexos, como os agentes autônomos e sistemas de raciocínio sofisticados que devem transformar inúmeros setores.
Sistemas exaflop crescem e mudam o conceito de hardware
Durante a conferência Nvidia GTC, foi revelado o primeiro sistema compacto de servidor com capacidade de um exaflop, equivalente a um quintilhão de operações por segundo. Essa conquista vem com o lançamento do GB200 NVL72, que usa GPUs Blackwell e ocupa apenas um rack comum, medindo cerca de 1,80 m de altura por menos de 60 cm de largura, algo impressionante considerando que, poucos anos atrás, sistemas dessa potência ocupavam enormes salas refrigeradas.
Para se ter uma ideia da diferença, no Oak Ridge National Laboratory, o Frontier inaugurado em 2022 atingiu o mesmo patamar usando 74 racks inteiros recheados de hardware AMD, enquanto a Nvidia conseguiu condensar tudo em um único armário — uma redução de quase 73 vezes no espaço físico em somente três anos. Parte disso resulta não só da evolução dos chips, mas também do foco na eficiência energética e arquitetura otimizada para workloads de IA.
Vale pontuar que o exaflop do Frontier foi alcançado com cálculos de altíssima precisão (64 bits, essenciais em pesquisas científicas), enquanto o sistema da Nvidia opera com cálculos de baixa precisão (4 e 8 bits), mais indicados para tarefas como treinar e inferir grandes modelos de linguagem, priorizando a velocidade em vez dos detalhes matemáticos.
Esse salto reforça uma velha aposta da indústria: melhorar a densidade computacional e baratear processamento bruto para IA. Paralelamente, surge o Manus AI, um agente que usa técnicas avançadas para automação, tirando proveito dessa escalada rápida na infraestrutura digital global.
Leia também:
Da era MIPS para a era da IA bilionária
No final dos anos 1970 e início dos 1980, as máquinas operavam em milhões de instruções por segundo, conhecidas como MIPS. O Digital KL 1090, um mainframe que fazia sucesso à época, tinha cerca de 1,8 MIPS — conectava-se via terminais CRT sem erros gráficos, a internet estava longe de existir, e modems de 1200 bps eram topo de linha.
Hoje, comparar MIPS com FLOPS pode não ser justo porque lidam com tipos de cálculos diferentes — inteiros versus números com casas decimais. Mas só essa comparação grosseira permite entender o salto: o GB200 NVL72 pode ser absoluto em torno de 500 bilhões de vezes mais potente que aquele mainframe da década de 1980. Em quarenta anos, multiplicamos a capacidade computacional por bilhões, criando a base para treinamentos de IA impensáveis na época.
A Nvidia já planeja um novo rack base “Vera Rubin”, prometendo desempenho até 14 vezes superior ao Blackwell, atingindo entre 14 e 15 exaflops otimizados para IA nos próximos dois anos. Cada rack maior significa mais aprendizado e menos espaço físico, o que pode ajudar também na redução relativa da energia gasta por tarefa.
Essa corrida esbarra em perguntas essenciais, principalmente sobre quanto processamento realmente será necessário para fazer IA avançar e as implicações ambientais e logísticas desse crescimento. Projetos como o Stargate, que visualiza 20 data centers gigantescos somando meio bilhão de dólares em investimentos, mostram a escala da ambição global — e dos riscos de excesso também.
Nem toda IA demanda o mesmo tanto de hardware
O lançamento do modelo DeepSeek-R1 na China, que demanda bem menos energia e cálculos que os modelos ocidentais, acendeu um alerta sobre a verdadeira necessidade e custo desses superdatacenters. Inclusive, houve reações no mercado, como a decisão da Microsoft de cancelar contratos com fornecedores desses mega centros, levantando dúvidas se haveria uma correção na demanda futura.
Segundo o portal The Register, parte do problema seria que muitos data centers atuais não conseguem entregar energia e refrigeração necessárias para as GPUs mais avançadas, causando falhas estruturais. Já na China, MIT Technology Review cita que datacenters recentes estão subutilizados porque não suportam as necessidades atuais, muito menos as futuras.
Modelos de raciocínio, que concentram esforços na inferência (momento em que respondem perguntas e tomam decisões), mudam a equação. DeepSeek-R1 surpreendeu por consumir pouco, mas segundo Jensen Huang, CEO da Nvidia, essa percepção está errada. Ele afirmou que essas novas arquiteturas vão precisar talvez 100 vezes mais processamento no futuro do que as atuais porque o raciocínio puro demanda muito mais operações.
O crescimento no uso desses sistemas deve incentivar ainda mais a construção de data centers robustos e acelerar o investimento em tecnologias que ampliam a performance. Enquanto isso, a capacidade computacional avança e transforma o campo da IA com uma velocidade difícil de acompanhar.
Para onde caminham IA, hardware e aplicações?
Muito dinheiro está sendo investido. A OpenAI recentemente anunciou uma rodada histórica de financiamento de US$ 40 bilhões, a maior já vista no setor privado de tecnologia. Esse volume é justificado pela combinação entre competitividade, segurança nacional e projeções como a apresentada pela McKinsey, que estima aumento potencial de US$ 4,4 trilhões por ano nos lucros das empresas graças à automação e IA.
Essa escalada impulsiona inovação constante. Em poucos dias, por exemplo, o GPT-4o da OpenAI conseguiu criar imagens quase perfeitas a partir de texto, enquanto o Google lançou o Gemini 2.5 Pro, que melhora recursos de raciocínio, e a Runway apresentou um gerador de vídeo com consistência entre cenas, contribuindo para produções visuais cada vez mais realistas. Essas inovações seguem o fluxo da evolução do hardware.
Todo esse cenário reforça o papel central do poder de computação no avanço da inteligência artificial. É como se as máquinas agora pudessem ajudar a entender e resolver problemas complexos que antes estavam além da capacidade humana, algo que leva muitos especialistas a debater como equilibrar crescimento, responsabilidade e limites éticos nos próximos cinco anos.
A mudança que parecia distante acontece agora, constantemente. A cada semana, surgem melhorias inesperadas. Com o aumento contínuo do processamento, surgem questões sobre energia, infraestrutura e até sobre a necessidade real desse crescimento agressivo, que lembra a evolução rápida da telefonia ou da informática pessoal.
Ao mesmo tempo, a indústria aposta também em novos padrões, como o GPMI para conexão entre dispositivos e transporte de dados em alta velocidade, facilitando a integração e o uso desse enorme volume de dados gerado pelas inteligências artificiais.
Em paralelo, fabricantes seguem ampliando recursos, como o Galaxy S25 com funções visuais baseadas em inteligência artificial, indicando como o usuário comum já se beneficia da multiplicação da capacidade de processamento que move desde supercomputadores a celulares com IA integrada.
Esse ritmo reforça a necessidade de conversas sérias sobre limites, ética e legislação para a IA, que cresce impulsionada por infraestrutura cada vez mais potente.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.