AlphaEvolve da Google: IA que recuperou 0,7% da capacidade de computação da empresa

Descubra como o AlphaEvolve, agente de IA da Google, recuperou 0,7% da capacidade de computação e reduziu custos.
Atualizado há 4 horas atrás
AlphaEvolve da Google: IA que recuperou 0,7% da capacidade de computação da empresa
AlphaEvolve da Google melhora eficiência em 0,7% e reduz custos na computação. (Imagem/Reprodução: Venturebeat)
Resumo da notícia
    • A AlphaEvolve da Google, desenvolvida pela DeepMind, é uma agente de IA que reescreve códigos críticos de forma autônoma.
    • O objetivo é otimizar a multiplicação de matrizes e economizar recursos computacionais, recuperando 0,7% da capacidade dos data centers.
    • Isso pode economizar centenas de milhões de dólares anualmente para a Google.
    • A tecnologia serve como modelo para empresas que buscam implementar agentes autônomos em larga escala.
CONTINUA DEPOIS DA PUBLICIDADE

A AlphaEvolve da Google, desenvolvida pela DeepMind, é uma agente de IA que reescreve códigos críticos de forma autônoma. Ela já está sendo utilizada internamente na Google, otimizando a multiplicação de matrizes e economizando recursos computacionais. Com essa tecnologia, a Google conseguiu recuperar 0,7% da capacidade de computação em seus data centers globais, mostrando o potencial da IA para melhorar a eficiência e reduzir custos.

O sistema AlphaEvolve da Google demonstra como uma IA pode passar de um projeto de laboratório para uma ferramenta de produção eficiente. A arquitetura do sistema, que inclui controlador, modelos de rascunho rápido, modelos de análise profunda, avaliadores automatizados e memória versionada, ilustra como agentes autônomos podem ser implementados de forma segura e em larga escala.

A Google planeja lançar um programa de acesso antecipado para parceiros acadêmicos e está explorando uma disponibilidade mais ampla. Até lá, o AlphaEvolve serve como um modelo de referência para empresas que desejam implementar agentes capazes de lidar com tarefas de alto valor, exigindo orquestração, testes e proteção comparáveis.

CONTINUA DEPOIS DA PUBLICIDADE

Com a recuperação de 0,7% da capacidade dos data centers, a Google pode economizar centenas de milhões de dólares anualmente, o suficiente para cobrir o custo de treinamento de modelos como o Gemini Ultra, estimado em mais de 191 milhões de dólares.

Como Funciona a AlphaEvolve da Google

O AlphaEvolve opera em um sistema que pode ser descrito como um sistema operacional de agente, um pipeline distribuído e assíncrono projetado para melhoria contínua em escala. Seus principais componentes são um controlador, dois modelos de linguagem grandes (Gemini Flash para amplitude e Gemini Pro para profundidade), um banco de dados de memória de programa versionado e um conjunto de avaliadores, todos otimizados para alto rendimento.

Leia também:

A arquitetura não é totalmente nova, mas a execução é notável. O artigo sobre o AlphaEvolve descreve o orquestrador como um “algoritmo evolutivo que desenvolve gradualmente programas que melhoram a pontuação nas métricas de avaliação automatizada”, ou seja, um “pipeline autônomo de LLMs cuja tarefa é melhorar um algoritmo fazendo mudanças diretas no código”.

Se seus planos incluem execuções não supervisionadas em tarefas de alto valor, planeje uma infraestrutura semelhante: filas de trabalho, um armazenamento de memória versionado, rastreamento de service-mesh e sandboxing seguro para qualquer código gerado pelo agente.

Avaliação e Refinamento Contínuo

Um elemento crucial do AlphaEvolve é sua estrutura de avaliação. Cada sugestão dos LLMs é aceita ou rejeitada com base em uma função de “avaliação” fornecida pelo usuário que retorna métricas classificáveis por máquina. O sistema começa com verificações rápidas de teste de unidade em cada alteração de código proposta, garantindo que o código ainda compile e produza as respostas corretas em micro-entradas. Em seguida, os aprovados são submetidos a benchmarks mais pesados e revisões geradas por LLM, tudo em paralelo para manter a velocidade e a segurança.

CONTINUA DEPOIS DA PUBLICIDADE

Em resumo, os modelos sugerem correções e você verifica cada uma com testes confiáveis. O AlphaEvolve também suporta otimização multi-objetivo (otimizando latência e precisão simultaneamente), desenvolvendo programas que atendem a várias métricas ao mesmo tempo.

Agentes de produção precisam de avaliadores determinísticos, sejam testes de unidade, simuladores completos ou análise de tráfego canary. Avaliadores automatizados são sua rede de segurança e seu motor de crescimento. Antes de iniciar um projeto de agente, pergunte-se: “Temos uma métrica que o agente pode usar para se auto avaliar?”.

Uso Inteligente de Modelos e Refinamento Iterativo de Código

O AlphaEvolve aborda cada problema de codificação com um ritmo de dois modelos. Primeiro, o Gemini Flash gera rascunhos rápidos, fornecendo ao sistema um conjunto amplo de ideias para explorar. Em seguida, o Gemini Pro analisa esses rascunhos em profundidade e retorna um conjunto menor de candidatos mais fortes. Alimentando ambos os modelos está um “construtor de prompt” leve, um script auxiliar que monta a pergunta que cada modelo vê.

Ele combina três tipos de contexto: tentativas de código anteriores salvas em um banco de dados de projeto, quaisquer regras ou diretrizes escritas pela equipe de engenharia e material externo relevante, como artigos de pesquisa ou notas de desenvolvedores. Com esse cenário mais rico, o Gemini Flash pode explorar amplamente, enquanto o Gemini Pro se concentra na qualidade. Assim como a Microsoft, Google e Apple são principais alvos de golpes de phishing. É importante estar atento para não cair em golpes.

Ao contrário de muitas demonstrações de agentes que ajustam uma função por vez, o AlphaEvolve edita repositórios inteiros. Ele descreve cada alteração como um bloco diff padrão, o mesmo formato de patch que os engenheiros enviam para o GitHub, para que possa tocar em dezenas de arquivos sem se perder. Posteriormente, testes automatizados decidem se o patch permanece. Ao longo de ciclos repetidos, a memória de sucesso e fracasso do agente cresce, então ele propõe patches melhores e desperdiça menos computação em becos sem saída.

Deixe que modelos mais baratos e rápidos lidem com o brainstorming e, em seguida, chame um modelo mais capaz para refinar as melhores ideias. Preserve cada teste em um histórico pesquisável, porque essa memória acelera o trabalho posterior e pode ser reutilizada entre as equipes.

Métricas de Desempenho e ROI

As vitórias do AlphaEvolve, como a recuperação de 0,7% da capacidade do data center, a redução de 23% no tempo de execução do kernel de treinamento do Gemini, a aceleração de 32% do FlashAttention e a simplificação do design do TPU, têm uma característica em comum: visam domínios com métricas bem definidas.

Para o agendamento do data center, o AlphaEvolve desenvolveu uma heurística que foi avaliada usando um simulador dos data centers da Google com base em cargas de trabalho históricas. Para a otimização do kernel, o objetivo era minimizar o tempo de execução real em aceleradores TPU em um conjunto de dados de formatos de entrada de kernel realistas.

Ao iniciar sua jornada de IA, procure primeiro fluxos de trabalho onde “melhor” seja um número quantificável que seu sistema pode calcular, seja latência, custo, taxa de erro ou rendimento. Esse foco permite a busca automatizada e reduz o risco de implantação, porque a saída do agente (geralmente código legível por humanos, como no caso do AlphaEvolve) pode ser integrada aos pipelines de revisão e validação existentes.

Essa clareza permite que o agente se auto aperfeiçoe e demonstre valor. A demanda por profissionais de inteligência artificial aumenta a cada dia no Brasil.

Pré-requisitos Essenciais para o Sucesso

Embora as conquistas do AlphaEvolve sejam inspiradoras, o artigo da Google também é claro sobre seu escopo e requisitos. A principal limitação é a necessidade de um avaliador automatizado; problemas que exigem experimentação manual ou feedback de “laboratório” estão atualmente fora do escopo dessa abordagem específica. O sistema pode consumir uma quantidade significativa de computação, necessitando paralelização e planejamento cuidadoso da capacidade.

Antes de alocar um orçamento significativo para sistemas complexos, os líderes técnicos devem fazer perguntas críticas:

  • Problema classificável por máquina? Temos uma métrica clara e automatizável contra a qual o agente pode avaliar seu próprio desempenho?
  • Capacidade computacional? Podemos arcar com o potencial loop interno de geração, avaliação e refinamento, especialmente durante a fase de desenvolvimento e treinamento?
  • Base de código e prontidão da memória? Sua base de código está estruturada para modificações iterativas, possivelmente baseadas em diff? E você pode implementar os sistemas de memória instrumentados vitais para um agente aprender com sua história evolutiva?

O foco crescente na identidade robusta do agente e no gerenciamento de acesso, como visto em plataformas como Frontegg e Auth0, também aponta para a infraestrutura amadurecida necessária para implementar agentes que interagem com segurança com vários sistemas empresariais.

O Futuro da IA

A mensagem do AlphaEvolve para as equipes empresariais é clara. O sistema operacional em torno dos agentes é agora muito mais importante do que a inteligência do modelo. O projeto da Google mostra três pilares que não podem ser ignorados:

  • Avaliadores determinísticos que fornecem ao agente uma pontuação inequívoca cada vez que ele faz uma alteração.
  • Orquestração de longa duração que pode conciliar modelos de “rascunho” rápidos, como o Gemini Flash, com modelos mais lentos e rigorosos, seja a pilha da Google ou uma estrutura como o LangGraph do LangChain.
  • Memória persistente para que cada iteração se baseie na anterior, em vez de reaprender do zero.

Empresas que já possuem logging, conjuntos de teste e repositórios de código versionados estão mais perto do que imaginam. O próximo passo é conectar esses ativos a um loop de avaliação de autoatendimento para que várias soluções geradas por agentes possam competir e apenas o patch com maior pontuação seja enviado.

Como Anurag Dhingra, VP e GM de conectividade e colaboração empresarial da Cisco, disse ao VentureBeat em uma entrevista nesta semana: “Está acontecendo, é muito, muito real”, disse ele sobre as empresas que usam agentes de IA na fabricação, armazéns e centros de contato com clientes. Às vezes, o barato pode sair caro, como a TV LG G3 OLED de 65 polegadas com desconto de mais de 70% em modelo refurbished nos EUA.

Ele alertou que, à medida que esses agentes se tornam mais difundidos, fazendo “trabalho semelhante ao humano”, a pressão sobre os sistemas existentes será imensa: “O tráfego de rede vai disparar”, disse Dhingra. Sua rede, orçamento e vantagem competitiva provavelmente sentirão essa pressão antes que o ciclo de hype se acalme. Comece a provar um caso de uso contido e orientado por métricas neste trimestre e, em seguida, dimensione o que funciona.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via VentureBeat

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.