▲
- Sakana AI desenvolveu uma técnica que permite a colaboração eficaz de vários modelos de linguagem grande.
- O objetivo é melhorar o desempenho na resolução de tarefas complexas usando equipes de IA.
- Isso pode levar a sistemas de IA mais eficientes e capazes de superar modelos isolados.
- A técnica combina estratégias de busca e aloca modelos de forma inteligente, otimizando resultados.
A Sakana AI, um laboratório japonês de inteligência artificial, apresentou uma nova técnica que permite a colaboração entre múltiplos modelos de linguagem grande (LLMs). Esse método, chamado Multi-LLM AB-MCTS, cria uma equipe de agentes de IA capaz de resolver tarefas complexas. A inovação permite que os modelos realizem tentativas e erros, combinando suas forças para superar o que um único modelo conseguiria.
A Força da Inteligência Coletiva
Os modelos de inteligência artificial mais avançados estão em constante evolução. Cada um deles possui pontos fortes e fracos distintos, o que se deve aos seus dados de treinamento e arquiteturas únicas. Por exemplo, um modelo pode ser bom em programação, enquanto outro se destaca na escrita criativa, mostrando a diversidade de especialidades.
Os pesquisadores da Sakana AI encaram essas diferenças não como limitações, mas como recursos valiosos. Eles acreditam que essas aptidões variadas são essenciais para construir uma inteligência coletiva. É como uma equipe humana diversa que alcança grandes feitos ao unir seus talentos. Da mesma forma, sistemas de IA podem fazer muito mais trabalhando juntos.
Eles defendem que, ao combinar suas inteligências, os sistemas de IA podem solucionar problemas que seriam impossíveis para um modelo isolado. Essa abordagem visa otimizar o uso dos diferentes “cérebros” da inteligência artificial, levando a resultados superiores em diversas aplicações e cenários complexos.
Para as empresas, essa nova maneira de trabalhar oferece um caminho para criar sistemas de IA mais resistentes e capazes. Ao invés de depender de um único modelo ou provedor, as organizações podem aproveitar o melhor de vários modelos. Assim, é possível atribuir a IA certa para cada parte de uma tarefa e alcançar resultados melhores, aumentando a flexibilidade operacional.
Leia também:
Raciocínio Prolongado na Inferência
O algoritmo da Sakana AI se encaixa na área de pesquisa chamada “escala no tempo de inferência“, também conhecida como “escala no tempo de teste”. Essa é uma área que ganhou bastante popularidade recentemente. Enquanto a maioria dos estudos de IA foca na “escala no tempo de treinamento”, que envolve tornar os modelos maiores e treiná-los com mais dados, essa abordagem se diferencia.
A escala no tempo de inferência, por outro lado, busca melhorar o desempenho usando mais recursos computacionais depois que um modelo já foi treinado. Uma técnica comum é usar o aprendizado por reforço para fazer com que os modelos gerem sequências de pensamento mais longas e detalhadas, como visto em modelos conhecidos como OpenAI o3 e DeepSeek-R1. Isso permite que a IA “pense” mais a fundo antes de dar uma resposta.
Outro método mais direto é a amostragem repetida, ou Best-of-N. Nele, o mesmo comando é dado ao modelo várias vezes para que ele crie diversas soluções. É parecido com uma sessão de brainstorming, onde várias ideias são geradas para encontrar a melhor. O trabalho da Sakana AI combina e aprimora essas ideias existentes, buscando otimizar o processo.
Takuya Akiba, cientista de pesquisa na Sakana AI e coautor do artigo, explicou que a nova estrutura oferece uma versão mais inteligente da amostragem repetida. Ela complementa técnicas de raciocínio, como a cadeia de pensamento longa. Essa abordagem escolhe a estratégia de busca e o LLM certo de forma dinâmica, maximizando o desempenho com um número limitado de chamadas ao LLM em tarefas complexas.
Essa capacidade de melhorar a performance de modelos de linguagem grande durante a execução é um avanço significativo. Ela permite que a inteligência artificial otimize suas respostas em tempo real, adaptando-se às necessidades da tarefa. Isso abre caminho para sistemas mais eficientes e adaptáveis, ampliando o potencial da IA.
Como o AB-MCTS Adaptativo Opera
O coração do novo método é um algoritmo chamado Busca em Árvore Monte Carlo com Ramificação Adaptativa, ou Adaptive Branching Monte Carlo Tree Search (AB-MCTS). Ele permite que um LLM faça testes e erros de forma eficiente, equilibrando duas estratégias de busca: “buscar mais a fundo” e “buscar mais amplamente”.
Buscar mais a fundo significa pegar uma resposta promissora e refiná-la várias vezes. Já buscar mais amplamente envolve gerar soluções totalmente novas do zero, explorando diferentes caminhos. O AB-MCTS combina essas abordagens de forma inteligente. Isso permite que o sistema melhore uma boa ideia, mas também mude de direção e tente algo novo se encontrar um impasse ou descobrir um caminho mais promissor, otimizando a busca.
Para isso, o sistema utiliza o Monte Carlo Tree Search (MCTS), um algoritmo de tomada de decisão. Esse algoritmo ficou famoso por ser usado no AlphaGo da DeepMind. Em cada etapa, o AB-MCTS usa modelos de probabilidade para decidir se é mais estratégico refinar uma solução existente ou gerar uma nova, tornando o processo mais dinâmico.
Os pesquisadores deram um passo além com o Multi-LLM AB-MCTS. Ele não só decide “o quê” fazer (refinar ou gerar), mas também “qual” LLM deve fazer a tarefa. No início de uma tarefa, o sistema não sabe qual modelo é o mais adequado. Ele começa testando uma mistura equilibrada dos LLMs disponíveis para coletar dados.
Conforme avança, ele aprende quais modelos são mais eficazes para diferentes tipos de problemas. Assim, o sistema aloca mais trabalho para eles ao longo do tempo, otimizando o uso dos recursos disponíveis. Essa adaptabilidade é chave para o desempenho superior. Por exemplo, a atualização do Gemini em tablets Android mostra como a inteligência artificial pode se adaptar para melhorar a usabilidade em diversos dispositivos.
Testando a equipe de IA com múltiplos modelos
Os pesquisadores testaram o sistema Multi-LLM AB-MCTS no benchmark ARC-AGI-2, que você pode conferir no relatório técnico do ARC-AGI-2. O ARC (Abstraction and Reasoning Corpus) é conhecido por ser difícil para a inteligência artificial, pois foi projetado para avaliar a capacidade de resolver problemas de raciocínio visual novos, de forma parecida com a humana.
A equipe utilizou uma combinação de modelos de ponta, incluindo o4-mini, Gemini 2.5 Pro e DeepSeek-R1. Esse conjunto de modelos colaborativos conseguiu encontrar soluções corretas para mais de 30% dos 120 problemas de teste. Essa pontuação foi significativamente melhor do que a de qualquer um dos modelos trabalhando sozinho, evidenciando o poder da colaboração.
O sistema demonstrou a capacidade de atribuir dinamicamente o melhor modelo para cada problema específico. Em tarefas onde havia um caminho claro para a solução, o algoritmo rapidamente identificou o LLM mais eficaz e o utilizou com mais frequência. Isso prova a eficiência da abordagem. Um exemplo de como as empresas podem usar essas tecnologias é visto em como agentes de IA para empresas já geraram US$ 6 milhões em receita, mostrando o impacto financeiro da IA.
Mais notavelmente, a equipe observou casos em que os modelos resolveram problemas que eram impossíveis para qualquer um deles individualmente. Em uma situação, uma solução gerada pelo modelo o4-mini estava incorreta. Contudo, o sistema passou essa tentativa com falhas para o DeepSeek-R1 e o Gemini-2.5 Pro.
Esses modelos foram capazes de analisar o erro, corrigi-lo e, por fim, produzir a resposta certa. Isso mostra que o Multi-LLM AB-MCTS pode combinar modelos de ponta de forma flexível para resolver desafios antes intransponíveis, expandindo os limites do que pode ser alcançado com a inteligência coletiva de LLMs.
Segundo Takuya Akiba, a propensão a alucinações pode variar bastante entre os modelos, além de seus prós e contras individuais. Ao formar um conjunto com um modelo menos propenso a alucinar, é possível obter o melhor dos dois mundos: capacidades lógicas poderosas e forte fundamentação. Como a alucinação é um grande problema no contexto empresarial, essa abordagem pode ser valiosa para sua mitigação.
Da Pesquisa à Aplicação Prática
Para ajudar desenvolvedores e empresas a aplicar essa técnica, a Sakana AI lançou o algoritmo subjacente como um framework de código aberto. Ele é chamado TreeQuest e está disponível sob uma licença Apache 2.0, o que permite seu uso para fins comerciais. O TreeQuest oferece uma API flexível para implementação.
Essa API permite que os usuários implementem o Multi-LLM AB-MCTS em suas próprias tarefas. É possível personalizar a pontuação e a lógica, adaptando a ferramenta às necessidades específicas de cada projeto. Takuya Akiba mencionou que, embora estejam nas fases iniciais de aplicação do AB-MCTS a problemas de negócios, a pesquisa já aponta um potencial significativo em diversas áreas.
Além do benchmark ARC-AGI-2, a equipe conseguiu aplicar o AB-MCTS com sucesso em tarefas como codificação algorítmica complexa. Também foi eficaz na melhoria da precisão de modelos de aprendizado de máquina, demonstrando sua versatilidade. Esse tipo de avanço mostra o caminho para IA para profissionais e empresas que buscam otimizar seus processos.
Akiba acrescentou que o AB-MCTS também pode ser muito eficaz para problemas que exigem tentativas e erros repetitivos, como a otimização de métricas de desempenho de software existente. Ele poderia ser usado para encontrar automaticamente maneiras de melhorar a latência de resposta de um serviço web, por exemplo, impactando diretamente a experiência do usuário.
A disponibilização de uma ferramenta prática e de código aberto pode abrir caminho para uma nova geração de aplicações de IA empresariais. Essas aplicações seriam mais robustas e confiáveis, transformando a maneira como as empresas utilizam a inteligência artificial. Isso também se alinha com o que vemos em outras grandes empresas, como quando a Microsoft reforça foco em IA e desenvolvimento.
O desenvolvimento contínuo de abordagens como o TreeQuest sinaliza uma mudança na forma como as capacidades da inteligência artificial são exploradas. Ao invés de buscar um único modelo “perfeito”, a colaboração entre sistemas distintos pode ser o futuro. Isso permite que a IA não apenas resolva problemas mais complexos, mas também se adapte a novas situações com maior eficiência.
A adoção de métodos que promovem a inteligência coletiva entre LLMs poderá redefinir o uso de IA em diversos setores. As empresas terão mais flexibilidade e recursos para criar soluções que antes eram consideradas inviáveis. O foco em combinar as forças de diferentes modelos promete um cenário de inteligência artificial mais integrado e poderoso para os próximos anos.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.