▲
- Um método chamado Multi-LLM AB-MCTS permite que múltiplos modelos de linguagem cooperem em tarefas complexas.
- A técnica melhora o desempenho de equipes de IA em até 30% em relação a modelos únicos.
- Empresas podem usar essa abordagem para criar sistemas de IA mais robustos e eficientes.
- O sistema combina diferentes habilidades dos modelos, potencializando sua atuação coletiva.
- A abordagem foi testada em problemas visuais e mostrou resultados superiores ao uso individual.
A Sakana AI, um laboratório de IA japonês, revelou uma técnica que permite a múltiplos modelos de linguagem (LLMs) colaborarem em uma única tarefa. Batizado de Multi-LLM AB-MCTS, este método possibilita que equipes de IA superem o desempenho de modelos individuais em até 30%. Empresas agora podem aproveitar as forças de diferentes IAs para resolver problemas complexos.
O laboratório japonês Sakana AI apresentou uma nova técnica. Ela permite que vários modelos de linguagem grandes (LLMs) trabalhem juntos em uma mesma tarefa. Isso cria uma espécie de “time dos sonhos” de agentes de IA. O método, chamado Multi-LLM AB-MCTS, faz com que os modelos consigam experimentar e combinar suas habilidades. Assim, eles resolvem problemas que seriam difíceis demais para um único modelo.
Para as empresas, essa abordagem abre caminho para sistemas de IA mais robustos e capazes. Em vez de depender de um único fornecedor ou modelo, as companhias podem usar de forma dinâmica os pontos fortes de diferentes IAs. Isso significa atribuir o modelo certo para a parte certa de uma tarefa, buscando resultados melhores.
A Força da Inteligência Coletiva
Modelos de IA de ponta estão evoluindo muito rápido. No entanto, cada um deles possui suas próprias forças e fraquezas. Isso se deve aos dados únicos que usaram no treinamento e à sua arquitetura específica. Por exemplo, um modelo pode ser excelente para escrever códigos, enquanto outro se destaca na criação de textos.
Os pesquisadores da Sakana AI defendem que essas diferenças não são um problema, mas sim um aspecto positivo. Eles veem a diversidade como uma vantagem, permitindo que cada modelo contribua com suas habilidades distintas.
Leia também:
Conforme declarado em sua publicação no blog, os pesquisadores afirmam: “Vemos esses vieses e aptidões variadas não como limitações, mas como recursos preciosos para criar inteligência coletiva”. Essa visão sugere uma nova forma de pensar sobre as capacidades dos sistemas de IA.
Eles acreditam que, assim como as maiores conquistas humanas vêm de equipes com diferentes habilidades, os sistemas de IA também podem alcançar mais ao trabalharem juntos. “Ao unir sua inteligência, os sistemas de IA podem resolver problemas que são intransponíveis para qualquer modelo individual”, destacam.
Pensando Mais Durante a _Inferência_
O novo algoritmo da Sakana AI é uma técnica de “escala no tempo de inferência“. Ela também é chamada de “escala no tempo de teste“. Essa área de pesquisa tem ganhado muita popularidade no último ano, mudando o foco da otimização de IAs.
Enquanto grande parte da atenção em IA se concentrava na “escala no tempo de treinamento” – que envolve tornar os modelos maiores e treiná-los com conjuntos de dados mais vastos – a escala no tempo de inferência opera de forma diferente. Ela busca melhorar o desempenho ao destinar mais recursos computacionais depois que o modelo já foi treinado.
Uma abordagem comum utiliza o aprendizado por reforço para fazer com que os modelos gerem sequências mais longas e detalhadas de “cadeia de pensamento” (chain-of-thought ou CoT). Isso é visível em modelos populares como OpenAI o3 e DeepSeek-R1.
Outra técnica, mais simples, é a amostragem repetida. Nela, o modelo recebe o mesmo prompt várias vezes para produzir diversas soluções possíveis, funcionando como uma sessão de brainstorming. O trabalho da Sakana AI, por sua vez, combina e aprimora todas essas ideias existentes, buscando resultados mais eficientes.
Como Funciona o _Multi-LLM AB-MCTS_
O coração do novo método é um algoritmo chamado Adaptive Branching Monte Carlo Tree Search (AB-MCTS). Ele permite que um LLM faça “tentativa e erro” de forma eficiente. Isso é feito equilibrando duas estratégias de busca: “aprofundar a busca” e “ampliar a busca”.
Aprofundar significa refinar repetidamente uma resposta promissora. Ampliar, por sua vez, é gerar soluções totalmente novas do zero. O AB-MCTS combina essas abordagens. Assim, o sistema pode melhorar uma boa ideia, mas também mudar de direção e tentar algo novo se encontrar um beco sem saída.
Para isso, o sistema utiliza o Monte Carlo Tree Search (MCTS), um algoritmo de tomada de decisão. Ele ficou famoso por ser usado no AlphaGo da DeepMind. A cada passo, o AB-MCTS usa modelos de probabilidade para decidir se é mais estratégico refinar uma solução já existente ou gerar uma nova. A importância da qualidade dos dados é fundamental para essas decisões de probabilidade.
Diferentes estratégias de escala no tempo de teste. Fonte: Sakana AI
Os pesquisadores foram além com o Multi-LLM AB-MCTS. Ele não apenas decide “o que” fazer (refinar ou gerar), mas também “qual” LLM deve fazer. No início de uma tarefa, o sistema não sabe qual modelo é o mais adequado. Ele começa testando uma mistura equilibrada dos LLMs disponíveis. Conforme avança, aprende quais modelos são mais eficazes. Assim, ele distribui mais trabalho para eles ao longo do tempo. Essa técnica de equipes de IA melhora o desempenho dos modelos de linguagem significativamente.
Testando o ‘Time dos Sonhos’ da IA
Os pesquisadores testaram o sistema Multi-LLM AB-MCTS no benchmark ARC-AGI-2. O ARC (Abstraction and Reasoning Corpus) é feito para testar a capacidade humana de resolver problemas visuais novos. Isso o torna muito difícil para a IA.
A equipe usou uma combinação de modelos de ponta. Entre eles estavam o o4-mini, o Gemini 2.5 Pro e o DeepSeek-R1.
O grupo de modelos conseguiu achar soluções corretas para mais de 30% dos 120 problemas de teste. Essa pontuação foi muito superior à de qualquer modelo trabalhando sozinho. O sistema mostrou que consegue atribuir o melhor modelo para cada problema de forma dinâmica. Em tarefas com um caminho claro para a solução, o algoritmo identificou rápido o LLM mais eficiente e o usou com mais frequência. Empresas como a Microsoft estão investindo cada vez mais em IA.
AB-MCTS vs modelos individuais. Fonte: Sakana AI
Mais surpreendente ainda foi que a equipe notou casos onde os modelos resolveram problemas antes impossíveis para um único modelo. Em um exemplo, a solução gerada pelo modelo o4-mini estava errada. No entanto, o sistema enviou essa tentativa falha para o DeepSeek-R1 e o Gemini-2.5 Pro. Eles conseguiram analisar o erro, corrigi-lo e, por fim, produzir a resposta certa.
“Isso mostra que o Multi-LLM AB-MCTS pode combinar modelos de ponta de forma flexível. Assim, ele resolve problemas antes insolúveis. Isso eleva os limites do que pode ser alcançado usando LLMs como uma inteligência coletiva”, escreveram os pesquisadores.
AB-MTCS pode selecionar diferentes modelos em diferentes estágios da resolução de um problema. Fonte: Sakana AI
“Além dos prós e contras individuais de cada modelo, a tendência de ‘alucinar’ pode variar muito entre eles”, disse Akiba. “Ao criar um conjunto com um modelo que é menos propenso a ‘alucinar’, é possível ter o melhor dos dois mundos. Ou seja, capacidades lógicas poderosas e forte fundamentação. Como a ‘alucinação’ é um problema grande em contexto de negócios, essa abordagem pode ser valiosa para mitigar o problema.”
Da Pesquisa às Aplicações Práticas
Para ajudar desenvolvedores e empresas a aplicar essa técnica, a Sakana AI disponibilizou o algoritmo como um framework de código aberto. Ele foi nomeado TreeQuest e está acessível sob uma licença Apache 2.0. Isso significa que pode ser utilizado para fins comerciais.
O TreeQuest oferece uma API flexível, permitindo que os usuários implementem o Multi-LLM AB-MCTS para suas próprias tarefas. É possível personalizar a pontuação e a lógica, adaptando a ferramenta às necessidades específicas de cada projeto ou desafio. Essa flexibilidade é um diferencial importante.
Takuya Akiba afirmou: “Embora estejamos nas fases iniciais de aplicar o AB-MCTS a problemas específicos voltados para negócios, nossa pesquisa já revela um potencial significativo em diversas áreas”. Essa declaração indica as amplas possibilidades de uso da nova abordagem.
Além do benchmark ARC-AGI-2, a equipe conseguiu aplicar o AB-MCTS com sucesso em tarefas como codificação algorítmica complexa. Eles também obtiveram melhorias na precisão de modelos de machine learning.
Akiba ainda destacou que o AB-MCTS pode ser muito eficaz para problemas que exigem tentativa e erro repetitivas. Um exemplo é a otimização de métricas de desempenho de softwares existentes, como a latência de um serviço web. O lançamento dessa ferramenta prática de código aberto pode abrir caminho para novas e mais potentes aplicações de IA. A técnica colaborativa de LLM promete maior eficiência em IA e pode mudar o mercado.
Essa capacidade de IAs trabalharem juntas, combinando suas melhores qualidades e corrigindo falhas umas das outras, pode transformar a forma como a tecnologia resolve desafios complexos. É um passo importante para sistemas de inteligência artificial que não só processam dados, mas também raciocinam e se adaptam de maneira mais colaborativa, abrindo portas para soluções em diversas indústrias.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.