Sakana AI apresenta técnica colaborativa que amplia desempenho de LLMs em até 30%

Nova abordagem de IA permite que múltiplos modelos trabalhem juntos, aumentando eficiência e resultados em tarefas complexas em até 30% no Brasil.
Atualizado há 5 dias atrás
Sakana AI apresenta técnica colaborativa que amplia desempenho de LLMs em até 30%
Nova IA integra múltiplos modelos, elevando eficiência em até 30% nas tarefas complexas. (Imagem/Reprodução: Venturebeat)
Resumo da notícia
    • Sistema desenvolvido pela Sakana AI faz múltiplos modelos de linguagem trabalharem em equipe, superando modelos individuais em 30%.
    • Empresas podem criar sistemas de IA mais eficientes ao combinar diferentes modelos para tarefas específicas.
    • Essa colaboração amplia as capacidades da IA na resolução de problemas complexos, com impacto em diversos setores.
    • A técnica aprimora o desempenho ao usar algoritmos de busca adaptativos e aprendizado por reforço.
    • Ferramenta open source apresenta novas possibilidades para aplicações corporativas de IA.
CONTINUA DEPOIS DA PUBLICIDADE

Um novo método permite que múltiplos modelos de linguagem grandes (LLMs) trabalhem juntos em uma única tarefa, como um time de inteligências artificiais. Desenvolvida pelo laboratório japonês Sakana AI, a técnica, chamada Multi-LLM AB-MCTS, possibilita que os modelos aprendam por tentativa e erro, unindo suas habilidades únicas para resolver desafios complexos. Esta abordagem pode superar LLMs individuais em até 30%.

Para empresas, essa estratégia significa criar sistemas de IA mais robustos e capazes. Em vez de depender de um único modelo ou fornecedor, as organizações poderão usar dinamicamente as melhores características de diferentes modelos. Assim, é possível atribuir a IA certa para cada parte de uma tarefa e alcançar resultados superiores. Isso abre caminho para novas aplicações em diversos setores.

A inteligência que nasce da colaboração

Modelos de IA de ponta estão sempre evoluindo. No entanto, cada um tem seus pontos fortes e fracos, que vêm dos dados e da arquitetura de seu treinamento. Um modelo pode ser ótimo para programar, enquanto outro se destaca na escrita criativa. Os pesquisadores da Sakana AI veem essas diferenças não como falhas, mas como vantagens.

CONTINUA DEPOIS DA PUBLICIDADE

Eles acreditam que, assim como as maiores conquistas humanas vêm de equipes diversas, os sistemas de IA também podem melhorar muito ao trabalhar em conjunto. “Ao unir suas inteligências, os sistemas de IA podem resolver problemas que seriam impossíveis para um único modelo”, afirmam os pesquisadores em sua publicação. Essa visão transforma as limitações em recursos valiosos para a inteligência coletiva.

Essa colaboração é crucial para expandir as capacidades da inteligência artificial. Com mais modelos cooperando, a solução de problemas complexos se torna mais acessível. Isso pode levar a avanços significativos em áreas que exigem diferentes tipos de raciocínio. A ideia é construir um ecossistema de IAs complementares.

Leia também:

Expandindo o raciocínio no processo de Inferência

O novo algoritmo da Sakana AI é uma técnica de scaling no tempo de inferência, também conhecida como scaling no tempo de teste. Essa é uma área de pesquisa que ganhou muita popularidade no último ano. Enquanto o foco principal em IA geralmente está no scaling no tempo de treinamento – tornando os modelos maiores e treinando-os com conjuntos de dados mais amplos – o scaling no tempo de inferência melhora o desempenho ao alocar mais recursos computacionais depois que um modelo já está treinado.

Uma forma comum de fazer isso é usar o aprendizado por reforço para que os modelos gerem sequências de chain-of-thought (CoT) mais longas e detalhadas, como se vê em modelos como OpenAI o3 e DeepSeek-R1. Outra maneira, mais simples, é a amostragem repetida, onde o modelo recebe a mesma solicitação várias vezes para criar diversas soluções possíveis, como um brainstorming. O trabalho da Sakana AI une e aprimora essas duas ideias.

Takuya Akiba, cientista pesquisador da Sakana AI e coautor do artigo, explicou que a estrutura deles é uma versão mais inteligente e estratégica do Best-of-N, que também é chamado de amostragem repetida. Ele complementa técnicas de raciocínio como o long CoT por meio de aprendizado por reforço (RL). Ao escolher de forma dinâmica a estratégia de busca e o LLM mais adequado, essa abordagem maximiza o desempenho dentro de um número limitado de chamadas ao LLM, entregando resultados melhores em tarefas complexas. Esta é uma técnica de scaling de modelos de linguagem que aumenta o desempenho colaborativo.

Como funciona a busca por ramificação adaptativa

CONTINUA DEPOIS DA PUBLICIDADE

O coração do novo método é um algoritmo chamado Adaptive Branching Monte Carlo Tree Search (AB-MCTS). Ele permite que um LLM execute, de forma eficaz, o método de tentativa e erro, equilibrando de modo inteligente duas estratégias de busca diferentes: “buscar mais profundamente” e “buscar mais amplamente”. Buscar mais profundamente envolve pegar uma resposta promissora e refiná-la repetidamente, enquanto buscar mais amplamente significa gerar soluções completamente novas do zero. O AB-MCTS combina essas abordagens, permitindo que o sistema aprimore uma boa ideia, mas também mude de direção e tente algo novo se encontrar um impasse ou descobrir outra rota promissora.

Para realizar isso, o sistema utiliza o Monte Carlo Tree Search (MCTS), um algoritmo de tomada de decisão que ficou famoso por ser usado no AlphaGo da DeepMind. Em cada etapa, o AB-MCTS usa modelos de probabilidade para decidir se é mais estratégico refinar uma solução existente ou gerar uma nova. Essa abordagem adaptativa otimiza o uso dos recursos e tempo.

Os pesquisadores foram além com o Multi-LLM AB-MCTS, que não só decide “o quê” fazer (refinar ou gerar), mas também “qual” LLM deve fazer. No início de uma tarefa, o sistema não sabe qual modelo é o mais adequado para o problema. Ele começa testando uma mistura equilibrada de LLMs disponíveis e, à medida que avança, aprende quais modelos são mais eficazes. Com o tempo, ele direciona mais carga de trabalho para esses modelos, otimizando o processo. Essa capacidade de adaptação é essencial para a eficiência do sistema.

Testando a ‘equipe dos sonhos’ de IA

Os pesquisadores colocaram o sistema Multi-LLM AB-MCTS à prova no benchmark ARC-AGI-2. O ARC (Abstraction and Reasoning Corpus) foi criado para avaliar a capacidade humana de resolver problemas de raciocínio visual novos, o que o torna um desafio enorme para a inteligência artificial. O time usou uma combinação de modelos de ponta, incluindo o4-mini, Gemini 2.5 Pro e DeepSeek-R1.

O conjunto de modelos conseguiu encontrar as soluções corretas para mais de 30% dos 120 problemas de teste. Essa pontuação foi significativamente melhor do que a de qualquer um dos modelos trabalhando sozinho. O sistema mostrou que consegue atribuir o melhor modelo para cada problema de forma dinâmica. Em tarefas onde o caminho para a solução era claro, o algoritmo rapidamente identificou o LLM mais eficaz e o utilizou com mais frequência. Isso evidencia a superioridade da colaboração.

Mais impressionante ainda, a equipe notou casos em que os modelos resolveram problemas que antes eram impossíveis para qualquer um deles individualmente. Em um cenário, uma solução gerada pelo modelo o4-mini estava errada. No entanto, o sistema enviou essa tentativa falha para DeepSeek-R1 e Gemini-2.5 Pro. Eles foram capazes de analisar o erro, corrigi-lo e, por fim, produzir a resposta certa.

“Isso demonstra que o Multi-LLM AB-MCTS pode combinar de forma flexível modelos de ponta para resolver problemas antes insolúveis. Isso eleva os limites do que pode ser alcançado ao usar LLMs como uma inteligência coletiva”, escreveram os pesquisadores. Esse avanço representa um grande passo para a capacidade de resolução de problemas da IA.

Akiba também mencionou que, além das vantagens e desvantagens de cada modelo, a tendência de alucinar pode variar bastante entre eles. Ao criar um conjunto com um modelo que alucina menos, é possível ter o melhor dos dois mundos: fortes capacidades lógicas e uma base sólida. Já que a alucinação é um grande problema em contextos de negócios, essa abordagem pode ser valiosa para mitigar o problema.

Da pesquisa para aplicações reais

Para ajudar desenvolvedores e empresas a aplicar essa técnica, a Sakana AI lançou o algoritmo subjacente como um framework de código aberto chamado TreeQuest. Disponível sob uma licença Apache 2.0, ele pode ser usado para fins comerciais. O TreeQuest oferece uma API flexível, permitindo que os usuários implementem o Multi-LLM AB-MCTS em suas próprias tarefas com lógica e pontuação personalizadas.

Akiba comentou que, embora estejam nas fases iniciais de aplicação do AB-MCTS para problemas específicos voltados a negócios, a pesquisa mostra um potencial significativo em várias áreas. “Nossa pesquisa revela um potencial significativo em várias áreas”, afirmou.

Além do benchmark ARC-AGI-2, a equipe conseguiu aplicar o AB-MCTS com sucesso em tarefas como codificação algorítmica complexa e na melhora da precisão de modelos de aprendizado de máquina. O AB-MCTS também pode ser muito eficaz para problemas que exigem tentativa e erro repetitivos. Um exemplo seria a otimização de métricas de desempenho de software existente. Akiba sugeriu que ele poderia ser usado para encontrar automaticamente maneiras de melhorar a latência de resposta de um serviço web.

O lançamento de uma ferramenta prática e de código aberto pode abrir caminho para uma nova categoria de aplicativos de IA mais potentes e confiáveis para o ambiente corporativo. A capacidade de unir diferentes modelos de linguagem e otimizar suas interações promete um futuro com soluções de IA mais eficazes e adaptáveis.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.