Técnica de colaboração entre modelos de IA supera desempenho individual em 30%

Sakana AI desenvolve método que une diferentes modelos de linguagem, melhorando resultados em até 30% na cooperação de IA.
Atualizado há 8 horas atrás
Técnica de colaboração entre modelos de IA supera desempenho individual em 30%
Sakana AI combina modelos de linguagem para aumentar a cooperação em até 30%. (Imagem/Reprodução: Venturebeat)
Resumo da notícia
    • Especialistas japoneses criaram uma técnica que faz múltiplos modelos de IA trabalharem juntos para melhorar o desempenho.
    • Você pode obter resultados mais eficientes ao usar equipes de IA em seus projetos, otimizando tarefas complexas.
    • Esse método aumenta a capacidade de resolução de problemas difíceis, elevando o potencial de sistemas de IA.
    • O desenvolvimento abre caminho para aplicações mais robustas e confiáveis de inteligência artificial.
CONTINUA DEPOIS DA PUBLICIDADE

A Sakana AI, um laboratório de inteligência artificial do Japão, apresentou uma técnica que permite a vários modelos de linguagem (LLMs) cooperarem em uma tarefa. Uma técnica de escalonamento do Sakana AI aprimora a colaboração entre esses modelos. Conhecido como Multi-LLM AB-MCTS, este método forma um “time dos sonhos” de IAs, superando modelos únicos em até 30%.

Equipes Multi-Modelos: A Força da Inteligência Coletiva

Modelos de inteligência artificial avançados estão evoluindo muito rápido, mas cada um tem pontos fortes e fracos diferentes. Isso vem dos dados específicos que usaram para aprender e da forma como foram construídos. Por exemplo, um pode ser ótimo para escrever código, enquanto outro se sai melhor em textos criativos.

Os pesquisadores da Sakana AI não veem essas diferenças como limitações, mas como recursos valiosos para construir uma inteligência conjunta. Eles acreditam que, assim como os grandes feitos humanos vêm de times diversos, os sistemas de IA também conseguem mais quando trabalham em conjunto. “Ao unir suas inteligências, sistemas de IA podem resolver problemas que são impossíveis para um modelo sozinho”, dizem eles em seu blog.

CONTINUA DEPOIS DA PUBLICIDADE

Para as empresas, essa abordagem oferece um caminho para criar sistemas de IA mais resistentes e capazes. Em vez de depender de um único modelo ou fornecedor, as companhias podem aproveitar o melhor de diferentes modelos. Assim, conseguem atribuir a IA mais adequada para cada parte de uma tarefa, alcançando resultados superiores.

A Sakana AI (visite o site oficial) diz que sua nova técnica, a Multi-LLM AB-MCTS, permite que os modelos façam tentativas e erros e combinem suas habilidades. Isso ajuda a resolver problemas que são complexos demais para um só modelo. A ideia é que, trabalhando juntos, a IA atinja um nível de desempenho bem mais alto.

Leia também:

Mais Tempo para “Pensar” na Hora da Resposta

O novo algoritmo da Sakana AI usa uma técnica de “escalonamento no tempo de inferência”. Isso significa que ele melhora o desempenho usando mais recursos de computação depois que o modelo já foi treinado. Essa área de pesquisa ficou bem popular no último ano.

A maioria dos estudos em IA se concentrou em “escalonamento no tempo de treinamento”, que é basicamente fazer modelos maiores e treiná-los com mais dados. Mas o escalonamento no tempo de inferência oferece uma forma de otimizar o que já existe, focando na performance pós-treinamento.

Uma estratégia comum envolve usar reforço de aprendizado para que os modelos gerem sequências mais longas e detalhadas de raciocínio. Isso é visto em modelos como OpenAI o3 e DeepSeek-R1. Outro método, mais simples, é a amostragem repetida, onde o modelo recebe a mesma pergunta várias vezes para gerar diferentes soluções.

CONTINUA DEPOIS DA PUBLICIDADE

O trabalho da Sakana AI junta e aprimora essas ideias. “Nosso sistema oferece uma versão mais esperta e estratégica de Best-of-N (também conhecido como amostragem repetida)”, explicou Takuya Akiba, cientista pesquisador da Sakana AI e coautor do artigo. Ele completa dizendo que isso “complementa técnicas de raciocínio como long CoT via RL”.

Ao escolher de forma dinâmica a estratégia de busca e o LLM certo, essa abordagem maximiza o desempenho. Isso acontece mesmo com um número limitado de chamadas ao LLM, entregando resultados melhores em tarefas complexas. Chatbots de IA são um exemplo de sistemas que podem se beneficiar dessa otimização.

Como Funciona a Busca Adaptativa de Ramificação

O coração do novo método é um algoritmo chamado Adaptive Branching Monte Carlo Tree Search (AB-MCTS). Ele permite que um LLM faça testes e erros de forma eficaz, equilibrando duas estratégias de busca: “aprofundar a busca” e “ampliar a busca”.

Aproximar a busca significa pegar uma resposta promissora e melhorá-la várias vezes. Ampliar a busca, por outro lado, envolve gerar soluções totalmente novas. O AB-MCTS combina esses modos. Assim, o sistema consegue refinar uma boa ideia, mas também mudar de direção e tentar algo novo se encontrar um beco sem saída ou descobrir uma nova possibilidade.

Para isso, o sistema usa o Monte Carlo Tree Search (MCTS), um algoritmo de tomada de decisão famoso por ter sido usado pelo AlphaGo da DeepMind. Em cada etapa, o AB-MCTS usa modelos de probabilidade para decidir se é mais estratégico refinar uma solução já existente ou gerar uma nova.

Os pesquisadores foram além com o Multi-LLM AB-MCTS. Este sistema não só decide “o que” fazer (refinar ou gerar), mas também “qual” LLM deve fazer a tarefa. No início, o sistema não sabe qual modelo é o melhor para o problema, permitindo uma flexibilidade notável.

Ele começa testando uma mistura equilibrada dos LLMs disponíveis. Conforme avança, ele aprende quais modelos são mais eficientes. Assim, ele passa a dar mais trabalho para os modelos que se mostram mais eficazes ao longo do tempo. Esse aprendizado dinâmico é crucial para o desempenho geral do sistema.

O “Time dos Sonhos” da IA em Teste

Os pesquisadores testaram o sistema Multi-LLM AB-MCTS no benchmark ARC-AGI-2. O ARC (Abstraction and Reasoning Corpus) foi criado para avaliar a capacidade humana de resolver problemas de raciocínio visual novos. Por isso, é considerado muito difícil para a inteligência artificial.

A equipe usou uma mistura de modelos avançados, incluindo o4-mini, Gemini 2.5 Pro e DeepSeek-R1. O coletivo de modelos conseguiu encontrar soluções corretas para mais de 30% dos 120 problemas do teste. Esse resultado foi bem melhor do que qualquer um dos modelos trabalhando sozinho.

O sistema mostrou que consegue atribuir o melhor modelo para cada problema de forma dinâmica. Em tarefas onde o caminho para a solução era claro, o algoritmo rapidamente identificava o LLM mais eficaz e o usava com mais frequência. Isso otimizava o processo, mostrando uma alocação de recursos inteligente.

Mais notável ainda, a equipe viu casos em que os modelos resolveram problemas que antes eram impossíveis para qualquer um deles individualmente. Em um exemplo, uma solução gerada pelo modelo o4-mini estava errada. No entanto, o sistema passou essa tentativa falha para o DeepSeek-R1 e o Gemini-2.5 Pro. Estes conseguiram analisar o erro, corrigi-lo e, por fim, produzir a resposta certa.

“Isso mostra que o Multi-LLM AB-MCTS pode combinar modelos para resolver problemas antes insolúveis. Ele eleva os limites do que pode ser alcançado usando LLMs como uma inteligência coletiva”, escreveram os pesquisadores. Ajustes no Gemini em outras plataformas também visam melhorar a usabilidade geral.

Takuya Akiba mencionou que a tendência de “alucinar” pode variar muito entre os modelos. “Ao criar um conjunto com um modelo menos propenso a alucinar, seria possível ter o melhor dos dois mundos: capacidades lógicas poderosas e forte fundamentação. Como a alucinação é um grande problema em contextos de negócios, essa abordagem pode ser valiosa para mitigá-la.”

Da Pesquisa à Aplicação Prática

Para ajudar desenvolvedores e empresas a usar essa técnica, a Sakana AI liberou o algoritmo como um framework de código aberto. Ele se chama TreeQuest e está disponível sob a licença Apache 2.0, o que permite seu uso comercial.

O TreeQuest oferece uma interface de programação flexível, conhecida como API. Com ela, os usuários podem implementar o Multi-LLM AB-MCTS para suas próprias tarefas, usando pontuações e lógicas personalizadas. Essa adaptabilidade é um grande diferencial para diversas aplicações.

“Embora estejamos nas fases iniciais de aplicar o AB-MCTS a problemas específicos de negócios, nossa pesquisa mostra um potencial significativo em diversas áreas”, disse Akiba. Além do benchmark ARC-AGI-2, a equipe conseguiu aplicar o AB-MCTS com sucesso em tarefas como codificação algorítmica complexa e para melhorar a precisão de modelos de aprendizado de máquina. Empresas de tecnologia como a Microsoft, também têm focado em IA.

“O AB-MCTS também pode ser muito eficaz para problemas que exigem testes e erros repetidos”, completou Akiba. Um exemplo é otimizar as métricas de desempenho de softwares já existentes. “Por exemplo, ele poderia ser usado para encontrar automaticamente maneiras de melhorar a latência de resposta de um serviço web.”

O lançamento de uma ferramenta prática e de código aberto pode abrir caminho para uma nova geração de aplicativos de IA para empresas, que serão mais poderosos e confiáveis. Isso significa um avanço importante na forma como as companhias utilizam a inteligência artificial para resolver desafios complexos e otimizar suas operações diárias.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.