Técnica de escalonamento do Sakana AI aprimora colaboração entre modelos de linguagem

Conheça a técnica de escalonamento que melhora a eficiência de equipes de múltiplos modelos de IA em tarefas complexas
Atualizado há 10 horas atrás
Técnica de escalonamento do Sakana AI aprimora colaboração entre modelos de linguagem
Escalonamento: otimize equipes de IA para vencer desafios complexos com eficiência. (Imagem/Reprodução: Venturebeat)
Resumo da notícia
    • Sakana AI apresenta uma nova técnica que usa múltiplos modelos de linguagem trabalharem juntos na inferência.
    • A estratégia permite respostas mais rápidas e precisas, especialmente em tarefas elaboradas.
    • Utiliza o método Monte-Carlo Tree Search para coordenar a colaboração entre diferentes modelos de IA.
    • Essa abordagem potencializa a resolução de problemas complexos, expandindo aplicações de IA.
CONTINUA DEPOIS DA PUBLICIDADE

A empresa Sakana AI apresentou uma nova abordagem para o desempenho de modelos de inteligência artificial. A Sakana AI apresenta equipe de IA colaborativa com múltiplos modelos, e sua técnica de escalonamento durante a inferência utiliza o método Monte-Carlo Tree Search para coordenar múltiplos Modelos de Linguagem Grandes (LLMs). O objetivo é fazer com que esses modelos trabalhem juntos em tarefas complexas.

A Técnica de escalonamento do Sakana AI em Ação

A nova técnica desenvolvida pela Sakana AI foca em otimizar o processo de inferência. Isso significa que, em vez de um único modelo tentar resolver um problema grande sozinho, a tecnologia permite que vários LLMs dividam o trabalho. Essa divisão pode resultar em respostas mais rápidas e precisas, especialmente para questões mais elaboradas que exigem diferentes tipos de conhecimento.

Para conseguir essa colaboração, a empresa utiliza o Monte-Carlo Tree Search. Esse algoritmo é conhecido por sua eficácia na tomada de decisões em cenários complexos, como em jogos de xadrez ou Go. No contexto dos LLMs, ele ajuda a traçar o melhor caminho para que os modelos possam interagir e combinar suas capacidades de forma eficiente.

CONTINUA DEPOIS DA PUBLICIDADE

A ideia por trás dessa abordagem é que uma “equipe” de modelos menores pode superar um único modelo gigante em certas situações. Cada LLM pode ser especialista em uma área diferente, e a coordenação via Monte-Carlo Tree Search garante que cada um contribua com sua parte. Isso melhora a robustez e a capacidade de lidar com desafios que seriam difíceis para um só modelo.

Essa capacidade de orquestrar modelos múltiplos é particularmente relevante para tarefas que envolvem várias etapas ou exigem diferentes tipos de raciocínio. Por exemplo, agentes de IA para empresas já geraram US$ 6 milhões em receita ao oferecer soluções complexas. Com a técnica da Sakana AI, é possível que mais aplicações complexas de inteligência artificial se tornem viáveis e eficientes, abrindo portas para novas funcionalidades.

O desenvolvimento de métodos que permitem a colaboração entre modelos de IA é um passo importante no campo. Em vez de depender de um único modelo com todas as respostas, a estratégia de ter vários LLMs trabalhando em conjunto pode levar a sistemas mais flexíveis e potentes. Isso pode influenciar como as futuras inteligências artificiais são projetadas para resolver problemas do dia a dia e desafios de grande escala.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.