Meta lança novos modelos de IA Llama 4 com capacidades multimodais

Meta apresenta os modelos Scout e Maverick, com capacidades avançadas de processamento multimodal para desenvolvedores e empresas.
Atualizado há 5 dias
Meta lança novos modelos de IA Llama 4 com capacidades multimodais
Meta lança Scout e Maverick, modelos multimodais para desenvolvedores e empresas. (Imagem/Reprodução: Aibusiness)
Resumo da notícia
    • A Meta lançou os novos modelos de IA Llama 4, incluindo as versões Scout e Maverick, com capacidades multimodais.
    • Você pode aproveitar essas ferramentas para criar soluções avançadas em análise de dados, assistentes virtuais e suporte multilíngue.
    • Esses modelos podem revolucionar a interação com IA, tornando-a mais fluida e natural em diversas aplicações.
    • A Meta também disponibilizou os modelos de forma aberta, incentivando o desenvolvimento comunitário e a personalização de soluções.
CONTINUA DEPOIS DA PUBLICIDADE

A Llama 4 AI, nova geração do modelo de linguagem da Meta, chega com versões multimodais capazes de entender, gerar e converter texto, áudio, imagem e vídeo. A empresa aposta em uma arquitetura com múltiplos especialistas para tornar as respostas mais precisas, ampliando o uso em assistentes, análises avançadas, síntese de documentos e suporte multilíngue, além de disponibilizar os modelos abertamente para desenvolvedores e empresas.

Novo passo para modelos multimodais complexos

A Meta apresentou as variantes Scout e Maverick como as mais potentes de seu portfólio de IA até agora. Ambas processam e cruzam diferentes formatos de dados em tempo real. Isso permite interações como leitura de textos, análise de vídeos, interpretação de imagens e reconhecimento de áudio em uma única conversa, tornando a experiência mais fluida.

O Scout foi criado para tarefas como resumo de documentos ou detecção complexa de padrões. Já o Maverick atua como assistente multimodal para chats com foco em naturalidade na conversa, superando concorrentes conforme relatado pela Meta. Segundo a companhia, ele possui desempenho superior ao GPT-4o e Gemini 2.0 em testes próprios.

A principal diferença está na forma como esses modelos dividem a solicitação do usuário em pequenas partes, repassando a submodelos especialistas que solucionam questões específicas. Esse esquema, chamado MoE (Mixture of Experts), distribui a carga em vez de depender de um único modelo gigantesco, o que aumenta a eficiência computacional.

Além disso, o design multimodal favorece a criação de aplicações que integram chat, reconhecimento de imagem, compreensão de linguagem natural, análise de vídeos e comandos por voz, abrindo espaço para novas soluções tanto no consumo quanto no setor empresarial.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

Soluções abertas para ampliar desenvolvimento

A Meta declarou que as versões Scout e Maverick já estão publicamente disponíveis na página da Llama e em parcerias como Hugging Face. Essas plataformas facilitam que desenvolvedores e empresas experimentem, ajustem, otimizem ou criem produtos baseados nessa base de IA.

Junto com elas, a empresa revelou o pré-lançamento do Llama 4 Behemoth. Este modelo funciona como um professor dentro do ecossistema, oferecendo treinamento e refinamento para outros modelos em áreas como matemática, multilinguismo e interpretação de imagens, focando mais em benchmarks técnicos do que na conversação direta.

Usuários interessados podem experimentar as funcionalidades nas aplicações Meta AI embutidas em serviços amplamente usados, como WhatsApp, Instagram Direct e Messenger, ou pelo site meta.ai. A ideia é promover o uso cotidiano dessas capacidades, ampliando seu alcance e coleta de dados de uso.

Segundo a Meta, tornar esses modelos abertos faz parte de uma estratégia que incentiva o desenvolvimento comunitário e acelera a personalização de soluções, com controle maior por parte de quem utiliza. Isso apoia a criação de produtos personalizados para empresas e consumidores em geral.

O impacto da Llama 4 AI no ecossistema Meta

A introdução da arquitetura multimodal e da mistura de especialistas deve colaborar para que os assistentes se tornem mais humanos na comunicação e na resolução de tarefas nunca vistas. Segundo a empresa, o objetivo é que as inteligências artificiais executem ações generalistas, conversem naturalmente e solucionem problemas complexos de maneira flexível.

CONTINUA DEPOIS DA PUBLICIDADE

A Meta reforçou que seu compromisso permanece em manter a abertura como forma de acelerar avanços, melhorar treinamentos futuros e garantir transparência. A comunidade aguarda novidades que devem surgir durante o evento LlamaCon no dia 29 de abril, onde a empresa deve detalhar ainda mais suas próximas etapas para o ecossistema Llama.

Esses lançamentos refletem o atual ambiente competitivo entre grandes empresas de tecnologia, com destaque para aprimoramentos em IA generativa, integrações multimodais e especialização de aplicações. Enquanto outras empresas investem no aprimoramento de seus modelos, como IBM que lançou um mainframe voltado para IA, o setor todo caminha para soluções cada vez mais acessíveis para diferentes públicos.

Com os avanços da machine learning e o foco em experências mais naturais, o futuro próximo deve ver uma expansão da IA em áreas como automação, saúde, finanças, criação de conteúdo e atendimento ao cliente, além de integração a dispositivos móveis e sistemas de segurança como os aplicados no uso bancário.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.