Novo modelo de IA da Contextual AI supera GPT-4 em precisão

Descubra como o novo modelo de IA da Contextual AI se destaca em precisão em relação ao GPT-4 e o impacto disso.
Atualizado há 3 horas
Modelo de IA da Contextual

Outros destaques

Google Pixel 10
IA generativa para radiologia
Sistema de defesa com IA
OpenAI lança NextGenAI
Atualização do Siri

O **Modelo de IA da Contextual**, desenvolvido pela Contextual AI, promete revolucionar a precisão em sistemas de inteligência artificial. Essa startup, fundada pelos pioneiros da tecnologia RAG (retrieval-augmented generation), afirma que seu modelo supera os sistemas de IA líderes do mercado, como Google, Anthropic e OpenAI, em um teste crucial de veracidade. Com um foco em ambientes empresariais, o Modelo de IA da Contextual busca reduzir as imprecisões factuais, também conhecidas como “alucinações”, que ainda representam um desafio para a adoção da IA nos negócios.

CONTINUA DEPOIS DA PUBLICIDADE

A Contextual AI lançou seu modelo de linguagem fundamentada (GLM), alegando oferecer a maior precisão factual do setor. A empresa reportou que seu GLM alcançou uma pontuação de 88% no FACTS benchmark, um índice de referência para avaliar a veracidade de grandes modelos de linguagem. Em comparação, o Gemini 2.0 Flash do Google atingiu 84,6%, o Claude 3.5 Sonnet da Anthropic alcançou 79,4% e o GPT-4o da OpenAI obteve 78,8%.

Apesar dos avanços dos modelos de linguagem, as imprecisões factuais continuam sendo um problema crítico para a adoção empresarial. A Contextual AI busca resolver isso com um modelo otimizado para aplicações RAG empresariais, onde a precisão é fundamental.

Douwe Kiela, CEO e cofundador da Contextual AI, explicou que a empresa se concentra em fazer o RAG da maneira correta, elevando-o a um novo nível. Essa abordagem difere dos modelos de propósito geral, como o ChatGPT ou Claude, que são projetados para diversas tarefas, desde escrita criativa até documentação técnica.

O foco da Contextual AI está em ambientes empresariais de alto risco, onde a precisão factual é mais importante que a flexibilidade criativa. Kiela enfatizou que, em setores altamente regulamentados, a tolerância para alucinações é inexistente. O mesmo modelo de linguagem usado pelo departamento de marketing pode não ser adequado para um ambiente empresarial sensível a erros.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Como o Modelo de IA da Contextual Eleva a “Fundamentação” a um Novo Padrão Ouro

O conceito de “fundamentação” – garantir que as respostas da IA se baseiem estritamente nas informações fornecidas no contexto – tornou-se um requisito crítico para os sistemas de IA empresariais. Em setores regulamentados como finanças, saúde e telecomunicações, as empresas precisam de IA que forneça informações precisas ou reconheça explicitamente quando não sabe algo.

Kiela deu um exemplo de como essa fundamentação estrita funciona: se uma receita ou fórmula é fornecida a um modelo de linguagem padrão com a ressalva de que “isso só é verdade na maioria dos casos”, a maioria dos modelos ainda fornecerá a receita como se fosse sempre verdadeira. No entanto, o Modelo de IA da Contextual diz: “Na verdade, só diz que isso é verdade na maioria dos casos”, capturando essa nuance adicional.

Essa capacidade de dizer “Eu não sei” é crucial em ambientes empresariais. Kiela acrescentou que esse recurso é muito poderoso em um contexto empresarial. Essa preocupação é relevante, inclusive, para os impactos ambientais da IA.

A plataforma da Contextual AI é baseada no que ela chama de “RAG 2.0″, uma abordagem que vai além da simples conexão de componentes prontos para uso. Um sistema RAG típico usa um modelo fixo para embeddings, um banco de dados vetorial para recuperação e um modelo de linguagem de caixa preta para geração, todos unidos por meio de prompts ou uma estrutura de orquestração. Isso leva a um “monstro de Frankenstein” de IA generativa, onde os componentes individuais funcionam tecnicamente, mas o todo está longe do ideal.

Em vez disso, a Contextual AI otimiza conjuntamente todos os componentes do sistema. Kiela explicou que a empresa tem um componente de “mistura de recuperadores”, que é uma forma de fazer uma recuperação inteligente. Ele analisa a pergunta e planeja uma estratégia para fazer a recuperação, semelhante aos modelos mais recentes.

CONTINUA DEPOIS DA PUBLICIDADE

Além do Texto Simples: Capacidades Multimodais e Conexão com Bancos de Dados

Embora o GLM recém-anunciado se concentre na geração de texto, a plataforma da Contextual AI adicionou recentemente suporte para conteúdo multimodal, incluindo gráficos, diagramas e dados estruturados de plataformas populares como BigQuery, Snowflake, Redshift e Postgres.

Kiela observou que os problemas mais desafiadores nas empresas estão na interseção de dados não estruturados e estruturados. Ele está particularmente animado com essa interseção, pois a maioria dos problemas realmente interessantes em grandes empresas estão exatamente ali, onde há registros de banco de dados, transações, documentos de política e outras informações.

A plataforma já suporta uma variedade de visualizações complexas, incluindo diagramas de circuitos na indústria de semicondutores, de acordo com Kiela. Este avanço pode ser comparado com o assistente Pixie que o Google apresenta no Pixel 10 como Pixel Sense, ambos buscando integrar diferentes tipos de dados para melhorar a experiência do usuário.

A Contextual AI planeja lançar seu componente de re-ranker especializado logo após o lançamento do GLM, seguido por capacidades expandidas de compreensão de documentos. A empresa também tem recursos experimentais para capacidades mais agentic em desenvolvimento.

Fundada em 2023 por Kiela e Amanpreet Singh, que trabalharam na equipe de Pesquisa Fundamental de IA (FAIR) da Meta e na Hugging Face, a Contextual AI garantiu clientes como HSBC, Qualcomm e The Economist. A empresa se posiciona como um facilitador para que as empresas finalmente obtenham retornos concretos de seus investimentos em IA.

Kiela afirmou que esta é uma oportunidade para empresas que estão sob pressão para começar a entregar ROI (retorno sobre o investimento) de IA considerarem soluções mais especializadas que realmente resolvem seus problemas. Parte disso é ter um modelo de linguagem fundamentado que seja um pouco mais “chato” do que um modelo de linguagem padrão, mas que seja muito bom em garantir que ele esteja fundamentado no contexto e que se possa confiar nele para fazer seu trabalho.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via VentureBeat

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.