▲
- Empresas utilizam uma variedade de modelos de linguagem grandes em vez de uma única solução de IA.
- A IBM oferece uma plataforma que permite gerenciar e alternar entre vários LLMs de forma eficiente.
- A abordagem promove maior flexibilidade e governança na implementação de IA empresarial.
Empresas em todo o mundo estão adotando a inteligência artificial de diversas formas, buscando as ferramentas certas para cada necessidade. A IBM, com sua longa história no setor de tecnologia, observa que a flexibilidade é a chave, com clientes utilizando uma variedade de modelos de linguagem grandes (LLMs) em vez de se prenderem a uma única solução, mirando a otimização de suas operações.
Flexibilidade da IA para casos de uso no Cenário Empresarial
Ao longo de mais de um século, a IBM testemunhou muitas tendências tecnológicas surgirem e desaparecerem. A experiência mostra que as tecnologias que persistem são aquelas que oferecem opções e se adaptam às necessidades variadas dos usuários. Este cenário é particularmente visível no universo da inteligência artificial generativa, onde a escolha se tornou um fator determinante.
No evento VB Transform 2025, Armand Ruiz, Vice-Presidente da Plataforma de IA da IBM, explicou como a empresa está abordando a IA generativa e a maneira como seus clientes empresariais estão implementando essa tecnologia. Ele enfatizou que o foco atual não é escolher um único fornecedor ou modelo de linguagem grande (LLM).
Pelo contrário, as empresas estão cada vez mais rejeitando abordagens de IA com um único fornecedor. Elas preferem estratégias de múltiplos modelos, que permitem combinar LLMs específicos com usos direcionados. Essa diversidade de modelos ajuda a atender às diferentes demandas e nuances de cada operação interna.
A IBM oferece seus próprios modelos de IA de código aberto, como a família Granite. Contudo, a empresa não posiciona essa tecnologia como a única opção. Eles também não a veem como a escolha ideal para todas as cargas de trabalho. Esse comportamento do mercado direciona a IBM a se consolidar como uma espécie de “torre de controle” para as cargas de trabalho de IA, e não como uma concorrente direta no desenvolvimento de modelos fundamentais.
Leia também:
Ruiz destacou que os clientes estão explorando todas as opções disponíveis. Para tarefas de codificação, muitos preferem o Anthropic. Já para usos que exigem mais raciocínio, o o3 tem sido a escolha. No caso de personalização de LLMs, usando dados próprios e técnicas de fine-tuning, modelos como o Granite da IBM, ou até mesmo o Mistral e o Llama, têm sido populares. A ideia é sempre encontrar o LLM ideal para cada finalidade, e a IBM auxilia nas recomendações.
Uma Ponte para Múltiplos Modelos de Linguagem
Para responder a essa realidade do mercado, a IBM lançou um novo gateway de modelos. Esse recurso oferece às empresas uma API única que permite alternar entre diferentes LLMs. Ele também garante visibilidade e governança sobre todas as implementações.
A arquitetura técnica do gateway permite que as companhias executem modelos de código aberto em suas próprias pilhas de inferência para usos mais sensíveis. Ao mesmo tempo, elas podem acessar APIs públicas, como as do AWS Bedrock ou Google Cloud’s Gemini, para aplicações menos críticas.
Segundo Ruiz, essa solução centralizada proporciona uma camada única, com uma única API, para alternar entre LLMs. Isso simplifica a gestão e adiciona observabilidade e governança em todo o processo. Tal estratégia se distancia da prática comum de alguns fornecedores, que buscam prender os clientes em ecossistemas proprietários.
A IBM não está sozinha nessa abordagem de múltiplos fornecedores. Nos últimos meses, surgiram diversas ferramentas focadas em roteamento de modelos. Elas têm como objetivo direcionar as cargas de trabalho para o modelo mais apropriado. Isso mostra uma tendência de mercado em direção a ecossistemas mais abertos e flexíveis para a IA.
Comunicação entre Agentes de Inteligência Artificial
Além da gestão de múltiplos modelos, a IBM está focando em outro desafio: a comunicação entre agentes de IA. Para isso, a empresa desenvolveu o ACP (Agent Communication Protocol) e o contribuiu para a Fundação Linux. O ACP compete com o protocolo Agent2Agent (A2A) do Google, que também foi doado à Fundação Linux recentemente.
Ruiz mencionou que ambos os protocolos visam facilitar a comunicação entre agentes, reduzindo a necessidade de desenvolvimento personalizado. Ele espera que as abordagens distintas eventualmente convirjam, já que as diferenças atuais entre A2A e ACP são principalmente técnicas.
Esses protocolos de orquestração de agentes oferecem maneiras padronizadas para os sistemas de IA interagirem em diversas plataformas e entre diferentes fornecedores. A importância técnica se torna mais evidente ao considerar a escala empresarial: algumas empresas que são clientes da IBM já têm mais de 100 agentes em programas-piloto.
Sem protocolos de comunicação padronizados, cada interação entre agentes exigiria um desenvolvimento personalizado. Isso criaria uma carga de integração insustentável. A padronização é fundamental para que a segurança de AI seja mantida em um ambiente com muitos agentes.
A IA como Transformadora de Fluxos de Trabalho
Para Ruiz, o impacto da IA nas empresas de hoje precisa ir além de simples chatbots. Ele argumenta que se uma empresa se limita a usar IA apenas para chatbots ou para cortes de custos, ela não está aproveitando todo o potencial da tecnologia. Em sua visão, a IA deve focar em transformar completamente os fluxos e a forma como o trabalho é feito.
A diferença entre a implementação e a transformação pela IA está na profundidade da integração da tecnologia nos processos de negócio existentes. Um exemplo da própria IBM, em seu setor de Recursos Humanos, ilustra essa mudança: em vez de funcionários perguntarem a chatbots sobre informações de RH, agentes especializados agora lidam com perguntas rotineiras.
Essas consultas podem ser sobre compensação, contratação e promoções. Os agentes automaticamente direcionam as informações para os sistemas apropriados e só escalam para humanos quando é realmente necessário. Este é um exemplo claro de como uma nova abordagem na infraestrutura de IA pode ser eficaz.
Ruiz comentou que costumava gastar muito tempo conversando com parceiros de RH, mas agora resolve grande parte dessas questões com um agente de RH. Dependendo da pergunta, seja sobre compensação ou sobre lidar com desligamentos, contratações ou promoções, tudo é conectado a diferentes sistemas internos de RH, cada um gerenciado por agentes separados.
Isso representa uma mudança fundamental na arquitetura. Passamos de padrões de interação humano-computador para uma automação de fluxo de trabalho mediada por computador. Em vez de os funcionários aprenderem a interagir com as ferramentas de IA, a própria IA aprende a executar processos de negócios completos, do início ao fim.
A implicação técnica é clara: empresas precisam ir além de integrações via API e da engenharia de prompts. Elas devem buscar uma instrumentação profunda dos processos. Isso permite que os agentes de IA executem fluxos de trabalho de várias etapas de forma autônoma. O objetivo é criar um ecossistema onde a IA não apenas auxilia, mas também conduz grande parte das operações.
Os dados de implementação da IBM indicam algumas mudanças importantes para a estratégia de IA nas empresas:
- Deixe o pensamento de chatbot de lado: As organizações devem identificar fluxos de trabalho completos para transformação, em vez de apenas adicionar interfaces conversacionais a sistemas já existentes. O propósito é eliminar etapas humanas, e não apenas melhorar a interação entre humanos e computadores.
- Arquitetar para flexibilidade multi-modelo: Em vez de se comprometer com um único fornecedor de IA, as empresas precisam de plataformas de integração que permitam alternar entre modelos. A escolha deve ser baseada nos requisitos de cada uso, mantendo os padrões de governança.
- Investir em padrões de comunicação: As organizações devem priorizar ferramentas de IA que suportem protocolos emergentes, como MCP, ACP e A2A. Isso é preferível a abordagens de integração proprietárias, que podem causar dependência de um único fornecedor.
Ruiz enfatiza que há muito a ser construído no campo da IA. Ele destaca que todos precisam aprender sobre o tema. Em especial, os líderes empresariais devem se tornar “líderes IA-primeiro”, compreendendo os conceitos e as aplicações da inteligência artificial para impulsionar suas empresas.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.