▲
- Empresas de grande porte utilizam diversos modelos de IA para diferentes tarefas.
- A gestão de múltiplos LLMs ajuda a personalizar e otimizar a IA para cada necessidade.
- AIBM atua como torre de controle, orientando a escolha de modelos de IA específicos.
- A ferramenta model gateway facilita a troca entre diferentes LLMs com uma única API.
- Protocolos abertos e padrões padronizam a interação entre agentes de IA em ambientes empresariais.
Empresas de grande porte estão usando um pouco de tudo quando o assunto é inteligência artificial. A IA para casos de uso empresariais se tornou um cenário com diversas opções. O grande desafio, hoje, está em conseguir escolher o modelo de linguagem grande (LLM) certo para cada necessidade específica. É fundamental entender como as companhias estão adaptando suas estratégias.
Ao longo dos últimos cem anos, a IBM observou diversas tendências tecnológicas surgirem e desaparecerem. O que sempre se destacou foram as tecnologias que ofereciam escolhas. Atualmente, a inteligência artificial generativa segue um caminho parecido. As empresas estão optando por flexibilidade.
Durante o evento VB Transform 2025, Armand Ruiz, Vice-Presidente de Plataforma de IA da IBM, compartilhou a visão da companhia sobre a IA generativa. Ele também explicou como os usuários corporativos da empresa estão, de fato, implementando essa tecnologia. Um ponto-chave que Ruiz sublinhou é que, neste momento, a decisão não se resume a escolher apenas um fornecedor ou uma única tecnologia de LLM.
Cada vez mais, os clientes empresariais estão preferindo abordagens com múltiplos modelos. Eles rejeitam as estratégias de IA que os prendem a um único fornecedor. A ideia é casar LLMs específicos com casos de uso bem definidos, otimizando o desempenho para cada tarefa.
A Estratégia de Múltiplos LLMs da IBM
A IBM oferece seus próprios modelos de IA de código aberto, conhecidos como a família Granite. No entanto, a empresa não os posiciona como a única ou a melhor escolha para todas as cargas de trabalho. Esse comportamento do mercado corporativo levou a IBM a se posicionar como uma espécie de “torre de controle” para as operações de IA, em vez de um competidor direto no desenvolvimento de modelos básicos.
Leia também:
Armand Ruiz explicou que os clientes utilizam todos os recursos de IA aos quais têm acesso. Para tarefas de codificação, eles preferem o Anthropic. Já para outras aplicações, como raciocínio, eles optam pelo o3. E para a personalização de LLMs, usando dados próprios e fine-tuning, modelos como os da série Granite da IBM, Mistral, ou até mesmo Llama são usados.
A questão principal, segundo Ruiz, é alinhar o LLM certo à necessidade específica do negócio. Nesse processo, a IBM atua como um guia, oferecendo recomendações aos clientes. Essa abordagem mostra um mercado que valoriza a flexibilidade e a adequação, mais do que a exclusividade de um único fornecedor.
Para responder a essa realidade do mercado, a IBM lançou um novo model gateway. Essa ferramenta oferece às empresas uma única API para alternar entre diferentes LLMs. Ao mesmo tempo, ela garante a visibilidade e o controle sobre todas as implementações. Isso simplifica bastante a gestão de múltiplos modelos em ambientes complexos.
Protocolos de Orquestração de Agentes Ganham Destaque
A arquitetura técnica do gateway permite que os clientes executem modelos de código aberto em suas próprias infraestruturas para tarefas mais sensíveis. Além disso, é possível acessar APIs públicas, como AWS Bedrock ou Google Cloud’s Gemini, para aplicações menos críticas. Essa flexibilidade é vital para empresas com diversas necessidades de segurança e desempenho.
Armand Ruiz explicou que o gateway oferece uma camada única com uma só API. Isso permite alternar entre LLMs, adicionando observabilidade e governança a todo o processo. Essa estratégia da IBM se distancia da prática comum de prender clientes a ecossistemas proprietários. A empresa aposta na liberdade de escolha e na eficiência operacional.
A IBM não está sozinha nessa abordagem de múltiplos fornecedores para a seleção de modelos. Nos últimos meses, surgiram várias ferramentas para o model routing. O objetivo dessas ferramentas é direcionar as cargas de trabalho para o modelo de IA mais adequado. Isso otimiza o uso de recursos e garante que cada tarefa seja processada pelo LLM ideal.
Além da gestão de múltiplos modelos, a IBM está focando na comunicação entre agentes de IA por meio de protocolos abertos. A empresa desenvolveu o ACP (Protocolo de Comunicação de Agentes) e o contribuiu para a Linux Foundation. Esse é um movimento importante para padronizar como os sistemas de IA interagem entre si, especialmente em ambientes empresariais complexos.
Inteligência Artificial: Transformando Fluxos de Trabalho
O ACP da IBM compete com o protocolo Agent2Agent (A2A) do Google, que também foi doado à Linux Foundation recentemente. Ruiz observou que ambos os protocolos visam facilitar a comunicação entre os agentes. O objetivo é reduzir o desenvolvimento de soluções personalizadas. Ele acredita que, eventualmente, essas abordagens podem convergir, apesar das diferenças técnicas atuais.
Os protocolos de orquestração de agentes oferecem maneiras padronizadas para que os sistemas de IA interajam em diferentes plataformas e com diversos fornecedores. Essa padronização é essencial quando se pensa na escala empresarial. Alguns clientes da IBM já têm mais de cem agentes em programas-piloto. Sem protocolos de comunicação padronizados, cada interação entre agentes exigiria um desenvolvimento personalizado, o que seria insustentável.
Em relação ao impacto da IA nas empresas hoje, Ruiz sugere que a tecnologia precisa ir muito além de simples chatbots. Ele afirma que se uma empresa está usando IA apenas para chatbots ou para economizar custos, ela não está aproveitando todo o potencial da inteligência artificial. A IA deve transformar completamente os fluxos de trabalho e a maneira como o trabalho é feito.
A diferença entre a implementação e a transformação pela IA está na profundidade da integração da tecnologia nos processos de negócio. O exemplo do RH interno da IBM ilustra essa mudança: em vez de funcionários perguntarem a chatbots sobre informações de RH, agora agentes especializados lidam com consultas rotineiras sobre remuneração, contratação e promoções.
Impactos Estratégicos para Investimentos em IA
Esses agentes de IA conectam-se automaticamente a sistemas apropriados e só escalam para humanos quando necessário. Ruiz descreve que antes passava muito tempo conversando com parceiros de RH, mas agora a maioria das questões é resolvida por um agente de RH. Dependendo da pergunta, seja sobre compensação, desligamento, contratação ou promoção, os agentes se conectam a diferentes sistemas de RH internos, operando como agentes separados e dedicados.
Essa mudança representa uma alteração fundamental na arquitetura. Ela vai dos padrões de interação humano-computador para a automação de fluxos de trabalho mediada por computadores. Em vez de os funcionários aprenderem a interagir com ferramentas de IA, a IA aprende a executar processos de negócios completos de ponta a ponta. Isso otimiza a eficiência e libera o tempo dos humanos para tarefas mais complexas.
A implicação técnica é clara: as empresas precisam ir além das integrações de API e da prompt engineering. É preciso avançar para uma instrumentação profunda de processos que permita aos agentes de IA executarem fluxos de trabalho de várias etapas de forma autônoma. Isso significa que as ferramentas de IA não são apenas assistentes, mas sim elementos que conduzem as operações.
Os dados de implementação da IBM no mundo real sugerem algumas mudanças importantes para a estratégia de IA das empresas. Primeiramente, é crucial abandonar o pensamento de que a IA se resume a chatbots. As organizações devem identificar fluxos de trabalho completos para a transformação, em vez de apenas adicionar interfaces conversacionais a sistemas já existentes. O objetivo é eliminar etapas humanas, não apenas melhorar a interação.
Além disso, é fundamental que as empresas criem arquiteturas flexíveis para múltiplos modelos. Em vez de se comprometer com um único fornecedor de IA, as empresas precisam de plataformas de integração que permitam alternar entre modelos. A escolha deve ser baseada nos requisitos de cada caso de uso, mantendo os padrões de governança. Preocupações com a transparência das IAs também devem ser consideradas.
Por fim, investir em padrões de comunicação é uma prioridade. As organizações devem dar preferência a ferramentas de IA que suportem protocolos emergentes, como MCP, ACP e A2A. Isso é melhor do que usar abordagens de integração proprietárias, que podem prender a empresa a um único fornecedor. Armand Ruiz enfatiza que há muito a ser construído no campo da IA.
Ruiz conclui que todos, especialmente os líderes de negócios, precisam se tornar “líderes AI first” e entender os conceitos da inteligência artificial. Isso significa incorporar a IA no centro da estratégia empresarial, não como um complemento, mas como um pilar fundamental para a inovação e eficiência. Esse é um chamado para a educação e a adaptação contínua no cenário tecnológico.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.