▲
- Empresas utilizam uma variedade de soluções de IA para otimizar processos de negócios.
- A gestão de múltiplos modelos de IA simplifica a manutenção e a governança.
- Protocolos abertos facilitam a comunicação entre agentes em diferentes plataformas.
- A adoção de IA transforma fluxos de trabalho e aumenta a automação.
No cenário tecnológico atual, as empresas estão explorando a Inteligência Artificial em suas mais diversas formas. A IA para casos de uso empresariais é um campo vasto, e o grande desafio é escolher o modelo de linguagem grande (LLM) mais adequado para cada situação específica. A IBM, com sua longa história em tecnologia, observa essa tendência.
Ela percebe que as organizações estão utilizando uma variedade de soluções de IA, buscando flexibilidade. Esta abordagem mostra que a escolha de um único fornecedor de IA está sendo deixada de lado. As empresas preferem agora uma estratégia que combine vários modelos.
Estratégia de Gateway Multi-LLM
A IBM está ciente de que a escolha de um único provedor de modelos de linguagem grandes (LLMs) não é a realidade do mercado. Pelo contrário, clientes corporativos estão abandonando cada vez mais estratégias de IA com um único fornecedor. Eles preferem abordagens que utilizam múltiplos modelos, combinando LLMs específicos com casos de uso direcionados. A IBM se posiciona como uma central de controle para as cargas de trabalho de IA, não apenas uma concorrente de modelos base.
Armand Ruiz, vice-presidente de Plataforma de IA da IBM, explicou que os clientes usam “tudo” o que têm à disposição. Para tarefas de codificação, por exemplo, preferem a Anthropic. Já para raciocínio, gostam de o3. Para personalização de LLM, com dados próprios e ajuste fino, escolhem a série Granite da IBM, ou modelos como Mistral e até mesmo Llama. É tudo uma questão de alinhar o LLM certo ao caso de uso correto, e a IBM ajuda com recomendações.
A resposta da IBM a essa realidade do mercado é um novo gateway de modelos. Ele oferece às empresas uma única API para alternar entre diferentes LLMs. Isso permite manter a observabilidade e a governança em todas as implantações. É uma ferramenta que simplifica a gestão da variedade de modelos de IA utilizados.
Leia também:
A arquitetura técnica do gateway permite que os clientes rodem modelos de código aberto em sua própria infraestrutura de inferência. Essa opção é ideal para casos de uso mais sensíveis. Ao mesmo tempo, é possível acessar APIs públicas, como as da AWS Bedrock ou Google Cloud’s Gemini, para aplicações menos críticas.
Protocolos de Orquestração de Agentes
Além da gestão de múltiplos modelos, a IBM está focada em resolver o desafio da comunicação entre agentes por meio de protocolos abertos. A empresa desenvolveu o ACP (Agent Communication Protocol) e o contribuiu para a Linux Foundation. Este é um esforço que compete com o protocolo A2A (Agent2Agent) do Google, que também foi recentemente entregue à Linux Foundation.
Ruiz mencionou que ambos os protocolos visam facilitar a comunicação entre agentes e diminuir o trabalho de desenvolvimento personalizado. A expectativa é que, com o tempo, as abordagens distintas converjam. Atualmente, as diferenças entre A2A e ACP são principalmente técnicas. Para saber mais sobre como a tecnologia pode ajudar na segurança, confira sobre segurança de AI: como a gestão de identidades reforça a proteção.
Os protocolos de orquestração de agentes oferecem maneiras padronizadas para sistemas de IA interagirem. Essa interação ocorre entre diferentes plataformas e fornecedores. A importância técnica disso se torna clara quando consideramos a escala empresarial.
Alguns clientes da IBM já têm mais de 100 agentes em programas-piloto. Sem protocolos de comunicação padronizados, cada interação entre agentes exigiria um desenvolvimento personalizado. Isso criaria uma carga de integração insustentável. Controle de documentos na IA aumenta segurança e conformidade também é um ponto chave.
A IA Transforma Fluxos de Trabalho e o Modo de Atuação
No ponto de vista de Ruiz, a IA precisa ir além dos simples chatbots para realmente impactar as empresas. “Se você está apenas fazendo chatbots, ou tentando apenas economizar custos com IA, você não está fazendo IA de verdade”, disse ele. Para Ruiz, a IA deve ser sobre transformar completamente o fluxo de trabalho e a maneira como o trabalho é feito.
A diferença entre a implementação e a transformação da IA está na profundidade da integração da tecnologia. Ela deve se fundir aos processos de negócios já existentes. Um exemplo da IBM, em seu próprio setor de RH, ilustra essa mudança: em vez de os funcionários perguntarem a chatbots sobre informações de RH, agentes especializados agora lidam com perguntas de rotina sobre salários, contratações e promoções. Eles encaminham automaticamente para sistemas apropriados e só escalam para humanos quando necessário.
Ruiz compartilhou que costumava passar muito tempo conversando com parceiros de RH. Agora, a maior parte dessas interações é feita com um agente de RH. Dependendo da pergunta, seja sobre compensação, separação de funcionários, contratação ou promoção, esses agentes se conectam a diferentes sistemas internos de RH. Cada um deles atua como um agente separado, demonstrando uma profunda automação do fluxo de trabalho.
Isso significa que a arquitetura está mudando: não é mais apenas a interação humano-computador, mas a automação do fluxo de trabalho mediada por computador. Em vez de os funcionários aprenderem a usar ferramentas de IA, a IA aprende a executar processos de negócios completos de ponta a ponta. Isso tem uma implicação técnica clara: as empresas precisam ir além das integrações via API e da engenharia de prompts. É preciso uma instrumentação profunda de processos que permita aos agentes de IA executar fluxos de trabalho de várias etapas de forma autônoma. Para ver mais sobre isso, veja Meta usará IA para resumir suas mensagens no WhatsApp e Notificação de vídeo gerada por IA melhora monitoramento residencial.
Direções Estratégicas para o Investimento em IA Corporativa
Os dados de implantação da IBM mostram algumas mudanças importantes para a estratégia de IA nas empresas. Primeiro, é essencial abandonar a ideia de que chatbots são o ponto de partida. As organizações devem identificar fluxos de trabalho completos para a transformação, em vez de apenas adicionar interfaces de conversação aos sistemas atuais. O objetivo é eliminar etapas humanas, não apenas melhorar a interação humano-computador.
Em segundo lugar, a arquitetura deve ser pensada para ter flexibilidade entre múltiplos modelos. Em vez de se comprometer com um único fornecedor de IA, as empresas precisam de plataformas de integração que permitam alternar entre modelos. Essa mudança se baseia nas necessidades de cada caso de uso, mantendo os padrões de governança. Nova abordagem na infraestrutura de IA melhora processamento de dados na saúde, por exemplo.
Por fim, é crucial investir em padrões de comunicação. As organizações devem priorizar ferramentas de IA que suportem protocolos emergentes, como MCP, ACP e A2A. Isso evita abordagens de integração proprietárias que podem gerar dependência de um único fornecedor. Ruiz enfatiza que há muito a ser construído e que todos, especialmente líderes de negócios, precisam aprender sobre IA e se tornarem líderes focados em IA.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.