Como LLMs especializados estão transformando o papel estratégico da IA generativa na TI

Descubra como LLMs de propósito específico estão revolucionando a automação e a tomada de decisões na área de TI.
Atualizado há 2 dias
Como LLMs especializados estão transformando o papel estratégico da IA generativa na TI
LLMs específicos transformam automação e decisões na tecnologia da informação. (Imagem/Reprodução: Aibusiness)
Resumo da notícia
    • A combinação de RAG e LLMs está elevando o papel estratégico da IA generativa na TI.
    • Você pode se beneficiar de soluções mais eficientes e precisas em automação e análise de dados.
    • Profissionais de TI ganham tempo para inovação, enquanto a IA assume tarefas especializadas.
    • A técnica RAG reduz riscos como alucinações e vazamento de dados em LLMs.
CONTINUA DEPOIS DA PUBLICIDADE

À medida que 2025 avança, a combinação de Retrieval-Augmented Generation (RAG) e Large Language Models (LLMs) está impulsionando um papel mais estratégico para a inteligência artificial generativa. Essa união está levando a uma mudança significativa na forma como as organizações de TI abordam a automação e a tomada de decisões, permitindo que a IA generativa desempenhe um papel mais especializado e eficiente nas áreas operacionais.

LLMs para AIOps: Otimizando a IA Generativa na TI

Uma das tendências mais importantes que emergem na área de TI é a transição da IA generativa da síntese de dados para o conhecimento especializado em domínios específicos dentro do AIOps (Inteligência Artificial para Operações de TI). Essa mudança é motivada pela combinação de codificação de expertise, Retrieval-Augmented Generation e LLMs para AIOps, que juntos oferecem um novo patamar de eficiência e precisão.

Com as implementações de LLMs de propósito específico, é possível modelar de forma eficaz a tomada de decisões de especialistas em diversas áreas de processos de ITOM (Gerenciamento de Operações de TI) e garantia de serviços. Assim, observa-se um ponto de virada nas organizações de TI, onde a IA generativa assume um papel mais estratégico e especializado. Essa especialização permite que os profissionais de TI liberem tempo para se dedicarem à inovação e a outras tarefas de alto valor.

Por exemplo, um LLM pode sintetizar ações de correção documentadas, capturadas em elementos semânticos de um ticket de incidente. Quando um problema recorrente é observado várias vezes no ambiente, cada um desses tickets anteriores contém informações úteis que podem ser relevantes para o engenheiro responsável pela instância atual. O LLM consegue sintetizar todo o conhecimento histórico e fornecer um curso de ação recomendado de forma concisa. De maneira similar, um LLM pode fornecer informações automatizadas de análise da causa raiz para isolar a causa subjacente.

Desafios Comuns no Uso de LLMs em Operações de TI

Líderes de TI precisam estar cientes dos desafios que existem ao usar LLMs em contextos de operações de TI e de rede. Abaixo estão quatro problemas comuns que merecem atenção:

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

  1. O risco de alucinações em LLMs: As alucinações ocorrem quando os modelos de LLM produzem informações imprecisas, irrelevantes ou sem sentido. Essas alucinações podem acontecer quando os dados de treinamento são muito limitados ou muito amplos, considerando o contexto de um prompt, ou se houver falhas nesses dados. As alucinações podem minar a confiança nas organizações que esperam implementar casos de uso de alto impacto.
  2. Riscos de segurança e dados confidenciais: Incorporar dados confidenciais nos dados de treinamento dos LLMs pode diminuir a probabilidade de alucinações, mas pode gerar riscos de segurança ao implementar o LLM em vários casos de uso. LLMs treinados com dados confidenciais podem não conseguir identificar prontamente quando esses dados estão incluídos em uma resposta a um determinado prompt.
  3. O custo do treinamento contínuo de LLMs: Treinar LLMs com dados operacionais e corporativos exige hardware caro e conhecimento especializado. À medida que os negócios ou a tecnologia mudam, os LLMs também precisam ser atualizados, aumentando os custos para a organização.
  4. Complexidades impactam a consistência: Por definição, os LLMs generalizam as inferências em um grande volume de dados. Criar LLMs com o propósito adicional de codificar conhecimento complexo e especializado é desafiador e pode não fornecer resultados consistentes e confiáveis.

Superando Desafios com Técnicas de RAG

A adição de técnicas de Retrieval Augmented Generation (RAG) a uma implementação de LLM equilibra a necessidade de sintetizar respostas direcionadas com a compreensão contextual para obter o melhor dos dois mundos.

RAG, uma estrutura de IA que aprimora os LLMs combinando-os com a recuperação de informações, permite que os LLMs gerem respostas mais precisas e contextualmente relevantes. Ao consultar o LLM com uma arquitetura RAG subjacente, o sistema consegue enquadrar a questão com entendimento contextual e vincular as respostas com conhecimento especializado subjacente representado nas informações codificadas no banco de dados vetorial do RAG.

Os RAGs podem codificar conhecimento de fontes de dados públicos, como bases de conhecimento específicas de fornecedores, e fontes de dados internos, como runbooks e artigos de conhecimento operacional. Além disso, os RAGs podem codificar conhecimento gerado por outros modelos de machine learning e IA para fornecer uma compreensão geral da estrutura e função subjacentes da rede e dos aplicativos e serviços upstream.

Dessa forma, a implementação de um LLM com uma arquitetura RAG de propósito específico pode fornecer resultados mais precisos em diversos casos de uso. Além disso, a arquitetura evita muitos dos desafios do uso de LLMs isoladamente. Por exemplo, os LLMs são menos propensos a alucinar porque recebem o contexto necessário para entender cada questão precisamente e têm conhecimento especializado da rede subjacente codificado no banco de dados vetorial para informar sua resposta. Os controles de acesso podem ser colocados nas informações codificadas no banco de dados vetorial para garantir que o acesso seja limitado aos usuários e casos de uso apropriados, minimizando a chance de vazamento de informações.

Os RAGs, junto com os LLMs, também conseguem entender a complexidade da rede subjacente, o que minimiza o custo de treinamento e manutenção exigido para implementações especializadas de LLM. Assim, à medida que 2025 avança, RAGs e LLMs unem forças para impulsionar um papel mais estratégico para a IA generativa, capacitando os líderes a descobrir novas formas de elevar a engenhosidade humana na TI e impactar positivamente toda a empresa. E, por falar em empresas, você sabe como a IBM adquire consultoria de IA Hakkoda para fortalecer seus serviços de dados?

CONTINUA DEPOIS DA PUBLICIDADE

A busca por soluções de LLMs para AIOps também passa pela escolha de um hardware adequado. Por isso, vale a pena conferir como a receita de data center da NVIDIA pode chegar a $42 bilhões no trimestre, segundo um relatório.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via AI Business

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.